Impacts environnementaux : focus sur les fenêtres

Dans cette page, nous proposons une comparaison des impacts environnementaux des parois reprises dans la bibliothèque de TOTEM durant l’été 2023, afin d’identifier de bonnes pratiques en termes de choix constructifs. En particulier, nous nous intéressons aux toitures.

Recommandations avant comparaison:

 

Ca change vite

Les bibliothèques TOTEM s’enrichissent régulièrement, les EPD (déclaration environnementale de produit)  se multiplient… L’exercice fait ici est donc vrai pour en un temps t, et l’analyse peut changer rapidement. Cependant, puisqu’il ne s’agit pas de trouver un « meilleur élève », mais d’identifier des tendances, l’exercice vaut la peine.

Travailler à l’échelle de l’élément

Totem préconise la comparaison à partir du niveau hiérarchique correspondant aux éléments, de façon à considérer matériaux mis en œuvre ! En effet, si l’on comparait par exemple deux matériaux non mis en œuvre (deux isolants par exemple), on négligerait l’impact des matériaux additionnels nécessaires à celle-ci (fixation, mortier éventuel,…), et l’on pourrait mal estimer la durée de vie des matériaux, qui elle aussi peut dépendre des conditions de mise en œuvre .

Nous travaillons donc ici sur base des bibliothèques d’éléments prédéfinis dans TOTEM (planchers, murs, toitures,…). Il s’agit donc de bien de discuter de complexes multicouches, et non de matériaux individuellement.

Peut-on comparer des éléments n’ayant pas la même valeur U ?

L’impact environnemental de l’énergie consommée durant la phase d’utilisation de l’élément est pris en compte dans le score environnemental global. Une telle comparaison est donc possible, pour autant que l’on s’en tienne à une comparaison de l’impact sur l’ensemble des étapes du cycle de vie. Cela n’aurait évidemment aucun sens de comparer uniquement la phase de fabrication de parois n’ayant pas la même performance thermique.

Précisons cependant que la méthode de calcul utilisée pour l’évaluation de l’énergie consommée « in use » est discutable car relativement simpliste (méthode des degrés jours), et que l’impact de cette énergie n’est pas le même selon le type de système énergétique considérée (chauffage gaz ? pompe à chaleur ?). Les comparaisons qui sont faite sont donc à nuancer et contextualiser.

Peut-on comparer des éléments n’ayant pas la même durée de vie ?

Si l’on travaille à l’échelle des éléments, TOTEM uniformise les durées de vie à 60 ans, en intégrant un rythme de remplacement des éléments qui ne vivraient pas autant. La comparaison est donc possible.

Si vous voulez en savoir plus sur les hypothèses de calcul de TOTEM, dont la durée de vie, nous vous recommandons la video ci-dessous :

Peut-on comparer des élément n’ayant pas le même statut (Neuf ><Réno) ?

Oui et non. Il est intéressant de regrouper ces deux type d’éléments, pour mettre en évidence l’intérêt relative de la conservation d’éléments ou de composants existants. Mais une fois cela établi, c’est la comparaison d’éléments similaires qui a le plus d’intérêt pratique.


Vue générale sur les fenêtres

Le graphique ci-dessous représente l’ensemble des fenêtres répertoriés dans la bibliothèque TOTEM. En abscisse sont reprises les valeurs U (W/m2K) et en ordonnée le score agrégé de performance environnementale en millipoints par unité fonctionnelle.

Notons d’abord que plusieurs de ces fenêtres ne respectent pas l’exigence minimale U=< 1.5 W/m²K. Si l’on se concentre sur les autres, on remarque ne assez grande variabilité de score environnemental, puisque celui-ci varie entre 43 et 74 mPt/UF.

Comparaison d’éléments : les fenêtres prédéfinies de la bibliothèque TOTEM

Quelles tendances identifier ?

  • Premièrement, les fenêtres avec châssis bois présentent le meilleur score environnemental, que ce soit en simple ou, encore mieux, en triple vitrage. Le bois-alu arrive deuxième, et le PVC troisième. Le châssis aluminium ferme la marche.
  • Deuxièmement, le passage au triple vitrage permet systématiquement d’améliorer le score environnemental global, à matériau de châssis équivalent. L’ordre de grandeur de ce bénéfice est cependant inférieur à celui d’un changement de matériau de châssis. Par exemple, passer d’un châssis aluminium double vitrage à un aluminium triple vitrage vous fera gagner une dizaine de millipoints, alors que le passage vers un châssis bois double vitrage vous en fait gagner près de 20.

Attention cependant, ce chapitre de la bibliothèque TOTEM ne contient que peu de points. L’analyse sera donc à refaire lorsque cette bibliothèque se sera enrichie.


Vers une trop grande complexité de vitrages ?

Pour compléter l’analyse générale ci-dessous, nous pouvons nous trouver vers les recherche du dr. Jean Souviron((Jean Souviron. Glazing Beyond Energy Efficiency: An Environmental Analysis of the Socio-Technical Trajectory of Architectural Glass. Architecture, space management. Université Libre de Bruxelles (U.L.B.), Belgium, 2022. English.)), dont la thèse de doctorat porte sur l’analyse de cycle de vie des vitrages. En particulier, il analyse la tendance à la complexification des technologies de vitrages ces dernières décennies (doublement puis triplement des feuilles de verre, ajout de couches basses émissivité, remplissages gazeux, etc.) et s’interroge sur le bilan environnemental de ces vitrages dans un scénario de rénovation énergétique de bureaux : est-ce que les bénéfices des ces technologies lors de l’utilisation du bâtiment surpassent le coût environnemental d’une production plus complexe ? Ceci en se basant sur une analyse détaillée des cycles de production et des potentiels de récupérations et recyclage des vitrages.

Pour vous la faire courte, voici ses principales conclusions :

  • le meilleur vitrage est … celui qu’on ne produit pas. avant de se questionner sur quel vitrage pour remplacer ceux en fin de vie, il convient de se pencher sur la nécessité de ces vitrages, dnas une logique de réduction globale des quantités de matières utilisées. A noter cependant qu’il centre sont travail sur la rénovation des murs rideaux, pour lesquels effectivement la quantité de verre peut être mise en question. La situation est différente pour une architecture de fenêtres.

The most significant (impact) would be to minimise the production of flat glass due to the energy-intensive nature of float plants and their dependence on fossil fuels.

  • l’impact environnemental des vitrages est grevé par une grande difficulté à recycler les produits développés aujourd’hui, principalement du fait des difficultés à dissocier les composants des complexes de vitrage.

This means that the design of insulating glass units itself should be revised so that they provide sufficient acoustic and thermal insulation, while the materials from which they are made can be easily separated.

  • Sur la valeur ajoutée des vitrages « complexes », il pointe l’énorme incertitude qui entoure les analyses de cycle de vie actuelles, dans un contexte climatique changeant, un mix énergétique en transition, une variété d’hypothèses d’utilisation et de gains internes ou de systèmes HVAC et, potentiellement, une remise en question des ambiances intérieures à maintenir dans les bâtiments à l’avenir.

If the hypotheses and the definition of the life cycle scenarios can significantly change the conclusions of an LCA, how can the uncertainties related to the socio-technical trajectory of buildings be better taken into account?

  • Pour en venir au choix des complexes de vitrage dans une situation donnée, ses résultats indiquent une … équivalence de consommations énergétique globale pour les simples (sg), double (dg) et triples vitrages (tg). Signe que les vraies pistes de réduction d’impact ne sont peut-être pas dans un choix de technologie.
Figure 4.29 de la thèse du dr. Jean Souviron, montrant la consommation d’énergie totale sur le cycle de vie de différentes solutions de vitrages simple (sg), double (dg) ou triple (tg), pour une application de bureau et différentes solutions d’ombrage

Incohérent avec ce qui précède ? Non, nous ne le pensons pas. L’incertitude des analyses de cycle de vie est aujourd’hui encore grande, tout le monde le reconnais. Des résultats non convergents sont donc « attendus ». A ce stade des connaissances, les ACV peuvent donner des indications, pas des certitudes. Et dans le cas présent, concluons qu’aucune tendance claire en fonction de l’une ou l’autre technologie ne se dégage au niveau des vitrages « classiques » (résultats du dr. Souviron) et qu’au niveau des châssis, le bois semble tirer son épingle du jeu (résultats TOTEM).

Cet article a été révisé pour la dernière fois en été 2023. Les données et analyses présentées reflètent l’état des connaissances et des ressources disponibles à ce moment-là. Le domaine de la construction et de l’évaluation environnementale évoluant rapidement, nous encourageons nos lecteurs à vérifier si des mises à jour ou des compléments d’information ont été publiés depuis.

Impacts environnementaux : focus sur les toitures

Dans cette page, nous proposons une comparaison des impacts environnementaux des parois reprises dans la bibliothèque de TOTEM durant l’été 2023, afin d’identifier de bonnes pratiques en termes de choix constructifs. En particulier, nous nous intéressons aux toitures.

Recommandations avant comparaison

Ca change vite

Les bibliothèques TOTEM s’enrichissent régulièrement, les EPD (déclaration environnementale de produit)  se multiplient… L’exercice fait ici est donc vrai pour en un temps t, et l’analyse peut changer rapidement. Cependant, puisqu’il ne s’agit pas de trouver un « meilleur élève », mais d’identifier des tendances, l’exercice vaut la peine.

Travailler à l’échelle de l’élément

Totem préconise la comparaison à partir du niveau hiérarchique correspondant aux éléments, de façon à considérer matériaux mis en œuvre ! En effet, si l’on comparait par exemple deux matériaux non mis en œuvre (deux isolants par exemple), on négligerait l’impact des matériaux additionnels nécessaires à celle-ci (fixation, mortier éventuel,…), et l’on pourrait mal estimer la durée de vie des matériaux, qui elle aussi peut dépendre des conditions de mise en œuvre .

Nous travaillons donc ici sur base des bibliothèques d’éléments prédéfinis dans TOTEM (planchers, murs, toitures,…). Il s’agit donc de bien de discuter de complexes multicouches, et non de matériaux individuellement.

Peut-on comparer des éléments n’ayant pas la même valeur U ?

L’impact environnemental de l’énergie consommée durant la phase d’utilisation de l’élément est pris en compte dans le score environnemental global. Une telle comparaison est donc possible, pour autant que l’on s’en tienne à une comparaison de l’impact sur l’ensemble des étapes du cycle de vie. Cela n’aurait évidemment aucun sens de comparer uniquement la phase de fabrication de parois n’ayant pas la même performance thermique.

Précisons cependant que la méthode de calcul utilisée pour l’évaluation de l’énergie consommée « in use » est discutable car relativement simpliste (méthode des degrés jours), et que l’impact de cette énergie n’est pas le même selon le type de système énergétique considérée (chauffage gaz ? pompe à chaleur ?). Les comparaisons qui sont faite sont donc à nuancer et contextualiser.

Peut-on comparer des éléments n’ayant pas la même durée de vie ?

Si l’on travaille à l’échelle des éléments, TOTEM uniformise les durées de vie à 60 ans, en intégrant un rythme de remplacement des éléments qui ne vivraient pas autant. La comparaison est donc possible.

Si vous voulez en savoir plus sur les hypothèses de calcul de TOTEM, dont la durée de vie, nous vous recommandons la video ci-dessous :

Peut-on comparer des élément n’ayant pas le même statut (Neuf ><Réno) ?

Oui et non. Il est intéressant de regrouper ces deux type d’éléments, pour mettre en évidence l’intérêt relative de la conservation d’éléments ou de composants existants. Mais une fois cela établi, c’est la comparaison d’éléments similaires qui a le plus d’intérêt pratique.


Vue générale sur les toitures plates

Le graphique ci-dessous représente l’ensemble des toitures plates répertoriés dans la bibliothèque TOTEM. En abscisse sont reprises les valeurs U (W/m2K) et en ordonnée le score agrégé de performance environnementale en millipoints par unité fonctionnelle de chaque complexe de paroi.

Avant de commencer, pointons qu’un élément en béton cellulaire affichant un score dépassant les 250 mPt/UF a été supprimé du graphique. Alors que tous les autres éléments restent sous la barre des 100 mPt / UF, celui-là venait écraser les résultat et complexifier la lecture.

Cet élément (ID ET969) a été fortement impacté par une récente mise à jour, qui l’a fait passer 13,95 mPt/UF à 256,84 mPt/UF. Il est donc passé du « podium » à « l’élimination ».

Comparaison d’éléments : les toitures plates prédéfinies de la bibliothèque TOTEM

Qu’observons nous ?

  • Les éléments de charpente en bois scorent généralement mieux que les charpente en acier ou en béton. Sachant que le bois a cette capacité de stocker du CO2 pendant une partie de son cycle de vie, ce meilleur score par rapport à d’autre éléments structurels en maçonnerie ou métallique était attendu. On ne voit pas ici les nuances qu’il a fallu apporter dans l’analyse des murs extérieures à ossature bois.
  • Indépendamment du cas exceptionnel pointé plus haut, les éléments préfabriqués en béton (Dalle TT ou poutres en béton précontraint) affichent des scores variables dont certains voisins de bons profilés de charpente en bois. Par exemple, l’élément ET270 « TP_Dalle TT_Béton précontraint_BIB_Neuf_01 » affiche un score respectable de 15,4 mPt/UF, très proche de l’élément ET286 « TP_Solives et arbalétriers_Bois résineux_BIB_Neuf_04 » pour un même U= 0.23 W/m²K.

Podium des toitures plates

Voici les trois compositions de paroi présentant le meilleur score environnemental parmi les toitures plates :

  • Une toiture avec profilés FIJ et flocons de cellulose (référence TOTEM : TP_Profilés FJI 350_Bois lamellé_BIB_Neuf_01, ID  ET275) : U=0.13 W/m²K pour 9,9 mPt/UF et 28cm
C1 : Feuille d’étanchéité en EPDM ; C2 : Panneau de laine de roche (60 mm) ; C3 : Feuille d’étanchéité PP – LDPE ; C4 : Panneau OSB vissé ; C5 : Profilés en bois résineux ; C6 : couche composée : Profilés FJI 350 en bois lamellé – OSB (5%), combiné à des flocons de cellulose (95%) (240 mm) ; C7 : Lattes en bois résineux ; C8 : Panneau en plâtre ; C9 : Peinture acrylique
  • Une toiture avec solives en bois résineux et flocons de cellulose (référence TOTEM TP_Solives bois résineux_BIB_Neuf_02, (ID  ET273) : U=0.17 W/m² K pour 11,42 mPt/UF et 39 cm
C1 : Feuille d’étanchéité en EPDM ; C2 : Panneau de laine de roche (60 mm) ; C3 : Feuille d’étanchéité PP – LDPE ; C4 : Panneau OSB vissé ; C5 : Profilés en bois résineux ; C6 : couche composée : solives en bois résineux (22%), combiné à flocons de cellulose (78%) (225 mm) ; C7 : Lattes en Bois résineux ; C8 : Panneau en plâtre ; C9 : Peinture acrylique
  • Une variante de la précédente avec isolation en laine de roche uniquement par au-dessus (référence TOTEM TP_Solives bois résineux_BIB_Neuf_04, ID  ET286) : U=0.23 W/m²K pour 14,09 mPt/UF et 46cm

 

C1 : Feuille d’étanchéité EPDM ; C2 : Panneau de laine de roche (130 mm) ; C3 : Feuille d’étanchéité PP – LDPE ; C4 : Panneau OSB vissé ; C5 : Profilés en bois résineux ; C6 : Solives en bois résineux ; C7 : Lattes en bois résineux ; C8 : Panneau en fibre-gypse ; C9 : Papier peint

 

Le trio de tête est donc constitué de parois bois, et deux d’entre elles proposent une isolation en flocons de cellulose. Mais il nous semble nécessaire de mentionner que le 4ème meilleur score est atteint par une paroi béton (Référence TOTEM : TP_Dalle TT_béton précontraint_BIB_Neuf_01,  ID  ET273) : U=0.24 W/m²K pour 15,4 mPt/UF et 53cm:

C1 : Feuille d’étanchéité EPDM ; C2 : Panneau PUR (100 mm) ; C3 : Feuille d’étanchéité en bitume ; C4 : Enduit épais en béton maigre ; C5 : Béton coulé sur site ; C6 : Dalle TT en béton précontraint ; C7 : Enduit épais en plâtre ; C8 : Peinture acrylique

 


Vue générale sur les toitures en pente

Comparaison d’éléments : les toitures en pente prédéfinies de la bibliothèque TOTEM

On retrouve ici des éléments d’analyse similaires à ceux des murs extérieurs :

  • Il n’y a pas de corrélation évidente entre niveau U et score environnemental. Si les toitures « passives » (U<0,15W/m2K) ont de bons résultats environnementaux, on trouve également des parois à U=0,15W/m2K dont le score est très haut.
  • Les ossatures métalliques sont globalement à exclure.
  • Les ossatures bois présentent une grande variété de scores, signe que le mode constructif ne fait pas tout.
  • Plus spécifique aux toitures : les fermes semblent plus intéressantes que les fermettes.

Podium des toitures en pente

Voici les trois compositions de paroi présentant le meilleur score environnemental parmi les toitures inclinées :

  • Une toiture « passive » avec profilés FJI et laine de roche (référence TOTEM TI_Fermes en forme de A_Bois résineux_BIB_Neuf_02, ID  ET298) : U=0.11 W/m²K pour 8.54 mPt/UF et 68cm
C1 : Tuiles céramique non émaillée ; C2 et C3 : Lattes en bois résineux ; C4 : Panneau en fibre de bois ; C5 : Couche composée : profilés FJI en bois lamellé (5%), combiné à un matelas de laine de roche (95%) (360 mm) ; C6 : Poutres en bois résineux ; C7 : Feuille d’étanchéité PP – LPDE ; C8 : Lattes en bois résineux ; C9 : Panneau en plâtre ; C10 : Peinture acrylique
  • Une toiture avec profilés FJI et flocons de cellulose (référence TOTEM TI_Fermes en forme de A_Bois résineux_BIB_Neuf_03, ID  ET299) : U=0.17 W/m²K pour 9.23 mPt/UF et 56 cm
C1 : Tuiles céramique non émaillée ; C2 et C3 : Lattes en bois résineux ; C4 : Panneau en fibre de bois ; C5 : Couche composée : profilés FJI en bois lamellé (5%), combiné à un matelas de laine de roche (95%) (240 mm) ; C6 : Poutres en bois résineux ; C7 : Feuille d’étanchéité PP – LPDE ; C8 : Lattes en bois résineux ; C9 : Panneau en plâtre ; C10 : Peinture acrylique
  • Une toiture avec profilés FJI et laine de verre (référence TOTEM TI_Pannes bois résineux_BIB_Neuf_15, ID  ET323) : U=0.24 W/m²K pour 10.24 mPt/UF et 48 cm
C1 : Tuiles céramique non émaillée ; C2: Lattes en bois résineux ; C3 : Feuille d’étanchéité PE ; C4 : Panneau de toiture ouvert : 12mm particules + 170mm laine de verre ; C5 : Papier peint ; C6 : Poutres en bois résineux

Ces parois sont assez proches dans leur nature, la principale différence étant le choix du matériau isolant, avec le matelas de laine de roche (360mm) en pole position, devant la cellulose (240mm) et la laine de verre (170mm). Notons que les valeurs U atteintes ne sont pas identiques, la meilleur paroi étant aussi la plus isolante (U=0,11 W/m2K).

Cet article a été révisé pour la dernière fois en été 2023. Les données et analyses présentées reflètent l’état des connaissances et des ressources disponibles à ce moment-là. Le domaine de la construction et de l’évaluation environnementale évoluant rapidement, nous encourageons nos lecteurs à vérifier si des mises à jour ou des compléments d’information ont été publiés depuis.

Impacts environnementaux : focus sur les murs extérieurs

Dans cette page, nous proposons une comparaison des impacts environnementaux des parois reprises dans la bibliothèque de TOTEM durant l’été 2023, afin d’identifier de bonnes pratiques en termes de choix constructifs. En particulier, nous nous intéressons aux murs extérieurs.

Recommandations avant comparaison

Ca change vite

Les bibliothèques TOTEM s’enrichissent régulièrement, les EPD (déclaration environnementale de produit) se multiplient… L’exercice fait ici est donc vrai pour en un temps t, et l’analyse peut changer rapidement. Cependant, puisqu’il ne s’agit pas de trouver un « meilleur élève », mais d’identifier des tendances, l’exercice vaut la peine.

Travailler à l’échelle de l’élément

Totem préconise la comparaison à partir du niveau hiérarchique correspondant aux éléments, de façon à considérer matériaux mis en œuvre ! En effet, si l’on comparait par exemple deux matériaux non mis en œuvre (deux isolants par exemple), on négligerait l’impact des matériaux additionnels nécessaires à celle-ci (fixation, mortier éventuel,…), et l’on pourrait mal estimer la durée de vie des matériaux, qui elle aussi peut dépendre des conditions de mise en œuvre .

Nous travaillons donc ici sur base des bibliothèques d’éléments prédéfinis dans TOTEM (planchers, murs, toitures,…). Il s’agit donc de bien de discuter de complexes multicouches, et non de matériaux individuellement.

Peut-on comparer des éléments n’ayant pas la même valeur U ?

L’impact environnemental de l’énergie consommée durant la phase d’utilisation de l’élément est pris en compte dans le score environnemental global. Une telle comparaison est donc possible, pour autant que l’on s’en tienne à une comparaison de l’impact sur l’ensemble des étapes du cycle de vie. Cela n’aurait évidemment aucun sens de comparer uniquement la phase de fabrication de parois n’ayant pas la même performance thermique.

Précisons cependant que la méthode de calcul utilisée pour l’évaluation de l’énergie consommée « in use » est discutable car relativement simpliste (méthode des degrés jours), et que l’impact de cette énergie n’est pas le même selon le type de système énergétique considérée (chauffage gaz ? pompe à chaleur ?). Les comparaisons qui sont faite sont donc à nuancer et contextualiser.

Peut-on comparer des éléments n’ayant pas la même durée de vie ?

Si l’on travaille à l’échelle des éléments, TOTEM uniformise les durées de vie à 60 ans, en intégrant un rythme de remplacement des éléments qui ne vivraient pas autant. La comparaison est donc possible.

Si vous voulez en savoir plus sur les hypothèses de calcul de TOTEM, dont la durée de vie, nous vous recommandons la video ci-dessous :

Peut-on comparer des élément n’ayant pas le même statut (Neuf ><Réno) ?

Oui et non. Il est intéressant de regrouper ces deux type d’éléments, pour mettre en évidence l’intérêt relative de la conservation d’éléments ou de composants existants. Mais une fois cela établi, c’est la comparaison d’éléments similaires qui a le plus d’intérêt pratique.


Vue générale

Le graphique ci-dessous représente l’ensemble des murs extérieures (79) répertoriés dans la bibliothèque TOTEM. En abscisse sont reprises les valeurs U (W/m2K) et en ordonnée le score agrégé de performance environnementale en millipoints par unité fonctionnelle de chaque complexe de paroi.

Les différents types de murs extérieurs sont regroupés selon le matériau de l’élément porteur du mur. Par exemple, on retrouve un groupe (vert) d’ossatures bois, un groupe (rouge) de mur en maçonnerie composé de briques isolantes, un groupe (bleu) de mur dont l’ossature est de l’acier, … Les points violets – de plus petite taille que les autres points colorés – représentent les complexes de parois de type RENO. Il s’agit dans ce cas-ci de murs extérieurs en briques.

Comparaison d’éléments : les 79 murs extérieurs prédéfinis de la bibliothèque TOTEM

Que peut-on observer en première lecture ?

  • Presque tous les murs issus de la bibliothèque TOTEM ont des valeurs U réglementaires ou améliorées. La bibliothèque est donc composée d’éléments prédéfinis représentatifs de parois neuves ou lourdement rénovées mais non représentatives du bâti « à rénover ». Pour le devenir, ces éléments prédéfinis sont modifiables par l’utilisateur lorsque ceux-ci sont mobilisés au sein d’un projet. En consultation (en lecture seule), il ne sont pas modifiables. La volonté de Totem est d’étoffer des éléments prédéfinis « reno » présents dans la bibliothèque, mais à l’heure actuelle ces éléments sont encore marginaux.
  • Les scores environnementaux sont assez dispersées mais on pressent l’émergence de certains clusters. Les éléments en ossature acier (points bleus) apparaissent d’emblée comme les « moins bons élèves » tandis que les points représentant des éléments en lamellé-collé, des éléments en briques, des éléments en ossature bois, des éléments de maçonnerie constitués de blocs creux s’agglutinent dans le « bon peloton ». Ce peloton correspond aux points qui tendent à rejoindre le bas du graphique, entre 10 et 20 mPt/UF.
  • Les éléments situés vers le coin inférieur gauche du graphique conjuguent un faible impact environnemental (score bas en mPt) ainsi qu’une petite valeur U (bonne isolation). On voit que les parois les plus isolées ne sont pas nécessairement les moins impactantes, sans pour autant moins bien « performer » que les autres, signe que la question de l’impact environnemental ne se limite pas à une question d’isolation : les autres éléments de la paroi ont un rôle important dans la discussion.

Il ne faut néanmoins pas aller trop vite sur l’idée de clusters. Si certains groupes de parois semblent se distinguer par des impacts relativement faibles (lamellé-collé, briques), on voit bien que tous les éléments d’une même sous-catégorie ne scorent pas de façon homogène. Comme l’atteste par exemple cet élément en lamellé-collé qui se détache du « bon peloton » et affiche un score plus impactant.


Zoom sur les parois PEB conformes

Intéressons-nous maintenant aux éléments présentant une bonne valeur U proche de la réglementation actuelle ( < ou égal 0,24 W/m²K).

Le graphique ci-dessous présente un zoom sur quelques « brochettes » d’éléments tirées de la figure précédente, constituées d’empilements d’éléments autour des valeurs U suivantes: 0.22 W/m²K, 0.23 W/m²K et 0.24 W/m²K.

Comparaison de murs extérieurs présentant un U proche de la réglementation en vigueur.

On constate d’emblée un empilement hétérogène des valeurs qui ne permet pas de tirer de grandes généralité. Des supposés « bons élèves » peuvent présenter un score très haut. On s’attendrais par exemple à ce que toutes les parois « bois » aient un score en mPt/UF bas, mais ce n’est pas le cas.

Il faut regarder en détail afin d’identifier dans leur groupe respectif les parois qui se distinguent de façon trop impactantes. Par exemple, dans le groupe des éléments en ossature bois, celles qui ont un score haut le doivent à chaque fois à une des couches du complexe de paroi (une isolation en laine de mouton, un bardage plastique ou des profilés alu pour plaques de revêtement en céramique émaillée). Une première conclusion s’impose: il ne suffit pas de définir l’élément structurel de la paroi pour atteindre un faible score, mais de bien réfléchir le complexe de paroi dans son ensemble.

Ceci dit, les ossatures d’acier se distinguent assez nettement dans le haut de la pile (allant de 28 à 71 mPt/UF), du fait de l’impact très lourd de la production de l’acier…


Podium

Le meilleur élément de la figure est ce point mauve apparaissant à la base de la « brochette » 0.22 W/m²K). Il s’agit d’une paroi de briques pleines en terre cuite « Reno ». Cela veut dire que certains composants de cet élément n’ont pas le même statut que celui de la majorité des éléments prédéfinis : les phases de production et chantier ne sont pas considérées pour ceux-ci. C’est donc une situation particulière.

En dehors de ce cas particulier, les éléments sur le podium sont :

  • une structure en lamellé-collé isolée en cellulose et avec un enduit extérieur posé sur un panneau de fibre de bois (référence TOTEM : ME_Profilés FJI 250_Bois lamellé_BIB_Neuf_02, ID ET44) : U=0.17 W/m²K pour 9,68 mPt/UF et 32 cm
C1 : Enduit épais : enduit traditionnel; C2 : Panneau de fibre de bois (18 mm); C3 : Couche composée : Profilés FJI 250 (5%), combinés à des flocons de cellulose insufflé sur site (95%) (240 mm); C4 : Panneau OSB vissé; C5 : Feuille d’étanchéité PP – PE; C6 : Lattes en bois résineux; C7 : Panneau en plâtre; C8 : Peinture acrylique
  • La paroi « biosourcée » type : Une ossature bois isolée par ballots de paille, avec enduits d’argile intérieures et extérieures (référence TOTEM : ME_Ossature_Bois résineux_BIB_Neuf_01, ID  ET103) : U=0.14 W/m² K pour 9,98 mPt / UF et 53 cm
C1 : Enduit épais : Mortier de chaux-trass ; C2 : Couche composée : Ossature en bois résineux (11%), combinés à des ballots de paille (89%) (480 mm) ; C3 : Enduit à l’argile
  • Une paroi maçonnée avec isolé collé EPS et revêtement en plaquette (référence TOTEM : ME_Briques isolantes_terre cuite_BIB_Neuf_09, ID  ET77) : U=0.22 W/m²K pour 11,17 mPt / UF et 33 cm
C1 : Plaquettes de terre cuite ; C2 : Enduit épais ; C3 : Panneau EPS (150 mm) ; C4 : Briques isolantes en terre cuite ; C5 : Enduit plâtre ; C6 : Papier peint

 


Maçonnerie ou ossature bois ?

La présence d’une paroi en maçonnerie dans notre podium invite à s’intéresser plus largement au nuage de points rouges. Celui-ci performe plutôt bien, chacun de ces points étant situés à la base de chaque « brochette ». La construction en maçonnerie n’est pas antinomique avec réduction d’impact environnemental global.

Le graphique suivant reprend l’ensemble des parois en maçonnerie de briques isolantes et des parois ossature bois, pour comparaison.

Comparaison d’éléments à base briques isolantes ou d’ossature bois

Difficile de tirer une généralité, mais nous voyons que certains éléments en ossature-bois affichent des scores intéressants, à la fois en terme de performance environnementale et de performance énergétique. Ceux-là présentent des isolations en paille, laine de roche ou cellulose). Mais d’autres sont bien moins intéressant. Le point isolé (44mPt/UF) présente une isolation en granulés de liège expansé, mais ne nous y laissons pas prendre : ce n’est nullement la couche isolante qui est impactante dans cet élément, mais bien la couche de revêtement intérieure en céramique ! Le graphique affichant le détail par composant est très instructif en la matière lorsqu’il s’agit de se rendre compte de ce qui est impactant au sein de l’élément.

Nous constatons également que le nuage de points des parois en briques isolantes est relativement homogène avec un score qui s’échelonne entre 11 mPt/UF pour celle isolée avec de l’EPS (polystyrène expansé) et 16 mPt /UF pour celle isolée en XPS (polystyrène extrudé). Cette famille a donc l’avantage d’une relative prévisibilité des performances. Par contre, elle présente un moindre potentiel de réemploi des composants, vu l’emploi fréquent de colles pour les isolants et revêtements.

Améliorer le confort thermique en été via notamment l’isolation des parois

L’importance de l’isolation thermique dans les bâtiments tertiaires ne fait aucun doute, non seulement pour réduire la consommation d’énergie, mais aussi pour créer un environnement intérieur confortable tout au long de l’année. Cependant, une question se pose : est-ce que certains matériaux isolants offrent un meilleur confort thermique en été que d’autres ?

C’est l’un des arguments de vente de certains fabricants. La capacité thermique de leurs isolants étant plus élevée, ils contribueraient à augmenter le déphasage thermique et donc le confort d’été.

Théoriquement, la vitesse de propagation de la chaleur dépend de la conductivité thermique (W/m.K) et de la capacité thermique volumique (J/m3.K) de la paroi. L’augmentation de température de la paroi intérieure survient donc après un certain laps de temps, appelé déphasage, et de manière atténuée, grâce à l’isolation.


Définition : Capacité thermique

Quantité de chaleur nécessaire pour élever d’un degré (Kelvin) la température d’un m3 de matériau.

La capacité thermique d’un matériau est la quantité de chaleur nécessaire pour élever d’un degré (Kelvin) la température d’un mètre cube (m³) de ce matériau. Elle est le produit de la masse volumique (exprimée en kg/m³) et de la chaleur spécifique Cp  (exprimée en J/kg.K).

Pour éclaircir cette question, le CSTC (Centre Scientifique et Technique de la Construction, connu désormais sous le nom de Buildwise) a réalisé une simulation dynamique de la variation de la température dans une pièce sous toiture isolée, en utilisant des matériaux ayant des capacités thermiques différentes, tout en étant soumise à un épisode de canicule de 15 jours.

pièce sous toiture isolée

Exemple de deux isolants similaires au point de vue de leur conductivité thermique mais fort différents quant à leurs capacités thermiques


Isolant

Conductivité thermique

(W/m.K)

Masse volumique

(kg/m3)

Chaleur spécifique

Cp (J/kg.K)

Capacité thermique volumique

(J/m3.K)

Laine de bois 0,039 55 2000 110
Laine minérale 0,035 25 1030 26

Les conclusions du CSTC (Buildwise) indiquent que, bien que le déphasage et le confort en été augmentent en fonction de  l’épaisseur de l’isolant, lorsque l’épaisseur d’isolant et la conductivité thermique sont équivalentes, l’impact de la capacité thermique du matériau utilisé reste relativement faible, en particulier par rapport à d’autres paramètres à prendre en compte.

Outre les propriétés intrinsèques des matériaux, voici les éléments qui ont le plus d’influence sur le confort thermique en été dans les bâtiments tertiaires :

  • L’épaisseur de l’isolant (et sa conductivité thermique) ;
  • Les protections solaires extérieures pouvant limiter l’apport solaire ;
  • La mise en place d’une ventilation nocturne intensive pour faire baisser la température intérieure ;
  • La réduction des sources internes de chaleur ;
  • La présence d’une masse thermique élevée et accessible, telle que le plafond ou le sol, qui contribue à l’inertie thermique du bâtiment.

Ces facteurs jouent un rôle essentiel pour assurer un confort thermique optimal en été dans les bâtiments tertiaires, qu’il s’agisse de rénovations, de constructions neuves ou simplement de la gestion quotidienne de l’énergie.

Article réalisé par l’ICEDD (Institut de Conseil et d’Etudes en Développement Durable) – https://www.icedd.be/.

Référence :

Dossiers du CSTC – N° 3/2010 – Cahier n°6 – Capacité thermique des isolants et risque de surchauffe

 

Réglementation – Les communautés d’énergie en Wallonie

 

L’Union européenne a adopté son projet de « clean energy package », ou pacte vert pour l’Europe, il concerne notamment l’implantation de nouvelles formes de partage d’énergie. Pour appliquer ces nouvelles directives sur le sol wallon, le Gouvernement a approuvé un avant-projet de décret le 16 décembre 2020. Le but de ces directives est de donner un nouvel élan à la transition énergétique en misant sur l’action des consommateurs et sur la décentralisation de la production d’électricité. Sont ici concernées, la directive « marché » 2019/944 et la directive « renouvelable » 2018/2001. Elles encadrent la mise en place des communautés d’énergie renouvelable (CER) qui avaient déjà été inscrites au droit wallon par un décret du 2 mai 2019. Les CER sont définies comme des personnes morales, qui réunissent un certain nombre de participants dans l’objectif de partager de l’électricité. Cette électricité provient de sources d’énergie renouvelable ou de cogénération de qualité et transite via le réseau public. Le nouveau décret modifie l’organisation régionale des marchés du gaz et de l’électricité ainsi que les méthodologies tarifaires applicables aux gestionnaires de ces réseaux. Priorité est donnée aux bénéfices environnementaux, économiques et sociaux avant le profit.


Les grands principes du décret

Conditions s’appliquant à toutes les formes de communautés d’énergie :

  • Bien que l’énergie soit consommée localement, il est interdit de créer des micro-réseaux privés. Toute l’énergie doit transiter par le réseau.
  • La compensation entre la production et la consommation d’électricité doit se faire au quart-horaire, le régime de compensation annuelle (compteur qui tourne à l’envers) n’est donc pas applicable.
  • Même si l’on revend une partie de sa production, il n’est pas nécessaire d’avoir une licence de fourniture. Le décompte entre production et consommation se fera grâce à un compteur double flux ou un compteur intelligent dont il est, par contre, nécessaire d’être équipé.
  • Seules les nouvelles installations de production d’électricité sont concernées.
  • Une convention et des statuts doivent être définis dans la communauté d’énergie afin d’établir les règles d’échange et la tarification. Certains points doivent obligatoirement apparaître dans les statuts : l’organisation du contrôle effectif de la communauté ainsi que son indépendance et son autonomie.
  • Les objectifs environnementaux, sociaux ou économiques doivent être explicités dans les statuts de la communauté d’énergie.

Conditions s’appliquant aux CER et CEC :

  • La communauté d’énergie doit être représentée par une personne morale, de plus, elle doit être propriétaire des unités de production et de stockage.
  • Il sera possible de mettre à disposition des points de recharge de véhicules électriques sans contrat avec le fournisseur d’électricité ou l’exploitant.
  • Chaque communauté d’énergie doit demander une autorisation individuelle auprès du gestionnaire du réseau concerné qui sera délivrée par la CWaPE. Cette autorisation est accordée pour un temps déterminé, correspondant à l’amortissement des frais d’installation investis par la communauté d’énergie. Il sera possible de la renouveler.
  • Le Gouvernement fixe les droits et les obligations de chaque CER, notamment les seuils d’autoconsommation collective.
  • Les entreprises participant à des communautés d’énergie ne doivent pas faire de leur production d’électricité leur activité principale((https://macer.clustertweed.be/)).

Conditions s’appliquant à l’autoconsommation :

  • À la place d’une autorisation individuelle, seule une notification est requise.
  • Il n’y a pas de nécessité de créer une personne morale, il faudra en revanche désigner un représentant parmi les participants.

En application

Le principe d’autoconsommation collective

Les installations autorisées dans le cadre des communautés d’énergie visent uniquement la production d’électricité ainsi que son stockage. L’autoconsommation collective prévoit un seuil minimal et un seuil optimal. Le seuil minimal est défini par le Gouvernement en même temps que le périmètre local. Le seuil optimal est défini dans l’autorisation individuelle accordée préalablement. L’objectif de l’autoconsommation collective est de tendre vers ce seuil optimal qui peut aller jusqu’à 100% de l’énergie produite, autoconsommée collectivement. Pour rappel, l’autoconsommation est calculée par quart-horaire et correspond à l’équilibre entre électricité produite et électricité consommée lors de ce quart-horaire. Dans l’électricité produite, est incluse celle provenant des installations de stockage.

Le rôle des gestionnaires de réseaux

Ce sont eux qui gèrent la mise en place technique et les contrats en faveur du comptage de l’électricité. Ils collectent les informations concernant les quantités d’électricité autoconsommées et transmettent ces données aux fournisseurs des participants ainsi qu’à la communauté d’énergie. Ils sont les garants de la bonne fonction des communautés d’énergie, en toute transparence et de manière égalitaire.

Les tarifs

Appliqués par les gestionnaires de réseaux, ils sont calculés en fonction du seuil d’autoconsommation collective. Ils incluent les frais de fonctionnement et d’entretien du réseau ainsi que les taxes. Cependant, le décret précise que la couverture de ces coûts doit être mesurée à l’aune de la solidarité. Pour rester attractives, les communautés d’énergie doivent profiter de tarifs avantageux. Des tarifs trop bas rendraient la CER non rentable, tandis que des tarifs trop hauts rendraient la CER inabordable. L’apparition de nouveaux tarifs n’est pas envisageable avant 2022 voire pas avant la nouvelle période tarifaire 2024-2028. Les projets pilotes en cours n’ont pas non plus apporté de réponse sur le sujet des tarifs. Encore une fois, l’Union européenne et la Wallonie insistent pour que les avantages restent environnementaux, économiques et sociaux et ne servent pas le profit((https://www.cwape.be/node/158)).

Les objectifs du décret

En favorisant les installations de production d’énergies renouvelables et leur intégration au réseau, la Wallonie fait un pas en avant dans la transition écologique. Avec ces nouvelles directives, le réseau pourra être libéré de l’énergie autoconsommée, car bien qu’elle transite par le réseau, elle ne l’occupe que peu de temps puisque le principe est de produire et de consommer simultanément. Il y aura donc plus de place pour l’énergie non consommée localement, ce qui va donner du souffle à la compétitivité écologique de la Wallonie.

C’est aussi un moyen de mieux intégrer les énergies renouvelables dans la consommation. Par définition, ces énergies sont intermittentes et nécessitent plus de stockage que les autres. En synchronisant consommation et production d’électricité, on réduit les besoins de stockage.

De plus, il est possible que les acteurs des communautés d’énergie développent une plus grande conscience de leur consommation qui pourra déboucher sur une gestion intelligente des ressources énergétiques. Enfin, il s’agit d’augmenter la part des énergies renouvelables dans la consommation wallonne qui est aujourd’hui de quasiment 25%.

En réduisant les coûts de développement et de renforcement du réseau de distribution, les prix de l’énergie devraient diminuer. Concrètement, l’autoconsommation permet de réduire les pertes d’énergie dues au transport sur le réseau, et diminue la charge d’investissement puisqu’elle est assumée par les communautés d’énergie. En contrepartie, les conditions tarifaires de l’énergie devront être avantageuses pour les participants.

La Wallonie et l’Union européenne souhaitent encourager l’accès des ménages modestes et des locataires aux communautés d’énergie car elles réduisent la charge financière due à la consommation électrique.


Exemples d’application

Des projets pilotes de communautés d’énergie ont déjà vu le jour. L’université de Liège, par exemple, a créé une communauté avec la commune de Crisnée qui prévoit trois points d’action :

  • l’investissement dans des éoliennes,
  • l’installation de panneaux photovoltaïques sur des logements sociaux,
  • le partage d’énergie entre des entreprises.

Le projet de la CER d’Hospigreen a mis en place un parc éolien et des panneaux photovoltaïques sur les toits de deux entreprises. Il réunit des consommateurs publics du secteur hospitalier.

Une entreprise qui produirait plus d’énergie qu’elle n’en consomme pourrait vendre son surplus à une ou plusieurs autres entreprises d’une même communauté d’énergie à des tarifs avantageux. L’énergie resterait donc consommée localement. L’organisation des pics de consommation en fonction des pics de production permettrait aussi d’optimiser la production locale et de faire appel, le moins possible, aux énergies produites plus loin.

Les immeubles de logements sont particulièrement adaptés à ces installations communes qui peuvent profiter à tous les habitants de manière égalitaire. C’est pourquoi le décret encourage l’adhésion de logements sociaux aux communautés d’énergie.


Les prochaines étapes du projet

Avant que le décret soit pleinement ratifié et après son approbation en première lecture par le Gouvernement le 16 décembre 2020, il doit encore être soumis à différentes instances consultatives:

  • laCWaPE
  • le Pôle énergie
  • l’autorité de protection des données

Une approbation par le Gouvernement lors d’une deuxième lecture sera ensuite nécessaire avant que le décret ne soit soumis à la section législation du Conseil d’Etat. Le Gouvernement pourra alors adopter le décret qui sera examiné en Commission du Parlement avant d’être finalement voté en séance plénière.


Conclusion

Les premières communautés d’énergie sont attendues en 2022 si l’appareil législatif le permet. Les nombreuses instances qui vont réviser le texte risquent d’y apporter des modifications. Cependant nous avons déjà une vision des possibilités d’application de ce décret : habitats collectifs, quartiers résidentiels, quartiers mixtes incluant habitats et PME et même de petites villes. Rappelons que les candidats à ce type de projets devront attendre la promulgation du décret avant de commencer leurs investissements car seules les nouvelles installations sont éligibles et que les CER doivent en être propriétaires. La création des CER ne concerne pas que la Wallonie, mais toute l’Europe, les directives européennes étant relativement précises sur le sujet, les transpositions dans les différentes législations nationales de l’Union devraient peu différer((Communautés d’énergie et autoconsommation collective : partageons nos énergies ! (2020, 18 décembre). SPW Wallonie. https://energie.wallonie.be/fr/18-12-2020-communautes-d-energie-et-autoconsommation-collective-partageons-nos-energies.html?IDD=146181&IDC=8187)).

technologie de convertion du bois

Technologies de conversion du bois-énergie

technologie de convertion du bois

En fonction des caractéristiques nombreuses et variables de bois, sa valorisation est destinée soit à la fabrication des matériaux de construction ou pour la production d’énergie.

La chaîne de valorisation de bois-énergie est un processus complexe intégrant plusieurs procédés de valorisation pouvant donner à la fois de l’énergie, des produits principaux et des coproduits en parallèle ou vers la fin de la chaîne de valorisation.

En effet, nous pouvons distinguer trois sources capitales de bois-énergie :

  • La biomasse issue de la sylviculture consacrée entièrement à la valorisation du bois-énergie;
  • Les coproduits et dérivés secondaires issus de la transformation primaire et secondaire du bois ;
  • La biomasse qui est récupérée à partir du bois en fin de vie.

Quels sont les procédés de conversion de la biomasse solide en énergie ? 

Les technologies de conversion de la biomasse solide en énergie sont diverses et nombreuses. Toutefois, l’objectif final de chaque technologie est la production d’énergie sous forme de chaleur ou d’électricité.

En fonction des besoins énergétiques, une technologie de production, de conversion, de stockage et de transportation d’énergie s’impose plutôt qu’une autre. Voici les procédés technologiques de conversion de la biomasse solide en énergie les plus connus et utilisés:

  • Combustion

Dans une réaction de combustion, et en présence d’oxygène, la biomasse est complètement transformée en gaz qui s’enflamme en émettant par conversion de la chaleur.

  • Pyrolyse

La pyrolyse est une réaction de décomposition de la biomasse sous l’effet de la chaleur dans un milieu plus ou moins faible en oxygène. Dans ce procès, la biomasse solide se décompose et donne comme résultantes trois produits:

  • Un solide riche en carbone (le charbon);
  • Un gaz composé de CO2, CO, H2 et CH4 ;
  • Un complexe d’huile pyrolytique.
  • Carbonisation 

La carbonisation ne diffère pas beaucoup de la pyrolyse, mais le procédé est optimisée davantage pour la production de charbon de bois. En effet, la carbonisation vise à soumettre le bois sous une température aux alentours de 450°C durant quelques heures ou jours et dans un milieu faiblement alimenté en oxygène. En conséquence, ce procédé  permet de récupérer jusqu’à 30% de charbon concentré et 65% d’énergie((Panorama des filières bois-énergie et agrocombustibles en Wallonie – Valbiom – 2018)).

  • Gazéification 

La gazéification transforme 80% de la biomasse en un gaz composé selon un procédé thermochimique. Le mélange de gaz issu est appelé syngaz et est composé jusqu’à 75% d’anhydride contenu dans la biomasse. Nous pouvons considérer que la gazéification est une voie intermédiaire entre la pyrolyse et la combustion.

En Wallonie, la gazéification est une solution prometteuse lorsqu’elle vise à la fois la  production de chaleur et d’électricité dans des gammes de puissance comprises entre 300 et 1.000 kW((Panorama  des filières bois-énergie et agrocombustibles en Wallonie – Valbiom – 2018)). Ce procédé est utilisé dans les systèmes de cogénération.


Les technologies pour la production de chaleur

En fonction des besoins d’utilisation, nous distinguons deux types de technologies de combustion pour la production de chaleur :

  • Une gamme de petite puissance destinée pour le chauffage domestique regroupant, d’une part, les systèmes centralisés qui produisent de la chaleur pour le logement en entier (cheminées, poêles-chaudières, inserts, etc.), d’autre part, les systèmes d’appoint destinés au chauffage à destination des particuliers (chaudières à bûches, chaudières à pellets et à plaquettes, chaudières polycombustibles pour agrocombustibles).
  • Une gamme de grande puissance par l’augmentation des dimensions du foyer. En effet, quand les besoins en puissance énergétique sont importants (jusqu’à plusieurs dizaines de Mégawatts), les chaudières de petite puissance ne peuvent pas répondre à la demande croissante en chaleur. En effet, dans les processus industriels, l’approvisionnement en  chaleur est une nécessité capitale dans les procédés de production, transformation et transportation.

Les technologies pour la production d’électricité

La production de chaleur à partir de la biomasse solide peut se faire selon deux procédés:  la combustion-vaporisation ou la gazéification.

Quand il s’agit de l’électricité produite selon une technologie de combustion-valorisation, cette dernière génère une force motrice à travers la vapeur sous pression produite par une chaudière biomasse. À la manière d’une dynamo, cette force engendre une puissance électrique quand elle est couplée à un alternateur. Nous parlons donc des générateurs d’électricité à turbines-vapeur (aubages) ou à des moteurs à vapeur (pistons).

En ce qui concerne les technologies à gazéification, la production de l’électricité  repose sur le principe de la gazéification du bois. Ce processus refroidit les gaz pour les utiliser dans un moteur qui permet de transférer une force motrice à un alternateur, qui produira de l’électricité.


Conclusion

Les projets de production, de valorisation et de consommation des combustibles biomasse sont aujourd’hui largement répandu. Ils répondent aux évolutions technologiques de valorisation de la biomasse. L’efficacité des appareils de combustion et la haute rentabilité du bois-énergie ont impacté l’évolution de cette filière et impose sa structuration sur tous les plans.

Au niveau du prix de revient, en fonction de divers facteurs comme la location de la terre ou le cout du matériel, en 2017, la consommation d’agrocombustibles autoproduits permet d’atteindre un prix oscillant entre 7 et 14 c€/litre équivalent mazout((Panorama des filières bois-énergie et agrocombustibles en Wallonie – Valbiom –  2018)).

Recyclage des panneaux solaires

Recyclage des panneaux solaires

L’empreinte écologique des panneaux solaires est très souvent remise en question, notamment quand ils arrivent en fin de vie. L’idée selon laquelle les panneaux photovoltaïques ne sont pas recyclables est très répandue. Or, plus de 95 % des panneaux solaires dans le monde utilisent le silicium comme matériau semi-conducteur, le principal constituant du sable. Aussi, oui, il est tout à fait possible de recycler des panneaux solaires et nous allons aborder certains points ensemble.


Est-ce que les panneaux solaires sont recyclables ?

Beaucoup se questionnent sur la pollution générée par la fabrication et le recyclage des panneaux solaires.

Les panneaux photovoltaïques recyclables sont ceux composés de silicium cristallin avec un cadre en aluminium. Plus précisément, ils sont recyclables à 94,7 % (source : PV-Cycle).

Ces modules photovoltaïques sont composés de plusieurs matériaux différents qui sont recyclables à 94,7% :

  • Un cadre en aluminium, dont la matière est 100 % recyclable ;
  • Du verre (composant les trois quart du panneau) recyclable à l’infini ;
  • Des conducteurs en cuivre ou en argent qui ont un traitement bien particulier car ils sont séparés mécaniquement et chimiquement, puis fondus pour être réutilisés ;
  • Des cellules en silicium, composant principal du sable, qui sont réutilisables pour le photovoltaïque ou refondus jusqu’à quatre fois pour en faire de nouveaux wafers ;
  • Un film plastique transparent est soit recyclé soit transformé en granulés qui seront brûlés en centrale thermique ;
  • Un boîtier de jonction : hormis la connectique, les circuits imprimés et les câbles sont recyclables tout comme les câbles.

Les 10 % des panneaux solaires restants sont ceux à “couches minces”, composés de silicium amorphe ou bien d’autres matériaux semi-conducteurs tels que le sélénium, gallium, indium, etc. Ces technologies de pointe ne sont pas utilisées pour les centrales solaires ou pour les installations sur bâtiment mais plutôt dans le cadre de la recherche et de l’utilisation spatiale.

recyclage panneaux solaires

Concernant la durée de vie des panneaux solaires, elle est estimée entre 30 et 40 ans, en moyenne. Cependant, les technologies s’améliorant, il est très probable que les panneaux photovoltaïques nouvelle génération durent plus longtemps.


Comment est recyclé un panneau solaire ?

Ce type de recyclage consistent à séparer les différents constituants qui font la composition d’un panneau solaire. C’est un processus complexe étant donné l’enchevêtrement des matériaux.

panneaux solaires

Il existe 6 étapes dans le recyclage des panneaux photovoltaïques :

  • Etape 1 : Le cadre en aluminium est d’abord retiré du panneau mécaniquement.
  • Etape 2 : C’est ensuite au tour de la connectique, le boîtier électrique et des câbles en cuivre. Ils sont récupérés et envoyés vers les lignes de traitement des Déchets d’Équipements Électriques et Électroniques (DEEE).
  • Etape 3 : À ce stade, les panneaux sont découpés en lamelles et passés dans différents broyeurs.
  • Etape 4 : Durant le passage des panneaux dans l’un des broyeurs, on retire le laminé photovoltaïque : c’est-à-dire que l’on doit séparer le silicium, le verre qui le protège ainsi que la face en polyester à l’arrière du panneau.
  • Etape 5 : Vient le tour des électrodes métalliques présents à la surface des cellules qui sont décapés selon le métal utilisé.
  • Etape 6 : Enfin, il reste les plaquettes de silicium (aussi appelées wafers) qui peuvent être réutilisées pour la production de nouveaux panneaux solaires ou envoyées vers une filière de recyclage.

Pour les panneaux solaires à couches minces, cette fois, le processus de recyclage s’effectue avec un traitement chimique. Le traitement fait, les panneaux sont alors broyés afin d’en extraire tous les matériaux. Ces derniers sont retraités pour obtenir des matériaux secondaires.


Qui recycle les panneaux solaires en France et en Belgique ?

Au sein de l’Union Européenne, le recyclage des panneaux solaires est encadré notamment par la directive européenne pour les Déchets d’Equipements Electriques et Electroniques (DEEE).

Cette directive impose aux vendeurs le recyclage des panneaux dont ils ont la vente. Pour s’acquitter de cette mission, un réseau européen a été mis en place pour assurer la collecte des panneaux solaires usagés, récupérer le plus possible de composants des panneaux solaires et gérer les filières de recyclage.

Ce réseau est géré par l’organisme à but non lucratif  PV Cycle, présent notamment en France (PV Cycle France) et en Belgique (PV Cycle Belgium). Il collecte tous les panneaux usagés sans distinction de marque, de technologie ou d’année de mise sur le marché.

Ce réseau est financé par le paiement d’une éco-contribution, sous forme d’éco-taxe, payée par chaque acteur de la filière (industriels, importateurs, installateurs ou propriétaires). Cette éco-participation doit d’ailleurs obligatoirement figurer sur la facture de vente de la société qui installe les panneaux. Du côté de la filière française du recyclage des panneaux solaires, elle s’élève à 0,60 euro par panneau de moins de 10 kg en 2020. Tandis qu’en Belgique, elle est de 4 euros par panneau solaire.

Pour un enlèvement sans frais des panneaux usagés, vous devez vous rendre sur le site de PV Cycle afin d’identifier la solution de collecte adaptée selon votre pays. En France, PV Cycle met à disposition près de 200 points de collecte de panneaux solaires usagés (en Métropole comme dans les collectivités d’outre-mer) et une dizaine en Belgique.

En résumé, un panneau solaire utilise 100% de sa puissance les 20 premières années puis 80%. C’est pour cela qu’ils sont en général garanti 25 ans au vu de leur performance stable. Ajoutez à cela qu’on estime qu’il faut en général entre 1 à 5 ans pour que des panneaux photovoltaïques produisent autant d’énergie qu’il en a fallu pour le fabriquer. Enfin avec la donnée que 94,7% du panneau est recyclage, on peut considérer que les panneaux solaires ont un très faible impact environnemental de par leur longévité et leur recyclage optimal.

electrolyse de l'eau

Stockage Power-To-Fuel : l’électrolyse

Stockage Power-To-Fuel : l'électrolyse


Le principal représentant de ce type de stockage est l’électrolyse de l’eau qui permet de produire de l’hydrogène.

Contrairement au stockage thermique ou en accumulateurs, ce type de système permet une conservation plus longue, inter-saisonnière, de l’énergie sous forme d’hydrogène.

31. LE STOCKAGE POWER-TO-FUEL : L’ÉLECTROLYSE

L’hydrogène comme carburant peut ensuite être valorisé de différentes manières :

  • Comme carburant combustible directement via le réseau de gaz,
  • Soit dans une centrale à gaz adaptée. Dans ce cas, in fine, de l’électricité sera reproduite à partir du carburant.
  • Par production de méthane : en faisant réagir 4 molécules de H2 avec du CO2 du méthane et de l’eau sont produits.
  • Via une pile à combustible qui fera réagir 2 molécules de H2 avec une molécule de dioxygène pour produire de l’électricité avec un rendement de ±60% et rejeter de l’eau. Ce rendement sera meilleur si la pile à combustible est utilisée en cogénération pour valoriser le dégagement de chaleur.

Types de stockage

Types de stockage


Les différents types

Il existe 5 vecteurs principaux pour le stockage d’énergie :

  • Electrochimique (Batteries) ;
  • Thermique (Ballons d’eau chaude, inertie du bâtiment) ;
  • Cinétique (Volant moteur) ;
  • Gravitaire, potentielle (Station de pompage turbinage) ;
  • Chimique (électrolyse > hydrogène).

En fonction de la nature de l’énergie restituée par le système de stockage, on parlera plutôt tantôt de :

  • « Power to power » : La production électrique est convertie en énergie intermédiaire puis restituée sous forme d’électricité.
  • « Power to fuel » : La production électrique est convertie en combustible.
Bornes de recharge pour véhicules électriques (VES)

Bornes de recharge pour véhicules électriques (VES)

Bornes de recharge pour véhicules électriques (VES)

Dans les années à venir, la densité de bornes de recharge pour les VEs devrait drastiquement augmenter sous la pression de l’Europe via la directive EPBD 2018/884. En 2025, les nouvelles constructions et les rénovations lourdes (non-résidentielles) dont le parking fait plus de 10 emplacements devront être équipé d’une borne de recharge et 1 emplacement sur 5 pré-câblée pour pouvoir accueillir une borne dans le futur. Pour les bâtiments existants, la Belgique est invitée par l’Europe à fixer un nombre minimal de points de recharge pour les parkings non résidentiels de plus de 20 emplacements.


Les différentes puissances disponibles

D’un point de vue technique, les bornes de recharge et prises murales les plus courantes des constructeurs sont disponibles en : monophasé et en triphasé, en 16A, 32A et 64 Ampères pour des puissances allant jusqu’à 43 kW pour les bornes rapides.

Les puissances généralement disponibles sont donc les suivantes :

Type de borne Monophasé Triphasé
10A (prise classique) 2.3 kW   [pour dépanner]
16A 3.7 kW   [très lent : +15 à 25 km/hcharge] 11 kW
32A 7.4 kW   [Lent : +30 à 45 km/hcharge] 22 kW  [Moyen : +60 à 80 km/hcharge]
62A 43 kW   [Rapide : +100 à 140 km/hcharge]
Remarque 1 : certaines voitures ont une limite de vitesse de chargement

Remarque 2 : en hiver, la charge peut être ralentie si la batterie est froide

Des « superchargers » voient également le jour sur les aires d’autoroutes. Dans ce cas, les puissances dépassent déjà les 100 kW !

Pour avoir un ordre de grandeur, un véhicule électrique consomme autour de 20 kWh/100 km et leurs batteries ont une capacité allant de ± 20 kWh pour les micro-citadines à 40 kWh pour les petites citadines et jusqu’à 100 kWh pour les plus grosses berlines. Ces « super-chargeurs » sont donc capables de prolonger l’autonomie des VEs compatibles de plus de 200 km en moins de 20 minutes, soit le temps d’une pause-café !

Il est également bon de savoir que les derniers 20-30 % de la charge d’un VE s’effectuent jusqu’à 2 fois plus lentement.

Comme le coût de l’installation d’une borne est proportionnel à sa puissance, le choix de la puissance devra être judicieux. La décision d’opter pour une borne plutôt qu’une autre dépendra du temps de charge disponible et de l’autonomie attendue après recharge (dans les limites de la capacité de la batterie).

EXEMPLE : Quelle puissance mettre en place dans le cas de bornes à destination des employés d’une grande entreprise dont la durée du chargement sera étalée sur 8 heures (de 9 h à 17 h) ?

Comme les employés de cette entreprise travaillent à moins de 100 km de leur domicile mais que tous n’ont pas la possibilité de charger leur véhicule au domicile, une autonomie de 200 km peut, par exemple, être prévue pour assurer le retour au domicile le soir mais également le trajet vers le bureau le lendemain matin. Dans ce cas, les bornes lentes de 7,4 kW sont déjà largement suffisantes. Néanmoins, un électricien avisé pourrait favoriser le triphasé pour des puissances si importantes afin de réduire le courant pour une puissance similaire en augmentant la tension (de 230 v à 400 v). Le choix de la borne triphasé de 11 kW est donc également un bon choix.

Si l’entreprise emploie des consultants devant réaliser une série d’aller-retours sur la journée, quelques bornes rapides de 43 kW pourront s’avérer nécessaire mais uniquement pour cette flotte de véhicules-là !


Les types de connecteurs côté point de charge

Pour raccorder le véhicule à la borne, plusieurs types de fiches de raccordement existent. Pour les recharges lentes et normales (≤ 43 kW), côté borne, ce sont les fiches domestiques et les fiches de « type 2 » qui sont présentes. Tandis que pour les charges rapides (> 50 kW), celle-ci s’effectuent en courant continu avec prises spécifiques.

Les fiches et prises domestique permettent une puissance de 2,3 kW, ce sont celles que nous retrouvons couramment dans nos bâtiments :

Prise domestique. Source : Zeplug.com

Prise domestique. <

Source : Zeplug.com

Dans ce cas-là, pas besoin de borne en tant que tel mais attention tout de même, pour utiliser ce type de prise murale pour le chargement il est impératif d’avoir une installation pouvant supporter 16 ampères au moins sur ce circuit. Il ne faudra également pas utiliser des rallonges en cascade ou un câble trop long ou de section faible sous peine de courir un dangereux risque d’échauffement.

Les fiches de types 2 correspondent au standard Européen et sont les plus courantes. Elles sont utilisées pour les puissances courantes de 3,7 kW à 43 kW, en mono et triphasé, elles se présentent comme ceci :

Prise type 2. Source : Zeplug.com

Prise type 2.
Source : Zeplug.com

En ce qui concerne les bornes rapides, il existe trois autres types de connecteurs.

À partir de 2025, les bornes rapides devront être équipées de connecteurs CCS Combo (pour fonctionner avec les voitures européennes) et CHAdeMO (pour les voitures asiatiques et TESLA avec un adaptateur)

Bornes de recharge pour véhicules électriques (VES)

Prise et connecteur CCS Combo.
Source : engie-electrabel.be

 

Bornes de recharge pour véhicules électriques (VES)

Prise et connecteur CHAdeMO.
Source : engie-electrabel.be

 

Enfin, en dehors des standards Européens, il existe également la prise propriétaire TESLA SuperCharger

Bornes de recharge pour véhicules électriques (VES)

Prise et borne TESLA SUPERCHARGER.
Source : engie-electrabel.be

Méthode de contrôle et de modulation de la ventilation mécanique

Méthode de contrôle et de modulation de la ventilation mécanique

Méthode de contrôle et de modulation de la ventilation mécanique


Monitoring du taux de Dioxyde de carbone (CO2)

Une des méthodes pour moduler et contrôler le débit du système de ventilation est de mesurer le taux de CO2 d’un local ou d’une zone. En faisant cela, le système peut se faire une idée de l’occupation de l’espace et adapter le taux de renouvellement de l’air. Le CO2 est ici utilisé comme un marqueur de l’occupation en quantité et en intensité. Si le niveau de CO2 dépasse une limite préconfigurée, le système de ventilation augmentera le débit d’arrivé d’air frais pour cet espace.


Détection de l’inoccupation

Quand une inoccupation est détectée dans un espace (information provenant du système d’éclairage ou de détecteurs de présence), le débit de ventilation est rapidement fortement réduit ou complètement mis à l’arrêt pour éviter les pertes d’énergie (ventilation, chauffage et refroidissement). Cette stratégie est généralement destinée aux locaux dont l’utilisation est intermittente par nature (cafétérias, salles de réunions, …).


La valorisation de l’air extérieur

Lorsque l’air extérieur est plus froid que celui de l’espace devant être conditionné et que cette fraicheur est recherchée, le système de gestion du bâtiment pourra ouvrir les ouvertures de ventilation, grilles et autres fenêtres pour valoriser ce refroidissement gratuit et décharger partiellement ou complètement les systèmes mécaniques.

marché de l'electricité en Belgique

Marché de l’électricité

marché de l'electricité en Belgique


La structure du marché de l’électricité en Belgique

Marché de l'électricité.

 


Le marché du gros à court terme

Il existe plusieurs types de marché du gros à court terme sur la bourse européenne des marchés de l’électricité (EPEX SPOT). Ces marchés sont réservés aux responsables d’équilibres. Il y a :

  • le « Day-Ahead-Market»
    • C’est le marché qui a lieu jusqu’à 14h30 la veille du jour de la livraison,
    • La commande se fait heure par heure,
  • L’intraday
    • Le marché ouvre deux heures après la fermeture du Day-Ahead-Market et se clôture jusqu’à 5 minutes avant la livraison physique.
    • C’est un marché d’ajustement qui permet de faire face à d’éventuels prévisions erronées ou pannes techniques.

Le marché du gros à long terme

Le marché du gros à long terme en Belgique se joue sur l’ICE ENDEX (power BE).

Sur ce marché, plusieurs types de contrats sont possibles mais ceux-ci sont inflexibles. Ils offrent l’avantage de connaitre à l’avance le prix que l’on va payer dans les mois et les années à venir mais les prix sont souvent plus chers que sur le marché à court terme. Les contrats possibles sont :

  • Month Ahead : on achète 1 mois à l’avance
  • Quarter Ahead : on achète 3 mois à l’avance
  • Year Ahead : on achète 1 à 3 années à l’avance

Le balancing

Le balancing est un marché à part entière. Le balancing intervient en cas de déséquilibre des responsables d’équilibre.

Prenons par exemple deux Responsables :

Le Responsable A et le Responsable B ont tous deux acheté 10MWh la veille pour ce jour entre 14h et 15h. Mais, voilà, les clients de A n’ont pas tourné à plein régime à cause de la pluie et d’une grève sauvage tandis que les clients de B, eux, ont fait tourner plus de lignes de production car de grosses commandes sont tombés pendant la nuit.

Les deux responsables vont donc se retrouver en situation de déséquilibre (positif ou négatif) et devoir acheter ou vendre cette l’électricité en dernière minute à ELIA au tarif du déséquilibre. Ce tarif est plafonné mais n’est connu que ¼ d’heure après !

Comme les tarifs du déséquilibre ne sont pas connus, ils peuvent in fine, s’avérer être intéressant :

  • Si on doit racheter et qu’ils sont moins chers que lors de l’achat (par exemple, si l’éolien produit plus que prévu).
  • Si on doit vendre et que l’électricité vaut plus que lors de l’achat (panne dans une centrale, manque de soleil, …)

ou pénalisant dans le cas contraire.


 Le marché du détail

Ce marché peut fonctionner selon trois types de contrats entre le fournisseur et le client :

  • Contrat à prix fixe
    • Le prix évolue en principe mensuellement mais une fois le contrat signé, le prix ne change pas sur la durée du contrat.
    • Ce contrat est sécurisant car il permet de savoir à l’avance combien nous allons payer le kWh d’électricité.
    • En cas de baisse des prix du marché, le consommateur n’en profite pas mais il pourra rompre son contrat et le renégocier avec le fournisseur de son choix.
  • Contrat à prix variable
    • Dans ce cas, le prix de l’énergie payé suit les prix du marché et évolue trimestriellement.
    • Le risque de voir les prix s’envoler existe.
    • Il peut influencer le comportement du consommateur vers plus d’adéquation avec la situation du réseau.
  • Contrats « clicks »
    • Pour les clients un peu plus joueurs, un type original de contrat existe. Entre les moments de la signature et celui de la fourniture, le client à l’occasion de « clicker » plusieurs fois sur le prix du forward de l’ENDEX. Se faisant, il détermine le prix de la fourniture.
    • Le prix est calculé de la manière suivante : PRIX= a + b.x
      • a et b étant des constantes définies à la signature du contrat
      • x étant la valeur moyenne des clicks
    • Si le client effectue ses « click » aux bons moments (quand le prix du forward est bas), alors il pourra obtenir un prix inférieur à la moyenne de prix de l’année.

sur l’ICE ENDEX (power BE).

Dans l’exemple ci-dessus, le client A a effectué de meilleurs « clicks » que le client B.

Si nos deux clients avaient contracté pour les mêmes coefficients A et B, alors le client A aura une facture plus douce que son homologue.

Facturation électrique

Facturation électrique


La facturation en général

La facturation électrique est le résultat de 3 postes :

  • La production
    • Négociable,
    • Tarif ouvert à la concurrence
  • le transport (GRT) et la distribution (GRD)
    • Fixes,
    • Mais diffèrent d’un lieu à l’autre.
    • Les tarifs applicables sont approuvés par la CREG
  • et les redevances, les taxes 
    • Comprends les prélèvements régionaux et fédéraux.
      • Redevance régionale Art. 26 : finance la politique URE régionale.
      • Redevance voirie régionale
      • Obligation de service public : finance l’éclairage public communal et les tarifs réduits pour les clients protégés
      • Cotisation fédérale : finance notamment la CREG
    • Pour les personnes assujetties : la TVA (21% en 2019)

La facturation basse tension

Cette tarification s’applique, comme l’indique son nom, aux clients raccordés au réseau BT (basse tension). C’est le cas de la plupart des bâtiments résidentiels et tertiaires de petite et moyenne dimension avec une puissance inférieure à 56 kVA. Dans ce cas, la facturation est annuelle mais une provision mensuelle est demandée par le fournisseur d’énergie.


La Facturation haute tension

On passera sous ce régime de tarification lorsque la puissance des installations dépasse les 56kVA ou qu’une cabine HT (haute tension) est présente sur site.

Dans certain cas, la cabine n’est pas directement sur site mais une connexion alimente directement le site à partir d’une cabine haute tension proche.

Dans ce cas, le relevé des consommations et la facturation est mensuelle ou trimestrielle.

 

 

planification des charges

(Re)Planification des charges

(Re)Planification des charges

Les entreprises disposant d’activités ou de processus pouvant être interchangés ou disposant d’un stockage logistique le permettant ont la possibilité d’adapter la planification de leurs processus consommateurs d’électricité pour optimiser leur facture (en cas de tarification ¼ horaire) et participer à l’équilibre des charges sur le réseau.

re planification des charges

Effacement énergétique

Effacement énergétique

Source : Enerdigit, opérateur d’effacement.


Définition

L’effacement énergétique consiste, pour un utilisateur du réseau (dans une plus forte mesure les industries), à réduire sa consommation en fonction de l’offre énergétique.

Ceci se traduit par la mise en sous-régime ou hors tension d’un équipement et/ou d’une activité en réponse à une baisse de la production énergétique. La baisse de régime ou l’extinction de l’équipement est effectuée :

  • Indirectement, via un message (e-mail, appel, sms) envoyé à l’entreprise détaillant le délai, la durée et la puissance à réduire. L’entreprise agissant ensuite en fonction de ces instructions,
  • Directement, à distance pour le gestionnaire du réseau par l’intermédiaire d’un boitier installé sur site permettant de moduler la consommation d’un ou plusieurs équipements.

Cette source de flexibilité sur le réseau, contrairement aux autres, ne demande que peu de moyens techniques et financiers. Elle peut même baisser la facture et être source de recettes supplémentaires pour les entreprises participantes.

Le système NextFlex permet à votre entreprise de prendre part à la flexibilisation du réseau !

En Belgique, le potentiel de charges flexibles a été estimé à 1,56 GW (2013).

Pour avoir quelques références en Belgique (2017) :

  • la puissance installée est de ± 22 GW
  • la puissance pic demandée en hiver est de l’ordre de 13 à 14 GW
  • la puissance moyenne demandée est de 9 à 10 GW.

Ce potentiel de charge flexible est réparti comme suit :

schéma de l'éffacement énergétique en Belgique

Potentiel de charges flexibles en Belgique (SOURCE : SIA Partners, 2013)

Nous pourrions donc flexibiliser jusqu’à 15 % de notre demande !

Tous secteurs confondus, l’installation de compteurs intelligents (permettant une tarification variable de quarts d’heures en quarts d’heure) devrait rendre techniquement possible d’inciter les consommateurs d’énergie à s’adapter à la disponibilité énergétique du moment.

Le développement concomitant des technologies de la communication dans le secteur de l’énergie (smartgrid) et dans le secteur du bâtiment (smartbuilding) ouvre un potentiel important pour mobiliser cette flexibilité.

Plus un réseau sera flexible, plus il pourra faire la part belle aux énergies renouvelables et réduire le risque de black-out.


Les 3 types de réserves en cas de déviation de la fréquence du réseau

La réserve primaire

Lorsque la fréquence du réseau commence à dévier des 50 Hz habituels de 100 mHz à 200 mHz soit 0,002 % à 0,004 % ELIA active la réserve primaire pour rétablir l’équilibre sur le réseau et écarter tout risque de black-out. Ce service est ouvert à tout qui :

  • Dispose d’un fréquencemètre,
  • Est disponible en permanence
  • Peut proposer seul ou par regroupement plus d’1MW
    • Pendant 15 minutes,
    • En moins de 30 secondes
    • Dont déjà la moitié en 15 secondes
    • Pouvant être réglé automatiquement

Les grands types de contrats sont au nombre de 3 en fonction de votre capacité à consommer ou fournir de l’électricité à la demande. La rémunération est liée à la mise à disposition à l’année et non à la fréquence de l’activation de votre effet levier. Ces contrats sont :

  • Le contrat « UP »
    • Ce contrat est passé avec les clients qui disposent de flexibilité permettant d’alléger la demande du réseau en effaçant une partie définie de sa consommation ou fournissant de l’électricité.
    • Rémunéré à hauteur de ± 16 000 € (2019) par an et par MW mis à disposition.
  • Le contrat « DOWN »
    • Ce contrat est passé avec les clients qui disposent de flexibilité permettant de doper la demande du réseau en cas de surproduction (comme un évènement climatique imprévu) ou de surestimation de la demande dans les prévisions en étant capable d’augmenter sa consommation ou diminuer la fourniture sur le réseau. Les entreprises métallurgiques sont par exemple d’excellents clients grâce à leurs énormes résistances électriques.
    • Rémunéré à hauteur de ± 60 000 € (2019) par an et par MW mis à disposition
  • Le contrat symétrique (UP & DOWN) 100 mHz ou 200 mHz :
    • Ce contrat est passé avec les clients qui disposent de flexibilité permettant à la demande :
      • De doper la demande et/ou de fournir moins d’énergie au réseau.
      • De réduire la consommation et/ou de fournir plus d’énergie au réseau.
    • En fonction du type (100 mHz ou 200 mHz), la rémunération peut aller de ± 150 000 € à plus de 300 000 € (2019) par an et par MW mis à disposition dans les deux sens (up et down).
    • Ce type de contrat est généralement passé avec des centrales thermiques.

La réserve secondaire

Lorsque la fréquence du réseau commence à dévier des 50 Hz habituels encore plus sévèrement, ELIA active la réserve secondaire pour rétablir l’équilibre sur le réseau et écarter tout risque de black-out. Ce service est activé en cas de problème majeur et exceptionnel et rencontre les mêmes exigences que la réserve primaire à la différence que cette réserve peut éventuellement être un peu plus lente au démarrage.

La réserve tertiaire

Contrairement aux deux premières, la réserve tertiaire ne vise qu’à réduire la pression sur le réseau :

  • Soit par injection par client sur le réseau,
  • Soit par réduction du prélèvement du client.

La mise en action de ces puissances n’a lieu qu’en cas de déséquilibre important. Pour cette raison, ce n’est pas un rééquilibrage automatique mais manuel (ELIA prend la décision, ce n’est pas automatique ; puis le client est mis au courant et agit) tandis que pour les réserves primaires et secondaires cette gestion est complètement automatisée. Ce service est ouvert via des enchères mensuelles pour les candidats qui :

  • Sont disponibles en permanence pour activer à la demande d’ELIA minimum 1 MW,
  • Peuvent mobiliser 50 % de leur puissance en moins de 7 minutes et 30 secondes et la totalité en moins de 15 minutes.

Les grands types de contrats sont au nombre de 2 en fonction de la fréquence et la durée pendant laquelle cette puissance peut être mobilisée :

  • Contrat Standard :
    • Jusqu’à 8 heures par jour, 365 jours par an.
      • Les 8 h pouvant être utilisées librement en une fois ou par petites périodes fréquentes
    • La rémunération est liée à la mise à la puissance et au nombre d’activations.
      • ± 3 600 €/MWdisponible/mois + rémunération par activation.
  • Contrat Flex :
    • Jusqu’à 2 heures par jour, 365 jours par an.
      • Maximum 8 périodes d’activation par jour.
    • La rémunération est liée à la mise à la puissance et au nombre d’activations.
      • ± 2300 €/MWdisponible/mois + rémunération par activation.

Flexibilité électique – généralité

Flexibilité électique - généralité


Définition

La flexibilité électrique d’un réseau qualifie son aptitude à s’équilibrer facilement, rapidement et intensément, à la demande.

La flexibilité d’un réseau trouve 4 origines combinables :

  • La flexibilité de l’offre
    • Le nucléaire est stable et très peu flexible
    • Les énergies renouvelables sont variables, intermittentes et peu flexibles (possibilité néanmoins d’une flexibilité à la baisse pour l’éolien)
    • Les centrales TGV sont une source importante mais couteuse et polluante de flexibilité de l’offre
  • Le stockage d’électricité 
    • Permet, idéalement en dernier recours, d’absorber les déphasages/décalages entre la production et la consommation par des moyens techniques, souvent couteux et parfois avec un impact environnemental sensible.
  • La flexibilité du réseau
    • La présence d’un maillage et d’interconnexions entre les régions d’Europe (et d’ailleurs) permet de mutualiser les forces de chaque réseau et du déphasage des consommations entre les différentes régions (Merci aux hollandais de diner à 17h30 et aux espagnols d’attendre 22h00 J Mais aussi aux deux heures de décalage horaire entre le Royaume-Uni et la Finlande !).
  • La flexibilité de la demande :
    • Il s’agit ici de la capacité des utilisateurs du réseau (et, dans une plus forte mesure, des industries) à adapter leur profil de consommation électrique en fonction de l’offre énergétique (et donc de son prix ¼ horaire). Cette adaptation peut se concrétiser de plusieurs manières, selon la stratégie adoptable. On parlera de :
      • effacement énergétique ou Load shedding lorsqu’il s’agit de mettre en sous-régime ou hors tension un équipement et/ou une activité en réponse à une baisse de la production énergétique. Dans ce cas, l’activité ou le processus est réduit ou non-réalisé.
      • déplacement des charges ou « Load shifting» quand il s’agit de reporter une charge (activé ou processus consommateur d’électricité) pour éviter que celle-ci ne tombe en plein pic tarifaire. Dans ce cas, l’activité est réalisée mais plus tard.
      • re-planification des charges ou « Load Scheduling». il s’agit alors de prévoir et d’adapter le planning des charges (activités ou processus) pour que les grosses consommations aient lieux aux moments où l’électricité est abondante (et donc aux prix les plus bas dans le contexte d’une tarification ¼ horaire). Dans ce cas, l’ensemble des activités et processus sont réalisés mais leur ordre est défini par les prix de l’énergie.
      • changement de vecteur énergétique ou « fuel-switching». Il s’agit la plupart du temps de changer de vecteur énergétique en fonctions du prix de l’électricité. Ceci demande des activités et/ou des process’ permettant un fonctionnement avec divers vecteurs énergétiques.
    • Cette source de flexibilité sur le réseau, contrairement aux autres, ne demande que peu de moyens techniques et financiers. Elle peut même baisser la facture et être source de recettes supplémentaires pour les entreprises participantes.
    • Son développement permet d’éviter le recours à d’autres sources de flexibilité polluantes.
    • Le système NextFlex permet à votre entreprise de prendre part à la flexibilisation du réseau !

Plus un réseau sera flexible, plus il pourra faire la part belle aux énergies renouvelables et réduire le risque de black-out.

Stockage d’électricité – généralité

Stockage d'électricité - généralité


Définition

Un système de stockage électrique est un dispositif technique permettant de convertir une production électrique sous une forme stockable (électrochimique, chimique, mécanique, thermique, …), de l’accumuler puis de la restituer, sous forme d’électricité ou d’une autre énergie finale utile (thermique, chimique, …).

L’électricité ne peut pas être stockée en tant que telle, elle doit nécessairement être convertie.

Dans un monde où la part de la production électrique intermittente, saisonnière et imprévisible croît et augmente le risque de désynchronisation avec les consommations, le stockage permet de rendre le système plus flexible en absorbant les éventuels déphasages entre production et consommation d’énergie.

Le stockage sert principalement de buffer (tampon) et permet de faciliter la gestion et l’intégration des énergies renouvelables tant sur le réseau que dans les bâtiments en offrant une certaine autonomie lorsque le vent et le soleil sont absents.

Les dispositifs de stockage sont caractérisés par :

  • Leur capacité (exprimée en Wh, kWh, MWh, TWh, …),
  • Leur puissance de charge et de décharge (exprimée en W, kW, MW, TW, …),
  • Leur réactivité : le délai nécessaire pour fournir la puissance demandée (exprimé en secondes, minutes ou en heures),
  • Leur densité énergétique (exprimée en Wh/m³, kWh/m³, MWh/m³, TWh/m³, …),
  • Leur capacité à retenir l’énergie stockée dans le temps (autodécharge),
  • Le rendement de conversion (en %).

L’enjeu du stockage à l’échelle du réseau

Depuis le boum des énergies renouvelables en 2010, la question du stockage est sur toutes les lèvres, mais pourquoi ?

Jusqu’il y a peu, les centrales nucléaires offraient une base relativement constante et inflexible de production électrique mais la production d’un complément d’énergie par nos centrales fossiles flexibles activées et modulées au besoin permettait de « coller » à la demande et assurer l’équilibre du réseau. Dans ce paradigme, la production est totalement maitrisée et facilement synchronisable avec la demande (la consommation).

De manière schématique, le profil classique de demande (et donc de la production) au fil d’une journée type en semaine ressemble à ceci :

graphe stockage

De manière plus précise, le nucléaire puissant mais peu réactif, peu flexible assure classiquement une certaine « base constante de production » et les énergies fossiles plus réactives et plus souples s’ajustent et se modulent en continu pour équilibrer le réseau.

Dans ce principe, plus la puissance demandée est élevée, plus les énergies fossiles sont sollicitées. En priorité, ce sont les centrales récentes et performantes qui sont démarrées mais plus la demande est élevée, plus ce sont, in fine, de vieilles centrales polluantes qui devront être mises en route.

Ce sont donc principalement le pic du matin mais aussi et surtout celui du soir qui ont un bilan environnemental exponentiellement désastreux en appelant autant de puissance.

Si nous pouvions baisser la puissance maximale de ±15%, ce sont plus de 40% des émissions qui seraient épargnées !

À quantité journalière d’énergie produite égale, la pollution serait donc bien moindre si nous pouvions la produire à puissance constante.

Qui dit puissance installée réduite dit également moins de centrales et donc une possibilité d’entretien, d’évolution et d’investissement plus dense sur ces centrales restantes et ainsi un meilleur rendement.

Mais, comme la consommation finale des utilisateurs du réseau n’est pas constante, il faudrait que, pendant les creux de consommation, nous puissions stocker le surplus de production pour l’utiliser plus tard et compenser la réduction de puissance des centrales durant les pics journaliers.

graphe stockage énergie en Belgique

graphe du stockage énergie en Belgique

Par exemple, en Belgique, du stockage gravitaire (STEP) est réalisé à cette fin à Coo-Trois-ponts (5GWh mobilisables jusqu’à 6 cycles par jour).

barrage de Coo

ENGIE –ELECTRABEL ©

Mais, comme nous l’évoquions en introduction, une nouvelle donnée est en train de changer la donne à grande vitesse. Vous vous en doutez, il s’agit des énergies renouvelables !

Les énergies renouvelables comme l’éolien et le solaire ont la particularité d’être des énergies peu prédictibles à long terme et intermittentes, cela implique que le gestionnaire du réseau est dépendant de la variabilité de l’ensoleillement et du vent dans son offre d’électricité alors même qu’il doit assurer le parfait équilibre du réseau. Ceci a pour conséquence d’augmenter la volatilité des prix de l’électricité et nécessite de trouver de nouvelles sources de flexibilités sur le réseau.

En réalité, toutes les sources d’énergies sont stockées avant d’être utilisées pour répondre à la demande, que ce soit le bois dans votre abri, l’essence dans votre réservoir, le gaz dans vos tuyaux et même les barres d’uranium dans les centrales. Le défi avec le vent et le soleil, pour ne citer qu’eux, c’est qu’ils ne sont pas directement stockables en tant que tels aussi facilement qu’un combustible.

En Europe, tant que la portion de renouvelable intermittent dans le mix électrique est maintenue sous un seuil communément admis d’environ 30%((https://www.aps.org/policy/reports/popa-reports/upload/integratingelec.pdf))((Sandrine Selosse, Sabine Garabedian, Olivia Ricci, Nadia Maïzi. The renewable energy revolution of Reunion island. Renewable and Sustainable Energy Reviews, Elsevier, 2018, 89, pp.99-105. ff10.1016/j.rser.2018.03.013ff. ffhal-01740511f))((https://www.elia.be/~/media/files/Elia/About-Elia/Studies/20171114_ELIA_4584_AdequacyScenario.pdf)), le gestionnaire est capable d’assurer la stabilité du réseau et l’équilibre avec la demande en compensant avec le fossile. En cas de surplus d’énergies pouvant survenir vers midi quand la demande est faible et que les panneaux fournissent le maximum de leur énergie, comme les centrales nucléaires ne peuvent-être arrêtées et redémarrées d’une minute à l’autre, le gestionnaire va pouvoir trouver une issue grâce aux STEP ou en se déchargeant, par exemple, en activant l’éclairage public. Mais ceci fonctionne uniquement tant que la part de renouvelable est contenue (<30%).

Or, pour 2018, nous recensions ±19% d’énergie renouvelable sur le réseau électrique belge ! Et, heureusement, ce chiffre va croissant. Ce qui devrait nous mener à dépasser le seuil des 30% à l’horizon 2030.

graphe stockage

Source : Données extraites des bilans régionaux SPW DGO4 (Wallonie), Bruxelles Environnement, VITO (Flandre), Eurostat (Belgique) pour les années passées

N’hésitez pas à consultez l’observatoire des énergies renouvelable de l’Apere pour des données mises à jour régulièrement ! Ou encore Energymap.org pour observer en temps réel l’origine de la production électrique.

Pour que le gestionnaire de réseau puisse garder la main sur l’équilibre du réseau quand la part d’énergie intermittente augmente, une des solutions consiste à utiliser des moyens de stockage pour :

  • S’assurer de récolter toute la production : ne pas la gaspiller en éclairant l’espace public de jour en cas de surplus,
  • Pouvoir profiter de cette énergie stockée les jours et les heures où le vent ou le soleil fait défaut et éviter de devoir demander plus de puissance aux centrales fossiles.
  • Augmenter l’interconnexion des réseaux au niveau de l’Europe pour amortir et lisser l’intermittence du renouvelable grâce à une échelle géographique élargie et moins dépendante de phénomènes locaux.

En complément des moyens de stockage : la flexibilité électrique accrue de la demande (par l’effacement ou le déplacement des charges) permettra de ne plus uniquement tenter d’aligner l’offre à la demande mais également d’adapter notre consommation à la quantité d’énergie disponible.


L’enjeu du stockage à l’échelle du bâtiment

La règlementation Européenne et les enjeux énergétiques, climatiques et environnementaux incitent les entreprises, les institutions et les particuliers à rejoindre l’effort et devenir eux aussi producteur d’énergie renouvelable.

Pour contribuer à l’équilibre et l’allègement du réseau, chaque bâtiment devra gagner en autonomie énergétique et autoconsommer le maximum de l’énergie qu’il produit. La Wallonie travaille d’ailleurs sur le statut de prosommateur pour inciter fiscalement à l’autoconsommation.

Or, pour maximaliser le taux d’autoconsommation dans un bâtiment, il faut soit :

  • Adapter sa consommation à la disponibilité intermittente d’énergie autoproduite. Ceci implique une refonte complète des comportements, une souplesse dans ses activités et une attention de chaque instant ce qui sera rarement possible dans un monde où l’organisation, la performance et la vitesse prime.
  • Disposer d’un système qui pourra accumuler l’énergie produite hors des heures d’utilisation dans une batterie, un ballon d’eau chaude, sous forme d’H2, … que nous pourrons ensuite mobiliser en temps utile.

Impact environnemental des éoliennes >500 kW

Impact environnemental des éoliennes >500 kW

Selon le rapport du GIEC (2014), l’impact environnemental de l’énergie éolienne serait l’un des plus soutenables avec aujourd’hui ± 10 gr de CO2équivalent/kWh

À titre comparatif, voici quelques chiffres du GIEC (2014) :
Source d’énergie Impact en gr de CO2 équivalents par kWh
Parcs éoliens 11
Panneaux solaires 27 (20-25 selon d’autres sources plus récentes)
Centrale à gaz  490
Centrale au charbon  820 (+Particules fines)
Nucléaire 12  (+Risque de catastrophe nucléaire)

La plus grande éolienne mesure 187 m de diamètre (2017) et des projets jusqu’à 220 m de diamètre sont en projet en 2019 (une éolienne Haliade-X qui sera installée à Rotterdam)((https://www.ouest-france.fr/pays-de-la-loire/saint-nazaire-44600/eolien-ge-acheve-ses-deux-rotors-geants-saint-nazaire-6394349)). Cela représente une quantité gigantesque de fondations en béton armé en plus des 100+ tonnes de métaux nécessaires juste pour construire les pales de l’éolienne ! Néanmoins une éolienne de cette envergure peut alimenter des milliers de ménages en électricité pendant 25 ans et plus, alors quel bilan ?

impact éolienne

Selon la littérature récente((Inderscience Publishers. « Wind turbine payback: Environmental lifecycle assessment of 2-megawatt wind turbines. » ScienceDaily. ScienceDaily, 16 June 2014. <www.sciencedaily.com/releases/2014/06/140616093317.htm>.)), le retour énergétique et environnemental serait inférieur ou égal à seulement 6 à 12 mois ! Globalement, plus une éolienne sera grande et/ou exposée au vent, plus son retour énergétique, environnemental mais aussi économique sera court.

En règle générale, en fonction de ses dimensions, une éolienne produira 15 à 50 fois plus d’énergie qu’elle n’en aura consommée sur son cycle de vie (de la fabrication ± 80 %, au recyclage (± 10 %), en passant par les entretiens ± 10 %).

Si un repowering est toujours possible, un jour viendra, après 20 à 30 ans, où il faudra songer à démonter l’éolienne et la recycler. Sur base d’une étude danoise((Elsam Engineering, « Life Cycle Assessment of offshore and onshore sited wind farms », Fredericia (Danemark), March 2004)) souvent citée en référence, il apparait que plus de 90-95 % de la masse composant une éolienne (hors fondation) est recyclable. Les études plus pessimistes descendent jusqu’à 80 % mais elles prennent en réalité compte des fondations qui ne seraient recyclées/réutilisées qu’à hauteur de 60-65 % pour le béton et 0% pour les sables et les graviers(( Andersen, P. D., Bonou, A., Beauson, J., & Brøndsted, P. (2014). Recycling of wind turbines. In H. Hvidtfeldt Larsen, & L. Sønderberg Petersen (Eds.), DTU International Energy Report 2014: Wind energy — drivers and barriers for higher shares of wind in the global power generation mix (pp. 91-97). Technical University of Denmark (DTU).)). Dans certains cas, les fondations (responsables de 15-20% de l’impact pour les éoliennes onshore et 30-35 % de l’impact des éoliennes offshore) pourront resservir de base à une nouvelle éolienne !

Impact envrironnemental des panneaux photovoltaïques

Impact envrironnemental des panneaux photovoltaïques

La fabrication des panneaux photovoltaïques a un impact environnemental non négligeable : fabrication à haute température du verre et du silicium, transport longue distance, quelques milligrammes de « terres rares », … Cela doit-il nous inquiéter ?

panneaux photovoltaiques impact

Selon un article de la revue « nature » [Re-assessment of net energy production and greenhouse gas emissions avoidance after 40 years of photovoltaics development], Atse Louwen, Wilfried G. J. H. M. van Sark , André P. C. Faaij & Ruud E. I. Schropp ; Nature Communications volume7, Article number: 13728 (2016)] , entre les années 80’ et aujourd’hui, l’empreinte des panneaux solaires n’a cessé de baisser passant de :

  • ±400gr à moins de ±25gr de CO2équivalent/kWh pour les panneaux monocristallins
  • ±140gr à moins de ±20gr de CO2équivalent/kWh pour les panneaux polycristallins !
À titre comparatif, voici quelques chiffres du GIEC (2014) :
Source d’énergie Impact en gr de CO2 équivalents par kWh
Parcs éoliens 11
Panneaux solaires 27 (20-25 selon d’autres sources plus récentes)
Centrale à gaz  490
Centrale au charbon  820 (+Particules fines)
Nucléaire 12  (+Risque de catastrophe nucléaire)

Dans le même temps, les rendements de production, la recyclabilité et le déploiement des panneaux n’ont cessés de croître permettant aux PV d’assurer un retour environnemental en moins de 4 à 5 ans sous nos latitudes pour les études les plus prudentes. Un retour sur 2 à 3 ans peut également être trouvé chez les auteurs dont les hypothèses sont plus favorables. Cette durée devrait continuer à se raccourcir dans les années à venir alors qu’en parallèle la durée de vie des panneaux modernes – conventionnellement définie à 20 ans – devrait s’étendre à 30 ans et + dans les années à venir.

Moyennant l’acceptation d’une baisse de rendement (de l’ordre de 20% après 20-25 ans), certaines entreprises garantissent leurs systèmes pour « toute la durée de vie de votre maison » ! Dans un futur proche, les panneaux solaires pourraient donc même survivre à votre maison !

Néanmoins, rien n’est éternel. En ce qui concerne la fin de vie des panneaux, on estime en 2019 qu’avec les techniques actuelles, entre 90 et 95% des composants des panneaux peuvent être recyclées((Selon le rapport de l’agence internationale de l’énergie : INTERNATIONAL ENERGY AGENCY PHOTOVOLTAIC POWER SYSTEMS PROGRAM, End-of-Life Management of Photovoltaic Panels: Trends in PV Module Recycling Technologies IEA PVPS Task12, Subtask 1, Recycling Report IEA-PVPS T12-10:2018, January 2018, ISBN 978-3-906042-61-9)) (l’énergie nécessaire au recyclage étant prise en compte dans le calcul du retour énergétique). Ensuite, partant du constat que, pour la Belgique, l’installation de panneaux a réellement commencé à décoller vers 2009 avec un pic vers 2011 (Apere), nous pouvons estimer que le début du recyclage à grande échelle ne devrait pas se manifester avant ±2030, ce qui nous laisse encore quelques années pour améliorer la valorisation des panneaux en fin de vie.

On pourrait aussi légitimement se demander ce qu’il en est des panneaux plus anciens dont la fabrication était jadis jusqu’à 8 fois plus impactante qu’en 2016 ? Avec un calcul rapide, on peut se rendre compte que ces premiers modèles de panneaux proposaient un retour environnemental sur 20 à 40 ans alors même que leur durée de vie tourne autour des 20 ans. Ces premières versions de panneaux ont donc un bilan neutre ou négatif sur l’environnement !

Rassurez-vous néanmoins, malgré des débuts mitigés et une explosion énergivore de la quantité de panneaux produits, toujours selon cette étude, les balances nettes cumulées depuis les débuts du PV, sont passées en positif récemment, entre 2011 et 2018 (selon les hypothèses). Et ce tant pour le CO2 évité par rapport au CO2 produit que pour l’énergie primaire produite par rapport à celle consommée pour la fabrication, l’entretien et le recyclage.

L’investissement environnemental de départ nécessaire pour qu’une technologie voit le jour et atteigne une certaine maturité est donc derrière nous et le PV a de beaux jours exponentiellement positifs devant lui !

grpahe panneaux photovoltaique impact

Re-assessment of net energy production and greenhouse gas emissions avoidance after 40 years of photovoltaics development, Nature 2016. [Les hypothèses bleues et jaunes correspondent respectivement à une hypothèse de rendement des panneaux produits progressant dans le temps et une hypothèse de rendement stagnant et bas des panneaux]

Pour conclure, rappelons qu’il vaudra toujours mieux chercher à se passer d’énergie (isolation, systèmes passifs, …) que de la produire de manière renouvelable. Un bilan « net », même « positif » implique toujours une balance entre des effets désirables mais également des impacts négatifs. Si, mathématiquement, on peut soustraire l’un de l’autre, dans la réalité les effets néfastes de la conception, de l’entretien et du recyclage ne disparaissent pas par la production d’énergie fusse-t-elle photovoltaïque. Ces effets positifs et négatifs se juxtaposent plus qu’ils ne s’annulent.

Choisir le compresseur de la machine frigorifique [Climatisation]

Choisir le compresseur de la machine frigorifique [Climatisation]

Choix du type de compresseur

Il existe de nombreuses technologies de conception des compresseurs.

Techniques

Pour découvrir ces diverses technologies, cliquez ici !

Pour aider à la sélection, il est possible de les regrouper par « familles » et d’en tirer leurs propriétés communes.

On distingue les compresseurs par le mode de compression :

  • Le compresseur volumétrique, la compression du fluide frigorigène se fait par réduction du volume de la chambre de compression. Il existe des compresseurs à piston, à vis, à spirales (compresseurs scroll) et des compresseurs rotatifs.
  • Le compresseur centrifuge, où la compression du fluide est créée par la force centrifuge générée par une roue à aubes. On parle de turbocompresseur.

On les distingue également par l’association moteur-compresseur :

  • Le compresseur ouvert, où le moteur est dissocié du compresseur et raccordé par un manchon ou une courroie. L’accès aux différents éléments est possible pour réparation et la vitesse de rotation est modifiable en changeant la poulie du moteur. Mais ces deux avantages (fort théoriques…) ne compensent pas le défaut majeur de l’existence d’un joint d’étanchéité rotatif à la traversée du carter par l’arbre. Ce joint, qui doit être lubrifié pour assurer l’étanchéité, est source de fuites… inacceptables aujourd’hui dans un contexte « zéro-fuite ».
  • Le compresseur hermétique, où moteur et compresseur sont enfermés dans une même enveloppe. Le joint tournant disparaît et avec lui le risque de fuite. Mais des contraintes nouvelles apparaissent, dont le fait que le refroidissement du moteur est réalisé par le fluide frigorigène lui-même. Cet échauffement est préjudiciable au cycle frigorifique puisque la température à l’aspiration du compresseur augmente. De plus, si le moteur vient à griller, c’est l’ensemble du circuit frigorifique qui sera pollué : un nettoyage complet du circuit doit être réalisé si l’on veut éviter de nouveaux ennuis. En cas de problème, il n’est plus possible de réparer… Dès lors, un organe de sécurité contre la surchauffe (Klixon) est incorporé. Grâce à cette sécurité thermique, montée dans les enroulements du moteur ou sur ces derniers, l’alimentation électrique sera coupée lors d’une surchauffe du moteur.Le compresseur hermétique est couramment utilisé pour les petites et moyennes puissances : climatiseurs, armoires de climatisation, pompes à chaleur, …
  • Le compresseur semi-hermétique, qui réalise un compromis entre les deux produits précédents. Il tente de bénéficier des avantages du groupe ouvert (accès aux mécanismes) et du groupe hermétique (limitation des fuites). Mais l’étanchéité reste imparfaite (nombre de joints non négligeable) et le prix est sensiblement plus élevé que pour le compresseur hermétique.Le compresseur semi-hermétique est utilisé pour les moyennes puissances.

Critères énergétiques de sélection parmi les différents types de compresseur

Tous les compresseurs ne présentent pas une performance égale. Cette performance peut être mesurée via le COP de la machine frigorifique dans laquelle ils seront insérés. Le tableau ci-dessous (valeurs recommandées par le standard ARI) permet d’apprécier globalement la performance que l’on peut attendre des différents types de compresseurs :

Type d’équipement

COP min. recommandé (kWr/kWe)

Groupes de production d’eau glacée à pistons

A refroidissement par air

– Jusqu’à 100 kWr
– Supérieur à 100 kWr

A refroidissement par eau

– jusqu’à 10 kWr
– Supérieur à 10 kWr

 

 

3,0
3,0

 

3,7
4,0

Groupes de production d’eau glacée à vis

A refroidissement par air

A refroidissement par eau

– jusqu’à 800 kWr
– Supérieur à 800 kWr

 

4,5

 

4,6
5,0

Groupes de production d’eau glacée centrifuges

A refroidissement par air

– jusqu’à 800 kWr
– Supérieur à 800 kWr

A refroidissement par eau

– jusqu’à 800 kWr
– Supérieur à 800 kWr

3,8
3,84,5
4,7

Conditions standard ARI 550/590-98. Exemple : pour groupes de production d’eau glacée, température départ eau glacée = 6,7°C ; température entrée condenseur à eau = 29,4°C / à air = 35,0°C.

Comment choisir ?

Globalement, la tendance actuelle est :

  • à l’abandon des machines à mouvement alternatif (compresseur à piston),
  • au développement des machines tournantes, à came rotative, à spirale rotative (scroll) ou à vis.


Le compresseur à vis …


… et la vis en question !

Compresseur scroll.

Les avantages portent :

  • sur une réduction des pièces mécaniques en mouvement (suppression des clapets) et donc une plus grande fiabilité,
  • un rendement volumétrique d’un compresseur assez bon grâce à l’absence d’espaces morts, comme dans les compresseurs à pistons,
  • une meilleure modulation de puissance,
  • une plus grande longévité,
  • un niveau sonore nettement plus favorable (moins de vibrations), surtout pour les appareils hermétiques,
  • une moindre sensibilité aux entrées de fluide frigorigène liquide (« coups de liquide » destructeurs des compresseurs à pistons),
  • un coût de maintenance également plus faible, puisque le risque de panne est diminué.

Pas de secret : leur coût d’achat est encore plus élevé…

On choisira des compresseurs hermétiques ou semi-hermétiques pour atteindre l’objectif zéro-fuite de fluide frigorigène, objectif qui sera un jour obligatoire au niveau réglementaire.

La puissance frigorifique à atteindre constitue un critère de choix de départ, mais la sélection d’un compresseur demande une vue globale sur les typologies disponibles en fonction de la puissance frigorifique et sur le mode de régulation de puissance. Un camion peut être très performant, mais s’il est trop puissant, il n’atteint pas la performance de 2 camionnettes…

Dans le tableau synthèse de sélection, on trouvera les deux critères rassemblés.

Critères énergétiques de sélection du compresseur lui-même

Pour les compresseurs à vis comme pour les compresseurs scroll, le risque est de sélectionner un compresseur dont le taux de compression est trop élevé : le compresseur travaillera « pour rien » puisque le fluide frigorigène sera trop comprimé puis se détendra au travers de l’orifice de refoulement jusqu’à atteindre la pression de condensation.

La pression de condensation est liée au régime de fonctionnement du condenseur de l’installation. Il importe que la pression interne de refoulement soit la plus proche possible de la pression de condensation.

Le concepteur choisira un « rapport de volume interne » (cela correspond au taux de compression, mais exprimé sous forme d’un rapport entre les volumes à l’entrée et à la sortie du compresseur) approprié au cas d’utilisation et pour lequel le compresseur exige la plus faible puissance d’entraînement possible.

Pour les cas où les conditions de pression de fonctionnement varient fortement, on a mis au point le compresseur à vis à rapport de volume interne variable. Le taux de compression s’adapte automatiquement au rapport de pression utile en fonction des paramètres de température de condensation et de température d’évaporation.

Cette technique optimalise le rendement énergétique tant à pleine charge, qu’à charge partielle.

L’insertion d’un économiseur (ou « superfeed » ou « suralimentation »)

Le fonctionnement technique de l’économiseur dépasse la portée de nos propos, mais le principe de base consiste à injecter une quantité de fluide frigorigène supplémentaire dans le compresseur, à une pression intermédiaire entre la pression de condensation et d’aspiration.

La puissance frigorifique en est nettement améliorée alors que la puissance absorbée n’augmente que légèrement.

On rencontre différentes modalités d’application de ce principe dans trois technologies de compresseur :

  • Dans les compresseurs à vis, où un orifice est prévu dans la paroi du stator pour injecter du fluide juste après la phase d’aspiration.
  • Dans les compresseurs rotatifs à palettes multiples, où une augmentation de 10 % de la puissance absorbée, génère de 20 à 30 % de la puissance frigorifique, suivant le régime de fonctionnement.
  • Dans les compresseurs centrifuges, où ce système est prévu par certains constructeurs lorsque le compresseur comporte deux roues. Les gaz supplémentaires sont injectés à l’entrée de la deuxième roue où ils se mélangent aux gaz refoulés de la première roue. Même si la puissance absorbée augmente, le coefficient de performance en est accru. On cite par exemple un COP accru de 6 % pour une température d’évaporation de 0°C et une température de condensation de 40°C.

Refroidisseur de liquide à compresseur centrifuge de 3 900 kW.

Prévoir dès le départ la mesure du COP de l’installation :

Pour la bonne gestion future d’une grosse installation, on peut imaginer de placer un compteur d’énergie sur l’eau glacée et un compteur électrique sur le compresseur (coût de l’ordre de 5 000 Euros). Il sera alors possible d’imposer un COP moyen annuel minimum à la société de maintenance… en laissant celle-ci se débrouiller pour y arriver. Un remboursement de la différence peut être prévu comme pénalité en cas de non-respect.


Choix de la technique de régulation de puissance

La puissance de la machine frigorifique a été dimensionnée pour répondre aux conditions de fonctionnement extrêmes (période de canicule), sans compter les surdimensionnements liés aux incertitudes d’occupation.

La première économie consiste à évaluer au plus près la puissance frigorifique nécessaire car la machine frigorifique s’adapte mal aux bas régimes. Chaque palier de diminution de 25 % de la puissance frigorifique du groupe ne réduit la puissance électrique absorbée que de 10 % en moyenne ! Pour vérifier les ordres de grandeur dans un cahier des charges, un ratio (très approximatif !) de 100 W/m² peut situer les besoins d’un bureau. La puissance totale du bâtiment ainsi trouvée sera multipliée par 2/3 pour tenir compte de la non-simultanéité des besoins.

Ensuite, il faut choisir une régulation qui lui permette de répondre à des besoins généralement beaucoup plus faibles que la valeur nominale et fluctuant dans le temps.

Diverses techniques de régulation sont possibles :

  • la régulation par « tout ou rien » (marche/arrêt ou pump-down),
  • la régulation progressive de la pression d’évaporation,
  • la régulation par « étages »,
  • la régulation par cascades (ou « centrales »),
  • la régulation par variation de vitesse ou « INVERTER »,
  • la mise hors-service de cylindres,
  • le by-pass des vapeurs refoulement-aspiration,
  • l’obturation de l’orifice d’aspiration,
  • la régulation par injection des gaz chauds,
  • la régulation « par tiroir » des compresseurs à vis,
  • la prérotation du fluide frigorigène dans les turbocompresseurs.

Les investissements dans une régulation performante sont très rentables. Le supplément de prix demandé par l’installation de plusieurs unités en cascade (centrale) ou d’unités avec un réglage fin de la production (turbocompresseurs et compresseurs à vis avec régulation de l’aspiration) est rapidement compensé par les économies d’énergie réalisées. Un surcroît d’investissement de 10 à 15 % génère de 20 à 30 % d’économie d’énergie.

Le découpage de la puissance

Classiquement, la solution consiste à répartir la puissance :

  • soit en choisissant un compresseur à plusieurs étages (= plusieurs cylindres ou plusieurs pistons),
  • soit en créant une cascade entre plusieurs compresseurs (= compresseurs en centrales).

Le choix d’un compresseur à plusieurs étages est réservé aux machines frigorifiques utilisées en congélation. Suite à la très basse température de l’évaporateur, la différence des pressions à vaincre par le compresseur est fort élevée. Il est alors très utile de décomposer la compression en deux étapes : c’est le rôle du compresseur bi-étagé. On choisit également ce système lorsque la température de refoulement des gaz comprimés devient trop élevée : c’est par exemple le cas de l’ammoniac.

Par contre, en climatisation, un montage en parallèle de plusieurs machines (montage « en centrale ») est simple et fiable puisque les machines restent indépendantes.

Compresseurs alternatifs
montés en tandem.

La variation progressive de la puissance est énergétiquement favorable puisqu’aucune machine n’est dégradée dans son fonctionnement.

Bien sûr, le coût d’investissement est plus élevé que si l’on utilisait une seule grosse machine, mais imaginerait-on d’installer une grosse chaudière sans prévoir une cascade pour reprendre les faibles besoins de la mi-saison ?

Un découpage de la puissance en étages est recommandé, tout particulièrement lorsque les variations de charge sont importantes.

Il en résultera :

  • Un gain sur les kWh (énergie) :
    • car le « petit » compresseur alimentera un condenseur surdimensionné pour ses besoins, d’où une pression de condensation plus basse,
    • car le rendement du moteur du compresseur sera amélioré.
  • Une longévité accrue de l’installation par un fonctionnement plus régulier.
  • Une sécurité d’exploitation.
  • Un gain sur la pointe 1/4 horaire en kW (puissance), facturée par la société distributrice.

En général, on établit les enclenchements en cascade sur base de l’évolution de la température de retour de la boucle d’eau glacée, température qui constitue une image des besoins du bâtiment. Le tout est temporisé de telle sorte que les compresseurs ne s’enclenchent pas tous les uns à la suite des autres.

Une bonne solution peut être également de réguler en fonction de la température du ballon-tampon, lorsqu’il est existant.

Pourquoi un ballon tampon ? Un compresseur ne peut démarrer et s’arrêter trop fréquemment sous peine de s’échauffer. Pour prolonger la durée de vie du matériel en diminuant le nombre de démarrages, le constructeur prévoit un « anti-court cycle », c’est-à-dire la temporisation du redémarrage si l’installation vient de s’arrêter. La présence du ballon tampon amplifie l’inertie thermique de l’installation, prolonge la durée de fonctionnement du compresseur, améliore le rendement du compresseur et supprime le risque qu’il soit bloqué par l’anti-court cycle.

On dimensionne un ballon tampon de telle sorte que son stockage corresponde à 5 à 10 minutes de la consommation en eau.

La variation de vitesse du compresseur

C’est une autre solution avantageuse en plein développement : soit un moteur d’entraînement à deux vitesses, soit un entraînement à vitesse variable. Cette dernière technique est sans aucun doute à recommander actuellement. Le régime de vitesse s’adapte à la puissance de réfrigération souhaitée. Par exemple, un variateur de fréquence génère une tension dont la fréquence varie entre 20 et 60 Hz. S’il s’agit d’un moteur prévu pour fonctionner à 1 500 tours à 50 Hz, il tournera entre 600 et 1 800 tours/min selon les besoins.

Pourquoi la limitation à 20 Hz ? Un défaut de lubrification du compresseur peut apparaître à basse vitesse, mais les constructeurs améliorent les systèmes régulièrement et trouvent des solutions.

Cette technique de variation de puissance par la variation de vitesse du compresseur (encore appelée INVERTER) entraîne :

  • un confort élevé (bonne stabilité de la température à l’évaporateur car régulation de la pression à l’aspiration du compresseur),
  • un rendement énergétique supérieur aux autres techniques de régulation de puissance, car on ne détruit pas le rendement volumétrique, on givre moins (en chambre frigorifique), on limite les dépassements de consigne de régulation propres aux systèmes de régulation tout ou rien (liés au différentiel de régulation),
  • une réduction du bruit et des vibrations,
  • un cos phi élevé (entre 0,95 et 0,98), ce qui permet d’éviter des pénalités ou le placement de condensateurs de compensation.

Audit

Pour comprendre la facture électrique, cliquez ici !

Réseau électrique

Pour comprendre le placement de condensateurs de compensation, cliquez ici !

Le supplément de coût (si un compresseur coûte 100, sa version avec variateur de vitesse tournera entre 150 et 180) sera rapidement amorti par l’économie d’exploitation. Il ne sera plus nécessaire de prévoir un démarrage « étoile-triangle » puisqu’un démarrage « en douceur » est réalisé par le variateur.

A priori, les différents types de compresseurs peuvent être équipés de cette technique (exceptés les petits compresseurs hermétiques), mais s’il s’agit de greffer un variateur sur un matériel existant, une consultation préalable du fabricant sera bienvenue (risque de défaut de lubrification).

Cette technique est également intéressante pour les compresseurs à vis (énergétiquement plus efficace que la régulation par tiroir), mais des troubles de lubrification et un échauffement du moteur peuvent apparaître à vitesse réduite.

La mise à l’arrêt de cylindres

Méthode assez répandue parmi les techniques de découpage de la puissance, il est possible de jouer avec la mise hors-service des cylindres (ce qui peut s’adapter sur une installation existante).

Avantage : pour éviter les pointes de courant de démarrage, il est possible de démarrer à vide le compresseur.

Inconvénients :

  • Ce réglage est énergétiquement moins favorable; les cylindres tournant à vide ont pour conséquence que, pour une puissance de réfrigération de 50 %, par exemple, la machine absorbe encore environ 65 % de la puissance d’entraînement.
  • La variation de la puissance n’est pas continue (sauts de puissance).
  • L’usure de la machine est pratiquement identique à vide ou en charge.

L’obturation de l’orifice d’aspiration

À cet égard, le réglage par un étranglement dans la conduite d’aspiration n’est pas meilleur. On modifie alors la puissance de réfrigération en agissant sur le débit du réfrigérant.

L’injection des gaz chauds

Quant au réglage de la puissance du compresseur par injection des gaz chauds dans l’évaporateur ou à l’entrée du compresseur, il faut le qualifier de « pur anéantissement d’énergie ». Dans ce cas, la puissance absorbée reste la même lorsque la puissance de réfrigération diminue. De plus, ils provoquent un échauffement du moteur. Dans la mesure du possible, il faut mettre ce système aberrant hors service dans les installations existantes.

C’est le compresseur qui travaille sur lui-même. On pourrait tenter l’image suivante : une pompe remonte de l’eau de la cave vers le rez-de-chaussée. Si l’eau vient à manquer, on risque de faire caviter la pompe. Aussi, on décider de redescendre de l’eau vers la cave, de réinjecter de l’eau supplémentaire à l’entrée de la pompe. Ainsi, on est sûr que le débit de la pompe restera suffisant !

Attention à l’injection de gaz chauds rencontrée en climatisation sur des groupes avec un compresseur n’ayant pas de système interne de régulation de puissance, utilisé sur des petits chillers et des systèmes à détente directe (roof-top, par exemple) : c’est absolument à proscrire.

(A ne pas confondre avec le dégivrage par injection de gaz chauds, qui est par contre une technique très efficace de dégivrage).

Tableau synthèse de sélection

L’importance d’une mesure préalable !

La mise en place d’une régulation performante demande de connaître la puissance effective nécessaire en fonction des saisons. Aussi, si le choix d’un compresseur doit être fait en vue du remplacement d’une machine existante, on placera un simple compteur horaire sur l’alimentation électrique du compresseur actuel pour ainsi connaître son temps de fonctionnement et donc la puissance moyenne demandée. Cela permettra de mieux choisir la nouvelle machine frigorifique.

Si l’installation doit vaincre les apports d’une machine spécifique à enclenchement discontinu, la puissance moyenne peut être trompeuse : à certains moments, c’est la puissance totale qui est demandée, et zéro le reste du temps… Idéalement, on enregistrera la puissance demandée, en relevant en parallèle la source des apports thermiques.

Type de compresseur Plages de puissance
(kW frigorifiques)
Régulation adaptée
Compresseur rotatif 10 W maximum
(climatiseurs individuels,
petits refroidisseurs d’eau)
  • Variation de la vitesse de rotation
  • Régulation admission gaz à l’aspiration
  • La tendance est d’associer deux ou plusieurs compresseurs sur une même machine

(*)

Compresseur scroll de 3 à 40 kW par compresseur
(mais possibilité de puissance supérieure par mise en parallèle de compresseurs)
Modulation de puissance optimale, par variation de la vitesse de rotation ou par mise en « centrale »
Compresseur à piston
Ouvert quelques dizaines de kW à plus de 1 000 kW Étanchéité aux fluides frigorigènes insuffisante aujourd’hui
Semi-hermétique de quelques dizaines de kW à quelques centaines de kW
  • Un compresseur à plusieurs étages
    ou plusieurs compresseurs en cascade (« centrale »)
  • Variation de la vitesse de rotation
Hermétique de quelques kW à plusieurs dizaines de kW Régulation type « marche/arrêt » commandée par thermostat d’ambiance ou sur circuit d’eau.

Tendance actuelle : plusieurs compresseurs en cascade (« centrale »)

Compresseur à vis de (20) 100 à 1 200 kW Excellente fiabilité et longévité

Modulation de puissance par « tiroirs » très souple, de 100 à 10 %, avec une très faible dégradation du COP par la régulation « par tiroirs », du moins au-dessus de 50 % de la puissance.

Compresseur centrifuge (ou turbo-compresseur) de (600) 1 000 à 4 000 kW Modulation de puissance optimale limitée à 35 %, par prérotation du fluide frigorigène à l’entrée de la roue.

(**)

(*) pour les compresseurs rotatifs, la modulation de puissance s’opère par modification du débit de fluide frigorigène, soit en faisant varier la vitesse de rotation du compresseur, soit en régulant l’admission des gaz à l’aspiration. Le rendement énergétique est sensiblement conservé à charge partielle, ce qui constitue un avantage important. Pour la même raison que pour les compresseurs à pistons, la tendance est d’associer deux ou plusieurs compresseurs sur une même machine.

(**) Pour les turbocompresseurs,

  • La variation de la vitesse de rotation ne peut se faire que sur une plage limitée et avec une diminution de rendement du compresseur. Concrètement, la variation de vitesse par moteur asynchrones triphasés est encore onéreuse, aussi la régulation par variation de vitesse n’est envisagée que lorsque le turbo compresseur est entraîné par une turbine à vapeur.
  • La régulation par modification des pressions du cycle est parfois rencontrée (augmentation de la pression de condensation par augmentation de la température au condenseur, et diminution de la température à l’évaporation en créant une perte de charge à l’aide d’un volet). cette technique est désastreuse sur le plan énergétique. Tout autant que la régulation par injection de gaz chauds à l’aspiration.
Remarque.
Choisir un compresseur performant, c’est bien. Le placer dans un environnement favorable, c’est mieux. En pratique, on sera très attentif aux assembliers qui proposent
« un échangeur + un compresseur + un échangeur ».
L’ensemble forme une machine frigorifique, certes, mais les pertes de charge liées aux échangeurs sont parfois très élevées pour le compresseur, ce qui augmente fortement sa consommation !On choisira de préférence une installation globale, montée d’usine et dont le fabricant garantit la performance globale.

Critères acoustiques

En local technique

C’est le compresseur qui génère le plus de bruit, il est donc toujours préférable de le placer en local technique lorsque l’on dispose d’un espace suffisant, tandis que le condenseur refroidi par air est placé en terrasse. Cette solution est la plus adaptée en ce qui concerne la diminution des nuisances sonores vers l’extérieur du bâtiment.

Lorsque les compresseurs sont placés en local technique, ils masquent tous les bruits de détente ou de circulation interne des fluides dans la machine. Pour diminuer les nuisances acoustiques du compresseur, il faut mettre en place les dispositifs suivants :

  • Mettre un capot acoustique sur la machine.
  • Prévoir une dalle flottante équipée d’isolateurs à ressorts.
  • Placer des plots en élastomère entre la machine et la dalle flottante.

Si le groupe évaporateur/compresseur est implanté au-dessus de locaux occupés, on peut placer un matelas de laine de verre entre la dalle flottante et le socle de propreté de la machine.

N.B. : la suspension anti-vibratile des compresseurs peut ne pas être suffisamment efficace car les compresseurs sont reliés aux autres éléments de façon rigide. Ainsi, on utilisera des manchettes souples pour relier l’évaporateur aux canalisations du réseau hydraulique.

En terrasse

Si on ne dispose pas d’un local de service, évaporateur, compresseurs et condenseur seront placés en terrasse. Mais, sur le plan acoustique, ce type de disposition est toujours à éviter.

Dans tous les cas, il faudra éloigner au maximum les compresseurs de tous les plaignants potentiels.

Remarquons que l’éloignement de la machine impose des longueurs de canalisations plus importantes, ce qui peut avoir une influence sur le dimensionnement des équipements (collecteurs, pompes, …) et augmenter le coût de l’installation.

Il faudra éviter de placer les compresseurs à proximité de parois qui pourraient augmenter sa directivité vers une zone sensible. Au contraire, il faudra envisager de placer la machine de façon à la cacher derrière un obstacle. Ainsi, en terrasse, on pourra placer la machine derrière la cabine d’ascenseur ou profiter de la présence de l’armoire électrique de la machine, par exemple.

Remarque.

Si la réduction des nuisances acoustiques est un critère important, le placement d’un variateur de vitesse sur le compresseur (qui se justifie déjà pour des raisons énergétiques) est incontournable.

Certains variateurs peuvent être paramétrés pour « sauter » la(les) gamme(s) de fréquence qui génère(nt) des vibrations du compresseur (fréquences de résonance de la machine). Simplement, il ne s’arrête pas sur ces fréquences critiques.

À titre d’exemple, voici quelques niveaux sonores donnés par un fabricant de groupes refroidisseurs de liquide (pression sonore mesurée à 10 m en champ libre en dBA).

– machines équipées de compresseur scroll hermétique :

Puissance comprise entre 17 et 35 kW : 43 dBA
Puissance comprise entre 38 et 100 kW : 55 dBA
Puissance comprise entre 101 et 200 kW : 61 dBA

Puissance comprise entre 201 et 245 kW : 65 dBA

– machines équipées de compresseur à piston semi-hermétique :

Puissance comprise entre 245 et 540 kW : 57 dBA
Puissance comprise entre 541 et 740 kW : 60 dBA

– machines équipées de compresseur à vis :

Puissance comprise entre 280 et 600 kW : 68 dBA
Puissance comprise entre 601 et 1215 kW : 71 dBA

Géothermie [Le chauffage – PAC]


Principe

À l’état naturel, le sous-sol garde une température constante de l’ordre de 10 … 12 °C à partir d’une profondeur d’une dizaine de m.

On peut donc logiquement imaginer que celui-ci puisse servir de source naturelle de froid. Il suffirait qu’un réseau véhiculant un fluide caloporteur le parcoure pour produire de l’eau à température adéquate pour refroidir un bâtiment.

On appelle cela du « géocooling ».

De même, une température de 10 .. 12 °C plus élevée et plus stable que la température extérieure hivernale est une température intéressante pour servir de source froide à une pompe à chaleur, en l’occurrence sol/eau, pour chauffer le bâtiment en hiver.

On parle alors de « géothermie ».

Refroidissement en été et chauffage en hiver vont d’ailleurs souvent de pair. En effet, si en été on extrait du « froid » du sol, ce dernier se réchauffe progressivement. Si cette opération se répète d’année en année, sans autre perturbation, le sol verra sa température moyenne augmenter jusqu’à ne plus être exploitable.

Dès lors pour éviter ce phénomène, il s’agit de régénérer le sol chaque hiver en extrayant la chaleur accumulée en été grâce à une pompe à chaleur.

On parle alors de « STOCKAGE GEOTHERMIQUE » : la chaleur du bâtiment est transférée dans le sol en été quand elle est gênante pour être utilisée en hiver quand elle est nécessaire.


Technologie des sondes géothermiques

Les systèmes fermés et ouverts

On parle de système fermé si un fluide caloporteur circule dans le sol dans un circuit fermé.

On retrouve principalement 3 types de systèmes fermés : les forages ou sondes géothermiques, les pieux géothermiques et les nappes horizontales.

3 types d’échangeur géothermique : les pieux, les sondes et les nappes.

Source : Rehau.

On parle de système ouvert lorsque c’est l’eau de la nappe phréatique ou du lit d’une rivière qui est pompée pour échanger sa chaleur avec le bâtiment et réintroduite en aval du sens d’écoulement souterrain.

Forages géothermiques

Dans ce cas les « échangeurs géothermiques » ou « sondes géothermiques » sont pour la plupart constitués de forages verticaux (diam 150 mm) d’une profondeur de 50 à 400 m (souvent 100 .. 150 m). Chaque forage contient des conduites, le plus souvent en polyéthylène (DN 32) disposées en double U et enrobées d’un coulis de ciment/bentonite (le « grout ») assurant la protection mécanique tout en permettant une certaine souplesse indispensable pour résister aux mouvements de sol.

Source : REHAU.

L’ensemble des forages forme ainsi un champ de sondes espacées entre elles de 6 à 10 m, pour limiter les interférences thermiques. Les sondes sont raccordées entre elles via des collecteurs, en série ou en parallèle ou un mix des deux.

Le champ de sondes peut être disposé à côté du bâtiment ou même sous le bâtiment (par exemple en ville).

Variantes : Sondes coaxiales en acier

Les forages géothermiques présentent une série de contraintes comme :

  • la nécessité d’espace pour effectuer les forages;
  • la gestion du forage au travers de couches de sous-sol parfois hétérogènes;
  • la nécessité de maximiser l’échange de chaleur tout en garantissant la tenue mécanique des sondes,
  •  …

Cela conduit les fabricants à proposer des alternatives aux sondes traditionnelles en « double U ».

Il existe ainsi des sondes coaxiales : l’eau en provenance du bâtiment circule dans la périphérie de la sonde et revient par le cœur pour délivrer son énergie au bâtiment.

Exemple de sonde coaxiale en PE : le fabricant annonce que les performances d’une sonde de dimension 63 mm / 40 mm
correspondent à une sonde géothermique double U de dia. 32 mm.

Source : www.hakagerodur.ch

Pour encore augmenter l’échange thermique avec le sol les sondes peuvent être réalisées en acier (avec protection cathodique) ou en inox, sans enrobage : le tube périphérique est en métal et le tube intérieur en PE.

L’augmentation du transfert de chaleur, permet alors réduire le nombre de forages et la longueur des sondes. Ainsi des tests de réponse thermique montrent qu’en moyenne, les sondes coaxiales en inox ont une résistance thermique 2 fois moindre qu’une sonde avec doubles U en PE. Cela permettrait une puissance d’extraction de 10 à 20 % supérieure.

Exemple de sondes en acier, à visser (longueur de 3 m).

Source : Thermo-pieux.

Exemple de sonde en inox introduite par forage ou « vibro-fonçage ».  La profondeur peut atteindre une centaine de mètres.

Source : geo-green.

La technologie des sondes coaxiales ouvre la porte à des installations avec des forages en étoile au départ d’un point d’entrée unique dans des lieux où l’accès pour des forages parallèles espacés n’est pas possible (par exemple, une cour intérieure dans un site existant).

 

Forages en « étoile » : on parle dans la littérature de « racines géothermiques ».

Pieux géothermiques

Une alternative aux forages consiste à intégrer les échangeurs géothermiques aux pieux de structure d’un bâtiment. Cela se justifie parce que ceux-ci sont souvent nécessaires dans des sous-sols humides, sous-sols favorables aussi à la géothermie.

On justifie cette technique par un souci de rationaliser les techniques en les combinant. Cependant, la pratique ne prouve pas que les coûts soient inférieurs par rapport à des installations distinctes. La mise en œuvre des pieux se complique également. La gestion de l’installation doit également interdire que les pieux de fondation ne gèlent en mode de chauffage hivernal.

 

Exemples de réalisation : La crèche de l’île aux oiseaux, ville de Mons : 16 pieux géothermiques de 10 m.

La crèche de l’ile aux oiseaux de Mons.

Aéroport de Zurich : 350 pieux géothermiques de 30 m de profondeur.

Nappes horizontales

La géothermie se décline également sous la forme de nappes de tuyaux déployés horizontalement à faible profondeur (0,6 à 1,2 m).

Le système est peu applicable dans le secteur tertiaire. En effet,

  • Il demande une surface de terrain très importante : de 28 à 100 m²/kW de puissance de chauffage nécessaire.
  • En hiver, elle peut conduire à un refroidissement excessif du sol préjudiciable à la végétation.
  • L’utilisation en refroidissement n’est guère possible, la température du sol étant fortement soumise à l’environnement extérieur.

Alternative pour les bâtiments de taille réduite : les sondes de faible profondeur.

Pour les petits projets, pour lesquels un forage n’est pas autorisé et où les systèmes horizontaux ne disposent pas de surface suffisante, certains fabricants proposent des sondes de petite taille constituées d’un échangeur spiralé. Ce système permet notamment de limiter l’influence que peut avoir la géothermie sur la couche de sol où se développe la végétation.

Source : SANA FONDATIONS sprl.

Cas particulier : le puits canadien

Le puits canadien ou puits provençal constitue une forme de géothermie puisque l’air neuf de ventilation est prétraité (chauffé ou refroidi) par son passage dans le sol.

Techniques

 Pour en savoir plus sur le puits canadien.

Schémas de principe

Traditionnellement, on retrouve 2 types de schéma de principe, selon que le froid est produit par échange direct avec le sol soit par la pompe à chaleur réversible utilisant le sol comme source chaude. Une troisième configuration se retrouve lorsqu’on puise directement l’eau de la nappe phréatique.

Free cooling direct

En été : le froid est produit par échange direct avec le sol et distribué via un échangeur vers les unités terminales. Le géocooling est ainsi mis en œuvre moyennant uniquement la consommation de pompes. Si on compare cette consommation à l’énergie frigorifique produite, on calcule un ESEER équivalent du système de l’ordre de …12…, voire plus en fonction des dimensionnements des équipements. Souvent une machine de production de froid vient en appoint pour satisfaire les demandes de pointes ou pour alimenter des utilisateurs demandant des températures d’eau plus basses (comme les groupes de traitement d’air).

En hiver, le sol sert de source froide à une pompe à chaleur sol/eau. Le coefficient de performance saisonnier obtenu varie entre 4,5 et 5,5. Une chaudière est utilisée en appoint pour couvrir les pointes de puissance par grands froids. Généralement, le système est dimensionné pour que la PAC couvre environ 70 % du besoin de chaud grâce à environ 30 % de la puissance totale nécessaire.

Recharge du sol par pompe à chaleur réversible

La pompe à chaleur sol/eau est réversible. En été, elle fonctionne comme un groupe de production d’eau glacée en utilisant le sol pour évacuer la chaleur de son condenseur régénérant ainsi ce dernier.

L’avantage d’un tel système est de mieux gérer la recharge du sol et peut-être de pouvoir se passer d’un groupe de froid d’appoint et d’un échangeur intermédiaire. L’investissement est donc moindre.

En contrepartie, alors que l’on peut toujours parler de stockage géothermique, il ne s’agit plus réellement de géocooling naturel puisqu’il est nécessaire de faire fonctionner une machine thermodynamique pour extraire le « froid » du sol. Le bilan énergétique global est donc moins favorable.

Systèmes ouverts

Si la nappe phréatique se situe près de la surface du sol, on peut envisager de puiser directement l’eau dans cette dernière plutôt que de la parcourir avec un échangeur et un fluide caloporteur. On parle de système ouvert. Dans ce cas, l’eau de la nappe sert par l’intermédiaire d’un échangeur :

  • En mode chauffage, de source froide à une pompe à chaleur.
  • En mode refroidissement, de source de froid directe pour une boucle d’eau.

L’eau puisée est ensuite réinjectée dans la nappe à une certaine distance créant ainsi 2 zones dans la nappe phréatique à températures différentes, l’eau passant de l’une à l’autre en fonction de la saison :

  • En hiver une zone se refroidit par l’eau réinjectée après échange avec la pompe à chaleur.
  • En été l’eau est pompée en sens inverse de cette zone et réinjectée plus chaude dans la zone de puisage hivernal.

Étant donné les mouvements dans les nappes phréatiques et en fonction de la distance entre les zones chaude et froide, l’influence d’un éventuel déséquilibre entre les besoins de chauffage et de refroidissement est nettement moindre dans le cas d’un système ouvert par rapport à un système fermé.

En outre, il est également possible de produire du chaud et du froid en même temps dans le bâtiment. En effet, si nécessaire, l’eau pompée de la nappe peut être dirigée à la fois vers la pompe à chaleur et vers l’échangeur de géocooling ou vers un échangeur commun entre les productions de chaud et de froid.

Exemples d’installations

Le schéma ci-dessous est proposé par un constructeur allemand. Il permet le chauffage par pompe à chaleur, le refroidissement libre par un échangeur vers les sondes géothermiques, éventuellement assisté par le fonctionnement réversible de la pompe à chaleur.

Le schéma ci-après, plus complet, permet un fonctionnement mixte en mi-saison : une chaudière alimente la zone périphérique en chaleur, alors que simultanément, la zone centrale est refroidie par l’échangeur dans le sol via la pompe à chaleur. Attention cependant à la destruction d’énergie qui pénalise l’intérêt énergétique de ce système.


Unités terminales associées

Les performances de la pompe à chaleur et du géocooling sont fortement dépendantes du régime de température des unités terminales :

Plus la température de l’eau de distribution est basse en saison de chauffe (température max de l’ordre 50 .. 55 °C), meilleur sera le rendement de la PAC et plus elle est élevée en été (température min de l’ordre de 15 .. 17 °C) plus grande sera la quantité d’énergie extractible directement du sol.

On doit donc choisir des unités terminales compatibles avec ces températures :

  • Plafonds refroidissants ou ilots rayonnants
    • avantages : peu d’inertie thermique et donc rendement de régulation élevé, contrôle facile de la température ambiante, réversible chaud/froid;
    • inconvénients : puissance plus limitée (plafonds).

Exemple d’îlot rayonnant.

(Source : Interalu).

  • Dalles actives
    • avantages : stockage de nuit et donc limitation de la puissance à installer;
    • inconvénients : inertie thermique importante et donc contrôle difficile de la température et rendement de régulation dégradé. Peu de flexibilité spatiale et difficulté d’utilisation en chauffage (nécessité d’un second système). Absence de faux plafond (gestion des techniques et de l’acoustique).

Étude d’un projet de géothermie

Un projet de géothermie consiste à mettre en corrélation le comportement thermique du bâtiment et celui du sous-sol. Tout cela se passe de façon dynamique : les besoins varient, le sol se charge, se décharge, échange avec son voisinage tout cela sur une échelle de temps quotidienne, mais aussi saisonnière. Cela justifie l’utilisation d’outils de simulation thermique dynamique prenant en compte la variabilité des besoins, des échanges et l’inertie du système.

Étapes de l’étude d’un projet de géothermie :

  • Définir les besoins par simulations dynamiques en évaluant différentes variantes de manière à trouver le bon équilibre entre le besoin de chaud et de refroidissement du bâtiment (niveau d’isolation, type de vitrage, protections solaires, …).

Besoins simulés de chauffage et de refroidissement d’un bâtiment, h par h ou 1/4h par 1/4 h.

  • Connaître la nature du sol par études géologique et hydrogéologique pour préévaluer les caractéristiques physiques et thermiques du sous-sol et pour évaluer les éventuels risques liés aux forages (présence de nappes phréatiques, de couche argileuse,  de quartzites, …). Cela permet de prédéfinir la pertinence et la configuration des forages (par exemple, leur longueur minimale et maximale en fonction des couches de sous-sol susceptibles d’être rencontrées).

Pour exemple, voici quelques données moyennes :

Caractéristiques du sol Puissance spécifique d »extraction
Sur 1 800 heures de fonctionnement Sur 2 400 heures de fonctionnement
Valeurs indicatives générales
Sous-sol de mauvaise qualité (sédiment sec) (λ < 1,5 W/m²K) 25 W/m 20 W/m
Sous-sol rocheux normal  et sédiment  saturé en eau (λ < 1,5 – 3.0 W/m²K) 60 W/m 50 W/m
Roche compacte à conductibilité  thermique élevée (λ < 3,0 W/m²K) 84 W/m84 W/m 70 W/m
Minéraux respectif
Gravier et sable secs < 25 W/m <20 W/m
Gravier et sable aquifères 65 – 80 55 – 65 W/m W/m
Dans le cas de fort courant des eaux souterraines dans le gravier ou le sable et d’installations uniques 80 – 100 80 – 100 W/m
Argile et glaise humides 35 – 50 W/m W/m 30 – 40 W/m
Calcaire (massif) 55 – 70 W/m 45 – 60 W/m
Grès 65 – 80 W/m 55 – 65 W/m
Roche magmatique acide (par ex. granit) 65 – 85 W/m 55 – 70 W/m
Roche magmatique basique (par ex. basalte) 40 – 65 W/m 35 – 55 W/m
Gneiss 70 – 85 W/m 60 – 70 W/m

Puissances traditionnelles extractibles.

Source Rehau.

  • Effectuer un test de réponse thermique (« TRT »). Il s’agit de réaliser un forage en taille réelle et de le soumettre à une sollicitation thermique pour pouvoir calculer la conductibilité et la capacité thermique du sol et la résistance thermique des sondes, en moyenne sur toute la longueur de la sonde. Cette sonde test pourra ensuite être valorisée dans le champ de sondes final.

Source : Group Verbeke.

  • Dimensionner le champ de sondes au moyen d’un logiciel de simulation dynamique du sous-sol : simulation du comportement du sol compte tenu des besoins du bâtiment (heure par heure) et des caractéristiques  thermiques des sondes prévues et du sol (définies par le TRT) ; optimalisation de la puissance de la PAC, du nombre et de la profondeur des sondes en s’assurant de l’équilibre à long terme de la température du sol.

Dimensionnement de l’échangeur de sol

Pour le dimensionnement des collecteurs de sol, des réfrigérateurs de plaques de fond ou de réservoirs de fondations, il est possible de consulter la DIN ISO EN 13370 « Transmission de chaleur par le procédé de calcul terrestre ».

L’objet de cette norme est l’examen du transfert de la chaleur en tenant compte des paramètres (tuyaux, isolation, masse géométrique du bâtiment, etc.) et de la conduite d’exploitation. La ligne directrice VDI 4640 « Utilisation thermique du sous-sol » convient pour l’évaluation du rendement (puissance) d’un chauffage. De plus, elle fournit des indices de planification concernant les permissions et les conditions additionnelles liées à l’environnement, mais (à notre connaissance en octobre 2003) elle n’aurait pas encore été adaptée sous l’aspect « été » du réfrigérateur.

D’après la norme DIN ISO EN 13370 (traduction non officielle !), les tableaux suivants donnent une vue d’ensemble sur les capacités d’extraction des collecteurs de chaleur et des sondes géothermiques (capacité des pompes de chaleur jusqu’à max. 30 kW) :

>  S’il s’agit de collecteurs situés à côté du bâtiment (en W/m²) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sol sec, non cohérent 10 8
Humide, cohérent 20…30 16…24
Sable, gravier, imbibés d’eau 40 32

>  S’il s’agit de sondes géothermiques (en W/m courant) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sédiments secs et peu conducteurs (Lambda < 1,5 W/m.K) 25 20
Roche, sédiments imbibés d’eau
(Lambda > 1,5 … 3 W/m.K)
60 50
Roche dure très conductrice
(Lambda > 3 W/m.K)
84 70

L’adaptation des calculs détaillés est de plus indiquée dans les cas suivants :

  • Modification des heures de services des pompes à chaleur par rapport aux hypothèses de base;
  • plus grande nécessité de chaleur pour la préparation d’eau chaude;
  • effet régénérateur du sol suite à un apport de chaleur par réfrigération de locaux ou à un rechargement thermique solaire;
  • grande influence des eaux souterraines (nappe phréatique).

Les valeurs de référence pour les capacités d’extraction de chaleur en hiver ne sont pas directement applicables à l’activité en été. Différentes causes sont à la base des écarts entre les capacités d’extraction et d’incorporation :

  • Lors du fonctionnement en hiver, une couche de glace se forme autour de la sonde ou des tuyaux, et influence favorablement la transmission thermique par conduction. En été, le sol peut au contraire sécher davantage, ce qui est défavorable.
  • Les couches terrestres proches du sol sont soumises à de si fortes influences climatiques qu’il faudrait parler non pas d’éléments de construction thermiques, mais plutôt d’éléments de construction solaires thermiques dans le cas de collecteurs de terre classiques non bâtis.

Pour l’évaluation de la capacité de sondes géothermiques et de pieux d’énergie dans le processus de réfrigération, un constructeur conseille :

  • Vu les raisons énoncées précédemment, de mettre les capacités d’incorporation (été) égales à 70 % des capacités d’extraction de chaleur énoncées dans la VDI 4640.
  • De valoriser si possible l’existence d’une nappe souterraine, qui suite à l’humidification des couches terrestres en dessous des fondations, améliore la conductibilité thermique. Il en résultera également des capacités de réfrigération plus constantes.
  • Une distance de pose entre les tuyaux ne dépassant pas 15 cm.
  • Des phases de régénération (suite à l’arrêt du système en journée ou suite à une réduction de la nécessité de froid (journées fraîches d’été)) qui améliorent la capacité de rendement.

Aspect réglementaire lié à la réalisation du projet

(Rédaction : 2014)

En région wallonne

En Wallonie, tout projet de réalisation de puits destiné à la géothermie doit faire l’objet d’un permis unique : Permis d’environnement (installations classées, conditions intégrales et sectorielles) + Permis d’urbanisme.

Selon l’Arrêté du Gouvernement wallon du 4/7/2002, annexe I, les systèmes géothermiques fermés sont classés dans la rubrique 45.12.01 : « Forage et équipement de puits destinés au stockage des déchets nucléaires ou destinés à recevoir des sondes géothermiques », classe de permis 2.

D’autres rubriques existent pour classer les systèmes ouverts en fonction des techniques de puisage et de rejet d’eau souterraine utilisé.

Les forages d’essais (TRT) et de l’installation définitive doivent faire l’objet d’une demande de permis propre comprenant :

  • Le formulaire général de demande de permis d’environnement et de permis unique – Annexe I.
  • Le formulaire relatif aux forages – Annexe XVIII (rubrique 45.12.01) ou le formulaire relatif aux prises d’eau – Annexe III (rubrique 41.00.03.02).

Le formulaire XVIII doit notamment comprendre :

  • Une coupe géologique probable du puits avec profondeur estimée de la nappe aquifère;
  • la description des méthodes de forage et les équipements du puits avec coupe technique;
  • un rapport technique sur la nature de la nappe aquifère éventuelle;
  • un plan de situation des puits.

Chronologiquement, étant donné les délais d’obtention, il est souvent difficile d’attendre les résultats du TRT et le dimensionnement final du champ de sondes avant l’introduction de la demande de permis pour ce dernier. De même, étant donné que le choix de l’enveloppe du bâtiment et l’équilibre géothermique sont intimement liés, il apparaît difficile de dissocier chronologiquement les demandes de permis pour le bâtiment neuf, le TRT et le champ de sondes. Dans ces différents cas, la pratique veut que les permis soient introduits en parallèle en mentionnant les hypothèses de prédimensionnement effectués.

En région bruxelloise

Il n’existe actuellement pas de législation spécifique à la géothermie en RBC. Les systèmes géothermiques sont néanmoins presque toujours composés d’installations classées soumises à déclaration ou à permis d’environnement.

Dans le cas de systèmes géothermiques fermés, les installations classées concernées sont les suivantes :

  • Pompe à chaleur < 10 kWelec  et < 3 kg de substance appauvrissant la couche d’ozone : Installation non classé et donc non soumise à autorisation (rubrique 132).
  • Pompe à chaleur > 10 kWelec mais < 100 kWelec  ou > 3  kg de substance appauvrissant la couche d’ozone : Installation classée de classe 3 et donc soumise à déclaration (rubrique 132).
  • Pompe à chaleur > 100 kWelec : Installation classée de classe 2 et donc soumise à Permis d’Environnement (rubrique 132).
  • Pompes électriques > à 100 kVA (rubrique 55).

Les forages ne sont, eux, pas classés.

Dans le cas de systèmes géothermiques ouverts, les captages d’eau souterraine sont des installations classées de classe 2 ou de classe 1B (rubrique 62) et sont donc soumis à Permis d’Environnement. En plus comme pour les captages d’eau « classiques », les systèmes géothermiques ouverts sont soumis à une « autorisation de pompage » de la part de l’IBGE.

De plus la réglementation urbanistique (COBAT) stipule que les forages géothermiques sont soumis à rapport d’incidence. Il semblerait donc que les systèmes géothermiques sont soumis à Permis d’Urbanisme (PU). Dans la pratique, il semblerait néanmoins que les systèmes géothermiques ne fassent pas l’objet d’une demande de PU à part entière. Il est donc conseillé de se renseigner auprès du service urbanisme de la commune concernée pour savoir si un PU est nécessaire.

La demande de permis d’environnement doit comprendre une série de renseignements.

Pour les systèmes géothermiques fermés (sondes verticales) :

  • Le cadre du projet de géothermique (industrie, tertiaire, logements collectifs, privés, ….
  • Le profil géologique et hydrogéologique de la zone où sont prévus les forages (et plus particulièrement déterminer les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.

Il y a lieu de motiver la profondeur des sondes envisagée sur base de ce profil.

  • La technique de forage prévue pour le placement des sondes.
  • La description technique de l’installation géothermique :
    • puissance électrique de la pompe à chaleur (PAC) et rendement;
    • nombre de puits ou forage prévus + nombre de sondes verticales prévues;
    • profondeur des sondes;
    • type de sondes (simple boucle en U, double boucle en U, coaxiale, autre);
    • type de matériaux utilisés pour les sondes et les différentes connexions;
    • systèmes prévus pour isoler les sondes (ou les groupes de sondes) en cas de fuite (vannes d’isolement, …);
    • fluide caloporteur prévu dans les sondes;
    • surface prévue pour l’implantation des sondes (et surface disponible si différente);
    • matériaux de remplissage sont prévus pour le scellement des trous de forages (espace interstitiel).
    •  …
  • Le plan reprenant de manière claire l’emplacement des installations (PAC et champ de sondes).
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • L’évaluation des besoins énergétiques :
    • la demande en chaud du bâtiment (kWh/an);
    • la demande en froid du bâtiment (kWh/an);
    • la puissance de pointe en chaud du bâtiment (kW);
    • la puissance de pointe en froid du bâtiment (kW);
    • l’énergie (chaud) soutirée au sol (kWh/an);
    • l’énergie (froid) soutirée au sol (kWh/an);
    • % de la demande en chaud couvert par la géothermie;
    • % de la demande en froid couvert par la géothermie.

Dans la mesure du possible, un (des) graphique(s) (histogramme) reprenant les besoins mensuels du bâtiment en froid et en chaud sur un an et distinguant la part produite par la géothermie de la part produite par les systèmes complémentaires (système de production de chaud et froid classiques) sera fourni.

  • Dans le cas ou un test de réponse thermique (TRT) a été réalisé : les conclusions du test.
  • La comparaison du gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation (réduction d’énergie primaire (%)).
  • L’évaluation du déséquilibre thermique du sous-sol et l’évolution de la performance de la PAC sur 20 ans en tenant compte de ce déséquilibre thermique.
  • Quant au rapport d’incidences, il doit également évaluer les nuisances et impacts environnementaux liés au système géothermique ainsi que les mesures prises pour éviter, supprimer ou réduire les nuisances répertoriées.  (Ex : test de mise sous pression des bouclages, mise en place d’un système de détection de fuites, étanchéité des puits,…).

Pour les systèmes géothermiques ouverts :

  • Le type de système géothermique prévu : captage/réinjection réversible (stockage chaud froid) ou captage réinjection non réversible.
  • La description technique de l’installation géothermique :
    • nombre de puits de pompage et de réinjection prévus ;
    • profondeur des puits (+ facteurs ayant servi à la détermination de la profondeur) ;
    • zone de filtre (crépine) ;
    • distance séparant les puits de captage et de réinjection ;
    • type de compteurs et nombre de compteurs prévus (+ emplacement) ;
    • puissance électrique de la pompe à chaleur (PAC) et son rendement ;
    • liquide utilisé dans le circuit secondaire ;
    • type d’échangeur – circuit primaire / circuit secondaire (double parois, simple paroi, …) ;
    • Éventuel système de détection de fuite dans le circuit secondaire.
    • plan reprenant l’emplacement de la PAC, des différents puits de captage et de réinjection.
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • Le profil géologique et hydrogéologique des zones de captage et de réinjection (et plus particulièrement déterminer l’aquifère ou les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.
  • Le débit maximum capté (m³/h, m³/j), le volume total capté par an ou par saison (m³) et si la totalité de l’eau captée est réinjectée dans la nappe. Si l’eau souterraine est utilisée à d’autres fins que la géothermie, il y a également lieu de préciser les utilisations alternatives et le débit capté (m³/j).
  • La température de réinjection maximale prévue.
  • Le dossier doit comporter une évaluation de :
    • la demande en chaud du bâtiment (kWh/an);
    • (la demande en froid du bâtiment (kWh/an)), si utilisation des puits pour refroidir;
    • la puissance de pointe en chaud du bâtiment (kW);
    • (la puissance de pointe en froid du bâtiment (kW)) → Si utilisation des puits pour refroidir;
    • l’énergie (chaud) soutirée de la nappe (kWh/an);
    • (l’énergie (froid) soutirée de la nappe (kWh/an)), si utilisation des puits pour refroidir;
    • % de la demande en chaud couvert par la géothermie;
    • (% de la demande en froid couvert par la géothermie), si utilisation des puits pour refroidir.
  • Le gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation  (réduction d’énergie primaire (%)) doit également être évalué.
  • Le rapport d’incidence doit évaluer le déséquilibre thermique de l’aquifère  et l’évolution de la performance de la PAC sur 20 ans en tenant compte du déséquilibre thermique.
  • Le rapport d’incidence doit évaluer la possibilité technique de mettre en place le système géothermique sur le site.
  • Le rapport d’incidence doit enfin évaluer l’impact et les nuisances du système géothermique et notamment :
    • l’impact éventuel du projet sur des captages voisins (impact hydraulique);
    • l’impact éventuel du projet sur la stabilité des constructions voisine;
    • le risque d’inondation au niveau des puits de réinjection et des constructions voisine;
    • l’impact thermique éventuel du système sur les eaux souterraines.
  • Ainsi que les mesures particulières de protection du sol et des eaux souterraines prévues (Rehaussement du puits, étanchéité des puits de forages, mesures prévues pour éviter la connexion éventuelle d’aquifères différents, mesures prévues pour éviter une contamination de l’eau pompée et réinjectée dans la nappe (type d’échangeur utilisé, système de détection de fuite, surpression du circuit secondaire (eau pompée) par rapport au circuit primaire (de la PAC), …)).

Découvrez cet exemple de géothermie et géo-cooling dans un centre de formation.

noeud constructif - energie plus Belgique

Traiter les nœuds constructifs en rénovation

Traiter les nœuds constructifs en rénovation


Généralités

Lorsqu’on construit un bâtiment neuf bien isolé, il est important de réaliser des nœuds constructifs thermiquement acceptables (PEB-conformes) en assurant la continuité de la couche isolante, en interposant des éléments isolants, ou en prolongeant au maximum le chemin que la chaleur doit parcourir avant d’atteindre l’extérieur.

En rénovation, le renforcement de l’isolation thermique des parois accentue l’impact relatif des déperditions par les nœuds constructifs s’ils ne sont pas traités. Dans ce cas, rendre les nœuds constructifs thermiquement performants peut se révéler difficile. La difficulté dépendra essentiellement de la méthode d’isolation a posteriori choisie :

Nœuds constructifs dans le cadre d’une transformation

Comment éviter les ponts thermiques dans l’enveloppe d’une école rénovée ?

L’école de Bütgenbach après les travaux.
L’école de Bütgenbach après les travaux (Source MATRICIEL).

Une école à Bütgenbach a été complètement transformée entre 2013 et 2015. Les travaux ont été réalisés dans le cadre de l’action Bâtiment Exemplaire en Wallonie. Toutes les mesures raisonnables ont été prises pour rendre ce bâtiment le plus performant possible en matière d’utilisation rationnelle de l’énergie.

L’enveloppe a donc été particulièrement bien isolée. Les techniques d’isolation d’un bâtiment existant sont souvent complexes et les raccords entre les parois délicats à réaliser. Comment ces nœuds constructifs ont-ils été conçus pour réduire les risques de ponts thermiques


Introduction

En 2013, il a été décidé de rénover une partie des bâtiments de l’école de Bütgenbach devenus vétustes et d’y adjoindre une salle de sport. Un des bâtiments existants sera, quant à lui, transformé en ferme didactique. Le projet a été confié au bureau des architectes associés Damien Franzen, Olivier Henz, Eddy Wertzet Madeline Demoustier– FHW.

A l’école communale fondamentale existante, a été intégrée une école spéciale d’un village voisin.
La Région germanophone de Belgique a en effet décidé de mettre ainsi en pratique la pédagogie d’inclusion des enfants handicapés. Terminée, l’école accueillera 350 enfants.

Le maître de l’ouvrage a la volonté que les bâtiments neufs et rénovés répondent au standard passif, c’est-à-dire que le besoin en chauffage soit inférieur à 15 kWh/m².an et que l’étanchéité à l’air atteigne un niveau n50 ≤ 0.6 vol/h. Pour cela, il est indispensable d’isoler thermiquement les parois extérieures et de rendre celles-ci le plus étanche possible à l’air. Si pour les bâtiments neufs cela ne pose généralement pas de problème, c’est par contre beaucoup plus difficile en rénovation à cause de la nécessité d’adapter les solutions techniques à la configuration des éléments existants conservés notamment à l’endroit des raccords et liaisons.


Le bâtiment

L’organisation intérieure des locaux a été complètement revue pour que les classes anciennement orientées vers la cour de récréation bruyante soient réorientées vers d’autres directions.

Un nouveau volume annexe, situé entre la cours de récréation et les deux bâtiments principaux, liaisonne ces deux ci tout en donnant accès aux différents locaux.
Une nouvelle salle de sport est construite de l’autre côté de la cours de récréation de manière à former avec les bâtiments de classes un U autour de la cour de récréation.

Les locaux ont également été adaptés pour répondre à certaines exigences liées aux caractéristiques d’une école spéciale dans le domaine thérapeutique (kinésithérapie, ergothérapie, logopédie, …)

Plan du bâtiment, situation existante.
Situation existante.

A : Cour de récréation

  1. Bâtiment de classes à transformer
  2. Bâtiment de classes à transformer
  3. Bâtiment RTG à transformer en ferme didactique
  4. Bâtiment RTG à démolir
  5. Restaurant à conserver
  6. Centre PMS à conserver
Avant les travaux – la cour de récréation et les bâtiments 1 et 2.
Avant les travaux – la cour de récréation et les bâtiments 1 et 2 (source : FHW)
Avant les travaux – le bâtiment 3 (RTG), future ferme didactique. (source : FHW)
Maquette du projet (source arch. FHW).

A : Cour de récréation

  1. Bâtiment de classes transformé
  2. Bâtiment de classes transformé
  3. S : Nouvelle salle de sport
  4. L : Nouvelle liaison entre les bâtiments de classes

La ferme didactique n’est pas visible

Plan du rez-de-chaussée.
  • En bleu : Existant transformé
  • En rouge : Parties neuves

Les différents modes d’isolation prévus

Les techniques d’isolation ont dû être adaptées à chaque cas particulier. Etant donné qu’il s’agit d’une rénovation comprenant des bâtiments existants de types différents et des parties totalement neuves, le nombre de solutions adoptées est très élevé. Ainsi, on compte 13 compositions de toitures différentes, 18 compositions de murs et 8 compositions de planchers inférieurs.

Nous allons seulement en étudier une partie, les plus significatives en surface. Dans tous les cas, les performances atteintes en matière d’isolation sont très élevées.

1. Isolation par l’extérieur de façade existante à l’aide de 30 cm de mousse de polystyrène expansé recouverte d’un crépi (850 m²)

Schéma explicatif sur l'isolation par l’extérieur couverte d’un crépi.
Isolation par l’extérieur couverte d’un crépi.
  1. Mur existant
  2. 30 cm de mousse de polystyrène (EPS)
  3. Crépi
Copie d'écran du calcul du coefficient de transmission thermique U (logiciel PEB).
Calcul du coefficient de transmission thermique U à l’aide du logiciel PEB.
Photo de la façade existante avant travaux.
Façade existante.
Photo de la mise en place de l'isolation.
30 cm de mousse de polystyrène expansé (EPS).
Photo de la mise en place du crépi.
Crépissage.
Photo de la façade terminée.
La façade terminée.

2. Isolation par l’extérieur de façade existante à l’aide de 16 cm de mousse de polyuréthane en deux couches croisées dans des structures en bois recouvertes d’un bardage en ardoises artificielles (530 m²)

Schéma explicatif de l'Isolation par l’extérieur avec bardage.
Isolation par l’extérieur couverte d’un bardage.
  1. Mur existant
  2. Montants 60 x 100
  3. 10 cm de mousse de polyuréthane entre montants en bois
  4. 6 cm de mousse de polyuréthane en continu
  5. Lattage vertical 24 x 48
  6. Lattage horizontal 24 x 48 et bardage en ardoises artificielles
Copie d'écran du calcul du coefficient de transmission thermique U (logiciel PEB).
Calcul du coefficient de transmission thermique U à l’aide du logiciel PEB.
Photo de la façade existante avant travaux.
La façade existante.
Photo de la façade existante durant les travaux.
La façade durant les travaux.
Photo de la façade façade isolée terminée.
La façade isolée terminée.

3. Isolation par l’extérieur de façade existante par placement d’une contre-paroi à ossature bois remplie de 36 ou 40 cm de flocons de cellulose qui ferme également les baies existantes non conservées. (200 m²)

Schéma explicatif du mur rideau à ossature bois.
Mur rideau à ossature bois.
  1. Panneau intérieur en OSB
  2. Montants d’ossature en bois 360 mm en forme de I
  3. 36 cm de cellulose insufflée entre montants en bois
  4. Panneau extérieur en OSB
  5. Lattage vertical 24 x 48
  6. Lattage horizontal 24 x 48 et bardage en ardoises artificielles

Calcul du coefficient de transmission thermique U à l’aide du logiciel PEB.

Photo de la façade existante avant travaux.
La façade avant les travaux.
Photo de la pose des caissons.
La pose des caissons.
Photo de la façade isolée terminée.
La façade isolée terminée.

4. Isolation par l’extérieur de nouvelle façade en pré-mur de béton de la salle de sport à l’aide de 20 cm de mousse de polyuréthane en deux couches croisées dans des structures en bois recouvertes d’un bardage en plaques de fibre-ciment (400 m²)

Schéma explicatif sur l'isolation par l’extérieur avec bardage.
Isolation par l’extérieur couverte d’un bardage.
  1. Nouveau mur en béton coulé entre pré-murs
  2. Montants 60 x 100
  3. 10 cm de mousse d polyuréthane entre montants en bois
  4. 10 cm de mousse de polyuréthane en continu
  5. Lattage vertical 24 x 48
  6. Lattage horizontal 24 x 48 et bardage en panneau fibro-ciment
Copie d'écran du calcul du coefficient de transmission thermique U (logiciel PEB).
Calcul du coefficient de transmission thermique U à l’aide du logiciel PEB.
Photo des pré-murs de la salle de sport.
Pré-murs de la salle de sport.

5. Isolation de plancher existant des combles par 50 cm de flocons de cellulose (950 m²) ou par 50 cm de mousse de polyuréthane projetée (1050 m²)

Schéma explicatif sur l'isolation du plancher des combles.
Isolation sur le plancher des combles.
  1. 50 cm de mousse de polyuréthane projetée ou de flocons de cellulose
    • a Plancher des combles existant en béton armé
    • b Entraits de charpente existante avec plaques de plâtres
  2. Faux-plafond acoustique

Calcul du coefficient de transmission thermique U à l’aide du logiciel PEB (cas de gauche).

Calcul du coefficient de transmission thermique U à l’aide du logiciel PEB (Cas de droite).

6. Nouvelle toiture plate sur la salle de sport comprenant deux couches isolantes 18 cm de mousse résolique en toiture chaude et 18 cm de flocons de cellulose sous le support en panneau de bois (450 m²)

Schéma explicatif sur l'isolation de la nouvelle toiture plate du hall de sport.
Isolation de la nouvelle toiture plate du hall de sport.
  1. Lestage gravier 5 cm
  2. Etanchéité souple EPDM
  3. 18 cm de mousse résolique
  4. Panneau support en OSB
  5. Gitage entre poutres en bois lamellé collé
  6. 18 cm de cellulose insufflée entre gites
  7. Freine vapeur à µ variable
  8. Lattage
  9. Plafond
  10. Poutre en bois lamellé collé

Calcul du coefficient de transmission thermique U à l’aide du logiciel PEB.

Photo du plafond de la salle de sport.
Plafond de la salle de sport.

Comment ont été réalisés les raccords des surfaces isolées avec les éléments contigus ?

Voici quelques détails techniques qui montrent que le principe de continuité de la couche isolante a été respecté. Tous ces nœuds constructifs sont PEB conformes et sont pris en compte dans l’augmentation forfaire de trois points du niveau K.


Raccord entre le mur isolé par pose d’un crépi sur isolant et un châssis existant conservé

  1. Enlèvement du seuil en pierre existant
  2. Pose d’un nouveau seuil en aluminium avec isolant sous-jacent en contact avec le châssis conservé
  3. Isolation du mur existant par l’extérieur
  4. Crépis sur l’isolant

Raccord châssis existant avec nouvel isolant crépi – vue en coupe (source Arch. FHW).


Raccord entre le mur isolé par pose d’un crépi sur isolant et un nouveau châssis

  1. Enlèvement du châssis existant
  2. Pose d’un nouveau châssis en contact avec le nouvel isolant
  3. Isolation du mur existant par l’extérieur
  4. Crépis sur l’isolant
  5. Ragréage du plafonnage intérieur et pose de l’étanchéité à l’air

Raccord nouveau châssis avec nouvel isolant crépi –vue en coupe (source Arch. FHW).


Angle de murs isolés par l’extérieur avec bardage et descente d’eau pluviale encastrée

  1. Enlèvement du parement en pierre naturelle
  2. Pose d’une première ossature en bois d’une épaisseur de 10 cm
  3. Pose de l’isolant en mousse de polyuréthane entre les montants en bois
  4. Pose d’une deuxième couche continue de 6 cm de mousse de polyuréthane sauf à l’endroit de la descente d’eau pluviale
  5. Contrelattes fixées à travers la deuxième couche d’isolant aux montants de la première couche
  6. Lattage horizontal fixé aux contrelattes
  7. Bardage en ardoises artificielles

Angle isolé par l’extérieur avec bardage et descente d’eau pluviale encastrée – vue en plan (source Arch. FHW).


Raccord de mur isolé par l’extérieur avec un nouveau châssis

  1. Enlèvement du châssis existant
  2. Enlèvement du parement en pierre naturelle
  3. Pose du nouveau châssis en contact avec les ossatures isolantes
  4. Isolation du mur existant par pose de mousse de polyuréthane entre montants en bois
  5. Pose d’une deuxième couche continue de 6 cm de mousse de polyuréthane
  6. Contrelattes fixées à travers la deuxième couche d’isolant aux montants de la première couche
  7. Lattage horizontal fixé aux contrelattes
  8. Bardage en ardoises artificielles
  9. Ragréage du plafonnage intérieur et pose de l’étanchéité à l’air

Raccord nouveau châssis avec nouvel isolant sous bardage – vue en plan (source Arch. FHW).


Raccord entre le mur isolé par pose d’un crépi sur isolant et la toiture en pente existante

  1. Enlèvement de la gouttière existante
  2. Fixation d’une nouvelle échelle de corniche sous la corniche en béton existante
  3. Pose d’un nouveau support pour couverture en zinc en bas de versant
  4. Pose de la nouvelle couverture en zinc en bas de versant
  5. Pose d’une nouvelle gouttière en zinc
  6. Pose d’isolant dans la nouvelle échelle de corniche et sous la nouvelle couverture en zinc
  7. Raccord de l’isolant sous corniche avec le nouvel isolant à crépir de la façade
  8. Pose d’une plaque en fibro-ciment pour parachèvement du dessous de la corniche
  9. Pose de 50 cm d’isolant sur le plancher des combles avec remontée le long de la poutre de rive
  10. Remplissage d’isolant entre l’ancienne corniche en béton et la sous-toiture existante.

Raccord toiture existante avec façade existante – vue en coupe (source Arch. FHW).


Raccord entre une nouvelle façade à ossature bois et un nouveau châssis coulissant avancé

  1. Enlèvement du châssis existant et du seuil en pierre
  2. Enlèvement du parement en pierre naturelle
  3. Pose de la nouvelle façade légère en caissons bois préfabriqués
  4. Pose d’isolant entre les caissons et la structure en béton
  5. Pose du nouveau châssis coulissant avec son seuil à l’avant de la nouvelle façade
  6. Finitions intérieures y compris étanchéité à l’air
  7. Pose du bardage avec les lattages devant les caissons

Raccord façade à ossature bois avec châssis avancé – vue en coupe (source Arch. FHW).


Raccord entre une nouvelle façade à ossature bois et un nouveau châssis en retrait

  1. Enlèvement du châssis existant et du seuil en pierre
  2. Enlèvement du parement en pierre naturelle
  3. Pose de la nouvelle façade légère en caissons bois préfabriqués
  4. Pose d’isolant entre les caissons et la structure en béton
  5. Pose du nouveau châssis coulissant avec son seuil à l’avant de la nouvelle façade
  6. Finitions intérieures y compris étanchéité à l’air
  7. Pose du bardage avec les lattages devant les caissons
  8. Pose d’une plaque de finition sous le linteau de la façade légère

Raccord façade à ossature bois avec châssis en retrait – vue en coupe (source Arch. FHW).


Raccord entre la nouvelle toiture plate et la nouvelle façade du hall de sport

Ces deux éléments étant neufs la continuité de la couche isolante ne pose pas de problème.

Raccord entre la toiture plate et la façade du hall de sport (source Arch. FHW).


Informations complémentaires

Cette étude de cas a été développée à l’aide des informations et documents fournis par les auteurs du projet, les architectes associés Damien Franzen, Olivier Henz, Eddy Wertz et Madeline Demoustier (FHW) dans le cadre du concours Bâtiment exemplaire Wallonie.

Nous avons également consulté l’expert nommé par la Région wallonne pour vérifier les travaux : MATRIciel. Notre interlocuteur fut Monsieur Thomas Leclercq.

Compteurs communicants

Pour 2034, les objectifs de la région Wallonne sont d’équiper 80 % des ménages de compteurs communiquants.

Compteurs communicants

Les compteurs électriques communicants, appelés également compteurs « intelligents » ou « Smartmeters » comptabilisent la consommation électrique en ayant la particularité de communiquer les mesures avec le consommateur ainsi que le GRD (Gestionnaire du réseau de distribution).

Cette information fournie par le compteur permet :

  • Un meilleur contrôle des consommations ;
  • Le relevé des compteurs par le GRD à distance et donc des factures sur base de la consommation réelle ;
  • La détection rapide des pannes électriques et réduction du temps d’intervention ;
  • Facilité et information pour les autoproducteurs ;-
  • Prépaiement plus simple pour les compteurs à budget ;
  • Modifications de la tarification, de l’index, fermeture du compteur… à distance.

Pour le consommateur, l’arrivée de ces compteurs permet donc une facturation et un suivi plus fin et « connecté » de sa consommation : historique de consommation, conversion en Euros…

Ces systèmes ont un rôle important dans le développement des énergies renouvelables en permettant aux auto-producteur d’obtenir en continu des informations précises sur l’énergie prélevée ou injectée sur le réseau ce qui permettra une utilisation plus rationnelle de l’énergie. Côté GRD, l’apparition de ces systèmes de compteurs connectés et décentralisés permet de mieux gérer et accorder la production à la consommation.

Malgré ces nouvelles fonctionnalités, en France [2017], où ces systèmes sont déjà installés, seul 1 ménage sur 50 a fait les démarches permettant d’avoir accès à leur courbe de charge.

Pour conclure, les compteurs communicants, en plus d’être un premier pas vers la bonne gestion des énergies renouvelables et les smartgrids, permettent à l’occupant de reprendre le contact avec sa consommation. Autrefois, l’occupant pouvait compter le nombre de seaux de charbons / de bûches de bois qu’il brûlait et contrôler sa consommation de manière très directe et tangible. Aujourd’hui, le gaz et l’électricité « coulent » dans nos tuyaux opaques et nous n’avons pas la moins information palpable pour comprendre et avoir une idée de sa consommation. L’émergence de compteurs communiquant, avec leurs éventuels prolongements sous forme d’applications de suivi ou de gestion, pourra faciliter la conscience de la consommation à chacun et favoriser une utilisation rationnelle de l’énergie plus facile notamment via la possibilité pour le compteur de parler dans des unités compréhensibles et qui intéressent le consommateur : en € et €/heure plutôt qu’en kWh et kW.

Tarif prosommateur (prosumer)

Tarif prosommateur (prosumer)


La CWaPE projette d’appliquer en 2020 un tarif différent pour les prosommateurs (consommateurs et producteurs dont la puissance de l’installation de production d’électricité est inférieure ou égale à 10 kVA). Actuellement les prosommateurs ne contribuent pas financièrement au réseau qu’ils utilisent. Le but de cette nouvelle tarification sera de permettre l’entretien et le développement du réseau électrique par l’ensemble des utilisateurs du réseau public de manière solidaire.

Cette participation sera au choix du prosommateur : forfaitaire ou proportionnelle.

La CWaPE prévoit également une garantie, pour les prosumers qui opteraient pour le tarif proportionnel, de ne pas payer un montant plus élevé que celui qu’ils paieraient avec le tarif capacitaire. Cette garantie vise à encourager les prosumers à faire le choix d’une tarification de réseau basée sur les prélèvements bruts (de manière à encourager l’autoconsommation), sans prendre le risque de payer plus qu’avec le tarif capacitaire.

Cette nouvelle tarification ne change rien en ce qui concerne l’octroi de certificats verts. Si vous avez droit aujourd’hui à ce mécanisme de soutien, vous conserverez ce droit selon les modalités et la durée précisées par l’AGW PEV1.

Les installations de plus de 10 kVa ne sont pas concernées par cette tarification. Celles-ci paient distinctement le prélèvement et l’injection d’électricité sur le réseau de distribution, conformément aux tarifs applicables par le GRD.

Plus d’information sur la Cwape


Le tarif Forfaitaire ou Capacitaire (€/kWe)

La CWaPE a établi que, de manière simplifiée :

  • ± 1/3 de l’énergie produite est consommée simultanément.
  • ± 2/3 de l’énergie produite est par conséquent réinjectée dans le réseau et consommée à un autre moment.

Le tarif forfaitaire consiste à faire contribuer le prosommateur aux coûts d’entretien et de développement du réseau solidairement à hauteur de 2/3 (62,24 % pour être exact) de ce qu’aurait payé un utilisateur classique pour les composantes « distribution et transport », pour une consommation électrique équivalente.

Le tarif capacitaire quant à lui s’applique à la puissance électrique nette développable (exprimée en kWe) de l’installation de production. La CWaPE prend comme hypothèse de production annuelle la valeur de 910 kWh par kWe par an. Le tarif capacitaire est exprimé en EUR/kWe.

Les tarifs exacts ne sont pas connus à l’heure de rédiger cet article, mais nous pouvons cependant estimer aujourd’hui que le tarif capacitaire devrait environ se situer entre 60 et 120 EUR/kWe TVAC en fonction de la puissance nette développable de l’installation photovoltaïque et de la zone géographique. [Les tarifs exacts seront disponibles à partir de la fin de l’année 2018]. La grille indicative ci-dessus éditée par l’ASBL Énergie facteur 4 permet déjà de se faire une idée du montant de la redevance.

Source : Energie Facteur 4 asbl | www.ef4.be

Trouver son Gestionnaire de Réseau de Distribution.

Le tarif prosumer capacitaire est un forfait qui ne tient pas compte de la présence de systèmes de stockage. Un prosumer qui reste sur ce tarif par défaut payera donc le même montant, avec ou sans batteries.

http://www.cwape.be


Le tarif Proportionnel (€/kWh)

Afin d’inciter à l’autoconsommation et ainsi atteindre un pourcentage d’autoconsommation supérieur à 37,76 %, la CWaPE prévoit une alternative tarifaire, laissée au libre choix du prosommateur, qui consiste à remplacer le tarif capacitaire par une tarification d’utilisation du réseau basée sur les kWh qui sont réellement prélevés du réseau. Cette option n’est toutefois possible que si le prosumer dispose d’un compteur double flux ou communicant lequel permet la mesure de ces prélèvements réels. Cette augmentation de l’autoconsommation permet, d’une part, de réduire la facture du prosumer et, d’autre part, d’intégrer de manière générale plus de renouvelable sur le réseau de distribution sans pour autant nécessiter des investissements supplémentaires. L’avantage est donc double : pour le prosumer et pour la collectivité.

Si le prosumer a installé une ou plusieurs batteries domestiques, il est fort probable que ses prélèvements sur le réseau de distribution soient plus faibles que précédemment, il paiera par conséquent moins cher les coûts de réseau. Il est important de noter que l’installation de batteries domestiques doit obligatoirement être signalée auprès de son gestionnaire de réseau de distribution.

http://www.cwape.be


Exemples

Cas 1 : autoconsommation = 37.76 %

http://www.cwape.be

Cas 2 : autoconsommation = 50 %

http://www.cwape.be

Optimiser le dégivrage des meubles frigorifiques

Optimiser le dégivrage des meubles frigorifiques


Les meubles frigorifiques fermés, mixtes ou ouverts négatifs

  

Meuble mixte négatif, meuble fermé négatif et meuble ouvert négatif à ventilation forcée.

Le dégivrage « forcé » par les moyens courants tels que les résistances chauffantes ou par injection de gaz chaud côté circuit frigorifique est un mal nécessaire pour les meubles frigorifiques fermés, mixtes ou ouverts négatifs. En général, ce sont les mêmes techniques de dégivrage que les chambres frigorifiques qui leur sont appliquées.

À l’heure actuelle, sur la plupart des meubles de ce type, les équipements de dégivrage sont prévus en standard sous forme de résistances électriques.

La technique, par injection de gaz chaud à l’évaporateur nécessite une installation plus complexe et, par conséquent plus coûteuse.

Paramètres de régulation du dégivrage « forcé »

Un fabricant de meubles frigorifiques renseigne les paramètres de réglage des meubles frigorifiques négatifs. On peut y retrouver des valeurs de réglage standards en fonction de la classe d’ambiance déterminée par ouverture d'une nouvelle fenêtre ! EUROVENT, à savoir généralement pour une classe d’ambiance 3 (25°C, 60 % HR) :

Paramètre Définition Optimum énergétique
T0 température d’évaporation [°C] la plus faible possible
N/24h le nombre de dégivrage par 24 heures [N/24 heures] le plus faible possible
Tter la température en fin de dégivrage [°C] la plus basse possible
td la durée de dégivrage [min] la plus faible possible
tegout le temps d’égouttage [min] le plus faible possible
tvent le temps de retard pour redémarrer les ventilateurs [min]

Il est bien entendu que tous ces paramètres doivent trouver leur optimum énergétique suivant le type d’application, d’ambiance des zones de vente avoisinantes, …, tout en conservant la qualité du froid alimentaire.

Pour différents modèles de meubles frigorifiques et pour une température d’évaporation T0 [°C],ces paramètres sont consignés dans le tableau ci-dessous.

Type de meuble négatif Référence Type de dégivrage T0[°C] N/24 [N/24 heures] Tter[°C] td[min] tegout[min] tvent[min]
Meuble mixte vertical 3L1 RVF3 électrique -35 1 5 40 10 5
Meuble vertical vitré 3L1 RVF4 électrique -35 1 15 30 10 5
gaz chaud 1 10 10 5 5
Meuble vertical vitré 3M1 RVF4 électrique -10 1 10 10 5 0
Meuble horizontal 3L1 IHF4 électrique et gaz chaud -35 2 5 45
Meuble horizontal 3L3 électrique -10 2 10 45
Source : Costan (Sabcobel)

Il est donc nécessaire de s’assurer que ces consignes soient respectées.

Pré-programmation des dégivrages

Lorsque le magasin est composé d’un nombre impressionnant de meubles linéaires (cas des super et hypermarchés), la programmation des temps de dégivrage doit être décalée dans le temps sachant que l’appel de puissance électrique des compresseurs, pour redescendre les températures des meubles à leur valeur nominale, peut être important. La possibilité de mettre en réseau les régulateurs individuels de chaque meuble avec un superviseur (GTC : Gestion Technique Centralisée), facilite la tâche des gestionnaires techniques des magasins.

La programmation d’un décalage des démarrages des dégivrages dans le temps permet de maîtriser les pointes de courant responsables des pointes quart-horaire excessives alourdissant la facture électrique.


Les meubles frigorifiques positifs

Meuble convection naturel positif (vitrine) et meuble ouvert vertical positif avec rideau d’air en convection forcée.

Pour les applications en froid positif, le « dégivrage naturel » suffit dans la plupart des cas.

À noter qu’en option il est toujours possible de placer des résistances de dégivrage, mais ce serait prêcher contre sa chapelle puisqu’il est possible de s’en passer. Il faut compter de l’ordre de 60 à 70 W/ml pour des résistances électriques simples.

Paramètres de régulation du dégivrage « naturel »

Le principal paramètre de ce type de dégivrage est la durée de dégivrage td [min]. Les fabricants par défaut programment des temps de dégivrage maximum de l’ordre de 40 à 45 minutes. Il est nécessaire de choisir une régulation qui permette de réduire les temps de dégivrage en fonction de la classe d’ambiance. Dans la réalité, c’est au cas par cas et suivant le climat interne que va dépendre le temps de dégivrage.

Dans l’absolu, le dégivrage « naturel » est intéressant puisque pendant cette phase :

  • la production de froid est interrompue;
  • il n’y a pas de consommation électrique de dégivrage proprement dite.

Pré-programmation des dégivrages

Le même type de programmation décalée que pour les meubles de froid négatif en centralisant toutes les demandes de dégivrage au niveau d’une gestion technique centralisée (GTC) est aussi possible pour les meubles frigorifiques positifs.

Source : Delhaize Mutsaart.

Ici, on visera l’interruption de ou d’une partie de la production de froid couplée avec :

  • l’arrêt des circulateurs sur une boucle caloporteur. On privilégiera l’arrêt des circulateurs individuels des meubles frigorifiques plutôt que l’arrêt du ou des circulateurs centraux (on parlera alors de pompe de circulation) afin d’espacer dans le temps les dégivrages individuels et, par conséquent, les pointes d’appel de puissance électrique à la fin d’un dégivrage programmé central.

Boucle monotube : arrêt individuel des circulateurs de meuble.

  • la fermeture de l’alimentation d’une vanne en amont du détendeur.

Boucle caloporteur : fermeture individuelle des vannes d’alimentation des évaporateurs de meubles.

Détente directe : réglage individuel des détendeurs des meubles frigorifiques.

La programmation d’un décalage des démarrages des dégivrages dans le temps permet de maîtriser les pointes de courant responsable des pointes quart-horaire excessives alourdissant la facture électrique.

Exemple.

Le cas d’un hypermarché où la facture d’électricité risque d’être salée de par le non-décalage des débuts de dégivrage sur 150 m de meubles linéaires positifs.

Période d’enregistrement sur 24  heures.

En analysant de plus près, on se rend compte que l’appel de puissance de la journée 430 KW a été enregistré comme pointe quart-horaire à 07h30; ce qui signifie que la facture électrique intégrera cette valeur comme pointe quart-horaire mensuelle. On aurait pu éviter cette pointe en décalant les périodes de dégivrage dans le temps.

Choisir le système de dégivrage de la machine frigorifique d’un meuble frigorifique

Les meubles frigorifiques fermés, mixtes ou ouverts négatifs

Meuble mixte négatif

Meuble fermé négatif

Meuble ouvert négatif à ventilation forcée

Le dégivrage « forcé » par les moyens courants tel que les résistances chauffantes ou par injection de gaz chaud côté circuit frigorifique est un mal nécessaire pour les meubles frigorifiques fermés, mixtes ou ouverts négatifs. En général, ce sont les mêmes techniques de dégivrage que les chambres frigorifiques qui leur sont appliquées.

À l’heure actuelle, sur la plupart des meubles de ce type, les équipements de dégivrage sont prévus en standard sous forme de résistances électriques.

La technique, par injection de gaz chaud à l’évaporateur nécessite une installation plus complexe et, par conséquent plus coûteuse.

Paramètres de régulation du dégivrage « forcé »

Un fabricant de meubles frigorifiques renseigne les paramètres de réglage des meubles frigorifiques négatifs. On peut y retrouver des valeurs de réglage standards en fonction de la classe d’ambiance déterminée par ouverture d'une nouvelle fenêtre ! EUROVENT, à savoir généralement pour une classe d’ambiance 3 (25°C, 60 % HR) :

Paramètre Définition Optimum énergétique
T0 température d’évaporation [°C] la plus faible possible
N/24h le nombre de dégivrage par 24 heures [N/24 heures] le plus faible possible
Tter la température en fin de dégivrage [°C] la plus basse possible
td la durée de dégivrage [min] la plus faible possible
tegout le temps d’égouttage [min] le plus faible possible
tvent le temps de retard pour redémarrer les ventilateurs [min]

Il est bien entendu que tous ces paramètres doivent trouver leur optimum énergétique suivant le type d’application, d’ambiance des zones de vente avoisinantes, …, tout en conservant la qualité du froid alimentaire.

Pour différents modèles de meubles frigorifiques et pour une température d’évaporation T0 [°C],ces paramètres sont consignés dans le tableau ci-dessous.

Type de meuble négatif Référence Type de dégivrage T0[°C] N/24 [N/24 heures] Tter[°C] td[min] tegout[min] tvent[min]
Meuble mixte vertical 3L1 RVF3 électrique -35 1 5 40 10 5
Meuble vertical vitré 3L1 RVF4 électrique -35 1 15 30 10 5
gaz chaud 1 10 10 5 5
Meuble vertical vitré 3M1 RVF4 électrique -10 1 10 10 5 0
Meuble horizontal 3L1 IHF4 électrique et gaz chaud -35 2 5 45
Meuble horizontal 3L3 électrique -10 2 10 45
Source : Costan (Sabcobel).

Le choix du type de dégivrage (électrique ou gaz chaud) a de l’importance dans le sens où, énergétiquement parlant, l’injection de gaz chaud semble intéressante.

Avantages

  • Temps de dégivrage plus court;
  • Température de dégivrage plus faible;
  • Énergie consommée par le compresseur 3 fois plus faible (pour un COP de 3) qu’une résistance électrique directe;

Inconvénients

  • Investissement.

Pré-programmation des dégivrages

Lorsque le magasin est composé d’un nombre impressionnant de meubles linéaires (cas des super et hypermarchés), la programmation des temps de dégivrage doit être décalée dans le temps sachant que l’appel de puissance électrique des compresseurs, pour redescendre les températures des meubles à leur valeur nominale, peut être important. La possibilité de mettre en réseau les régulateurs individuels de chaque meuble avec un superviseur (GTC : Gestion Technique Centralisée), facilite la tâche des gestionnaires techniques des magasins.

La programmation d’un décalage des démarrages des dégivrages dans le temps permet de maîtriser les pointes de courant responsable des pointes quart-horaire excessives alourdissant la facture électrique.


Les meubles frigorifiques positifs

Meuble convection naturel positif (vitrine).

Meuble ouvert vertical positif avec rideau d’air en convection forcée.

Pour les applications en froid positif, il est possible de se passer du dégivrage « forcé » par résistance chauffante ou « injection de gaz chauds ». Le « dégivrage naturel » suffit dans la plupart des cas.

À noter qu’en option il est toujours possible de placer des résistances de dégivrage, mais ce serait prêcher contre sa chapelle puisqu’il est possible de s’en passer.Il faut compter de l’ordre de 60 à 70 W/ml pour des résistances électriques simples.

Paramètres de régulation du dégivrage « naturel »

Le principal paramètre de ce type de dégivrage est la durée de dégivrage td [min]. Les fabricants par défaut programme des temps dégivrage maximum de l’ordre de 40 à 45 minutes. Il est nécessaire de choisir une régulation qui permette de réduire les temps de dégivrage en fonction de la classe d’ambiance. Dans la réalité, c’est au cas par cas et suivant le climat interne que va dépendre le temps de dégivrage.

Dans l’absolu, le dégivrage « naturel » est intéressant puisque pendant cette phase :

  • la production de froid est interrompue;
  • il n’y a pas de consommation électrique de dégivrage proprement dite.

Pré-programmation des dégivrages

Le même type de programmation décalée que pour les meubles de froid négatif en centralisant toutes les demandes de dégivrage au niveau d’une gestion technique centralisée (GTC) est aussi possible pour les meubles frigorifiques positifs.

Source : Delhaize Mutsaart.

Ici, on visera l’interruption de ou d’une partie de la production de froid couplée avec :

  • L’arrêt des circulateurs sur une boucle caloporteur. On privilégiera l’arrêt des circulateurs individuels des meubles frigorifiques plutôt que l’arrêt du ou des circulateurs centraux (on parlera alors de pompe de circulation) afin d’espacer dans le temps les dégivrages individuels et, par conséquent, les pointes d’appel de puissance électrique à la fin d’un dégivrage programmé central.

Boucle monotube : arrêt individuel des circulateurs de meuble.

  • La fermeture de l’alimentation d’une vanne en amont du détendeur.

Boucle caloporteuse : fermeture individuelle des vannes d’alimentation des évaporateurs de meubles.

Détente directe : réglage individuel des détendeurs des meubles frigorifiques.

La programmation d’un décalage des démarrages des dégivrages dans le temps permet de maîtriser les pointes de courant responsable des pointes quart-horaire excessives alourdissant la facture électrique.

Exemple.

Le cas d’un hypermarché où la facture d’électricité risque d’être salée de par le non-décalage des débuts de dégivrage sur 150 m de meubles linéaires positifs.

Période d’enregistrement sur 24  heures.

En analysant de plus près, on se rend compte que l’appel de puissance de la journée 430 KW a été enregistré comme pointe quart-horaire à 07h30; ce qui signifie que la facture électrique intègrera cette valeur comme pointe quart-horaire mensuelle. On aurait pu éviter cette pointe en décalant les périodes de dégivrage dans le temps.

Évaluer l’efficacité énergétique de la stérilisation

Évaluer l'efficacité énergétique de la stérilisation


Isolation des parois

Sur les pertes des parois

En stérilisation, l’isolation des parois revêt toute son importance. En effet, pendant toute une journée d’exploitation, les équipements sont portés à haute température. C’est le cas des parois du générateur, de la distribution et de la double enveloppe où les températures avoisinent les 134 [°C]. À ces températures, sans isolation, les déperditions thermiques sont importantes.

Si on reprend les valeurs de la fiche technique d’un constructeur, les déperditions estimées sont :

Fiche technique du constructeur
Équipement Type Unité Consommation/cycle
Générateur de vapeur Entrée eau osmosée litres 13
électricité kWh 8,6
Sortie pertes des parois kW 0,8
Distribution Sortie pertes des conduites kW faibles
Autoclave Sortie pertes des parois de la double enveloppe kW 2,1
pertes des parois des portes de la chambre kW/porte fermée : 0,5
ouverte : 1,4
Pompe à vide Entrée eau adoucie litres 216
électricité du moteur de pompe kW 2,2
Sortie condensat litres 229

L’efficacité énergétique d’une isolation peut être évaluée et comparée aux valeurs de la fiche technique du constructeur.

Exemple.

Soit un stérilisateur de section carrée de l’ordre de 400 [L] en contenance d’eau. La surface de l’enveloppe extérieure peut être évaluée à partir de ses dimensions:

côté = 1 [m]; Profondeur = 1,2 [m].

La surface de l’enveloppe est de 1 x 4 x 1,2 = 4,8 m².

Lorsqu’on isole, on prend de la laine minérale dont la conductivité thermique λ est de 0,04 [W/m.K].

On prend les hypothèses suivantes :

  • La vapeur à l’intérieur des équipements est à une température de 134 [°C].
  • La paroi extérieure de la double enveloppe est en inox et a une conductivité thermique λ de 25  [W/m.K]; on peut donc considérer que la température à l’extérieur de la double enveloppe est de l’ordre de 134 [°C].
  • La température à ne pas dépasser pour l’électronique de régulation est de 28 [°C].
  • La température de contact ne peut dépasser 60 [°C].
  • Le coefficient thermique d’échange superficiel est de 10 [W/m².K]. Cependant, il peut varier suivant la présence d’une ventilation forcée ou pas, équivalant à prendre plutôt une valeur de 23 [W/m².K].

Sur cette base, on peut calculer :

  • L’épaisseur d’isolation nécessaire pour ne pas provoquer de brûlure (critère principal des constructeurs).
  • La déperdition résultant de l’isolation des parois.

Calculs

Pour évaluer ces paramètres.

En faisant varier l’épaisseur de l’isolant, on obtient les résulats suivants :

Pour un coefficient thermique d’échange superficiel de 10 [W/m².K] (sans ventilation forcée) :

Le 1er [cm] d’isolation de la cuve du stérilisateur diminue les déperditions d’un facteur 3,5; ce qui est énorme. Les centimètres supplémentaires ne servent qu’à réduire la température de contact des parois afin de circonscrire les risques de brûlure en ne diminuant plus beaucoup les déperditions. La difficulté d’isolation d’une cuve de stérilisation réside dans sa complexité de conception; à savoir que les nombreuses connections de la cuve avec le reste du système constituent autant de points faibles d’isolation.

La rentabilité d’isolation dépendra donc essentiellement du surcoût de l’isolation supplémentaire.

Pour une épaisseur d’isolant de 3 cm (comme annoncé par le constructeur), le calcul donne 600 [W] de déperdition.

Pour un coefficient thermique d’échange superficiel de 23 [W/m².K] (avec ventilation forcée) :

Sur le graphique précédent, on voit que le coefficient thermique d’échange superficiel peut faire varier les déperditions et les températures de paroi de manière importante. Les pertes thermiques sont plus importantes.

En comparant les valeurs annoncées par le constructeur et celles calculées on se rend compte qu’il y a une certaine divergence. En effet pour une épaisseur de 5 cm d’isolant et sans ventilation forcée (pour un coefficient thermique d’échange superficiel de 10 [W/m².K]) :

  • le calcul donne 529 [W],
  • le constructeur avance 2 100 [W].

Les 1 500 [W] de différence seraient-ils dus à la distribution ou le calcul a-t-il été effectué avec une épaisseur d’isolant de 1 cm?

Sur la production de condensats

Les déperditions à travers les parois se traduisent aussi par la formation de condensats. En effet, de par l’échange de chaleur entre les parois et l’ambiance, la vapeur compense ces pertes en cédant de l’énergie de condensation. Les condensats qui en découlent sont encore chauds mais ont perdu les 4/5ème de l’énergie initiale contenue dans la vapeur.

Il est certain que plus on isole, moins de condensats seront formés et moins d’énergie perdue à l’égout.

Exemple.

Soit le même stérilisateur que dans l’exemple précédent.

Pour épaisseur d’isolant de 1 et 5 [cm] on calcule les déperditions :

Calculs

Pour évaluer ces paramètres.
Déperditions au travers des parois de la cuve
Épaisseur [cm] Déperditions [W] Énergie annuelle perdue [kWh/an] Coûts annuels [€/an]
1 1 457 1,454 x 4 000 = 5 816 640
5 378 0,377 x 4 000 = 1 508 166

La chaleur libérée par la condensation de la vapeur est :

Qcondensation = h »vapeur à 3 bar 134°C – h’eau à 134°C = 2 727 [kJ/kg] – 561 [kJ/kg]

Qcondensation = 2 166 [kJ/kg]

Sur base de 4 000 [h] de fonctionnement par an, la quantité de condensats est déterminée comme suit :

mcondensats = Déperditions x durée x 3 600 / Qcondensation

La chaleur résiduelle dans les condensats est de :

Qrésiduelle_cond = mcondensats x h’eau à 134°C / 3 600

On obtient les résultats suivants :

Déperditions annuelles au travers des parois de la cuve
Épaisseur [cm] Condensats formés [kg]
Chaleur résiduel [kWh/an]
Coûts [€/an] avec 0,11 [€/kWh]
1 9 600
9 666 x 561 / 3 600 = 1 506 [kWh]
166
5 2 400
2 506 x 561 / 3 600 = 390 [kWh]
43

Conclusion

L’isolation des parois a plus d’impact sur les déperditions à travers les parois que sur l’énergie que l’on pourrait retirer des condensats.


Récupération de l’énergie des condensats

Après avoir isoler les équipements de manière optimale, l’énergie résiduelle contenue dans les condensats est-elle valorisable ?
Avant toute chose, il faut distinguer deux types de condensats :

  • Les condensats propres de la distribution et de la double enveloppe qui ne sont pas contaminés car ils n’ont pas transité par la chambre de stérilisation.
  • Les condensats contaminés évacués par la pompe à vide de la chambre de stérilisation.

Certains constructeurs prévoient de récupérer les condensats de la distribution et de la double enveloppe par gravitation en plaçant le générateur sous la double enveloppe. Cette manière de procéder est intéressante car la chaleur résiduelle des condensats produits participe positivement dans le bilan en réduisant l’énergie électrique nécessaire à la production de vapeur.

Quant aux condensats issus de la chambre de stérilisation, pas de chance, ils sont mélangés à un grand débit d’eau froide dans l’anneau liquide de la pompe à vide; ce qui signifie que l’énergie résiduelle que l’on pourrait encore tirer de l’effluent de sortie de la pompe à vide n’est pas valorisable.

Théories

L’étude approfondie sur le bilan énergétique, montre qu’une partie non négligeable de l’énergie initiale de la vapeur produite dans le générateur se retrouve sont forme de condensats issus de la pompe à vide (de l’ordre de 50 à 64 %).

Le hic, c’est que l’enthalpie du mélange des condensats et de l’eau de l’anneau liquide est faible (de l’ordre de 150 [kJ/kg] ou même moins). En d’autres termes l’énergie de la vapeur initiale s’est totalement dégradée :

h »vapeur à 3 bar 134°C = 2 727 [kJ/kg]

h’eau à 134°C = 561 [kJ/kg]

h’eau sortie de pompe  = 150 [kJ/kg]

Le rapport énergétique est de l’ordre de 18; ce qui montre bien que l’énergie contenue dans l’eau de sortie de la pompe à vide n’est pas récupérable. Cette perte d’énergie est principalement liée aux impératifs de fonctionnement de la pompe à vide qui exige des températures faibles d’eau de service pour des vides poussés.

Donc le schéma idéal ci-dessus serait bien trop coûteux à réaliser pour le peu de bénéfice à en retirer.

Récupération sur les débits d’appoint d’eau de la pompe à vide

On pourrait croire qu’il vaut mieux ne rien faire. Pas du tout !

On peut diminuer la consommation d’eau qui alimente l’anneau liquide de la pompe à vide.


Gestion du débit d’eau de la pompe à vide

Vu la nécessité de disposer d’un débit d’eau important à basse température au niveau de l’alimentation de la pompe à vide pour obtenir un vide poussé, plusieurs systèmes ont été envisagés, tout en gardant le même débit dans la pompe, de manière à réduire le débit d’appoint d’eau brute adoucie.

On parlera ici de l’évaluation de l’efficacité,

  • des circuits semi-ouverts,
  • des circuits fermés.

Circuits semi-ouverts

Théories

Pour en savoir plus sur le calcul de la quantité d’eau d’appoint dans le circuit semi ouvert.

L’évaluation théorique de ce système donne une réduction de l’ordre de 30 % :

  • de la consommation d’eau de service,
  • des pertes d’énergie par rejet à l’égout.

Circuits semi-ouverts

Théories

Pour en savoir plus sur le calcul de la quantité d’eau d’appoint dans le circuit fermé.

L’évaluation théorique de ce système donne une réduction de l’appoint d’eau de l’anneau liquide de la pompe à vide élevée. Il est risqué de donner une valeur précise de réduction sachant que les cycles de fonctionnement de la pompe à vide sont particulièrement fluctuants en température. En effet :

  • En début de phase de prise de vide, les températures risquent d’être élevées. À cet instant, le risque que l’échangeur ne soit plus suffisant est présent; ce qui signifie qu’il faut un appoint d’eau brute.
  • En fin de phase, les températures redeviennent normales puisqu’il n’y a pratiquement plus de vapeur ni de condensats à évacuer (l’échangeur suffisant à refroidir l’eau de l’anneau liquide).

Certains constructeurs annoncent 75 % de réduction de consommation d’eau.

Mesurer l’éblouissement

Date : page réalisée sous l’hégémonie Dreamweaver

Auteur : les anciens

Eté 2008 : Brieuc.

Notes : 22.01.09

  • Winmerge : ok – Sylvie
  • Mise en page [liens internes, tdm, en bref !, passage général sur la mise en page de la feuille] – Sylvie

20/03/09, par Julien

  • Corrections Antidote

Mai 2009

  • 2eme passage – mise en page – Sylvie.

Mesurer l'éblouissement


Introduction

Deux métriques décrivant l’éblouissement dû à la lumière naturelle sont utilisées couramment et inclues dans certains outils de conception. Ce sont le Daylight Glare Index (DGI) et le Daylight Glare Probability (DGP).

Le DGI décrit la sensation d’éblouissement sur une échelle alors que le DGP décrit la probabilité qu’une personne soit gênée par un éblouissement provenant de la lumière naturelle.

Cette dernière métrique fût développée sous des conditions de lumière naturelle et a montré dans plusieurs cas qu’elle est mieux corrélée avec la perception d’éblouissement dû à la lumière naturelle que le DGI.

L’ensemble du contenu de cette page provient du rapport « Energy audit et inspection procedures » réalisé lors de la sous-tâche C de la tâche 50 de l’AIE (Agence Internationale de l’Énergie). Pour plus d’information, le rapport complet des méthodes d’audit et procédure d’inspection peut être téléchargé ici en français.


Le Daylight Glare Probability (DGP)

Le Daylight Glare Probability (DGP) est une approche pour prédire l’éblouissement d’inconfort pour des environnements de type locaux de bureaux.

Le DGP est un indice d’éblouissement, qui utilise l’éclairement vertical de l’œil (de manière à considérer un effet de saturation de l’œil) ainsi que les sources individuelles de haute luminance (telles que le soleil et ses réflexions spéculaires) pour estimer la proportion de personnes insatisfaites. Des simulations basées sur les données climatiques ou des procédures de calcul simplifié du DGP permettent d’évaluer la fréquence d’occurrence de situations éblouissantes. Ceci permet d’évaluer le comportement annuel de l’environnement visuel.

L’équation du DGP est une formule empirique connectant des quantités physiques directement mesurables (luminance des sources, éclairement vertical au droit de l’œil, ange solide formé par la source éblouissante, luminance de l’arrière-fond, etc.) avec l’éblouissement ressenti par les sujets. Les variables importantes sont :

  • L’éclairement vertical au niveau de l’œil : cette valeur joue un rôle majeur dans l’expérimentation de l’éblouissement des places de travail éclairées naturellement. De plus, cette valeur est aussi utilisée de manière à tenir compte de l’adaptation de l’œil au niveau d’éclairement ambiant.
  • La luminance de la source d’éblouissement. Dans le cas de fenêtres : la luminance du ciel vu au travers de la fenêtre (plus la source ou le ciel est brillant, plus l’index est haut).
  • L’angle solide sous-tendu par la source. Dans le cas de fenêtres : la taille apparente de la surface de ciel visible depuis l’œil de l’observateur (plus la surface est grande, plus l’indice est haut).
  • La position angulaire de la source par rapport à la ligne de vue de l’observateur. Dans le cas de fenêtres : la position du ciel visible dans le champ de vision (plus il est loin de la direction centrale de vision, plus l’indice est petit).

DGP = 5,87.10-5 x Ev + 9,18.10-2 x log( 1 + ∑i [ (Ls,i2 x ωs,i) / (Ev1,87 x Pi2) ] ) + 0,16

Avec :

  • Ev : l’éclairement vertical de l’œil [lux]
  • Ls : la luminance de la source [cd/m²]
  • i : le nombre de sources éblouissantes
  • P : l’indice de position [-]
  • ωs : l’angle solide de la source [-]

Le DGP peut être appliqué à tout espace intérieur éclairé naturellement et dans lequel les tâches sont comparables à des tâches de bureau. Dans le cas de positions de travail multiples, la position la plus défavorable en termes d’éblouissement devrait être investiguée. Ces positions sont habituellement proches de la façade et/ou là où on peut s’attendre à une vue directe vers le soleil, lorsqu’il se trouve bas sur l’horizon.

De manière à éviter l’éblouissement d’inconfort pour des espaces de type bureaux, le DGP (Daylight Glare Probability) pour la direction de vision principale ne devrait pas excéder une valeur de 0.45 durant 5% du temps d’occupation. Le Tableau suivant résume les catégories de valeur du DGP.

Critères d’éblouissement Daylight Glare Probability
L’éblouissement est le plus souvent non perçu DGP ≤ 0,35
L’éblouissement est perçu mais le plus souvent non dérangeant 0,35 < DGP ≤ 0,40
L’éblouissement est perçu et souvent dérangeant 0,40 < DGP ≤ 0,45
L’éblouissement est perçu et souvent intolérable 0,45 < DGP

Une autre possibilité est d’utiliser une valeur seuil (DGPt) pour différents niveaux de protection de l’éblouissement.

Recommandation pour un niveau de protection à l’éblouissement DGPt Maximum d’excédant permis durant le temps d’usage de référence
Minimum 0,45 5 %
Moyen 0,40 5 %
Élevé 0,35 5 %

La sensibilité à l’éblouissement augmente avec l’âge. De plus, la variation de perception de l’éblouissement entre personnes est large. Le DGP ne devrait pas être appliqué aux situations pour lesquelles on soupçonne que l’éclairement vertical n’est pas un bon, indicateur de la perception d’éblouissement. Ces situations incluent ; une tâche positionnée loin de la fenêtre, les surfaces de vente des magasins, des halls sportifs et des espaces profonds et sombres avec des très petites fenêtres.


Le Daylight Glare Index (DGI)

Le Daylight Glare Index DGI (ou équation d’éblouissement de Cornell) est une version modifiée du « British glare index BGI », pour prédire l’éblouissement venant des fenêtres. L’équation est exprimée comme suit :

DGI = 10 log( 0,48 x ∑i [ (Ls1,6 x Ωs0,8) / (Lb + 0,07 x ωwi0,5 x Lwi) ] )

Avec

  • Ls : la luminance de source(s) d’éblouissement [cd/m²]
  • Lb : la luminance de l’arrière-plan [cd/m²]
  • Lw : la luminance moyenne pondérée de la fenêtre, en fonction de la surface relative du ciel, des obstructions et du sol [cd/m²]
  • i : le nombre de sources éblouissantes
  • Ωs : l’angle solide sous-tendu par la fenêtre [sr]
  • ωs : l’angle solide sous-tendu par la source d’éblouissement, modifié par la position de la source en considérant le champ visuel et l’indice de position de Guth [sr].

Le DGI exprime la magnitude d’éblouissement et sa valeur est définie comme :

Critères d’éblouissement Daylight Glare Index
Juste imperceptible 16
Juste acceptable 20
Juste inconfortable 24
Juste intolérable 28

Le DGI a été développé dans des conditions d’éclairage électrique et son applicabilité pour des sources d’éblouissement dispersées de même que pour des sources d’éblouissement de grande superficie n’est pas claire. Il ne tient pas non plus compte d’un effet de saturation de l’œil.

Simuler l’éclairage

Simuler l'éclairage


Introduction

Les méthodes et outils pour la rénovation de l’éclairage des bâtiments devraient rencontrer les besoins des architectes et des concepteurs d’éclairage, qui sont focalisés sur des « solutions d’éclairage » ; ils devraient également satisfaire ceux des ingénieurs en service des bâtiments, qui sont centrés sur « la résolution de problèmes ». Les deux approches devraient contribuer de manière efficace à :

  • Donner du support aux utilisateurs concernant la description du projet de rénovation de l’éclairage ;
  • Permettre des évaluations de performance de solutions alternatives de rénovation ;
  • Promouvoir le choix des solutions de rénovation optimales ;
  • Utiliser les métriques appropriées à l’évaluation des performances énergétiques et d’éclairage, et de confort visuel.

Le nombre de méthodes simplifiées et d’outils de simulation avancés permettant l’évaluation de métriques d’évaluation de l’éclairage et du confort visuel est actuellement élevé. Certaines d’entre elles peuvent être appliquées à la fois à l’éclairage naturel et électrique, permettant une approche intégrée pour les procédures de rénovation en matière d’éclairage. Certaines méthodes permettent l’évaluation de performances énergétiques annuelles et en éclairage de projets de rénovation de grands bâtiments, sur un simple PC.

Nous distinguons ci-après quatre types d’outils :

  • Les outils de diagnostic globaux;
  • Les outils de DAO (dessin assisté par ordinateur) et CAO (conception assistée par ordinateur);
  • Les outils de visualisation;
  • Les outils de simulation.

L’ensemble du contenu de cette page provient du rapport « Methods and tools for lighting retrofits : State of the art review » réalisé lors de la sous-tâche C de la tâche 50 de l’AIE (Agence Internationale de l’Énergie). Pour plus d’information, le rapport complet d’analyse des méthodes et outils pour la rénovation de l’éclairage des bâtiments peut être téléchargé ici en français.


Les outils de diagnostic globaux

Voici une liste (non exhaustive) d’outils de diagnostic globaux pour la rénovation :

EPIQR+

EPIQR+ est la dernière version d’un software basé sur la méthode EPIQR développée entre 1996 et 1998 dans le contexte du programme Européen de recherche Joule II et soutenu par l’Office Fédéral Suisse pour l’éducation et la Science.

L’objectif de cet outil est d’aider les experts à réaliser un diagnostic systématique d’un bâtiment existant en vue d’estimer son état de dégradation et d’élaborer différents scénarios de rénovation. Les outputs de l’outil incluent une liste de travaux et d’actions ainsi que leurs coûts associés et leurs effets sur la consommation énergétique du bâtiment.

Le logiciel permet :

  • D’établir un enregistrement complet des informations permettant de décrire l’état général du bâtiment à rénover.
  • D’élaborer un diagnostic des conditions physiques et fonctionnelles du bâtiment.
  • De déterminer en détail la nature des travaux requis.
  • D’estimer le pourcentage probable de rénovation du bâtiment (± 15%).
  • D’optimiser la consommation énergétique du bâtiment, après rénovation.
  • De prendre les mesures nécessaires de manière à corriger les désordres relatifs à la mauvaise qualité de l’air et  le confort intérieur.
  • De comparer les différents scénarios d’intervention tout en prenant en compte l’âge des éléments du bâtiment et l’évaluation des coûts en fonction du planning des travaux (planning d’investissement).
  • D’explorer les possibilités d’augmentation de la valeur d’utilisation du bâtiment (après rénovation).

Le principe est de faire une inspection complète du bâtiment, en suivant un chemin systématique, qui permet d’en réviser son entièreté (observations visuelles sans échantillon destructif ou consultation de spécialiste).

À la fin du processus, EPIQR+ donne une vue d’ensemble du statut du bâtiment et offre la possibilité de faire évaluer l’impact de divers scénarios de rénovation. Le coût et la performance énergétique de chaque scénario permet à l’utilisateur de prendre une décision justifiée sur le processus de rénovation.

Site internet de référence : www.epiqrplus.ch

LOTSE ENERGIEEFFIZIENTE INNENBELEUCHTUNG (Guide à l’efficacité énergétique de l’éclairage intérieur)

Avec son interface conviviale et facile à comprendre, le « Guide à l’efficacité énergétique de l’éclairage intérieur » fournit principalement des pistes d’information sur la rénovation énergétique efficace des systèmes d’éclairage. Les informations données dépendent du groupe cible sélectionné et sont organisées selon les phases d’un processus de rénovation. Une estimation grossière des potentiels d’économie d’énergie et de CO2 sont également fournies.

L’information est organisée en blocs que l’on doit sélectionner, structurés selon les phases d’un projet de rénovation typique : analyse de l’état actuel, planning, financement, approvisionnement et maintenance. Le nombre, contenu et niveau de détail de ces différents blocs dépend du groupe cible, qui doit être sélectionné par l’utilisateur lors de la première étape.

Ensuite, avant d’entrer dans la section informative, il existe une option d’évaluation rapide. Sur base d’une procédure très simplifiée de calcul, une estimation des potentiels de gains énergétiques est donnée, dépendant des inputs suivants : type de bâtiment (bureau, stock ou production), taille du bâtiment, âge du système d’éclairage, coûts électriques et nombre d’heures d’opération annuelles.

Site internet de référence : www.lotse-innenbeleuchtung.de

OPTOMIZER

OptoMizer fournit les outils nécessaires pour effectuer un audit d’éclairage complet, précis et détaillé. Le logiciel gère un nombre illimité de projets et d’audits, de locaux et de prix. Il gère aussi un nombre illimité de configurations de luminaire, de calendriers d’occupation et de données détaillées afin de permettre un audit, espace par espace.

Un suivi détaillé des subventions est inclus afin de permettre aux utilisateurs de profiter au mieux de celles-ci et d’encourager au maximum les économies d’énergie.

OptoMizer permet d’envisager toutes les techniques d’éclairage nécessaires et permet d’analyser les possibilités d’économie d’énergie en détail en tenant compte de l’impact carbone et des coûts.

Une fois que l’audit initial a été réalisé et que les données ont été collectées dans OptoMizer, le concepteur d’éclairage peut préserver son audit original comme audit de type « modèle » et cloner l’audit entier en un audit « construction ». Comme le projet de rénovation réel prend place, les changements réalisés peuvent être intégrés dans l’audit « construction ». Cela permet au concepteur de réaliser des comparaisons simples entre l’audit « modèle » et « construction » une fois que le projet est terminé.

Site internet de référence : www.fdlabs.com

ReLight – un outil efficace pour une inspection in-situ des installations d’éclairage et l’identification du potentiel de rénovation

L’objectif de la nouvelle application reLight, pour appareils mobiles tels que les tablettes et les smartphones est de réaliser une inspection à vue et d’analyser plus facilement les systèmes d’éclairage existants.

Elle offre aussi d’autres fonctions de consultance en énergie, telles que des comparaisons de coûts.

Une évaluation du système d’éclairage existant est réalisée par comparaison visuelle et à partir d’une simple description qualitative des proportions du local et du type de façade. En quelques minutes, cela conduit non seulement à une analyse du système d’éclairage existant mais en même temps à des suggestions de rénovation appropriées, incluant un relevé séparé des coûts liés aux différentes propositions.

Site internet de référence : www.relightapp.de


Les outils de DAO et CAO

Voici une liste (non exhaustive) d’outils de dessin assisté par ordinateur (DAO) et/ou de conception assistée par ordinateur (CAO) :

3dsMaxDesign

Le software 3dsMax est développé par Autodesk et est un outil de conception 3D complet. Depuis 2009, Autodesk propose également 3dsMAxDesign. Les deux softwares partagent la même technologie et ont les mêmes fonctionnalités clés. Cependant, alors que 3dsMax est principalement utilisé par des développeurs de jeux vidéo, 3dsMAxDesign est plus adapté aux architectes, concepteurs et ingénieurs. Il permet de réaliser des simulations précises de l’éclairage naturel et artificiel, en conditions statiques, sous ciel CIE couvert ou clair. L’intégration du modèle de ciel de Perez dans le logiciel permet aussi à l’utilisateur d’évaluer son modèle sur base du fichier météo du lieu considéré (simulations dynamiques). On peut également réaliser des animations à partir des images de visualisations créées par ces simulations.

Pour les simulations dynamiques, 3dsMaxDesign utilise le même fichier météo que celui employé par le logiciel EnergyPlus (fichier .epw). Ces fichiers météos sont disponibles (sur le site web du Département de l’Énergie des USA) pour plus de 1000 localisations aux USA et plus de 1000 localisations dans 100 autres pays. Il permet au software de modéliser les conditions d’éclairage naturel pour chaque heure de l’année.

3dsMaxDesign est un outil destiné à être utilisé lorsque le projet est déjà à un stade avancé de la conception car cela peut prendre assez de temps de créer le modèle géométrique précis, d’introduire les informations concernant les matériaux utilisés et de définir le type de ciel considéré. Les utilisateurs doivent suivre un processus bien défini en vue de calculer des valeurs précises.

L’usage de 3dsMaxDesign devrait être réservé à des spécialistes en éclairage car les résultats obtenus devraient être analysés avec un œil critique. En effet, on trouve certains bugs dans le software qui conduisent parfois à des résultats très surprenants (c.-à-d. des valeurs de FLJ plus hautes que 100 % dans 3dsMaxDesign 2013).

Site internet de référence : www.autodesk.com

AUTODESK AutoCAD

AutoCAD permet de développer des dessins vectoriels en 2D ou en 3D et de créer des visualisations 3D. Des rendus de haute qualité peuvent être créés avec la suite AutoCAD.

En fournissant un espace de mise en page connecté à l’espace du modèle, le software est utilisable pour la création de présentations. Il est possible d’améliorer la modélisation sous forme de plan (ajouter la géolocalisation, extraire des isolignes) ou les capacités de design d’AutoCAD en 3D (formes libres) grâce à des plugins additionnels. Il est aussi possible de connecter le workflow entre un ordinateur de bureau, le cloud et des solutions mobiles.

AutoCAD a été développé pour être utilisé à tous les stades de conception du bâtiment ; de l’esquisse et l’avant-projet à la modélisation avancée en 3D ou au plan d’exécution.

Il est utilisé par les architectes, les ingénieurs et les concepteurs aussi bien pour produire des dessins techniques que pour développer une visualisation du bâtiment et des rendus.

Les principaux bénéfices sont le développement et la présentation de dessins techniques et d’exécution 2D ainsi que le développement de modèles 3D de niveau de complexité moyen. Il existe une grande variété des librairies CAO/DAO disponibles sur le Web et contenant des objets et des éléments de construction pouvant être inclus dans le software.

Site internet de référence : www.autodesk.com

Rhinoceros

Rhino permet de modéliser toute sorte de forme, du dessin 2D simple à la forme 3D la plus complexe.

L’interface de Rhino est simple et intuitive et permet une visualisation contemporaine ainsi que le contrôle de vues en plans, en élévation et en perspectives.

Chaque vue peut être translatée, tournée et zoomée de manière indépendante des autres.

Rhino peut être utilisé à toutes les étapes de conception du projet, se prêtant aussi bien à créer un prototypage rapide 3D pour un premier essai qu’à développer des modèles 3D très précis, destinés à la production industrielle. Le software est destiné aux architectes, designers et ingénieurs en architecture et en construction et est approprié pour le design industriel.

Les fabricants d’appareils domestiques et de bureau, de mobilier, d’appareil médical et d’équipement de sport, de chaussures et de bijoux utilisent Rhino pour créer des formes libres.

La force de Rhino réside en sa capacité à créer des formes libres complexes. Les outils inclus permettent d’extraire des informations détaillées concernant la géométrie et d’analyser et de valider les surfaces créées.

Site internet de référence : www.rhino3d.com

Sketchup

SketchUp est un outil de modélisation 3D simplet et très intuitif qui propose aussi des opérations avancées comme le calcul de superficie et de volume. Les modèles SketchUp peuvent aussi être compatibles avec des outils BIM puisque des étiquettes de schéma peuvent être attribuées aux groupes ou composants du modèle.

Il est aussi possible de créer des composants dynamiques. Les composants dynamiques sont des objets SketchUp qui ont été programmés de manière à se comporter intelligemment. Ces composants intelligents peuvent par exemple être réduits sans être déformés. Ces composants peuvent aussi être programmés de manière à bouger automatiquement ; il s’agit par exemple de portes qui s’ouvrent ou de panneaux solaires qui tournent automatiquement de manière à faire constamment face au soleil.

L’outil « SketchUp Match Photo » permet la création d’un modèle 3D sur base de photographies. Dans SketchUp, il est aussi possible de créer, optimiser et altérer le sol, en 3D.

SketchUp ne modélise pas la lumière naturelle mais son engin de modélisation en temps réel réalise des études précises d’ombrage sur le modèle. Une fois que la localisation du modèle est fixée, la position du soleil peut être déterminée et une étude de la pénétration solaire et/ou de l’efficacité des systèmes d’ombrage peut alors être réalisée.

La possibilité de modélisation de Sketchup en lien avec l’éclairage naturel est sa capacité d’étudier les ombres portées, en fonction de la localisation du bâtiment, de son fuseau horaire ainsi que de la date considérée.

Site internet de référence : www.sketchup.com


Les outils de visualisation

Dans leur pratique de tous les jours, les architectes et designers doivent souvent produire des images de leur propres projets, de manière à fixer leur design, convaincre leurs clients ou gagner une compétition.

Ces images montrent des scènes éclairées (scénarios de jour ou de nuit) incluant des sources de lumière, des couleurs, des textures, des surfaces brillantes etc., en essayant de produire des effets photo réalistes.

Parfois ces images sont produites sur base de photos existantes. Des softwares comme PhotoShop incluent des fonctionnalités spécifiques (effet d’éclairage) à cette fin.

Certains outils CAO contiennent aussi des fonctions spécifiques qui permettent de produire ces images à partir de modèles 3D.

Toutefois, une enquête réalisée dans le cadre de l’Agence Internationale de l’Énergie (AIE) a montré que certaines personnes font des confusions entre la visualisation et la simulation.

Ainsi, bien que les outils de visualisation jouent un rôle important comme base de discussion et peuvent être cruciaux pour montrer la distribution de lumière dans un local, ils ne remplacent en aucun cas les résultats donnés par les programmes de calcul de lumière.


Les outils de simulation

Voici une liste (non exhaustive) d’outils permettant la simulation de l’éclairage à l’intérieur d’un local :

DAYSIM

DAYSIM est un software d’analyse de l’éclairage naturel basé sur le logiciel RADIANCE qui modélise la quantité annuelle d’éclairage dans et autour des bâtiments. DAYSIM permet la modélisation de systèmes de façade statiques et dynamiques. L’utilisateur peut spécifier un système de contrôle de l’éclairage électrique du type d’un interrupteur on/off manuel, un détecteur de présence ou une cellule de gradation de la lumière en fonction des disponibilités de lumière naturelle.

DAYSIM est utilisé par les concepteurs, les architectes et les ingénieurs. Cependant, comme DAYSIM est basé sur RADIANCE, une connaissance minimale de RADIANCE est nécessaire de manière à choisir correctement les paramètres de simulations.

Les résultats de simulation sont les métriques dynamiques basées sur le climat telles que l’autonomie dynamique et l’UDI (Useful Daylight Illuminance), l’éblouissement annuel ainsi que les consommations annuelles d’éclairage électrique, sur base de la puissance électrique installée. DAYSIM permet aussi une définition des horaires d’occupation, des charges internes et du statut des protections solaires qui peuvent être couplées directement avec des engins de simulation thermique tels qu’EnergyPlus, eQuest et TRNSYS.

Daysim ne fournit aucun outil de rendu.

Site internet de référence : www.daysim.ning.com

DIALUX

DIALUX permet de calculer l’éclairement naturel, pour trois types de ciel, parmi lequel le ciel couvert CIE.

DIALUX peut être utilisé à toutes les étapes du projet mais comme il n’inclut qu’un outil de modélisation géométrique simple, il est mieux adapté au stade de l’avant-projet. DIALUX est principalement dédié aux concepteurs d’éclairage mais peut être également utilisé par des architectes.

Le modèle géométrique est réalisé dans le software mais on peut importer des fichiers .dwg ou .dxf pour servir de base au dessin.

Site internet de référence : www.dial.de

DIALUX Evo

DIALUX Evo est le nouveau software qui a été introduit en parallèle avec le software DIALUX et qui remplacera ce dernier dans le futur. DIALUX Evo est avant tout dédié au bâtiment.

L’utilisateur crée sa géométrie dans un espace virtuel. Ce peut être une simple pièce, un étage entier ou même un bâtiment entier ou plusieurs bâtiments situés dans un contexte urbain. Si un concepteur conçoit l’éclairage pour un bâtiment entier, il peut se positionner n’importe où dans ce bâtiment et voir le résultat de son plan.

DIALUX Evo permet des calculs d’éclairage électrique et d’éclairage naturel. On peut y modéliser un ciel clair, moyen et couvert. Les valeurs d’éclairement ainsi que le facteur de lumière du jour peuvent être calculées.

DIALUX Evo est moins intuitif que DIALUX et est probablement plus destiné aux concepteurs d’éclairage qu’aux architectes.

Site internet de référence : www.dial.de

DIAL+ Lighting

DIAL+ permet de soit lancer des simulations d’éclairage (RADIANCE) ou de calculer les charges de chauffage et de refroidissement à l’échelle d’un local.

Le module permet de produire des rapports qui incluent les résultats suivants :

  • Facteurs de lumière du jour
  • Autonomie dynamique diffuse (% et heures)
  • Autonomie pour Minergie-Éco (Suisse)
  • Valeurs d’éclairement en éclairage électrique
  • Consommation annuelle d’électricité d’éclairage (SIA 380/4, Minergie)
  • Diagramme solaire incluant les obstructions extérieures.
  • Etudes d’ombrage (facteur d’ensoleillement, fraction de ciel vu)
  • Le module de refroidissement donne accès aux modules suivants : Charges de refroidissement et de chauffage (EN 15251 EN 15255, EN 15265 and ISO 13791, SIA 382/1 SIA 382/2)
  • Débits d’air dus à la ventilation naturelle (Modèle de Cockroft)

Grâce à sa rapidité de simulation et sa simplicité, DIAL+ est particulièrement adapté à la réalisation d’études paramétriques, ce qui est très intéressant au stade de l’avant-projet. DIAL+ permet de prendre des décisions précoces à l’échelle du local et de les appliquer au reste du bâtiment. DIAL+ est une interface très intuitive qui traite de l’optimisation des charges énergétiques, à l’échelle du local.

L’interface a été conçue de manière à permettre à un utilisateur non expert de décrire facilement les paramètres des locaux. Il peut donc être utilisé par des architectes et des ingénieurs. Il est aussi bien adapté à des objectifs pédagogiques. Cependant, l’utilisation de toutes ses caractéristiques (éclairage et thermique) suppose que l’utilisateur a une connaissance minimale du comportement d’un bâtiment.

DIAL+ contient un modeler 3D simplifié qui permet de modéliser des locaux rectangulaires, en forme de L ou de trapèzes, ayant un toit plat, à simple ou double versant. Des objets opaques ou transparents peuvent être ajoutés à l’intérieur des locaux traités. Le temps moyen requis pour décrire tous les paramètres d’un local classique est de moins de 10 minutes.

Les résultats de simulation sont affichés sous forme de plans 2D et de graphes (FLJ, autonomie, éclairement, etc.) sur le plan de travail ou sur les murs.

Site internet de référence : www.diaplus.ch

DIVA-for-Rhino

DIVA pour Rhino permet à ses utilisateurs de réaliser une série d’évaluation de performance environnementale de bâtiments individuels ou de paysages urbains incluant des cartes de rayonnement solaire, des rendus photoréalistes, des métriques dynamiques en éclairage naturel, des analyses d’éblouissement ponctuel et annuel ainsi que des analyses des charges thermiques de modèles unizones.

Cet outil est destiné aux professionnels du secteur de la construction, tels que les architectes et les concepteurs “lumière” familiers avec les outils de conception par ordinateur. Les données sont principalement introduites grâce à l’interface de modélisation 3D Rhinoceros. Une connaissance de ce logiciel est donc essentielle. Un fichier climatique doit être introduit dans le logiciel et l’analyse de l’éclairage naturel peut ensuite être réalisée, selon une grille de mesures définie par l’utilisateur. Le calcul des différentes métriques ainsi que les rendus visuels peuvent alors être facilement réalisés au travers de l’interface DIVA. Il est cependant utile d’avoir des connaissances avancées de simulations en éclairage naturel car il est nécessaire de modéliser les surfaces de manières à ce qu’elles pointent dans la bonne direction, leur donner les propriété photométriques précises (facteur de réflexion, de transmission, etc), modéliser l’environnement (bâtiments et obstacles) qui affecterons les résultats, et sélectionner les bons paramètres de calcul pour Radiance.

Site internet de référence : www.solemma.net

FENER

Fener est utilisé pour comparer des scenarios en termes de climat, géométrie et systèmes de fenêtres, calculant des métriques dynamiques d’énergie, d’éclairage naturel et d’éblouissement. Les fonctions principales de l’outil sont les suivantes :

  • Interface conviviale : l’outil guide l’utilisateur dans son introduction de toutes les données requises pour faire tourner FENER. Trois modes différents sont possibles :
    • Rapide : données prédéfinies de géométrie et conditions frontières.
    • Avancé : permet une flexibilité dans la définition de la géométrie et des conditions frontières
    • Expert : permet d’uploader des fichiers de configuration
  • Base de données : l’outil inclut une base de données à partir de laquelle des données de caractérisation (BSDF et donnée calorimétriques) relatives aux systèmes de fenêtres peuvent être sélectionnées. Des nouveaux systèmes peuvent être uploadés.
  • Stratégie de contrôle : permet à l’utilisateur de définir des stratégies de contrôle. L’utilisateur peut spécifier une matrice d’états de contrôle dépendant de l’occupation, de l’éclairement, de l’indice d’éblouissement, de la température et du rayonnement.

Autres caractéristiques

  • Fener peut être utilisé à partir de différents appareils portables
  • Il inclut une possibilité de visualisation interactive 3D de la géométrie.

L’objectif de cet outil est double :

  • Faciliter le développement de nouveaux produits de façade par les fabricants de composants de façade.
  • Quantifier les avantages de choisir l’un ou l’autre système de fenêtre par les architectes et les concepteurs de bâtiment dans les premières étapes de leurs projets.

L’outil n’inclut pas de possibilité de rendu d’éclairement intérieur.

Site internet de référence : www.fener-webport.ise.fraunhofer.de

GERONIMO

Geronimo est un software convivial pour les architectes et les concepteurs « lumière » conçu pour réaliser des simulations d’éclairage naturel pour des ciels clairs et couverts. Il permet aussi de visualiser l’impact de l’utilisation de systèmes de fenêtre complexes (CFS) sur l’éclairage naturel des bâtiments.

Le logiciel est destiné aux professionnels du secteur de la construction, tels que les architectes et les concepteurs « lumière » familiers avec les outils de conception par ordinateur. Trois modes d’analyse sont possibles dans GERONIMO : base, moyen, avancé. Le mode de base permet à tout utilisateur de produire un rendu et le mode avancé permet à un utilisateur spécialisé de contrôler les paramètres RADIANCE.

GERONIMO n’inclut pas de fonctionnalité de modélisation 3D; à la place, il fournit 6 typologies de bureau qui sont représentatives des configurations classiques.

Il est possible de travailler avec des modèles 3D personnalisés dans GERONIMO à condition de savoir comment créer un fichier de modélisation RADIANCE, qui peut ensuite être introduit dans GERONIMO.

GERONIMO ne réalise que des simulations d’éclairage naturel ; l’éclairage électrique n’est pas pris en compte.

GERONIMO permet des réaliser des rendus en « fausse couleur » de l’éclairement et de valeurs d’éclairement pondérées selon son impact circadien. Il permet de calculer le facteur de lumière du jour et affiche les résultats en niveaux de gris, en utilisant une échelle linéaire ou logarithmique. Il peut calculer les risques d’éblouissement et peut afficher différents indices d’éblouissement. Il contient un module de calcul de l’autonomie diffuse en éclairage naturel réalisé à partir d’un rendu simple sous un ciel couvert.

Site internet de référence : leso.epfl.ch

IES VE

« Virtual Environment » est une suite intégrée d’applications liées par une interface commune et un modèle simple d’intégration de données (IDM). Cela signifie que les données utilisées pour une des applications peuvent être utilisées par d’autres.

Les modèles proposés sont par exemple « ApacheSim » pour la simulation thermique, « Radiance » pour l’éclairage naturel et « SunCast » pour l’analyse des ombrages. L’application de modélisation géométrique 3D est « ModelIT ».

ModelIT permet à l’utilisateur de créer les modèles 3D requis par les autres composants au sein de la « Virtual environment ». ModelIT est conçu pour permettre d’intégrer les niveaux de complexité appropriés au modèle global.

A l’étape de pré-design ou lors de l’étude de faisabilité, des modèles basiques peuvent être générés à partir de croquis en utilisant une variété d’outils de modélisation simples, de manière à mener des évaluations préliminaires ou des études comparatives.

Similairement, en fin de processus de conception, les fichiers .dxf représentant précisément le bâtiment peuvent être importés dans ModelIT, de manière à servir de base pour une représentation 3D des espaces.

Le module d’interface pour RADIANCE, RadianceIES, est intégré dans « Virtual Environment ». Il existe deux types d’images créées par Radiance ; les rendus de luminances et d’éclairements. Un rendu d’éclairement peut être utilisé afin de regarder les valeurs en lux et de générer des iso contours en lux ou en Facteur de Lumière du Jour. Un rendu en luminance est utilisé pour évaluer des indices d’éblouissement ou en tant qu’image photo-réalistes. L’interface est conçue de manière à rendre la création d’images la plus facile possible, en se basant sur des hypothèses par défaut quand c’est possible.

Site internet de référence : www.iesve.com

Lightsolve

L’approche générale de Lightsolve est d’apporter une aide en éclairage naturel, dès le stade de l’avant-projet, au travers d’une visualisation interactive et pro-active, de manière à améliorer la performance du design en termes de performances annuelles. Les métriques évaluées dans Ligthsolve diffèrent de celles évaluées dans la plupart des outils de simulation en éclairage naturel de deux manières : elles sont orientées « objectif » et elles placent leur accent sur la variation de la performance de l’éclairage naturel au cours de l’année en utilisant les cartes temporelles.

Actuellement, 5 différents aspects peuvent être évalués dans Lightsolve :

  1. Analyse d’éclairement sur base temporelle
  2. Analyse de l’éblouissement sur base temporelle en fonction de la position de vision (basée sur le DGP)
  3. Analyse perceptuelle du contraste
  4. Analyse de variabilité (contraste au cours du temps)
  5. Évaluation des effets non visuels (santé).

Un calcul de facteur de lumière du jour est également implémenté.

Lightsolve, actuellement sous forme de beta version, a été dévelopé par le LIPID (EPFL) à destination des académiques et pour des raisons de recherche. L’application est disponible gratuitement dans sa version actuelle et sans garantie pour les étudiants, les chercheurs et les praticiens intéressés par l’outil. Comme il n’a pas encore été totalement validé, il est principalement destiné à un usage académique, de manière à collecter le feedback des utilisateurs.

Lightsolve ne fournit pas de fonctionalité de modélisation 3D mais permet d’importer des fichiers waverfront et des fichiers SketchUp.

Grâce à son rendu rapide, il est possible de l’utilisateur pour naviguer librement dans le modèles 3D et d’avoir un premier feedkback visuel des conditions d’éclairage à différents moments du jour et de l’année.

Site internet de référence : www.lightsolve.epfl.ch

RADIANCE

RADIANCE est un outil sophistiqué d’analyse et de visualisation de la lumière.

À partir de modèles géométriques 3D, il calcule des résultats corrects physiquement et des rendus de haute qualité (luminance / éclairement sous forme de valeurs et d’images). Des représentations en « fausses-couleurs » ou sous forme d’iso-lignes permettent un affichage compréhensible des résultats.

RADIANCE est le programme de référence pour le calcul de la l’éclairage naturel. Les simulations peuvent être réalisées pour différents types de ciel (clair, uniforme ou couvert) ou pour un ciel quelconque défini en utilisant le modèle de Perez. Un plugin additionnel permet de modéliser les 15 nouveaux types de ciel CIE. Le modèle de Perez sert aussi de base pour les calculs annuels de l’éclairage naturel basé sur les données climatiques du lieu considéré.

Des outils supplémentaires permettant de calculer, par exemple, les indices d’éblouissement, sont également disponibles.

RADIANCE est utilisé par les concepteurs, architectes et ingénieurs pour prédire le niveau d’éclairement et l’apparence d’un espace, éclairés avec différents systèmes d’éclairage électrique et naturel, avant la construction. Les chercheurs l’utilisent aussi afin d’évaluer les nouveaux produits d’éclairage. Le software peut être utilisé à toute étape de la conception d’un bâtiment. Il permet de modéliser une grande variété de géométries spatiales et de conditions d’éclairage.

Site internet de référence : www.radiance-online.org

ReluxPro

ReluxPro propose une interface conviviale qui fournit des possibilités d’importation puissantes des plans d’architecture 2D ou de modèles 3D. ReluxPro possède une base de données de luminaires importante, permet de définir précisément la position des luminaires dans le bâtiment et donne rapidement des résultats sous forme de rendus.

ReluxPro permet aussi de calculer des niveaux d’éclairement. Pour chaque zone d’un bâtiment, les niveaux d’éclairement et les valeurs d’uniformité g1 et g2 peuvent être obtenus. Il est dès lors possible d’obtenir un facteur de lumière du jour dans les locaux d’un bâtiment et de prédire la distribution de lumière naturelle dans le local modélisé. Des valeurs de luminance peuvent aussi être calculées.

Il est destiné au secteur des professionnels de la construction, tels que les architectes et les concepteurs d’éclairage familiarisés avec les outils de conception informatique.

ReluxPro inclut des fonctionnalités de modélisation 3D très faciles d’utilisation. Il est possible de modéliser les meubles et les luminaires, à partir d’une vaste base de données. Les ouvertures de fenêtre ainsi que d’autres éléments tels que des portes, peuvent être ensuite définies dans les murs.

Site internet de référence : www.relux.com

VELUX Daylight Visualizer

VELUX Daylight Visualizer est un outil de simulation professionnel destiné à l’analyse et la visualisation des conditions d’éclairage naturel dans les bâtiments de toute échelle, en incluant le résidentiel, les bâtiments commerciaux, les bâtiments industriels et institutionnels. Il est capable de calculer l’éclairement et la luminance pour les 15 types de ciel définis par la CIE. Il peut aussi calculer le facteur de lumière du jour.

L’interface est intuitive ce qui rend le programme accessible aux utilisateurs débutants ainsi qu’à ceux qui sont plus expérimentés à l’usage des outils de calcul de l’éclairage naturel.  Le temps de calcul nécessaire pour réaliser une étude d’éclairage naturel est aussi assez retreint.

Les résultats de simulation sont soit des images photo-réalistes qui peuvent être converties en fausse-couleur ou superposées par des iso-lignes soit des valeurs numériques. En plus des images fixes, le programme peut être utilisé pour créer des animations basées sur la course du soleil.

VELUX Daylight Visualizer est utilisé par les architectes et les ingénieurs pour prédire les niveaux d’éclairement et évaluer l’apparence d’un espace durant la conception d’un bâtiment.

Le programme peut être utilisé au tout début de la conception d’un bâtiment de manière à évaluer la disponibilité et à valider la performance du design final. VELUX Daylight Visualizer est aussi utilisé dans plusieurs écoles et universités pour enseigner l’éclairage naturel.

Site internet de référence : viz.VELUX.com


Comparaison des outils

3ds Max DAYSIM DIALUX DIALUX-EVO DIAL+ DIVA for Rhino FENER GERONIMO IES VE Lightsolve RADIANCE Relux Pro VELUX Daylight Visualizer
Informations générales
Interface graphique X X X X X X X X X X
Importation DAO X X X X X X X X
Modèle 3D X X X X X X X
Rendu 3D X X X X X X X X X
Calculs Radiance X X X X X X X X
Calculs Radiance (méthode 3 phases) X X
Daysim X
Photo-mapping X X X
Cible
Adapté pour les architectes X X X X X X X X X
Adapté pour les ingénieurs électriciens X X X X X
Adaptés pour les ingénieurs HVAC X X X
Adapté pour l’avant-projet X X X X X X X
Adapté pour une conception avancée X X X X X X X X X X
Éclairage naturel
Valeurs de Facteur de Lumière du Jour X X X X X X X X X X X X
Autonomie en éclairage naturel X X X X X X X X
Sensible à l’orientation X X X X X X X X X X
Simulations basées sur le climat X X X X X X X X X
Valeurs d’éclairement X X X X X X X X X X X
Valeurs de luminance X X X X X X X X X
Calcul de l’éblouissement X X X X X X X X
Possibilité de décrire des surplombs/avancées architecturales (fixes) X X X X X X X X X X X
Possibilité de décrire des systèmes d’ombrage (mobiles) X X X X X X X X
Possibilité de décrire des obstructions extérieures X X X X X X X X X X X
Éclairage électrique
Description manuelle des luminaires X X X X
Base de données des luminaires X X
Possibilités d’importer des luminaires (IES, Eulumdat, etc.) X

Évaluer la consommation des équipements électriques

Évaluer la consommation des équipements électriques


Plages de consommations

L’ADEME a réalisé une enquête en 2015 auprès de 50 entreprises et sue plus de 100 000 appareils pour déterminer en autres les consommations énergétiques des équipements informatiques en milieu professionnel. Elle a ainsi pu chiffrer la consommation annuelle moyenne d’un appareil :

Appareil Consommation annuelle moyenne

[kWh/an]

Téléphone IP 40
PC portable 48
Client léger 65
Imprimante 71
PC fixe 151
Copieur 447
Appareils moins courants
Smartphone 1 à 2
PDA 4
Tablette 5
Pieuvre pour audioconférence – sans fil 10
Tableau blanc interactif 20 à 26
Mini switch de bureau 20 à 33
Badgeuse 39 à 55
Scanner 8 à 110
Fax 9 à 110
Pieuvre audioconférence – filaire 65
Antenne WI-FI 20 à 120
Machine à affranchir 67 à 190
NAS 220
Traceur de plans 170 à 470
Machine de mise sous pli 570
Écran TV 120 à 1470
Gros copieur utilisé en reprographie 350 à 1800

Ces consommations ne permettent donc pas de rendre compte :

  • du type d’appareil : marque, puissance, etc.
  • du mode d’utilisation : période de veille, d’arrêt, de fonctionnement, etc.

Le label Energy Star

Les fabricants d’équipement de bureautique peuvent obtenir un agrément auprès de l’Union Européenne pour pouvoir apposer le label Energy Star sur leurs produits.

Ce label signifie que le produit rencontre certaines exigences environnementales.

L’ensemble des appareils labellisé est repris dans une grande base de données sur leur site internet. On y retrouve des appareils tels que :

  • Les ordinateurs : fixes, portables, clients légers, tablettes, stations de travails, etc. ;
  • Les écrans : moniteurs d’ordinateurs, cadres photos numériques, affiches de signalisation, etc. ;
  • Les équipements d’imagerie : copieurs, fax, scanner, imprimantes, etc. ;
  • Les équipements alimentés sans interruptions (« UPS »);
  • Les serveurs.

Pour chacun d’entre eux des caractéristiques techniques et de consommations sont renseignées, notamment la puissance en veille ou à l’arrêt mais aussi une estimation de la consommation totale annuelle.

Évaluer un risque de condensation superficielle sur les vitrages

Évaluer un risque de condensation superficielle sur les vitrages


Condensation superficielle côté intérieur

Comment la reconnaître ?

Schéma condensation vitrage

Dans le cas d’un double vitrage, elle se localise dans les coins et sur le pourtour du châssis et du vitrage, à cause des déperditions plus grandes existant dans ces zones par la présence de l’intercalaire du vitrage.

Normalement, la condensation se fera premièrement sur les vitrages et non sur les châssis.
Cependant, la présence de vitrages isolants peut favoriser la condensation de surface sur les châssis surtout si ceux-ci sont en aluminium et sans coupure thermique; leur température peut être plus basse que celle des vitrages.

La présence de condensation intérieure sur les vitrages entraîne

  • une diminution de la visibilité,
  • la formation de givre,
  • des tâches sur les verres, tablettes et allèges, dues aux gouttelettes ruisselantes,
  • la formation de moisissures sur le mastic et/ou le châssis.

Elle n’est gênante qu’en quantité excessive….

Influence du vitrage sur les risques de condensation superficielle

Lorsque la fenêtre constitue la surface intérieure la plus froide du local, c’est d’abord sur celle-ci que va se former de la condensation superficielle. Celle-ci se forme sur la paroi vitrée sans causer de dégâts, l’air intérieur est asséché et la teneur en humidité de l’air du local (xi) (en g/kg) diminue. De ce fait, le risque de condensation superficielle sur les autres parois diminue.

Un autre avantage d’une telle fenêtre, lorsqu’il n’y a pas de système de ventilation contrôlée et qu’il n’est pas envisageable d’en placer un, est que dès qu’il y a condensation à sa surface, les occupants sont prévenus que l’air est trop humide et qu’il faut ventiler.

Ainsi, il est intéressant d’avoir un vitrage sur lequel la condensation superficielle se forme plus rapidement que sur n’importe quelle autre paroi ou n’importe quel pont thermique présent dans le local.

Exemple.

Dans un local, le pont thermique le plus important a un τmin de 0,545. Il s’agit d’une terrasse en béton en encorbellement avec isolation (résistance thermique de 1 m² x K/W) intérieure au droit du linteau et entre la dalle et le plancher.

Schéma pont thermique terrasse.

τ1 = 0,705;
τ2  = 0,905;
τ3 = 0,955;
τ4 = 0,785;
τ5 = 0,98;
τ6 = 0,885;
τ7 = 0,545;
τ8 = 0,77.

τMin = τ7 = 0,545

Le local est muni de vitrages doubles ayant un coefficient de transmission thermique U de 3,22 W/m²K. Le coefficient d’échange thermique de surface entre le vitrage et l’ambiance intérieure (hi) = 10 (W/m²K).

La condensation superficielle va-t-elle se former d’abord sur les vitrages ou sur le pont thermique ?

Calcul du facteur de température (τ) du vitrage :

τ = [(1/3,22) – (1/10)] / (1/3,22)
τ = 0,68 > 0,545 :

La condensation superficielle apparaîtra en premier lieu sur le pont thermique !

Avec un simple vitrage (U = 7 W/m²k), on aurait eu τ = 0,3 < 0,545 : la condensation superficielle, dans ce cas, se forme d’abord sur le vitrage !

Calcul de la teneur en humidité de l’air du local lorsqu’il y a formation de condensation superficielle sur les vitrages

Remarque : Le texte ci-dessous est extrait de la NIT 153 du CSTC.

De l’humidité est extraite de l’air du local par la formation de condensation.
La teneur en humidité de l’air du local (xi) sera par conséquent plus basse que s’il n’y avait pas de condensation superficielle.

En supposant qu’on se trouve en régime stationnaire, l’équation hygrométrique du local comportera un terme supplémentaire, à savoir la quantité d’humidité qui condense par unité de temps sur une surface déterminée A (m²) dans le local.

Ce raisonnement conduit à la relation :

avec,

  • i : le taux d’humidité de l’air intérieur dans le cas où il n’y a pas de condensation superficielle, calculé à l’aide de la formule ci-dessus
  • xsA : le taux d’humidité de saturation (g/kg) correspondant à la température superficielle ηoi (°C) de la surface A

Cette relation est démontrée dans l’Annexe de la NIT 153 du CSTC, pg. 77.

L’expression ci-dessus, peut être utilisée dans les conditions suivantes :

xe < 7 g/kg,
2,5 g/kg < xsA < 12 g/kg,
10°C < ηi < 20°C.

avec,

  • xe : la teneur en humidité de l’air extérieur (g/kg),
  • θi : la température intérieure (°C).

On procède comme suit :

  • On détermine xi° à l’aide de la relation ci-dessus.
  • On détermine xsA en fonction de la température superficielle du vitrage ou de la paroi la plus froide du local.
  • Si xi° > xsA, il y a condensation superficielle.
  • On trouve la valeur finale de xi à l’aide de la relation ci-dessus.
Exemple.

Soit un local muni d’un vitrage de 2 m², ηi = 12°C, D = 0,05 kg/h et nV = 10 m³/h (D/nV = 0,005 kg/m³).

Les conditions extérieures sont ηe = -10°C, φe = 90 % -> xse = 1,60 g/kg.

Admettons que le vitrage de 2 m² soit la surface la plus froide de la pièce.

xi° = 0,9 x 1,6 + 825 x 0,005 = 5,56 (g/kg)

La température superficielle du vitrage est donnée par la formule :

avec,

Pour un vitrage simple (k = 7 W/m²K) et pour un vitrage double (k = 3,22 W/m²K) avec hi = 10 W/m²K, on trouve :

θoi (vitrage simple) = – 3,40°C -> xsA = 2,84 g/kg,
θoi (vitrage double) = 4,92°C -> xsA = 5,37 g/kg.

Comme dans le cas d’un vitrage simple, xsA < xi, on peut conclure que de la condensation se formera sur les vitres.

On calcule :

xi = (5,56 + 10,48 x 2,84 x 2/10) / (1 + 10,48 x 2/10) = 3,72 g/kg

Remarque.

Il convient d’attirer l’attention sur le fait que la valeur xi trouvée se situe à un niveau élevé uniquement parce que nous sommes partis d’une situation stationnaire. Une telle situation est rare en réalité et, lorsque de l’humidité commence à se produire à un moment donné, le degré hygrométrique de l’air du local n’augmentera que lentement.


Condensation superficielle côté extérieur

Comment la reconnaître ?

Celle-ci se manifeste d’abord au centre du vitrage, c’est à dire dans la partie la mieux isolée qui reçoit un minimum d’énergie venant de l’intérieur.

On observe ce phénomène :

En effet, dans ces conditions sous l’effet du rayonnement important vers la voûte céleste (surrefroidissement) et des faibles pertes thermiques à travers le vitrage, la température du vitrage peut descendre sous la température de rosée de l’air extérieure, entraînant l’apparition de condensation sur la face extérieure du vitrage.

Ce phénomène est lié au fait qu’avec un vitrage très isolant, la température de leur face extérieure reste très basse, la chaleur interne étant piégée à l’intérieur du bâtiment.

Comment l’éviter ?

Pas de chance, il n’ y a pas moyen! … À moins d’équiper ses fenêtres d’essuies-glace performants !

Photo reflet vitrage.

Consolons-nous, cela constitue une preuve des performances d’isolation des vitrages concernés !


Condensation entre les vitrages

Si on constate la présence de condensation et qu’elle n’est ni sur la face interne du vitrage ni sur la face externe, c’est qu’elle s’est formée à l’intérieur du double vitrage…

Les vitrages isolants sont habituellement garantis contre la formation de condensation interne pendant une durée de 10 ans.

Cependant des désordres peuvent apparaître bien avant en cas de pose inappropriée du vitrage, c’est à dire :

La formation de condensation interne au vitrage est plutôt un mauvais signe : cela signifie que le sicatif présent dans l’intercalaire à perdu de son efficacité ou que le scellement n’est plus hermétique. Cela entraîne un remplacement quasi inévitable du vitrage.

Améliorer

Si vous voulez en savoir plus sur le remplacement d’un vitrage. 

Repérer un problème de condensation superficielle

Repérer un problème de condensation superficielle


Distinguer un problème de condensation superficielle d’un autre problème d’humidité

Un problème de condensation se manifeste par des problèmes d’humidité ou/et de moisissure. Remarquons cependant que des moisissures peuvent apparaître même sans condensation de surface. En effet, de la condensation superficielle apparaît chaque fois que l’humidité relative à la surface d’une paroi atteint 100 %, alors que la formation de moisissures sur une paroi peut déjà se produire à partir d’une humidité relative de 80 % si le matériau en contact avec l’air humide est hygroscopique.

Néanmoins, un problème d’humidité ou de moisissure peut avoir une autre origine que la condensation de surface. L’eau à l’origine du problème peut provenir d’une cause extérieure :

  • d’infiltrations d’eau de pluie,
  • de la succion d’eau contenue dans le sol (humidité ascensionnelle),
  • de l’absorption d’eau par les matériaux lors de la construction (humidité de construction),
  • de fuites dans une conduite ou une descente d’eau, dans un tuyau d’évacuation (humidité accidentelle).

D’autre part, la condensation interne peut aussi être à l’origine de problèmes d’humidité.

Les infiltrations d’eau de pluie

L’eau de pluie est aspirée de l’extérieur vers l’intérieur du bâtiment par capillarité dans les pores du matériau ou s’infiltre par des fisssures, des joints ouverts, etc.

Le tableau ci-dessous permet de distinguer si l’on est en présence d’un problème d’infiltration ou de condensation superficielle :

Infiltrations

Condensations

Les infiltrations se manifestent à travers les couvertures vétustes. Elles sont plus graves en bas de versants et lors de pluies battantes. Les condensations se manifestent au droit des ponts thermiques (linteaux, corniches, bandeaux, consoles, etc.).

Elles apparaissent surtout dans les locaux peu chauffés et mal ventilés ou dans ceux où il y a une production de vapeur importante.

Les condensations se forment le plus souvent sur les parois orientées au nord ou à l’est car elles sont plus froides.

Les taches ont, en général, des formes arrondies. Les taches se localisent, en général, dans les angles et aux endroits mal ventilés (dos du mobilier, …).
Le débit d’eau est en général trop important pour qu’il y ait formation de moisissures. Très souvent, les condensations s’accompagnent de moisissures.
L’intensité des taches d’humidité passe par un maximum quelques heures après une pluie importante. Le risque de condensation de surface est plus élevé pendant les longues périodes d’hiver où les températures varient entre 0 et 10°C et en présence d’une humidité relative extérieure élevée (temps de brouillard et de pluie).
L’enduit intérieur se dégrade assez rapidement (décollement et pourriture). L’enduit se dégrade plus tardivement et uniquement si les condensations sont très abondantes.
Le décollement du papier peint est fréquent. Le décollement du papier peint est moins fréquent.

* Ce tableau est largement inspiré du tableau page 11 de la brochure : Condensation et moisissures – Service public Wallon/ Aménagement du territoire, Logement, Patrimoine et Énergie (DGO4) / Département de l’Énergie et du Bâtiment durable – Par le Centre Scientifique et Technique de la Construction (CSTC).

L’humidité ascensionnelle

L’humidité ascensionnelle résulte de la pression de la nappe phréatique ou de la succion capillaire de l’humidité du sol. De ce fait, les murs s’imprègnent d’humidité jusqu’à une hauteur de 1,2 à 1,5 m. Ce phénomène se manifeste en l’absence de digue horizontale étanche sous la base des murs.

Si le bas de la face verticale des murs est étanche, l’humidité ascensionnelle peut monter plus haut.

Le problème de l’humidité ascensionnelle concerne rarement les toitures sauf les parfois en bas de versant lorsque celle-ci se trouve proche du sol.

L’humidité de construction

L’humidité de construction est la quantité d’humidité présente dans un bâtiment après la fin des travaux de construction. Elle provient de :

  • L’eau qui est absorbée par les matériaux de construction pendant leur stockage chez le fabricant ou sur le chantier.
  • L’eau de gâchage nécessaire pour la mise en œuvre des matériaux (mortier, béton, plâtre, etc.).
  • L’eau qui provient des précipitations pendant la construction.

Il est déjà arrivé, qu’un an après la construction d’un bâtiment, l’on récolte un demi seau d’eau en perçant une alvéole d’un hourdi en béton.

L’humidité accidentelle

L’ humidité accidentelle est l’humidité qui provient d’une fuite dans une conduite ou une descente d’eau, ou d’une évacuation bouchée.


Tableau récapitulatif

Certaines observations permettent de suspecter l’origine des problèmes. Attention, les phénomènes constatés peuvent découler de plusieurs causes qui parfois même se conjuguent et s’amplifient mutuellement. Le tableau ci-dessous aide à réaliser une première analyse.

OBSERVATIONS, PHENOMENES

CAUSES POSSIBLES

Condensation Pluie battante Humidité ascensionnelle Humidité accidentelle
Pas d’aération, mauvaise isolation thermique x
Humidité de l’air élevée x
Dégâts limités au N. et au NE. x (x) (x)
Dégâts limités au SO. et à l’O. x (x) (x)
Les dégâts ne commencent pas d’en bas x x (x)
Dommages localisés x (x) (x) x
Ponts thermiques x
Dégradation dans les angles x (x)
Sol transpirant x
Humidité uniquement sur la surface intérieure x (x)
Finition intérieure non poreuse x
Taches sur la façade extérieure x x (x)
Pas ou peu de dépassant de toiture x
Taches redentées, irrégulières sur la surface intérieure x (x)
Mur creux (correctement exécutés) (x) (x) (x)
Efflorescences aux étages x (x)
Efflorescences au niveau du sol (x) (x)
Augmentation de l’humidité en fonction de la hauteur x
Consommation anormale d’eau x
Dommage à la toiture, aux gouttières ou aux conduites d’amenée et d’évacuation x
Humidité sur l’épaisseur totale du mur (intérieur et extérieur) (x) x
Dommages limités à l’étage inférieur x
Apparition de dommages peu de temps après une période de pluie x (x)
Davantage de dégâts pendant la saison de pluie x (x) x

Légende : x : cause possible; (x) : possibilité à ne pas exclure.

* Source : Condensation et moisissures – Service public Wallon/ Aménagement du territoire, Logement, Patrimoine et Énergie (DGO4) / Département de l’Énergie et du Bâtiment durable – Par le Centre Scientifique et Technique de la Construction (CSTC).


Un repère : l’année de construction (ou de rénovation) du bâtiment

En général, ce sont surtout les bâtiments datant de la fin des années 1970 et des années 1980 ou ayant été rénovés durant ces années qui présentent des problèmes de condensation et de moisissures.

En effet, depuis la fin des années 1970, l’isolation est devenue chose courante dans le bâtiment. Ce changement dans les habitudes de construction a été induit par le choc pétrolier de 1973.

L’isolation des bâtiments en Wallonie se systématise après 1985, date à laquelle, l’Exécutif régional wallon adopte un règlement thermique imposant une isolation thermique de l’enveloppe des nouveaux logements.

Mais lorsqu’on a commencé à isoler les bâtiments, on a fait beaucoup d' »erreurs de jeunesse » :

  • On a employé des matériaux inadéquats : par exemple, les coulisses remplies de laines minérales trop souples et non hydrofugées ont provoqué de graves problèmes d’humidité.
  • On n’a pas soigné la mise en œuvre de l’isolant : par exemple, les coulisses non nettoyées ou une méthode d’élévation des murs creux inadaptée à de nouvelles exigences ont conduit à des défauts d’isolation.
  • On n’a pas changé la conception des bâtiments, la création de ponts thermiques, résultant d’anciennes pratiques architecturales (exemple : linteau coulé sur place).

Ces défauts ont provoqué des problèmes de condensation superficielle.

De plus, les mesures annexes prises afin de diminuer les consommations, et accompagnant l’isolation ont également favorisé les problèmes de condensation. Ces mesures sont :

  • la réduction de la température intérieure (dans certaines pièces, le chauffage a même été coupé),
  • le calfeutrement des portes et fenêtres,
  • la limitation de l’aération.

Ainsi, très rapidement, l’idée d’isolation fut confondue avec l’idée de calfeutrage et associée à celle d’humidité.

Mais si les bâtiments de cette époque ont particulièrement souffert du manque de connaissance, les problèmes de condensation ne se cantonnent malheureusement pas uniquement à ceux-ci et malgré la maîtrise actuelle de la technique, on retrouve encore des défauts de construction menant tout droit à des problèmes de condensation dans les bâtiments récents.

Pile à combustible

Pile à combustible


Principe

La pile à combustible part du principe de conversion de l’énergie chimique de combustion (réaction d’oxydo-réduction) en énergie électrique, en chaleur et en eau.

Les éléments de base constituant une pile à combustible sont principalement au nombre de trois, à savoir :

  1. une électrode de type anode émettrice d’électrons (oxydation);
  2. une électrode de type cathode collectrice d’électrons (réduction);
  3. un électrolyte séparant les deux électrodes.

Pour certains types de pile, l’injection continue d’un combustible au niveau de l’anode (H2 par exemple) induit, en présence de platine, la réaction d’oxydation catalytique :

H2 → 2H+ + 2e

De par ses propriétés physico-chimiques, l’électrolyte est « perméable » aux ions H+, ce qui leur permet de migrer vers l’électrode cathodique. Dans un même temps, l’électrolyte est aussi « imperméable » aux électrons et leur impose de passer par un circuit conducteur externe à la pile. D’où la création d’un courant électrique si le circuit est fermé.

L’injection continue de dioxygène de l’air (ou oxygène de l’air en simplifiant) au niveau de la cathode induit, aussi en présence de platine, la réaction suivante de réduction catalytique :

½ O2 + 2H+ + 2 e → H2O + Q (chaleur)

L’effet escompté est assuré puisque la réaction physico-chimique dans son ensemble produit de l’électricité aux bornes des électrodes et de la chaleur.

Schéma principe pile à combustible.

En première approche, cette technologie est propre vu qu’une pile alimentée avec de l’hydrogène et de l’oxygène rejette de l’eau. Le seul hic est que la production d’hydrogène, à l’heure actuelle, est très énergivore et potentiellement polluante.

Les piles à combustible sont caractérisées par la nature de l’électrolyte :

  • Un électrolyte acide induit une migration d’ions positifs (H+) de l’anode vers la cathode.
  • À l’inverse, un électrolyte basique génère la migration d’ions négatifs (OH, O2-, CO32-) de la cathode vers l’anode.

Les types de pile à combustible

Piles à combustible à électrolyte acide

  • Les PEMFC (Proton Exchange Membrane Fuel Cell). L’électrolyte est constitué d’une membrane solide polymère. Les températures de fonctionnement sont basses (20 – 100 °C).
  • Les DMFC (Direct Methanol Fuel Cell). À la place de l’hydrogène, les piles utilisent comme combustible le méthanol (CH3OH). Injecté directement sur l’anode avec de l’eau son oxydation catalytique produit des ions H+ et du gaz carbonique. Comme sur les PEMFC, une membrane solide polymère constitue l’électrolyte et permet la migration des H+ vers la cathode.
  • Les PAFC (Phosphorique Acid Fuel Cell) utilisent comme électrolyte l’acide phosphorique liquide emprisonné dans une matrice solide poreuse. Elles peuvent fonctionner jusqu’à 200 °C.

Piles à combustible à électrolyte basique

  • Les AFC à potasse liquide (Alkaline Fuel Cell) utilisent l’ion OH libéré par réduction catalytique de cette base sur la cathode.
  • Les MCFC (Molten Carbonate Fuel Cell) utilisent des carbonates de lithium et de potassium fondus pour la migration des ions CO32-.
  • Les SOFC (Solid Oxyde Fuel Cell) sont à base d’un électrolyte solide (zircone dopé aux terres rares) afin de produire des ions O2-.

Le catalyseur aux électrodes

Le rôle du catalyseur dans la réaction d’oxydo-réduction au niveau des électrodes est déterminant dans le rendement de la pile. Actuellement, on utilise du platine qui est un métal rare et coûteux. Les constructeurs et les labos de recherche tablent à moyen terme sur l’utilisation des nanotechnologies pour développer des catalyseurs.

Les enjeux énergétiques

Les piles à combustible présentent beaucoup d’atouts comme, par exemple :

  • des rendements élevés;
  • silencieuses;
  • sans pièce mobile;
  • dans une gamme de température large;
  • d’un point de vue environnemental, ne produit que de la chaleur et de l’eau.

Cependant, le défi est de taille pour produire de l’hydrogène. À 95 %, l’hydrogène est issu du « reformage » à la vapeur (ou vaporeformage) de combustibles fossiles comme le gaz de ville, le butane, le propane, … avec émission importante de CO2.

La  réaction générale s’écrit :

CnH(2n+2) + nH2O → nCO + (2n+1)H2

Exemple avec n = 1 : CH4 + H2O → CO + 3H2

Il est nécessaire de neutraliser le CO. Une réaction seconde permet d’y arriver :

CO + H2O → CO2 + H2

Du CO2 est donc émis !

En termes de rendement global théorique, des annonces de 95 % pour des piles à combustible domestique sont avancées au niveau de programme européen ene.field :  http://enefield.eu/
À prendre donc en considération, mais avec des « pincettes ».

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Procédure d’octroi des certificats verts

Procédure d’octroi des certificats verts


Préalable

La procédure d’octroi des Certificats Verts et LGO a été modifiée par l’Arrêté du Gouvernement Wallon du 3 avril 2014 relatif à la promotion de l’électricité produite au moyen de sources d’énergie renouvelable ou de cogénération. La nouvelle procédure est applicable depuis le 01/07/2014.

Il convient de toujours se référer au site Portail de la Région Wallonne pour s’assurer de la dernière version de la procédure applicable.


Présentation synthétique du mécanisme

La nouvelle procédure d’octroi des certificats impose à l’auteur de projet un passage par différentes étapes reprises ci-dessous :

  • Une demande réservation de CV. Cette demande doit être faite à la Région Wallonne et validée par elle suivant la disponibilité des CV dans l’enveloppe prévue pour la filière « cogénération ».
  • Une certification de l’installation, par un organisme agrée qui accorde un CGO ou Certificat de Garantie d’Origine pour l’installation. Lorsque l’installation est certifiée, l’organisme agréé envoie le CGO à la CWaPE. Cette démarche fait office de demande d’octroi de CV/LGO.
  • Un accord de la CWaPE quant à l’octroi des CV/ou LGO.

Le schéma ci-après reprend les étapes de la procédure de permis d’environnement.

Schéma étapes de la procédure de permis d’environnement.

(1) Formulaire à remettre à la Région (DGO4) :

  • Renseignements généraux
  • Dossier technico-financier
  • Informations relatives au projet
    • Calendrier
    • Business plan
    • Étude de faisabilité
    • Autorisations spécifiques
    • Estimation du nombre de CV

Délais de réponse : 45 jours.

(2) Validation par l’organisme agréé de la Conformité de l’installation et de la Conformité au code de comptage.

  • Le CGO fait office de demande d’octroi de CV et LGO.
  • Délais de réponse : 45 jours.

Les infos utiles

La CWaPE : https://www.cwape.be

  • Mise en place une plateforme spécifique pour faciliter la gestion des certificats vert.
  • L’édition chaque année d’un rapport sur l’évolution du marché des certificats verts.
  • La mise à disposition d’un outil Excel pour le calcul des certificats verts.

Le Portail de la RW : http://energie.wallonie.be

  • Les certificats verts.
  • La réservation.
  • Les procédure et formulaires.
  • L’état de l’enveloppe.
  •   …

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Acteurs de la cogénération en Région Wallonne et à Bruxelles

Acteurs de la cogénération en Région Wallonne et à Bruxelles

Les acteurs du marché de la cogénération

Le petit monde de la cogénération belge comporte de nombreux acteurs que ce soit des bureaux d’études, des installateurs, des entreprises de maintenances ou encore des organismes institutionnels. Pour facilité la recherche, le Facilitateur Cogénération pour la Wallonie a élaboré une liste d’outils et de documents associés disponibles ici :


La Commission wallonne pour l’Énergie (CWaPE)

La CWaPE est l’organisme responsable de la régulation du marché du gaz et de l’électricité en Wallonie.

La Commission wallonne pour l’Énergie (CWaPE) est la clé de voûte du bon fonctionnement du marché régional de l’électricité. Elle est l’organe de régulation, de contrôle et de transparence du marché wallon de l’électricité afin d’éviter tout abus de position dominante.

Elle est investie d’une mission de conseil auprès des autorités publiques ainsi que d’une mission générale de surveillance et de contrôle de l’application des décrets et arrêtés qui y sont relatifs. Elle est chargée de réaliser un rapport relatif à l’évolution du marché de l’électricité. Ce rapport d’abord communiqué au Gouvernement et au Parlement est ensuite publié.

En particulier, la CWaPE est responsable du contrôle du respect des dispositions en matière de promotion des sources d’énergie renouvelables et de la cogénération de qualité. Elle tient une banque de données dans laquelle sont enregistrés les renseignements relatifs aux certificats de garantie d’origine des unités de production d’électricité à partir de sources d’énergie renouvelables et/ou de cogénération, ainsi qu’aux labels de garantie d’origine et aux certificats verts octroyés à ces unités de production.

Elle organise un service de conciliation et d’arbitrage pour les différends relatifs à l’accès au réseau et à l’application du règlement technique. Elle pourra enfin, moyennant adaptation, intervenir en tant que régulateur du marché gazier si le législateur décide d’étendre les missions de la CWaPE à ce secteur.

Consultez le site de la Commission wallonne pour l’Énergie à l’adresse http://www.cwape.be


Le Comité de Contrôle de l’Électricité et du Gaz (CCEG)

Le CCEG est un organisme qui a débuté ses activités en 1955 pour être supprimé en 2003.

De nouvelles compétences ont alors été transférées à la CREG.


Le Comité de Régulation de l’Électricité et du Gaz (CREG)

Le Comité de Régulation de l’Électricité et du Gaz (CREG) est l’organisme fédéral de la régulation des marchés du gaz et de l’électricité en Belgique.

La CREG est un organisme autonome belge régi par la loi-programme du 22 décembre 2003 (M.B. 31/12/2003).

La CREG a plusieurs missions essentielles :

  • une mission de conseil auprès des autorités publiques.
  • surveiller la transparence et la concurrence sur les marchés de l’électricité et du gaz naturel.
  • veiller à ce que la situation des marchés vise l’intérêt général et cadre avec la politique énergétique globale.
  • veiller aux intérêts essentiels des consommateurs.

Le site de la CREG informe entre autres sur :

  • les tarifs de l’électricité et du gaz naturel.
  • des analyses relatives à l’évolution des prix, au fonctionnement des marchés, à la sécurité d’approvisionnement en électricité et en gaz naturel.
  • la législation pertinente de l’énergie.

Consultez le site du Comité de Régulation de l’Électricité et du Gaz http://www.creg.be


SPW Territoire, Logement, Patrimoine, Energie

Le SPW Territoire, Logement, Patrimoine, Energie œuvre à faire baisser la consommation d’énergie, à promouvoir les énergies renouvelables.

Le Département participe à la définition et au développement des politiques dans ces matières et coordonne les actions menées pour encourager les bonnes pratiques, aussi bien dans le secteur résidentiel, en ce compris la cible particulière des jeunes, que dans l’industrie et le tertiaire, y compris dans le secteur public.

Le soutien à la recherche et développement et à l’innovation vise aussi à réduire la consommation d’énergie et à développer à moindre coût le recours aux sources d’énergie alternatives.

Le Département veille par ailleurs à la bonne organisation des marchés régionaux de l’énergie par la rédaction et l’application d’actes réglementaires, mais aussi par la contribution à la mise en place de mesures d’accompagnement sociales des clients finaux des marchés régionaux de l’énergie.

Pour réaliser ces missions s’inscrivant le plus souvent dans un contexte européen, le Département compte trois directions : la direction du bâtiment durable, la direction de la promotion de l’énergie durable et la direction de l’organisation des marchés régionaux de l’énergie.

En particulier, le SPW Territoire, Logement, Patrimoine, Energie encadre également les accords de branche pour l’industrie et les soutiens financiers aux investissements économiseur d’énergie dont la cogénération fait partie.

Consultez le portail énergie de la Wallonie   http://energie.wallonie.be/


La Direction Générale Opérationnelle de l’Agriculture, des Ressources Naturelles et de l’Environnement – DGO3

La direction générale opérationnelle de l’Agriculture, des Ressources naturelles et de l’Environnement gère les patrimoines naturel et rural de la Région wallonne, propose des axes de développement dans les secteurs agricole et environnemental (y compris les ressources naturelles), détecte et gère les accidents environnementaux, veille au respect des exigences du développement durable.

Elle prépare et met en œuvre la Politique agricole commune, certifie et contrôle la qualité des animaux, des produits animaux, du matériel végétal de reproduction et des produits réglementés.

Elle exerce un contrôle opérationnel du régime des cours d’eau non navigables dans le respect d’une gestion intégrée de l’eau et de l’information au public.

Consultez le portail environnement de la Wallonie http://environnement.wallonie.be/

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Évaluer l’intérêt du financement par un tiers investisseur [cogen]

Évaluer l’intérêt du financement par un tiers investisseur


Le principe du tiers investisseur

La production simultanée d’électricité et de chaleur, appelée communément « cogénération », nécessite une connaissance approfondie d’un ensemble de disciplines qui n’est pas évident de maîtriser.

Le Tiers Investisseur est un concept et un instrument qui permet la prise en charge de la responsabilité totale de chaque phase d’un projet et qui en finance tous les coûts.

Ce système présente les avantages :

  • de travailler à « livre ouvert »;
  • de ne pas demander de participation financière au client;
  • de permettre au consommateur final un recentrage de son entreprise sur son métier de base;
  • de faire appel aux compétences externes non liées à un seul fabricant;
  • d’une intégration optimale des composantes techniques et financières par rapport aux financements classiques.

La formule proposée au client se présente de la façon suivante :

  • Le tiers investisseur prend à sa charge l’investissement représenté par la cogénération et les risques qui y sont liés, en ce compris le système de récupération de chaleur, le raccordement « combustible » et les éventuels travaux de transformation de la cabine de fourniture d’électricité.
  • Les installations de production de chaleur en place chez le client ne sont pas démantelées, elles assurent l’appoint nécessaire ou reprennent la production de chaleur en cas d’arrêt de l’installation de cogénération.
  • Le tiers investisseur se paie sur les économies réalisées, selon diverses formules possibles.

Avec diverses options possibles selon les formules proposées :

  • Le tiers investisseur prend ou ne prend pas la responsabilité des études et de la réalisation.
  • Le tiers investisseur est ou n’est pas propriétaire des installations.
  • Le tiers investisseur prend ou ne prend pas en charge les coûts liés à l’exploitation et à la maintenance.
  • Le tiers investisseur prend ou ne prend pas en charge les responsabilités liées à l’exploitation et à la maintenance.
  • Le tiers investisseur peut garantir les économies par rapport au prix du marché pour les productions séparées.
  • Le tiers investisseur se fournit éventuellement en combustible auprès du client afin de bénéficier des tarifs industriels qui ne lui sont pas directement accordés.


Le consommateur propriétaire des installations

Dans ce type de formule, le consommateur est propriétaire des installations.

Le tiers investisseur, après avoir investi dans les équipements, se paie sur les économies réalisées. Les aspects techniques peuvent dans ce cas être réalisés par le tiers investisseur lui-même ou par un bureau indépendant choisi par le consommateur.

Ce système présente plusieurs avantages :

  • Il donne accès à un ensemble de subsides. Dans la mesure où le consommateur est propriétaire des installations, il a droit aux subsides de la Région Wallonne.
  • Le tiers investisseur partage les économies générées et assure un remboursement de manière proportionnelle et conditionnelle.
  • Le tiers investisseur garantit un seuil et une durée de remboursement.
  • Une fois les investissements amortis, les économies sont entièrement au bénéfice du consommateur.
  • Les aspects techniques peuvent être traités par un bureau indépendant, choisi par le consommateur.

Le tiers investisseur propriétaire des installations

Dans ce type de formule, le tiers investisseur, propriétaire des équipements qu’il a étudiés et installés lui-même, vend l’électricité et la chaleur au consommateur.

Un producteur-fournisseur d’électricité comme tiers investisseur

La formule présente les caractéristiques suivantes :

  • Le fournisseur d’énergie vend de la chaleur au client, le prix étant basé sur une structure tarifaire classique, mais à un tarif réduit.
  • L’électricité qui est produite par le cogénérateur est la propriété du fournisseur d’énergie. La tarification de l’électricité au client reste identique par rapport à une situation sans cogénération, tant que le client n’est pas libéralisé.

Une société indépendante comme tiers investisseur

La formule présente les caractéristiques suivantes :

  • Électricité : une partie est produite par l’installation, le solde est acheté au réseau par le tiers investisseur. La totalité est vendue au client avec une remise garantie par rapport au meilleur prix que le client peut obtenir du réseau.
  • Chaleur : une partie est produite par l’installation, le solde est produit par les chaudières. La totalité est vendue au client avec une remise garantie par rapport au prix de revient de la chaleur produite par les chaudières.

La remise par rapport aux prix du marché est confirmée après l’étude de faisabilité, elle reste fixe pendant toute la durée du contrat.


Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Contexte wallon du développement de la cogénération

Contexte wallon du développement de la cogénération


Point de départ et vue d’ensemble

L’Arrêté du Gouvernement de la Région Wallonne a été publié le 30 novembre 2006 afin de promouvoir l’électricité verte et la cogénération de qualité.

L’intitulé est : « Arrêté du Gouvernement Wallon relatif à la promotion de l’électricité verte et de la cogénération de qualité ».

L’Arrêté a créé véritablement de nouvelles conditions économiques pour la cogénération :

  • Le nombre de certificats verts est fonction de l’économie de CO2 par rapport à la production séparée des mêmes quantités de chaleur et d’électricité dans des installations modernes de référence.
  • Un marché de certificats verts est créé par l’obligation pour tout fournisseur d’atteindre des quotas. Ceux-ci auront donc une valeur marchande qui s’ajoutera au prix du kWhé produit.

L’Arrêté détermine les règles applicables :

  • La certification des installations de production d’électricité verte et de cogénération : Principes et procédure de certification.
  • Les garanties d’origine de l’électricité produite à partir de sources d’énergie renouvelable.
  • Le mode de calcul de l’économie relative de CO2 et du nombre de certificats verts.
  • Les obligations à charge des fournisseurs d’électricité.
  • Les conditions et modalités de reconnaissance des certificats verts émis par d’autres autorités.

Évolution de l’Arrêté

L’Arrête en RW a suivi un certain nombre de modifications et d’abrogation. Elles se retrouvent sur différents sites officiels comme :

Important

Le Code de comptage énonce les dispositions applicables aux installations de mesure et le comptage liées aux installations de production d’électricité verte ou de cogénération. Une installation de production d’électricité verte ou de cogénération doit répondre aux prescriptions du code de comptage pour pouvoir être certifiée. Celui-ci est disponible ici : Procédures et codes de comptage de l’électricité produite à partir de cogénération en Région walonne (PDF)

Réglementations

Procédure d’octroi des certificats verts.

Appréhender les exigences en matière de cogénération de qualité

Afin de rencontrer ses objectifs politiques d’amélioration de l’efficacité énergétique et des outils de production d’énergie en relation notamment avec les émissions de CO2, le décret du 12 avril 2001 a particulièrement privilégié les modes de production d’énergie qui sont les plus performants d’un point de vue énergétique et environnemental.

Ainsi, la cogénération de qualité est définie comme étant « une production combinée de chaleur et d’électricité, conçue en fonction des besoins de chaleur du client, qui réalise une économie d’énergie par rapport à la production séparée des mêmes quantités de chaleur et d’électricité dans des installations modernes de référence, dont les rendements annuels d’exploitation sont définis et publiés annuellement ». Actuellement, l’installation de référence pour la production de chaleur est une chaudière ayant un rendement de 90 %. Du côté électrique, il s’agit d’une Turbine Gaz Vapeur (TGV) ayant un rendement de 55 %.

On dira que cette cogénération de qualité produira de l’électricité verte si elle a un taux minimum de 10 % d’économie de CO2 par rapport aux émissions de CO2 d’une production classique dans des installations modernes de référence. »

C’est en fonction de l’économie de CO2 qu’un nombre proportionnel de certificats verts pourra être attribué à une installation de cogénération de qualité pour chaque MWhé produit.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Évaluer le développement de la filière en Wallonie

Évaluer le développement de la filière en Wallonie


Bilan 2013 en Région Wallonne

Les installations en 2012 ont permis de produire 2140 MWh d’électricité nette (bilan 2013) pour 496 MW électrique installés. La cogénération apporte ainsi 7,1% de la production électrique de la Wallonie.

Production nette d’électricité répartie par type de centrales en Wallonie en 2013 (sources : Electrabel, SPE, CWaPE, ICEDD).

Pour atteindre cette production, le parc de cogénération se répartit suivant les différentes technologies, turbines et moteurs :

Puissance électrique : 519 MWe

Caractéristiques du parc des centrales de cogénération par type d’installation (source : Bilan Icedd – 2013).

La cogénération peut répondre aux besoins des différents secteurs, la puissance installée est majoritairement retrouvée dans les industries, alors que le secteur tertiaire possède un maximum d’unité.  Le secteur tertiaire peut en effet présenter un profil de besoin de chaleur tout à fait adapté pour l’utilisation de la cogénération. L’usage de la cogénération dans le logement, et plus spécifiquement, dans le logement individuel reste marginal.

Répartition de la puissance installée par secteur (source : Bilan Icedd – 2013).


Potentiel économique des cogénérateurs

Une étude a été menée par PWC, l’ICEDD et le Bureau DEPLASSE dans le cadre de la « Directive efficacité énergétique 2012/27 – Art. 14 – Stratégie de réseaux de chaleur et de froid alimentés par des cogénérations et des énergies fatales ».

Sur base de cette étude, le potentiel économique évalué en 2015 pour le développement de la cogénération est le suivant :

  • La puissance thermique est de 85 MWth, dont 44% dans le secteur industriel. La production thermique correspondante est estimée à 458 GWh ;
  • La puissance électrique est de 67 MWé, avec 50% dans le secteur industriel. La production électrique correspondante est de 361 GWh.
TERTIAIRE INDUSTRIE TOTAL

Part du pot. technique

Nombre total d’établissements 2 636 579 3 215
Nombre avec potentiel économique 210 24 234 9,6%
Part du total 8% 4% 7%
Puissance thermique totale kWth 48 078 37 007 85 086 16,1%
Puissance électrique totale kWe 33 288 33 431 66 719 15,6%
Production chaleur cogénérée MWh 218 541 239 714 458 255 14,4%
Production électrique cog. MWh 150 989 210 797 361 085 13,8%

Camembert puissance électrique totale (kWth)Camembert puissance électrique totale (kWe)

Camembert chaleur cogénérée MWhCamembert production électrique cog. MWh

Source : Directive efficacité énergétique 2012/27 – Art. 14 – Stratégie de réseaux de chaleur et de froid alimentés par des cogénérations et des énergies fatales (PWC, ICEDD, DEPLASSE).


Les réseaux de chaleur: une solution intéressante

dimensionnée sur les besoins de chaleur et non sur des besoins en électricité. Cette contrainte peut être considérée comme limitative pour les gros consommateurs en électricité.

Dans des installations ayant un grand besoin électrique, une alternative est alors de surdimensionner l’installation pour le besoin électrique pour autant qu’on valorise adéquatement la chaleur excédentaire. Une solution pour valoriser cette chaleur est de la distribuer dans le voisinage, par le biais d’un réseau de chaleur. Le réseau de chaleur et les installations satellites doivent être conçus pour limiter les pertes et donc maintenir un bon rendement global de distribution, régulation et stockage.

Une étude a été menée par PWC, l’ICEDD et le Bureau DEPLASSE dans le cadre de la « Directive efficacité énergétique 2012/27 – Art. 14 – Stratégie de réseaux de chaleur et de froid alimentés par des cogénérations et des énergies fatales ».

Sur base de cette étude, le potentiel wallon de développement des réseaux de chaleur a été évalué. La Région wallonne possèderait 940 secteurs statistiques avec un besoin linéaire supérieur à 2 000 kWh/an.m, représentant un potentiel énergétique de 13 733 GWh. Ce potentiel est logiquement concentré autour des villes les plus importantes (les plus denses).

Dans ces 940 secteurs statistiques, on dénombrerait 399 549 bâtiments résidentiels et 47 286 bâtiments tertiaires. Les bâtiments résidentiels représenteraient dès lors 89% de ce potentiel, contre 11 % pour le secteur tertiaire.

Notons que suite à la rénovation du parc bâti (rénovations et nouvelles constructions), ce potentiel théorique aura tendance à diminuer au fil des ans, étant donné l’augmentation de la performance énergétique du parc.


Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Intérêt de la cogénération

Intérêt de la cogénération


Une économie d’énergie significative

Le principe d’une cogénération est de produire simultanément de la chaleur et de l’électricité. Grâce à cette production combinée, les pertes d’énergie se réduisent de manière significative. Ainsi, la cogénération permet d’économiser entre 15 et 20 % d’énergie primaire par rapport à la production séparée de ces mêmes quantités de chaleur et d’électricité.

Pour produire 350 kWhé d’électricité et 530 kWth de chaleur, deux solutions sont possibles :

  • Une unité de cogénération au gaz, avec un rendement électrique de 35 % et un rendement thermique de 53 %, va consommer 1 000 kWh d’énergie primaire .
  • La meilleure centrale électrique (Turbine Gaz Vapeur), avec un rendement de 55 %, va consommer 636 kWh d’énergie primaire. De plus, la meilleure chaudière, avec un rendement annuel de 90 %, va consommer 589 kWh d’énergie primaire. Le total pour les filières séparées s’élève à 1 225 kWh d’énergie primaire.

Cette comparaison met en évidence une économie d’énergie primaire pour une même quantité de chaleur et d’électricité produite.
L’économie d’énergie primaire est alors égale à : 1 225 – 1 000 = 225 kWhp
Exprimée par rapport à la consommation totale d’énergie primaire, la fraction économisée est de :

(1 225 – 1 000) / 1 225 = 18 %

Exprimée par rapport à la consommation d’énergie primaire nécessaire pour la production d’électricité par une centrale TGV, la fraction économisée est de :

(1 225 – 1 000) / 636 = 35 %


La réduction des émissions de CO2 récompensée par des certificats verts

Les émissions polluantes, dont le CO2, sont généralement directement proportionnelles à la consommation d’énergie. Qui dit économie d’énergie primaire pour assurer les mêmes besoins (électriques et thermiques), dit réduction des émissions en CO2.

En Région Wallonne, il est convenu que 1 MWh de gaz naturel émet 251 kg de CO2, non seulement lors de sa combustion, mais également pour sa préparation. De même, 1 MWh de mazout émet 306 kg de CO2 (source : CWaPe – coefficient d’émission de CO2 des énergies primaires – juin 2004).

Ainsi, l’économie d’énergie primaire de 225 kWh, représente :

(1 225 x 0,251) – (1 000 x 0,251) = 307 – 251 = 56 kg de CO2

exprimée par rapport à l’économie totale de CO2 :

56 / 307 = 18 %

Si l’on ramène à la production de 1 MWh d’électricité par l’unité de cogénération, l’économie en CO2 s’élève à 161 kg CO2/MWhé.


Un gain économique attrayant

L’avantage de la cogénération est aussi économique. Une installation de cogénération bien dimensionnée permet à l’utilisateur de réduire sa facture énergétique globale. Le gain sur la facture électrique sera plus important que l’augmentation de la facture d’achat en combustible et d’entretiens.

En effet, par rapport à la situation antérieure (chaudière seule), la cogénération va consommer plus de gaz naturel. Cette surconsommation de 411 kWh (première figure : 1 000 – 589 = 411 « kWh » ) va permettre de produire 350 kWh d’électricité, soit un facteur 1,17.

Autrement dit, la cogénération permet de produire 1 kWh d’électricité avec un peu plus de 1 kWh de gaz naturel. L’intérêt économique est immédiat, car les coûts sont totalement différents. Alors qu’1 kWh de gaz naturel coûte environ 5 c€, l’électricité vaut entre 9 à 17 c€ par kWh.

En complément, afin de récompenser l’effort fait pour réaliser cette économie d’émission en CO2, la Wallonie a mis en place un dispositif de certificats vert. La promotion de l’électricité produite au moyen de sources d’énergie renouvelable ou de cogénération est régie par un arrêté du Gouvernement wallon du 30 novembre 2006, dernière modification par l’arrêté du Gouvernement du 12 février 2015.

Les certificats verts sont exprimés comme un taux d’octroi au MWh électrique produit, avec un maximum de 2,5 CV/MWh (pour demande postérieure au 1/1/2015).  Le taux d’octroi sera d’autant plus important que la cogénération utilise un combustible renouvelable et donc faible émetteur en CO2.

Sachant qu’aujourd’hui le certificat vert est garanti à 65 €, il s’agit d’un soutien à prendre en considération dans un projet de cogénération.

Dans un bilan économique, il faudra donc tenir compte de l’investissement initial, des soutiens financiers, sans négliger les frais d’entretien ainsi que l’amortissement.

Il est possible d’estimer rapidement la taille et la rentabilité d’un projet de cogénération.

Calculs

 Calculer vous-même la rentabilité d’une cogénération : étude de pertinence.

Objectif de la cogénération

L’intégration d’une cogénération aura toujours pour objectif premier de répondre au mieux aux besoins énergétiques en chaleur d’un bâtiment tout en produisant simultanément d’électricité.

Le besoin de chaleur devra être soigneusement défini pour le bien considéré.

Dans une situation idéale, l’intégration de la cogénération doit faire l’objet d’une amélioration énergétique globale d’un projet, et doit donc tenir compte des améliorations énergétiques du bâtiment.  Le besoin en chaleur et donc le dimensionnement du projet sont directement liés à la qualité de l’enveloppe du bâtiment.

Une cogénération mal dimensionnée n’atteindra pas les performances prévues, elle n’aura donc ni la rentabilité énergétique ni économique attendue.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Principe de la cogénération

Principe de la cogénération


C’est quoi la cogénération ?

La cogénération ou production d’énergie totale est une technique de production combinée d’énergie électrique et de chaleur. Son intérêt réside dans les rendements énergétiques supérieurs obtenus par comparaison avec une production séparée équivalente d’électricité et de chaleur

Dans les applications les plus courantes de la gamme de puissance étudiée ici, la cogénération est réalisée à partir d’un moteur à explosion. Il s’agit, en général, d’un moteur alimenté au gaz naturel. Celui-ci entraîne une génératrice qui transforme l’énergie mécanique en électricité. La chaleur contenue dans les gaz d’échappement, dans l’eau de refroidissement et dans l’huile de lubrification peut être récupérée par des échangeurs de chaleur pour produire de l’eau chaude sanitaire ou tout type de chauffage.

Schéma simplifié d’une installation de cogénération.

Autrement dit, il s’agit de récupérer la chaleur perdue des technologies existantes de production d’électricité (type groupes électrogène). Grâce à cette récupération de chaleur, les pertes d’énergie se réduisent de manière significative. Ainsi, la cogénération permet d’économiser entre 15 et 20 % d’énergie primaire par rapport à la production séparée de ces mêmes quantités de chaleur et d’électricité.

Il est également possible d’envisager une installation de cogénération fonctionnant à partir de biomasse suivant le même principe.


Contexte de son développement

La cogénération est une technologie reconnue et en continuelle évolution

L’Union Européenne (UE) doit pouvoir faire face à des défis majeurs : accroître son indépendance énergétique et lutter contre le dérèglement climatique. Pour y arriver, l’UE a adopté en 2008 le paquet « énergie-climat » fixant les objectifs « 3 x 20 en 2020 » suivants :

  • Une diminution de 20 % de la consommation énergétique.
  • Une réduction de 20 % des émissions de gaz à effet de serre.
  • 20 % d’énergie produite à partir de sources renouvelables.

Pour atteindre ces objectifs, l’UE compte énormément sur l’Efficacité Énergétique. En effet, dans sa communication « Énergie 2020 – Stratégie pour une énergie compétitive, durable et sûre » du 10 novembre 2010, la Commission européenne souligne le rôle central de l’efficacité énergétique et la nécessité de dissocier la consommation énergétique et la croissance économique.

Directive Européenne

La directive européenne 2012/27/UE relative à l’efficacité énergétique définit des règles et fixe des exigences minimales à adopter par chaque État membre en terme d’efficacité énergétique en imposant, tant au niveau de l’utilisation de l’énergie que de l’approvisionnement énergétique, des dispositions spécifiques et transversales.

Promotion de la cogénération de qualité

Dans le cadre de l’approvisionnement énergétique, outre le développement des réseaux de chaleur et de froid, et la valorisation de la chaleur fatale en industrie, la directive européenne veut promouvoir la cogénération de qualité. Elle impose aux États membres, pour le 31 décembre 2015, d’évaluer le potentiel d’application de ces technologies sur leur territoire et d’adopter des politiques visant à encourager leur développement lorsqu’une analyse coûts-avantages démontre des avantages supérieurs aux coûts.

Une étude a été menée par PWC, l’ICEDD et le bureau DEPLASSE pour le compte du SPW – SPW Territoire, Logement, Patrimoine, Energie qui évalue le potentiel wallon de développement des réseaux de chaleur et de froid alimentés par co/trigénération. Elle est intitulée : « Rapport final-tâches 1 à 6 : Directive efficacité énergétique 2012/27 – Art. 14 – Stratégie de réseaux de chaleur et de froid alimentés par des cogénérations et des énergies fatales; décembre 2015 ».

Régulièrement, la Région wallonne évalue et améliore le dispositif de soutien au développement de cette technologie par :

  • Le régime de certificat vert ou d’aide à la production dans le cadre du décret du 12 avril 2001 relatif à l’organisation du marché de l’électricité.
  • Un accès prioritaire et non discriminatoire au réseau de distribution d’électricité.
  • Des conditions commerciales plus favorables (éligibilité accélérée) tant pour la vente de l’électricité produite, pour l’achat d’électricité d’appoint ou de secours que pour l’achat de gaz naturel.
  • Un Facilitateur en Cogénération pour accompagner (gratuitement) vos premiers pas.
  • L’organisation de séminaires et de rencontres pour en démontrer toute l’efficacité et la pertinence.
  • Un régime d’aides spécifique au secteur public qui permet le financement de cette technologie.
  • La mise à disposition d’informations techniques et administratives à travers ce module inscrit dans la dynamique d’Énergie+.
  • La mise à disposition de guide, d’outil de pré-dimensionnement (cogencalc) et dimensionnement (cogensim), …

Toutes les conditions sont réunies pour que vous, chef d’entreprise, responsable technique, … franchissiez le pas et participiez à l’effort collectif tout en vous assurant le recours à une technologie moderne à des coûts économiques avantageux.

Découvrez ces exemples de mise en place d’une cogen : le home de la commune d’Anderlecht, et la piscine du Sart-Tilman à Liège.

Objectif

L’objectif de ce module est de fournir un outil de travail simple et pratique aux responsables techniques et aux prescripteurs qui veulent s’investir dans le domaine des petites et moyennes installations de cogénération.
L’utilisateur y trouvera les informations essentielles et des conseils pratiques pour évaluer, concevoir, réaliser et exploiter une installation de cogénération.
Sans se prétendre exhaustif, ce guide aborde de façon systématique les principes de dimensionnement et de mise en œuvre de projet de cogénération en soulignant ses spécificités particulières.
Une description des acteurs institutionnels et des acteurs du marché wallon de la cogénération complète cet outil.
Les informations détaillées dans ce module « cogénération » concernent les installations suivantes :

  • La production d’énergie mécanique est réalisée par des moteurs à gaz ou diesel.
  • Les puissances des installations sont inférieures à 500 kW électriques.
  • La chaleur est récupérée dans les circuits de refroidissement du moteur et dans les gaz d’échappement.
  • La valorisation de la chaleur l’est sous forme d’eau chaude.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Abaques de coûts d’investissement et de maintenance des cogénérateurs

Les abaques qui suivent ont été élaborés à partir des caractéristiques d’un échantillon de cogénérateur à moteur à combustibles liquide (diesel, biodiesel ou huile) et gaz (gaz naturel ou biogaz) actuellement sur le marché (en 2014). Ils permettent de déterminer, à partir de la puissance électrique :

  • Son coût d’entretien, avec un contrat « tout compris » (huile, assurance « bris de machine » et dépannages) :

    Schéma abaque 01.

  • Son coût d’investissement (comprenant le prix de base pour une entreprise type; le supplément pour marche en parallèle avec le réseau électrique, y compris les protections nécessaires; conteneur avec capotage acoustique; récupération de chaleur sur cogénération) :

    Schéma abaque 02.

  • Son rendement électrique (αe) à pleine charge :

    Schéma abaque 03.

Attention, les courbes ont été établies pour des valeurs moyennes. Chaque cas est cependant particulier et les valeurs à prendre en considération peuvent s’éloigner de manière significative des valeurs présentées ici. Seule une étude particulière de faisabilité réalisée par un bureau d’études compétent pourra servir de base pour envisager un éventuel investissement.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Négocier le contrat de maintenance

Négocier le contrat de maintenance

Source: Cofely.


Les coûts de la maintenance

La durée annuelle de fonctionnement est essentielle pour évaluer le coût de maintenance. En effet, il existe un très gros entretien vers 35 000 – 40 000 heures de fonctionnement du moteur. Le coût de la maintenance est donc lié au nombre d’heures de fonctionnement, quelle que soit la charge du moteur pendant ces heures. Des données typiques relatives aux coûts unitaires de maintenance sont disponibles.

La répartition des coûts de maintenance et de combustible se présente de façon générale dans le rapport 20 % – 80 %.

Par poste, les coûts se répartissent comme montrés dans le graphique suivant.

  • Coût des prestations de conduite 15 %;
  • Coût des prestations de maintenance de premier niveau 10 %;
  • Coût des pièces relatives à la maintenance préventive 40 %;
  • Révision générale 20 %;
  • Assurances 15 %.

La répartition des coûts de maintenance par poste.


Une maintenance primordiale

En moyenne, on parle d’une durée de vie pour un moteur de cogénération de l’ordre de 50 000 heures, soit environ 10 années de fonctionnement selon l’usage. Pendant cette période, il est nécessaire d’effectuer des entretiens régulièrement pour garantir ses performances et la sécurité de l’installation. Dans la plupart des cas, seul ou via un prestataire de service, l’exploitant s’astreint à effectuer certaines opérations simples sur base d’une formation effectuée par l’installateur ou le constructeur. Cette formation doit être décrite dans le cahier des charges. Le prestataire de service pourra effectuer des opérations comme :

  • La conduite journalière (relevés de compteurs et contrôles visuels).
  • Suivant les prescriptions du constructeur : les vidanges et le changement des filtres à huile, des filtres à air ou encore des bougies.

Cependant, le maître d’ouvrage doit obligatoirement sous-traiter à un prestataire de service professionnel ou directement au constructeur les opérations de maintenance plus complexes nécessitant un outillage et des compétences particulières, comme des analyses ou paramétrages du moteur (endoscopie, réglage des culbuteurs, du mélangeur, etc.) ou des interventions sur des pièces maîtresses (l’alternateur, les culasses, le vilebrequin, etc.).

Il est conseillé à l’exploitant d’établir un contrat de maintenance sur la durée de vie du moteur avec le prestataire (ou directement avec le constructeur) où est précisé notamment :

  • la durée du contrat;
  • le coût des prestations qui sera lié à la quantité d’énergie produite;
  • les limites de prestation;
  • les délais d’intervention;

Établir un contrat est doublement avantageux pour l’exploitant du site : en cas de panne, c’est la garantie qu’un technicien va intervenir rapidement, il n’y a donc pas d’interruption prolongée du moteur; c’est aussi le moyen pour lui de maîtriser ses dépenses annuelles, car ce qu’il doit payer est prévu dans le contrat. Un contrat se négocie lors de la consultation des installateurs, lors des études de conception.

Afin d’obtenir un outil de production adapté à ses besoins, le maître d’ouvrage doit négocier ou définir plusieurs points clés :

  • les garanties des équipements;
  • les garanties de performance;
  • le protocole de réception;
  • le plan de maintenance;
  • une formation adaptée;
  • la liste des pièces détachées minimum et leur prix;
  • le contrat d’assistance technique.

Tout contrat de maintenance comprend aussi les éléments standards suivants :

  • des clauses de résiliation;
  • des clauses d’exclusion;
  • des habilitations du personnel;
  • des modalités de facturation et de paiement;
  • le révision du contrat.

Les éléments spécifiques aux contrats de maintenance de cogénération sont notamment :

  • les équipements concernés : le groupe, les raccordements…
  • les engagements en termes de résultat : taux de disponibilité, puissances fournies, consommations, émissions;
  • les engagements en terme de moyen : délais d’intervention, fourniture des consommables sur place…
  • les obligations du client : conditions de fourniture de gaz, accessibilité de l’installation, information de la société de maintenance avant toute modification, information de la société de maintenance de toute anomalie de fonctionnement.

Les contrats comprennent les clauses relatives aux assurances :

  • L’extension de garantie constructeur sur la période d’amortissement.
  • Elle couvre les frais de main-d’œuvre et de remplacement de pièces défectueuses au-delà de la période de garantie constructeur.
  • Elle peut être négociée directement avec le constructeur indépendamment du contrat de maintenance.
  • Les bris de machine, conclue soit par le client, soit par la société de maintenance et revendue au client.
  • La destruction de tout ou partie des biens assurés (pour cause interne ou cause humaine).
  • Les pertes d’exploitation.
  • La couverture des conséquences financières d’un arrêt ou d’un non-démarrage partiel ou total, quelle qu’en soit la cause (ce qui nécessite des moyens de comptage sur l’installation).
  • Les modalités : pénalités en cas de défaillance électrique et thermique .
  • L’assurance perte d’exploitation n’est pas contractée par la société de maintenance, elle coûterait beaucoup trop cher, mais peut être inclue dans la police d’assurance générale du client.

Le contrat de maintenance est conclu au minimum sur la durée d’amortissement.
Attention de couvrir la révision du moteur si elle a lieu pendant la période d’amortissement.

Les paramètres relevés et archivés ainsi que les alarmes incluses dans la télésurveillance sont à définir explicitement.


Types de contrat

Contrat de type « préventif »

Ce contrat inclut généralement toutes les maintenances prévues dans le plan de maintenance simple du constructeur de la machine à l’exclusion de la maintenance générale des 50 000 heures qui implique souvent la révision complète du bloc-moteur ou son remplacement.

Contrat de type « préventif et curatif » (souvent appelé omnium simple)

Comme son nom l’indique, ce type de contrat comprend la maintenance préventive et la téléassistance. La maintenance curative permet la prise en charge de toutes les interventions résultant d’un arrêt moteur nécessitant le changement d’une pièce détachée du groupe (hors bougies, filtres). Le contrat est régulièrement accompagné d’une garantie de résultat, portant sur la disponibilité de la machine.

Contrat de type garantie simple

En plus de la maintenance préventive, de la téléassistance, de la maintenance curative, ce type de contrat inclut la garantie de disponibilité. Il inclut aussi une assurance bris de machine et couvre les pertes d’exploitation (avec un plafond).

Contrat garantie totale

Ce type de contrat comprend toutes les prestations du contrat « garantie simple », mais aussi la conduite, plusieurs visites par semaine, des réglages du moteur et la réalisation des vidanges.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Organiser la maintenance de l’installation

Organiser la maintenance de l’installation

Source : aipower.


Organiser la maintenance

La nature et la fréquence des interventions de maintenance sont définies par le constructeur. Le contrat de maintenance doit suivre ses prescriptions. Si l’expérience le suggère, l’échéancier pourra ou devra être adapté dans un sens ou dans l’autre, en accord avec le constructeur.

Contrairement à la conduite, le personnel doit ici être qualifié. C’est la société de maintenance qui l’effectue, même si elle peut éventuellement déléguer la maintenance de premier niveau.

Toute intervention doit faire l’objet d’un compte rendu qui sera distribué aux intervenants.

La maintenance de premier niveau est effectuée en général plusieurs fois par saison :

  • la vidange du carter d’huile et du réfrigérant d’huile s’il y a lieu;
  • le prélèvement d’huile en vue d’analyse :
    • la recherche de métaux pour en déduire l’usure du moteur et prendre les mesures adéquates,
    • l’oxydation et nitration de l’huile pour déterminer l’acidité de l’huile et adapter la fréquence des vidanges,
    • du glycol dans l’huile signifie une fuite dans le circuit de refroidissement.
  • le nettoyage / changement du filtre à huile;
  • le nettoyage / changement du filtre à air;
  • le graissage des roulements;
  • le contrôle, nettoyage ou changement des bougies;
  • le contrôle du niveau d’électrolyte des batteries de démarrage et remplissage si nécessaire;
  • le complément des liquides de refroidissement;
  • le contrôle de l’état des courroies;
  • la recherche approfondie de fuite;
  • la vérification des jeux aux soupapes;
  • la vérification et resserrage des connexions électriques;
  • le nettoyage du récupérateur de condensat;
  •  …

La maintenance préventive ne s’effectue en général qu’une fois par saison

  • le réglage de l’allumage et de la carburation;
  • le réglage des jeux de culbuteurs;
  • le remplacement des pièces;
  • la vidange et changement des liquides de refroidissement et prélèvements pour analyses;
  • le contrôle et nettoyage des échangeurs;
  • le contrôle général des sécurités;
  • le contrôle des rejets après redémarrage, mesure de la composition des gaz de combustion;
  • le contrôle des extracteurs d’air du local;
  • (endoscopie, contrôle des surfaces internes du moteur).

Remarques relatives au bon déroulement de la conduite et de la maintenance :

  • Les pannes existent et arrivent. Il est nécessaire que la société de maintenance fournisse une équipe efficace avec une télésurveillance appropriée pour garantir des interventions rapides.
  • Les constructeurs autorisent la sous-traitance de certaines actions de maintenance tout en maintenant la garantie.
  • Certains nouveaux moteurs ont des systèmes de contrôle qui remplacent le premier niveau de maintenance : détecteurs de détonation; mélange ajusté par vanne électronique, inversion automatique de l’ordre d’allumage…
  • Des automatismes trop nombreux et complexes multiplient les risques de panne. Un suivi régulier sur place par une personne compétente reste un gage de bon fonctionnement.
  • En pratique, il faut noter que les interventions sont le plus souvent liées à des fuites ou à des erreurs de manipulation.
  • La température d’huile (trop chaude ou trop froide) et les problèmes de viscosité que cela entraîne sont un autre problème régulièrement rencontré. Si une huile est trop chaude, le moteur ne pourra redémarrer avant 2 ou 3 heures.
  • Il existe des prix de maintenance au kWh ou, beaucoup plus fréquent, à l’heure de fonctionnement. Ils ne tiennent pas toujours compte des périphériques. Il importe de définir le contenu de la maintenance dans le contrat. Idem pour les alternateurs, pour la partie électrique et l’aéro réfrigérant.
  • L’analyse de l’huile à chaque vidange, fournie gratuitement par le fournisseur d’huile, est importante, car elle fournit de précieux renseignements.

Tenir un échéancier

Voici à titre d’exemple un tableau de maintenance. À rappeler que chaque constructeur possède souvent son propre plan de maintenance. Dans le cadre d’un projet d’installation d’un système de cogénération, n’oubliez pas de préciser dans le cahier des charges que l’installateur doit vous fournir le plan de maintenance sous forme, par exemple, d’un échéancier à afficher sur l’armoire de commande du cogénérateur.

1/ Fréquence (h) 24 750 1 500 3 600 7 200 10 800 14 400 21 600 43 200
Conduite
Relevé des paramètres X
Contrôle des niveaux X
Contrôle des fuites X
Contrôle des bruits X
Contrôle des vibrations X
Contrôle visuel des fumées X
Contrôle préchauffage X
Maintenance premier niveau
Remplacement filtre huile X
Remplacement filtre air X
Vidange huile X
Contrôle bougies X
Analyse huile X
Nettoyage récupérateur condensat X
Niveaux batteries X
Niveau eau refroidissement X
Graissage roulements alternateur X
Contrôle batteries X
Contrôle courroie X
Contrôle état durites X
Maintenance préventive
Réglage culbuteurs X
Réglage système d’allumage X
Réglage carburation X
Contrôle ligne de gaz X
Endoscopie cylindres X
Remplacement des bougies X
Remplacement faisceau allumage X
Remplacement du liquide de refroidissement X
Remplacement des durites X
Remplacement de la courroie X
Remplacement des batteries X
Contrôle du démarreur X
Remplacement des sécurités X
Contrôle pompe eau BT X
Nettoyage échangeurs chaleur X
Contrôle extracteur X
Révision culasse X
Révision pompe à eau HT X
Contrôle accouplement X
Contrôle plot suspension X
Révision cylindrées X
Révision générale moteur X
Révision alternateur X

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Assurer la conduite de l’installation de cogénération

Le contrôle des cycles de démarrage/arrêt

Une installation de cogénération nécessite un suivi régulier. On n’oubliera pas cet aspect des choses pour garantir que l’intégration de la cogénération en chaufferie sera positive non seulement d’un point de vue énergétique, environnemental et économique, mais aussi d’un point de vue de la pérennité, et ce tout au long de la durée de vie du cogénérateur.

L’exploitation de l’installation peut être réalisée par le maître d’ouvrage lui-même ou par un tiers qui est, en général, l’entreprise de maintenance.

Outre les Certificats Verts qui représentent le « baromètre » de bonne gestion énergétique, environnementale et financière de l’installation, il est nécessaire que l’exploitant tienne compte du nombre de cycles de démarrage/arrêt du cogénérateur. C’est en quelque sorte « l’électrocardiogramme » du moteur sachant qu’un nombre important de cycles ON/OFF réduit sa durée de vie de manière significative. Certains constructeurs avancent le chiffre de maximum 6 cycles par jour.

Il est tentant d’augmenter la rentabilité du projet de cogénération en faisant fonctionner le système de cogénération en été. Dans certaines installations, heureusement elles ne sont pas majoritaires, on peut observer une fréquence importante de cycles de démarrage/arrêt par jour ! Un chiffre de 80 cycles/jour a déjà été observé. Dans ces conditions, l’installation génère des CV mais à quel prix ?

Sur ce type d’installation, on peut observer les problèmes suivants :

  • S’il y a un turbo, celui-ci s’encrasse vite et casse;
  • Les bougies sont à changer plus souvent;
  • La batterie est à remplacer plus régulièrement que prévu;
  • La consommation d’huile est plus importante;

De plus, à chaque cycle ON/OFF, le rendement global moyen de l’installation diminue par rapport à une installation qui tourne en continu.

Sans pouvoir montrer des chiffres précis sur la réduction de la durée de vie du cogénérateur en fonction du nombre de cycles de démarrage/arrêt, intuitivement, cette démarche n’est pas recommandée.

Si, lors des étapes précédant l’exploitation, les différents intervenants ont bien fait leur job, c’est ici que la GTC devient très utile à l’exploitant. En effet, il peut en permanence contrôler les paramètres de l’installation, effectuer des enregistrements de données, etc. Même pour les petites installations, il est possible d’interagir à distance avec le régulateur de chaufferie (via les multimédias) et ce afin de contrôler régulièrement le fonctionnement de l’installation de cogénération.


La conduite classique

La conduite classique d’une installation de cogénération permet de se prémunir des risques de panne. Elle comprend généralement les opérations d’exploitation simples et périodiques, notamment :

  • une inspection quotidienne;
  • l’information de la société de maintenance de tout dysfonctionnement;
  • le contrôle des paramètres du moteur :
    • la température de l’eau de refroidissement,
    • la température et pression d’huile,
    • la température d’échappement,
    • la température de l’air dans le collecteur d’admission,
    • la dépression du carter d’huile,
    • la pression différentielle du filtre à huile moteur.
  • le contrôle des niveaux :
    • l’huile du carter,
    • le liquide de refroidissement,
    • la charge des batteries.
  • le contrôle du site et de l’installation :
    • le visuel des différents composants : les fuites ou anomalies apparentes,
    • le visuel des gaz d’échappement,
    • les bruits et vibrations.
  • le contrôle des puissances thermique et électrique produites :
    • la puissance électrique par phase (tension et intensité),
    • la puissance thermique,
    • la températures aux échangeurs,
    • la consommation de combustible.
  • le contrôle du nombre d’heures et de cycles de démarrages/arrêts.
  • la tenue d’un carnet de suivi :
    • assure la qualité du suivi,
    • l’outil de diagnostic pour la société de maintenance.

Le personnel de conduite n’est pas nécessairement qualifié. Il peut s’agir du personnel de maintenance de la chaufferie, mais après une formation minimale comprenant :

  • le schéma général de l’installation,
  • le principe de fonctionnement,
  • les points à contrôler,
  • le système d’arrêt d’urgence.

La télésurveillance assure le relevé (et archivage) de paramètres, ce qui peut faciliter la conduite et la maintenance. Elle génère des alarmes à distance en cas d’anomalie, mais elle ne remplace pas l’inspection quotidienne.
Les paramètres surveillés (et archivés avec date et heure) sont généralement :

  • la température d’huile,
  • la pression d’huile,
  • la température des liquides de refroidissement,
  • les puissances électriques,
  • la dépression filtre à air,
  • les marches / arrêts du module,
  • la pression gaz / niveau mazout,
  • la température d’échappement.

La conduite énergétique

Sur le même principe que la conduite classique où la prévention devrait primer sur les opérations curatives, la conduite énergétique se doit d’anticiper les « dérives énergétiques ». En d’autres termes, un contrôle journalier des compteurs d’énergie devrait permettre d’objectiver le rendement de l’installation. S’astreindre à calculer le rendement quotidien peut paraitre fastidieux d’accord, mais cela permet d’éviter les mauvaises surprises lorsque vous voulez valoriser le fruit de votre production de chaleur et d’électricité. Rien n’est plus désagréable que de ne pouvoir, sur le plan financier par exemple, revendre des certificats verts (CV).

Calcul du rendement énergétique

Le rendement énergétique du cogénérateur se calcule comme le ferait la CWaPE selon le code de comptage. Dans l’exemple repris ci-dessous, le relevé des trois compteurs certifiés par un organisme agréé permettent de calculer le rendement global de l’installation de cogénération:

α=  (Eenp+Eqnv) / Ee

Le rendement thermique du cogénérateur est le rapport entre la chaleur nette valorisée et l’énergie primaire entrante sur la période considérée :

αq = (Eqnv) / Ee

Le rendement électrique est le rapport entre l’énergie électrique nette produite et l’énergie primaire entrante sur la période considérée.

αe = (Eenp) / Ee

Les calculs des rendements électrique, thermique et global permettent d’estimer la santé de votre cogénérateur. Ils peuvent être réalisés de manière simple au moyen d’un tableur Excel ou équivalent.

Calcul du taux d’économie de CO2

Le gain en CO2, exprimé en kgCO2/MWh électrique net produit (MWhé), est obtenu en comparant les émissions respectives de l’unité considérée (F) et les installations classiques de référence.

Pour une unité de production d’électricité à partir de SER et/ou de COGEN de qualité, le gain réalisé par l’unité considérée est égal aux émissions d’une centrale électrique de référence (Eref) augmentées – dans le cas d’une installation de cogénération et/ou de trigénération – des émissions d’une chaudière de référence (Q) et, le cas échéant, d’un groupe frigorifique de référence (Qf) desquelles les émissions de l’installation envisagée (F) sont soustraites :

Un simple calcul du taux d’économie de CO2 permet aussi de vérifier si votre système de cogénération est bien de « qualité « , à savoir génère, entre autres, une économie de 10 % de CO2 par rapport à la référence :

G = Eref + Q + Qf – F (kgCO2/MWhé)

Le taux d’économie de CO2 ou kCO2 est, quant à lui, obtenu en divisant le gain (G) en CO2 de la filière par le CO2 émis par la solution électrique de référence (Eref).

τ =  G/Eref  ≥ 10 %

Relevé des index

En plus d’effectuer le relevé des index trimestriels (à fournir à la CWaPE), un relevé quotidien ou hebdomadaire, selon vos disponibilités, permet de calculer les différents flux énergétiques, rendements et taux d’économie de CO2 :

ΔG = ΔEref +ΔQ + ΔQf – ΔF (kgCO2/MWhé)

kCO2 =  ∆G/∆Eref

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Planifier la maintenance [Cogénération]

Planifier la maintenance [Cogénération]


Définitions

Par exploitation, on entend généralement la conduite et la maintenance.

La conduite est, en plus du pilotage automatique des démarrages, arrêts et modulations de charge, une inspection systématique et périodique des installations : fuites, bruits, vibrations, télésurveillance, archivage selon protocole.

La maintenance comprend une série d’actions visant à maintenir l’outil dans des conditions de fonctionnement lui permettant de remplir son rôle : produire de la chaleur et de l’électricité avec un rendement donné.

La maintenance se situe à 3 niveaux d’intervention :

  1. La maintenance premier niveau : actions simples nécessaires à l’exploitation.
  2. La maintenance préventive : réduire la probabilité de défaillance du système. Un échéancier est établi sur base des données du constructeur et des actions sont prises en fonction de critères prédéterminés sur l’état de dégradation des équipements.
    • réglages,
    • remplacement des pièces usées et des fluides,
    • prélèvements pour analyse,
    • révisions.
  3. La maintenance curative : remettre l’installation en état de fonctionner après une défaillance et éventuellement améliorer l’installation.

La maintenance des installations de cogénération se différencie de la maintenance des chaudières classiques :

  • le moteur nécessite une maintenance qui lui est spécifique;
  • certaines tâches nécessitent une société de maintenance spécialisée;
  • la maintenance implique des arrêts qu’il faut anticiper;
  • la non-disponibilité affecte la rentabilité et doit être prise en considération.

Les enjeux

L’objectif premier de la conduite et de la maintenance est de garantir un bon fonctionnement des installations et de minimiser les risques énergétiques et économiques encourus.

Plusieurs risques sont à prendre en considération pour évaluer l’importance de la conduite et de la maintenance.

Les pertes d’exploitation en cas de mauvais fonctionnement, avec pour conséquences :

  • des pertes de puissance électrique;
  • des pertes de puissance thermique;
  • une surconsommation.

Une usure précoce des composants, avec pour conséquences :

  • la nécessité d’effectuer des réparations;
  • l’indisponibilité des productions de chaleur et d’électricité.

Garantir la rentabilité, c’est un engagement sur les moyens et sur les résultats. L’engagement vise tant la disponibilité que les puissances et les rendements. Une série d’assurances garantit ces risques :

  • l’extension de la garantie du constructeur;
  • la garantie bris de machine;
  • la garantie perte d’exploitation.

L’anticipation de la maintenance dès la conception évite les mauvaises surprises en cours d’exploitation.

  • Les coûts de maintenance non négligeable affectent la rentabilité du projet, notamment si la révision générale du moteur intervient pendant la période d’amortissement du groupe, son coût important est à intégrer dans le coût de maintenance. Toute la faisabilité du projet peut s’en trouver affectée.
  • Les relations doivent être établies rapidement entre les différents acteurs, notamment entre la société de maintenance et le constructeur du groupe de cogénération.
  • L’aménagement du local doit permettre l’accès pour la maintenance.
  • Les raccordements doivent permettre l’isolement du groupe pour la maintenance.
  • Des appareils de mesure en nombre suffisant doivent être installés pour garantir une maintenance préventive efficace.

Les équipements concernés

Ici encore, il est essentiel de délimiter précisément les champs d’intervention de la conduite et de la maintenance et les responsabilités de chaque intervenant.

Les organes suivants font l’objet de surveillance

  • Le groupe de cogénération et tous ses composants :
    • le moteur;
    • l’alternateur;
    • l’échangeur de chaleur;
    • l’armoire électrique et système de régulation;
    • le silencieux;
    • le pot catalytique, régulation et contrôle compris;
    • l’aéro-réfrigérant;
    • les batteries de démarrage et batteries système;
    • la ventilation.
  • Le raccordement hydraulique au circuit d’utilisation :
    • les liaisons;
    • les vannes;
    • les pompes.
  • L’approvisionnement en combustible :
    • la pression si gaz;
    • le niveau si mazout;
    • le comptage.
  • L’évacuation des gaz
  • Le raccordement électrique :
    • les câbles de puissance;
    • le raccordement de la régulation;
    • le raccordement de la protection de découplage.

Les intervenants

Voici un bref descriptif des relations entre les principaux intervenants de l’exploitation.

Le client

  • Il est propriétaire du bien objet de la maintenance.
  • Il n’a pas de compétence particulière.
  • Il choisit la société de maintenance et choisit la répartition des tâches.

L’exploitant de la chaufferie

  • Il est à impliquer dans la conduite.
  • Il peut conduire le groupe avec une délégation par la société de maintenance.
  • Il doit se conformer aux exigences de la société de maintenance.

La société de maintenance

  • Cela peut être le constructeur lui-même ou le fournisseur.
  • Cela peut être une société agréée par le constructeur ou une société indépendante.
  • Elle doit disposer de la logistique, du personnel, de l’outillage, des relations avec le fournisseur, des assurances et de garanties de respect d’astreinte.

Le tableau suivant montre les responsabilités de chaque intervenant.

Surveillance

Maintenance
premier niveau

Maintenance
préventive
Maintenance
curative

Client

Possible

Non

Non Non

Exploitant de chaufferie

Possible

Oui

Non Non

Société de maintenance

Télésurveillance

Oui

Oui Oui

Remarques relatives à la répartition des tâches :

  • Le partage des tâches ne doit pas interférer sur les garanties.
  • Chaque intervenant prend en charge les conséquences financières de ses travaux et prend des assurances nécessaires.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Choisir le raccordement électrique [cogen]

Câble de puissance et protections classiques

Comme toute installation électrique, le dimensionnement complet des câbles et des protections se calcule selon le R.G.I.E. (Règlement général sur les installations électriques).

En particulier, l’ajout d’une nouvelle source d’énergie influence le dimensionnement des équipements de protection contre les courts-circuits et des sections de câbles.

Toute source d’énergie électrique est caractérisée par un courant (ou une puissance) de court-circuit (Icc ou Pcc), c’est-à-dire le courant qui circulerait dans l’installation si elle était en court-circuit. Si une nouvelle source d’électricité est ajoutée à l’installation, son courant de court-circuit s’en trouve modifié.

Les disjoncteurs protègent les charges contre les défauts du réseau. De même que les circuits de puissance, ils sont dimensionnés à partir, notamment, du courant de court-circuit (Icc). Si une nouvelle source de courant est ajoutée, il est nécessaire de vérifier la capacité des disjoncteurs à protéger efficacement les charges contre le nouveau Icc et la tenue des circuits aux nouveaux défauts potentiels.

De plus, les câbles entre le point de raccordement et l’alternateur doivent être protégés de part et d’autre (réseau et cogénération) contre un court-circuit. Ce qui implique la nécessité de disposer de la Pcc au point de raccordement de la cogénération.


Protection spécifique à la production d’énergie électrique en parallèle sur le réseau

En tous cas, le système de protection sera à prévoir en concertation avec le distributeur local et fera l’objet d’un accord préalable. De plus, avant toute mise en œuvre du système de protection, celui-ci devra être accepté par un organisme agréé pour le contrôle des installations électriques qui le vérifiera à la mise en service (aux frais de l’autoproducteur). Ceci signifie également que les équipements de protection utilisés doivent être agréés.

Protection de découplage ou production décentralisée

Lorsqu’un client désire raccorder une unité de production décentralisée au réseau de distribution, le distributeur local doit évaluer si le client peut (ou pas) injecter du courant sur le réseau MT ou directement sur le poste source.

Cette limitation est à fixer conjointement :

  • par le service commercial du distributeur pour des raisons contractuelles (contrat de fourniture);
  • par l’exploitant du réseau au regard des charges et de la capacité du réseau.

Si le client peut injecter son énergie électrique sur le réseau, cette puissance sera limitée par la protection générale BT ou MT du client et une protection de découplage est obligatoire.

La protection de découplage utilise souvent le saut de vecteur. Le saut de vecteur est une protection qui identifie un saut de déphasage dans le champ électrique tournant, supérieur à une consigne.

Cette protection protège non seulement le réseau, mais également l’alternateur. Dans environ 1 % des cas cependant, elle peut être mise en défaut. Si toute la charge de l’utilisateur est alimentée par la cogénération, il n’y a quasiment pas de puissance qui transite par la cabine HT. Dans ce cas, lors d’un déclenchement, deux cas sont possibles. Si des charges existent sur la même portion de réseau, lors du déclenchement, l’impédance va varier brusquement, c’est-à-dire que le groupe va soudainement essayer d’alimenter ces charges et le saut de vecteur va déclencher. Si les charges sont trop faibles, l’impédance vue par le groupe ne variera presque pas lors du déclenchement, et le saut de vecteur ne se déclenchera pas.

En cas de saut de vecteur, le dispositif ouvre le disjoncteur au niveau du groupe.

S’il s’agit d’une micro-coupure, lorsque le réseau revient, la tension revient (la bobine du disjoncteur principal est alimentée par la tension réseau) et une reprise de parallèle permet le recouplage.

Si le réseau ne revient pas, le verrouillage du disjoncteur principal permet le fonctionnement en groupe de secours (pour les machines synchrones uniquement).

Lorsque le réseau revient après un fonctionnement en groupe secours, deux options sont possibles. Dans la première solution, le dispositif détecte la tension du réseau, ouvre le disjoncteur du groupe secours, ferme le disjoncteur principal et, comme pour une micro-coupure, reprend la parallèle, le tout en un temps très court, de l’ordre de 0,2 seconde.

L’alternative est une synchronisation arrière, c’est-à-dire une modulation de la puissance du moteur pour atteindre le synchronisme avec le réseau, tout en continuant à alimenter les charges électriques. Elle est cependant plus difficile, car il existe des charges très variables comme les ascenseurs qui font varier plus ou moins brusquement tension et fréquence.

L’ensemble des protections revient à environ 2 250 – 2 500 €. Les coûts d’une bascule et d’une parallèle réseau sont comparables l’un à l’autre et tournent autour de 7 500 €.

Protection directionnelle ou autoproduction

Si on sait que la consommation est supérieure à la production de la cogénération, on place une protection directionnelle.

La protection à prévoir est un relais directionnel de courant ou d’énergie active qui déconnecte le moteur du réseau si de l’énergie est envoyée vers le réseau par exemple, lorsque le réseau tombe en panne.

Cette protection est plus simple et donc moins chère que la protection de découplage.


Synchronisation de la génératrice synchrone

Les synchroniseurs sont très rapides et les modulations de fréquence et de tension sont minimes. Dans la majorité des cas, les modulations de fréquence et de tension respectent les limites des appareils, le recouplage peut donc se faire sans coupure. Le prescripteur vérifiera cependant l’existence ou non d’appareils particulièrement sensibles parmi les équipements du client et imposera le cas échéant une coupure de l’alimentation pour synchroniser.

Lorsque le groupe tourne, il est important d’éviter toute modification de la position des disjoncteurs de la cabine HT (avant ou après le transfo). En effet, si le groupe est en parallèle sur le réseau, il y a un risque de déclencher un saut de vecteur; si le groupe tourne en secours, il y a un risque d’une prise de parallèle non synchronisée. Il est vivement conseillé d’installer un boîtier à destination du distributeur dans la cabine HT, avec une lampe témoin allumée si le groupe est en parallèle et un interrupteur pour couper le groupe ou empêcher la prise de parallèle.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Choisir le raccordement hydraulique [cogen]


Préambule

L’insertion d’une unité de cogénération de petite taille dans un système de chauffage centralisé est une question complexe. Chaque système de chauffage a ses spécificités et rend le raccordement hydraulique d’une cogénération unique. En outre, il n’existe pas de prescriptions techniques spécifiques auxquelles un installateur doit ou peut se conformer.

Voici repris une série de critères de dimensionnement et de caractéristiques relatifs aux différentes possibilités de raccordement de la cogénération.

  • Étude de l’installation de chauffage existante
  • Critères généraux
  • Exigences côté cogénération
  • Raccordement en série
  • Raccordement en parallèle
  • Aéro-réfrigérant

Étude de l’installation de chauffage existante

La connaissance et l’optimalisation de l’installation de chauffage existante sont un préalable important au bon fonctionnement futur de l’installation combinée. Un schéma hydraulique à jour de l’installation existante est donc indispensable.

Il faut principalement être attentif à l’adéquation des débits. Si ceux-ci sont surdimensionnés, les températures de retour de l’installation seront plus élevées que la normale. La diminution de la vitesse des pompes ou le placement de pompes à vitesse variable s’imposent donc parfois en préalable à la cogénération.

Cette étude est relativement simple pour les installations de taille modeste.

Par contre, pour les grosses centrales de chauffe, desservant plusieurs utilisateurs (sous-stations), une simulation des flux d’eau dans l’installation peut être nécessaire, pour en connaître le plus précisément possible le comportement : que se passe-t-il lorsque telle vanne s’ouvre, lorsque telle chaudière s’enclenche …


Critères de sélection

  • Ne pas créer de pertes de charge dans le circuit du client.
  • Assurer le débit d’eau au moteur quel que soit le mode de fonctionnement ou la charge.
  • Ne pas augmenter la température de l’eau à l’entrée du moteur par des mélanges.
  • Rendre possible l’isolation du circuit d’utilisation pour faire fonctionner la chaufferie sans le groupe de cogénération.
  • Prévoir un système de vidange du circuit hydraulique simple.
  • Prévenir les problèmes de corrosion et d’hydrolyse dans le circuit de refroidissement.

Le risque majeur à éviter dans la combinaison chauffage-cogénération est une température d’eau de retour trop élevée vers le moteur. Comme expliqué dans le chapitre relatif à la régulation, une température trop élevée peut entraîner une instabilité de l’enclenchement / déclenchement du moteur.

Concrètement, il faut que la température de l’eau à l’entrée du moteur soit inférieure à 85 °C si on récupère la chaleur uniquement sur l’eau de refroidissement et sur les fumées, à 75 °C si on récupère de la chaleur également sur le circuit d’huile et à 40 °C si on récupère sur le refroidissement du mélange air-gaz après turbocompression (pour les gros moteurs).

Côté refroidissement du moteur, des problèmes de corrosion et d’hydrolyse dans le circuit de refroidissement peuvent engendrer des problèmes aux joints des pompes à eau par exemple. La séparation des circuits de refroidissement du moteur (water jacket) du reste de l’installation hydraulique confine le problème. La solution est alors d’analyser la qualité de l’eau et de définir les additifs qui neutralisent les polluants. L’isolation des échangeurs de refroidissement du moteur et du circuit de lubrification permet de n’ajouter les additifs que dans un circuit local, au contraire d’un circuit unique, qui impose l’ajout des additifs en question au niveau des circuits de chaleur dans leur ensemble. La séparation des circuits de refroidissement du moteur offre en outre l’avantage de minimiser les pertes de charge dans le circuit client.


Raccordement en série

Configuration série sans ballon de stockage

Raccordement série (dérivation sur retour principal) sans bouteille de mélange :

  • Éviter le recyclage dans le circuit du retour du groupe.
  • Sélectionner une puissance du groupe inférieure à la puissance de la chaudière prioritaire pour garantir un débit suffisant.
  • La priorité est donnée naturellement à la cogénération.
  • Pas de conséquence négative lors de l’arrêt du groupe.
  • Maintien d’une régulation classique des chaudières.

Raccordement en série.

Le raccordement en série est la solution la plus simple. C’est elle qui présentera le moins de difficultés au niveau de la compatibilité hydraulique avec l’installation de chauffage existante. Elle est donc à conseiller pour les petites installations pour lesquelles une simulation du comportement hydraulique de l’ensemble serait trop coûteuse par rapport à l’investissement total.

Dans ce type de raccordement, une partie de l’eau est préchauffée par le cogénérateur. Si celui-ci ne développe pas une puissance thermique suffisante par rapport aux besoins instantanés, l’eau sera postchauffée par les chaudières.

L’inconvénient du raccordement en série provient du fait qu’une des chaudières est en permanence parcourue par de l’eau chaude même lorsqu’elle est à l’arrêt. On subit donc ses pertes à l’arrêt (y compris en été si le cogénérateur est dimensionné pour produire de l’eau chaude sanitaire). Elles peuvent être importantes sur des anciennes chaudières mal isolées et dont le brûleur est en permanence ouvert vers la cheminée (brûleurs sans clapets, chaudières atmosphériques).

Par contre, l’avantage est de pouvoir profiter du volume de la chaudière pour réaliser un stockage lorsque la demande instantanée de chaleur est fluctuante et inférieure à la production du cogénérateur. Ce volume de stockage est cependant limité par rapport à un ballon tampon séparé.

Le by-pass du cogénérateur sera dimensionné pour qu’un débit suffisant traverse le cogénérateur.

Une attention particulière devra être portée à ce problème si le circuit primaire est conçu pour fonctionner à débit variable (circuit avec une pompe d’alimentation par chaudière, circuit primaire ouvert sans pompe primaire et circuits secondaires avec vannes mélangeuses, …). Par exemple, si chaque chaudière possède sa propre pompe, le débit d’une chaudière doit être plus élevé que le débit du cogénérateur, faute de quoi celui-ci sera insuffisamment refroidi.

Configuration série sans ballon avec by-pass

Une autre configuration qui évite les pertes à l’arrêt dans les chaudières est le placement avantageux d’un by-pass. Attention toutefois au coût des vannes 3 voies par rapport à l’avantage que l’on retire de ne pas générer des pertes à l’arrêt dans une des chaudières.

Schéma de configuration série sans ballon avec by-pass.

Configuration série avec ballon

Quelques constructeurs proposent une configuration série avec ballon tampon. Le débit total de retour du collecteur traverse le ballon. On ne peut pas vraiment parler de ballon de stockage vu qu’il n’y a pas de stratification. On parlera plutôt d’augmentation de l’inertie du réseau. Pour autant que les conduits d’entrée et de sortie du ballon soient bien dimensionnés, le ballon tampon agit comme un large collecteur à faibles pertes de charge et perturbant peu les équilibres hydrauliques de la chaufferie existante. On peut comprendre que cette configuration soit intéressante, car hydrauliquement elle est simple et peut donner de bons résultats en termes de courts cycles du cogénérateur.

Schéma de raccordement série avec bouteille de mélange.

Raccordement série (dérivation sur retour principal) avec bouteille de mélange

Il est impératif de :

  • Placer la bouteille verticalement pour garantir l’indépendance hydraulique des circuits.
  • Placer la pompe en série avec le circuit hydraulique de refroidissement du moteur pour garantir le débit.
  • La priorité est donnée naturellement à la cogénération.
  • Pas de conséquence négative lors de l’arrêt du groupe.
  • Maintien d’une régulation classique des chaudières.

Le raccordement du cogénérateur en amont de la bouteille (B) est préférable au raccordement en aval (A) étant donné la possibilité de retour d’eau chaude vers les chaudières au travers de la bouteille, ce qui réduirait le refroidissement du moteur.

Schéma de raccordement série avec bouteille de mélange.

Cogénérateur raccordé en série sur les chaudières dans un circuit avec bouteille casse-pression
(principe applicable à un raccordement en parallèle)


Raccordement en parallèle

  • Pas de perte par irrigation des chaudières lorsque la cogénération suffit.
  • La priorité n’est pas donnée naturellement à la cogénération.
  • Gestion spécifique de séquence des chaudières.
  • Un dimensionnement précis de la pompe dont le calcul est délicat est nécessaire (alternative : un variateur de vitesse).

Schéma de raccordement en parallèle.

Raccordement en parallèle

L’intégration hydraulique en parallèle dans une chaufferie existante demande plus de modifications de la « tuyauterie » qu’une intégration en série et une régulation plus fine. Cependant, on peut pointer plusieurs avantages importants de la mise en parallèle d’une cogénération : à l’inverse de la configuration série classique (sans by-pass des chaudières), il n’y a pas de passage de l’eau chaude dans les chaudières lorsque la cogénération seule fonctionne. On n’a donc pas de pertes à l’arrêt au niveau des chaudières si elles ne sont pas irriguées. Mais cela nécessite naturellement de dimensionner les conduites de raccordement du ballon de stockage de manière à laisser passer le débit total.

De plus, dans des chaufferies modernes équipées de chaudières à condensation, pour autant que la température de retour au circuit primaire soit bien maîtrisée, la configuration parallèle permet de valoriser la chaleur de condensation lorsque les chaudières viennent :

  • En support de la cogénération en période froide.
  • En remplacement de la cogénération en période chaude lorsque les besoins de chaleur deviennent trop faibles, et ce pour éviter les courts

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Choisir la génératrice [Cogen]

Puissance électrique

La puissance électrique de la génératrice est déterminée lors du dimensionnement des équipements. Si le dimensionnement s’est limité à une évaluation grossière des puissances nécessaires, des investigations supplémentaires selon la même méthodologie compléteront et valideront les résultats.

La puissance active de la génératrice doit par ailleurs correspondre à la puissance mécanique fournie par le moteur, avec une marge au-dessus de la puissance nominale du moteur.
Le régime de tension est déterminé par la tension de l’installation électrique sur laquelle la génératrice sera connectée.

Le cogénérateur est souvent raccordé au réseau basse tension du consommateur. On peut aussi le raccorder sur un réseau de secours propre du bâtiment qui reprendrait les éléments vitaux à maintenir en fonctionnement en cas de panne du réseau de distribution. Cela doit évidemment être prévu lors de la conception du réseau électrique interne.


Génératrice synchrone ou asynchrone ?

Le choix entre une génératrice synchrone ou asynchrone dépend essentiellement de la volonté de fonctionner en groupe secours (version synchrone) ou non (version asynchrone).

La version asynchrone est de conception plus simple et est donc moins chère. Par exemple, un fournisseur présent sur le marché propose le cogénérateur de 30 kWé asynchrone 3 000 euros (HTVA) moins chers que la même machine couplée à un alternateur synchrone (pour un investissement total de l’ordre de 50 000 €).

Deux inconvénients apparaissent cependant :

  • La puissance électrique de la machine asynchrone ne pourra être trop importante par rapport à la puissance totale appelée par l’établissement (on parle de maximum 30 % de la puissance appelée) de manière à ne pas perturber le cos phi de l’établissement. Il sera peut-être nécessaire d’installer une batterie de condensateurs afin de compenser le mauvais cos phi de l’installation.

 

  • La génératrice asynchrone ne peut fonctionner sans alimentation du réseau. Dans ce cas, il lui est impossible de fonctionner comme secours lorsque celui-ci est coupé. Seul un alternateur synchrone est alors envisageable.

Certains fournisseurs proposent un même moteur raccordé soit à une génératrice asynchrone, soit un alternateur synchrone. Selon la gamme de puissance, le standard sera la version synchrone ou asynchrone. Pour les puissances inférieures à 500 kW, malgré son coût, le standard est la machine synchrone, livrée avec l’ensemble des équipements de synchronisation.

Attention finalement au sens du flux d’air autour de la cogénération. Les génératrices fonctionnent à 40 °C maximum. Si l’air passe d’abord autour du moteur, il risque d’être à plus de 40 °C et de ne plus refroidir correctement la génératrice.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Choisir le moteur [Cogen]

Critères de sélection

Les critères mentionnés au niveau du cogénérateur s’appliquent en réalité aux moteurs et sont donc d’application pour la sélection du moteur.

Attention à la qualité ! Des moteurs de bonne qualité peuvent donner une disponibilité de 95 % sur les 24 h de fonctionnement quotidiennes ! De nombreux problèmes sont dus au choix de machines trop justes, que l’on fait travailler à leurs limites. Dans le même ordre d’idée, l’état des machines (bougie, filtres, huile, échangeurs, soupapes, réglages divers comme les culbuteurs…) et leurs performances évoluent avec le temps, il faut en tenir compte dès le dimensionnement.

D’autre part, le prescripteur doit déclasser le moteur pour garantir son bon fonctionnement selon le nombre d’heures de fonctionnement et le niveau de puissance. Dans le cas contraire, le moteur risque de s’épuiser prématurément ce qui se traduirait par des chutes de rendements, voire de casser avant la fin de son amortissement.

Pour chaque moteur, le constructeur garantit des performances selon l’usage qui en est fait. Le fonctionnement en stand-by, comme son nom l’indique signifie que le moteur reste la majorité du temps à l’arrêt et ne démarre que pour des occasions particulières comme une panne de courant. Le fonctionnement, en prime, est un fonctionnement plus fréquent avec des arrêts et éventuellement des modulations de charges réguliers. Le fonctionnement en base est un fonctionnement quasi continu du moteur.

La nécessité de placer un pot catalytique résultera de la comparaison des données des constructeurs concernant le moteur sélectionné aux normes en vigueur, c’est-à-dire au permis d’environnement. Il en est de même pour le bruit, avec les limitations supplémentaires que le client peut éventuellement ajouter, comme dans le cas d’un hôtel par exemple.

Lorsque l’installation thermique ne permet pas de garantir une température de refroidissement du moteur suffisamment constante et basse, il est nécessaire d’adjoindre un aéro-réfrigérant de secours qui ne sert qu’exceptionnellement ou de réduire la charge du moteur. Ces dispositions évitent l’échauffement et l’explosion du moteur en cas de refroidissement insuffisant par l’installation thermique censée consommer la chaleur.

Sur les groupes au fuel, une sonde de contre pression permet de détecter un encrassement. Cet encrassement indique la nécessité ou non de nettoyer l’échangeur placé sur l’échappement afin de protéger le moteur. Si l’encrassement devient trop important, le moteur ne se trouve plus dans les conditions de pression optimale, le rendement chute et le moteur risque même une explosion si la perte de charge sur l’échappement devient trop importante. C’est pour cette raison que certains motoristes ne garantissent plus leurs moteurs si des échangeurs de chaleur sont placés sur les échappements.

Certains motoristes fournissent un équipement complet optimisé. Il appartient au prescripteur d’étudier la bonne adéquation entre une solution standard et les besoins spécifiques du client.


Moteur gaz ou diesel ?

D’un point de vue énergétique et environnemental

Tout dépend du combustible disponible à proximité immédiate. Au niveau des énergies fossiles, le gaz est « environnementalement » parlant mieux côté que le diesel, le coefficient du gaz naturel est inférieur à celui du diesel, raison pour laquelle les cogénérateurs gaz reçoivent plus de certificats verts que les moteurs diesels.

Les cogénérateurs à condensation de petite puissance sont de plus en plus présents sur le marché. La condensation de la fraction de vapeur d’eau contenue dans les gaz de combustion (théoriquement de 10 % pour le gaz) permet d’améliorer le rendement global du cogénérateur. La condensation des gaz de combustion issue des moteurs à gaz est moins problématique que celle issue des moteurs diesel sachant que le diesel contient du soufre qui se retrouve dans les gaz de combustion. À la condensation, le soufre se mélange à l’eau et forme un mélange acide corrosif pour les échangeurs et les conduits d’évacuation de gaz. Pour les  puissances importantes, il y a lieu de traiter les condensats. À l’inverse, les condensats des cogénérateurs gaz à condensation peuvent être rejetés directement à l’égout.

D’un point de vue mécanique

Comme caractéristique principale, un moteur gaz est nettement moins réactif au démarrage qu’un moteur diesel. Ce manque de réactivité, justifierait que le moteur gaz, et c’est d’actualité, ne soit pas utilisé comme groupe de secours en cas de « black-out ». Cependant, un cogénérateur au gaz, moyennant la présence d’un système intelligent de gestion de charge sur site, pourrait, suite à une coupure de réseau, redémarrer en groupe secours. Par exemple, la charge électrique du cogénérateur pourrait « monter en puissance » de 10  à 100 % dans un délai préprogrammé au niveau des circuits secours d’un hôpital.

La figure ci-dessous permet de rendre compte que le temps de synchronisation d’un moteur gaz sur le réseau est relativement long en comparaison au moteur diesel.

Schéma sur temps de synchronisation d’un moteur gaz / moteur diesel.

Temps de synchronisation d’un moteur gaz et diesel.

De plus, les moteurs gaz rencontrent également certaines difficultés face aux variations de charge. En effet, un des problèmes majeur des moteurs gaz est la gestion de la marche en régime transitoire. La réponse transitoire d’un moteur gaz, défini comme étant la réponse d’un système face à une variation de charges, est dès lors plus longue que pour un moteur diesel comme le montre la figure suivante :

Représentation d’une variation de charge autour de l’équilibre de base.

Dans un moteur diesel, l’injection se fait directement au niveau de la chambre de combustion tandis que pour un moteur gaz, le mélange gaz/air a lieu en amont de la chambre de combustion. C’est dès lors une des raisons pour laquelle un moteur gaz est caractérisé par une moindre robustesse.

Pour pallier le manque de réactivité rencontré dans un moteur gaz, les fabricants travaillent actuellement sur un projet visant à augmenter cette réactivité. Comme illustré à la figure suivante, le gaz est directement injecté dans la chambre de combustion, notamment grâce au système en développement HPDI (High Pressure Direct Injection).

Projet visant à l’injection directe de gaz à haute pression dans la chambre de combustion (Caterpilar).

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Synchronisation au réseau [cogen]


Principe

Dans la plupart des cas, la cogénération comme la plupart des installations décentralisées de production d’électricité est connectée au réseau pour y injecter l’excédent.
Afin de pouvoir réaliser cette connexion, il est indispensable de synchroniser le cogénérateur au réseau.

Préalablement au couplage réseau, la production décentralisée doit être mise en route avec une fréquence de rotation aussi proche possible que celle du réseau (f = 50 Hz) et une tension entre deux phases de la machine qui ait une valeur voisine de la tension entre deux phases du réseau.

Les conditions de couplage de l’alternateur sur le réseau doivent être impérativement respectées. Sans le respect des conditions de couplage, la destruction de l’alternateur est presque inéluctable.

Les conditions sont :

  • La fréquence de l’alternateur est la même que celle du réseau (ω ~ ω’). Une non-concordance des fréquences peut provoquer des retours de puissance de la part du réseau ou des couplages en opposition de phases.
  • La tension de toutes les phases de l’alternateur est identique à celle des phases du réseau (U ~ U’). Des différences de potentiel entre les phases de l’alternateur et celles correspondantes du réseau entraineraient la création de courants de circulation très élevés dans les enroulements de l’alternateur.
  • la concordance des phases est la même. En d’autres termes : « le fil rouge sur le bouton rouge … » ou, plus sérieux, les phases L1, L2, L3 (R, S, T) de l’alternateur doivent correspondre aux phases L1, L2, L3 (R, S, T) du réseau. Comme pour l’égalité des phases, la non-concordance des phases engendre des courants de circulation très élevés.

Sur le schéma présenté, les deux triades présentent une succession identique des tensions, les triades ont des fréquences proches, mais légèrement différentes représentées par la vitesse angulaire de glissement ωg. Les tensions entre les bornes 11’ ; 22’ ; 33’ s’annulent (presque) et sont au maximum simultanément (~2U).
Le couplage sera réalisé lorsque la tension 11’ est minimum. L’alternateur se synchronisera automatiquement au réseau en reprenant sa vitesse et tension.


En pratique … appareils de synchronisation

Schéma de principe de  montage des appareils de synchronisation.


Synchronoscope

Photo synchronoscope.

Cet appareil est muni d’un moteur dont la vitesse de rotation dépend de la différence entre les fréquences du réseau et de l’alternateur. La mise en parallèle s’effectue au passage à l’équilibre. Deux cas peuvent se présenter :

  • La partie gauche du cadran : il faut augmenter la vitesse de l’alternateur.
  • La partie droite du cadran : il faut réduire la vitesse de l’alternateur.

La méthode des 3 lampes

Auparavant, pour s’assurer de la concordance des phases lors de l’installation d’un nouvel alternateur, 3 lampes étaient montées de part et d’autre de l’interrupteur de couplage (voir le schéma de principe ci-dessus) :

  • Lorsque la concordance des phases est respectée, les 3 lampes s’éteignent et s’allument ensemble quand le synchronisme est proche.
  • À l’inverse, les 3 lampes s’allument et s’éteignent les unes à la suite des autres. Il est nécessaire de changer l’ordre des phases au niveau de l’interrupteur de couplage.

Le voltmètre différentiel

Photo voltmètre différentiel.

Il mesure la différence de tension de part et d’autre de l’interrupteur de couplage.
Le couplage se fait lorsque le voltmètre passe par 0 :

  • En négatif, la tension de l’alternateur est inférieure à celle du réseau.
  • À l’inverse, en positif, la tension de l’alternateur est supérieure à celle du réseau.

Le fréquencemètre

Photo fréquencemètre.

Des fréquencemètres branchés au niveau du réseau et du circuit de l’alternateur permettent de comparer si les fréquences sont proches.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Monotone de chaleur [cogen]


Principe

La monotone de chaleur est le graphique de la demande de chaleur mesurée heure par heure sur une année et classée par ordre décroissant.

Établissement d’une monotone de chaleur sur base du profil de consommation de chaleur. La courbe donne le nombre d’heures où le besoin en chaleur correspond à la puissance définie en ordonnée.


Intérêt

La monotone de chaleur sur une année permet de sélectionner le meilleur compromis entre une puissance thermique plus ou moins importante et le nombre d’heures de fonctionnement auquel cette puissance pourra fonctionner. Une faible puissance fonctionnera longtemps et de façon continue, alors qu’une grande puissance fonctionnera moins longtemps et de façon plus discontinue.
La monotone de chaleur traduit aussi une image fidèle du profil énergétique d’un bâtiment. Elle intervient, entre autres, dans l’évaluation de la puissance d’un cogénérateur. En effet, l’objectif d’une étude de faisabilité pour un système de cogénération est de maximiser la production d’énergie thermique. En d’autres termes, l’optimum énergétique d’un cogénérateur est matérialisé par la plus grande surface sous la monotone de chaleur.

Exemples

La comparaison des trois aires nous donne une indication à la fois au niveau énergétique et de la puissance thermique à prévoir pour le cogénérateur.

 

Données

Les monotones de chaleur relatives aux « profils types de consommation.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be.

Modulation de puissance [cogen]

Modulation de puissance [cogen]


Principe

Lorsqu’on parle de la modulation de puissance d’un groupe électrogène, on parle bien de la puissance électrique. Paradoxalement, la modulation de puissance d’un cogénérateur est basée sur la variation de la puissance thermique. Bien qu’il entraine aussi un alternateur comme le groupe électrogène, le cogénérateur est avant tout un générateur de chaleur et accessoirement d’électricité. Vu qu’ils sont « tous les deux unis pour le meilleur et pour le pire », la modulation de puissance thermique est intimement liée à celle de la puissance électrique.

Quel que soit le type d’alternateur, la modulation de puissance passe essentiellement :

  • Par la variation de la vitesse du cogénérateur équipé d’un alternateur asynchrone.
  • Par la variation du couple mécanique du cogénérateur équipé d’un alternateur synchrone.


L’intérêt de la modulation de puissance

La modulation de puissance est intéressante surtout pour maintenir une production électrique lorsque les besoins thermiques du circuit de chauffage connecté au cogénérateur diminuent, mais aussi pour réduire les séquences de démarrages/arrêts nuisibles à l’intégrité mécanique du moteur.

Par exemple, lorsque le cogénérateur injecte sa chaleur dans un ballon tampon qui est proche de sa consigne de température, le système de régulation du cogénérateur peut être prévu pour réduire la charge thermique de ce dernier. Dans ce cas, le cogénérateur continue à fonctionner à taux de charge partiel tout en maintenant une production d’électricité.

Attention cependant qu’à charge partielle, le rendement électrique se dégrade rapidement. En pratique, lorsque le cogénérateur est prévu pour travailler en modulation de puissance, les constructeurs proposent de ne pas descendre sous les 60 % de la puissance électrique nominale.

Le cas des alternateurs asynchrones

La modulation du taux de charge d’un cogénérateur est assez particulière lorsque l’alternateur est de type asynchrone. Pour rappel, la machine asynchrone en mode générateur doit fonctionner en « survitesse » par rapport à la vitesse du champ tournant du stator fourni par le réseau. Un glissement g négatif de quelques % suffit à l’alternateur pour atteindre sa puissance nominale. La survitesse est générée en « appuyant sur la pédale de gaz » du moteur d’entrainement et, par conséquent, en augmentant la vitesse de l’alternateur. Pour rester dans l’analogie de la voiture, l’augmentation du glissement peut être matérialisée par le comportement d’un conducteur qui, à la fois, appuie sur l’accélérateur tout en débrayant légèrement : « il fait patiner l’embrayage ». Le résultat est comparable dans le sens où les roues tournent à la même vitesse, mais que le moteur « monte légèrement dans les tours ».

Allure des courbes du couple et du courant « statorique » de la machine asynchrone fonctionnant dans les deux modes (moteur/alternateur)  en fonction d’un glissement positif ou négatif (survitesse ou sous-vitesse).

Pour une tension de réseau constante, la puissance disponible aux bornes du générateur suit la courbe du courant statorique lorsque la survitesse (ou le glissement) augmente.


Le cas des alternateurs synchrones

La variation de la puissance d’un cogénérateur équipé d’un alternateur synchrone est différente de celle d’un cogénérateur avec générateur asynchrone : il n’y a pas de glissement g ou de différence de vitesse angulaire entre le rotor de l’alternateur et le champ tournant du stator généré par le réseau.

L’action sur la « pédale de gaz » du moteur à combustion engendre juste une augmentation du couple du moteur et de la puissance électrique de l’alternateur. L’analogique de la voiture se prête bien aussi dans ce cas-ci : « pour maintenir la même vitesse d’un véhicule dans une côte, il est nécessaire  « d’appuyer sur le champignon », la vitesse des roues étant dans ce cas-ci celle du synchronisme ».

Attention, cependant, au décrochage d’un alternateur synchrone lorsque le couple résistif est trop important. Celui-ci dépend du décalage, c’est-à-dire du retard qui existe entre la force électromotrice (fem) générée par le rotor et la tension au stator. On appelle ce décalage, l’angle électrique. Si l’angle correspondant à ce déphasage dépasse 90°, on a phénomène dit de décrochage où le rotor s’emballe et la génératrice ne parvient plus à le freiner.

Courbe caractéristique du couple électrique en fonction de l’angle électrique pour une machine synchrone.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be.

Turbine

Turbine


Définition et principe

Une turbine est une machine tournante qui récupère l’énergie cinétique d’un fluide pour mettre en mouvement l’arbre de transmission.

Schéma définition et principe de la turbine.

La turbine est constituée :

  • D’une partie mobile comprenant un arbre sur lequel sont fixées les roues à aubes du compresseur et de la turbine.
  • D’une partie fixe couramment appelée « carter de la turbine » et dans lequel on retrouve les chambres de combustion, les déflecteurs pour correctement diriger le fluide sur les aubes de la turbine.

La turbine montée sur l’arbre de transmission est mise en rotation par la force exercée sur le fluide (liquide, gaz) sur les aubes. Cette action engendre une diminution de la pression du fluide ou détente. Dans le cas de la cogénération, l’arbre est couplé à un alternateur pour la production d’électricité.
La turbine est une machine qui nécessite un fonctionnement idéalement en continu. Ce type d’équipement présente, entre autres comme avantage, de demander moins d’entretien que les moteurs.


La turbine à vapeur

Une turbine à vapeur utilise, comme son nom l’indique, la vapeur comme fluide de propulsion. Elle est produite, par exemple, à partir d’une chaudière ou disponible en sortie d’un processus industriel. La vapeur produite à haute pression est injectée à l’entrée de la turbine. À ce niveau, elle subit une série de détente au travers de plusieurs étages de roue à aubes, en générant l’énergie mécanique nécessaire à mettre l’arbre en rotation.

Photo turbine à vapeur.

Turbine à Vapeur (source : General Electric).

Le schéma ci-dessous montre une turbine vapeur alimentée par une chaudière. La chaleur résiduelle comprise dans la vapeur basse pression (BP) et dans les quelques pourcents de condensats non récupérés par la chaudière vapeur,  peut servir à alimenter un système de chauffage (principe de récupération de la chaleur fatale).

Schéma principe turbine à vapeur.

La turbine vapeur conviendra particulièrement bien pour des puissances pouvant aller de 10 MWé à 50 MWé.

Elle nécessite un grand débit de vapeur d’entrée.


La turbine à gaz

Photo turbine à gaz.

Turbine à gaz (source Siemens).

La turbine à gaz fonctionne sur le principe de la détente d’un fluide gazeux dans une turbine issu de la combustion d’un mélange d’air comprimé au niveau du compresseur et de gaz dans une chambre dite « de combustion ». C’est le principe du réacteur d’avion !

La partie mobile est composée d’un arbre sur lequel sont montés le compresseur et la turbine. La partie fixe, quant à elle, accueille principalement la chambre de combustion.

Les gaz en sortie de turbine possèdent un niveau d’énergie suffisant qui peut être exploité dans une chaudière de post combustion en produisant de la vapeur.

Schéma principe turbine à gaz.

La gamme de puissances électriques des turbines à gaz est large. Le rendement électrique des turbines gaz est lié à la qualité de l’alternateur. Un ordre de grandeur courant de rendement électrique est de l’ordre de 20 à 25 %.

Le rendement thermique, lui, peut être amélioré par la qualité de l’échangeur, l’exploitation des différentes sources de chaleur, la qualité de la combustion, etc. Un ordre de grandeur de rendement thermique se situe entre 55 et 70 % (avec postcombustion).


La micro-turbine à gaz

La micro-turbine à gaz est la petite sœur de la turbine à gaz. Cependant, elle délivre de plus petites puissances (à partir de 25 kWé).

Photo micro-turbine à gaz.

Microturbine 30 kWé – Capstone.

La micro-turbine est souvent pourvue d’un échangeur complémentaire pour préchauffer l’air comprimé de la chambre de combustion. Enfin, la micro-turbine domestique existe sur certains marchés.

Schéma principe micro-turbine à gaz.

Principe de la turbine.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Présentation synthétique des composants


Le cogénérateur

Fonction

Transformer le combustible en énergies électrique et thermique.

Description

Parmi les moteurs de cogénérateur, les moteurs gaz ou diesel sont les plus couramment rencontrés. Par rapport au moteur à combustion interne classique (celui de votre voiture, par exemple), le moteur de cogénérateur valorise sa chaleur au travers d’une série d’échangeurs thermiques.

Le cogénérateur est principalement composé des entités suivantes :

  • le moteur;
  • l’alternateur;
  • les échangeurs;
  • une régulation.

Les moteurs des cogénérateurs étudiés dans cet outil sont principalement des moteurs à combustion classique, couplés à des alternateurs produisant l’électricité.

Comme le montre la figure suivante, la chaleur produite par le cogénérateur peut être valorisée au travers de différents échangeurs. Le refroidissement du moteur, des gaz d’échappement, de l’huile du carter et, éventuellement, du système turbo permet de récupérer de l’ordre de 55-58 % de l’énergie incidente (combustion du gaz, diesel, huile végétale, biogaz, …). 35 % servent à produire l’électricité et le solde de 7-10 % représente les pertes par radiation du bloc moteur et les pertes dans les gaz d’échappement. Les différents échangeurs à haute et basse température sont connectés au circuit  hydraulique de chauffage.

La chaleur des gaz d’échappement à 500 °C peut être récupérée à plus de 70 % par refroidissement à 150 °C. La chaleur de l’eau de refroidissement et de l’huile du moteur à +/- 100 °C peut être entièrement récupérée, alors que la chaleur de refroidissement du turbo à 45 °C peut plus difficilement être utilisée. Ce niveau de température est en effet trop bas pour être valorisé.

Les moteurs diesel et gaz sont utilisés dans une gamme de puissance de 5 kW à plusieurs MW et s’appliquent donc particulièrement aux secteurs tertiaires, industriel et PME, ainsi qu’au logement.

La récupération de chaleur sur ce type de moteur se prête bien à des utilisations à des températures inférieures à 100 °C comme la préparation d’eau chaude sanitaire, bien qu’une petite quantité de vapeur puisse néanmoins être générée grâce à la récupération de la chaleur contenue dans les gaz d’échappement (400 .. 500 °C).

Centrale de Cogénération compacte au gaz de 400 kWé.

Principales caractéristiques d’un groupe de cogénération complet

Le moteur

  • La puissances électrique (kW), thermique (kW), et combustible (PCI).
  • Le carburant gaz ou fuel.
  • Les rendements électriques et thermiques à différentes charges.
  • Le débit d’air et le sens de circulation pour ventilation et air comburant.
  • La présence d’un pot catalytique ou non.
  • Le silencieux.
  • La modulation de puissance : plages horaires et puissances prévues.

L’alternateur

  • Synchrone ou asynchrone.
  • Le rendement électrique à différentes charges.

L’échangeur

  • La température d’entrée d’eau.
  • La température de sortie d’eau.
  • Le débit d’eau.
  • La pression d’alimentation en combustible.

Les principes de régulation

  • signaux d’enclenchement, de déclenchements, de modulation.

Packaging

Les unités de cogénération se présentent sous deux formes :

  • Un package complet standard, comprenant dans un seul caisson moteur, génératrice, récupération de chaleur, régulateur et évacuation des gaz de combustion. Les différents composants sont parfaitement dimensionnés les uns par rapport aux autres et l’ensemble présente des coûts d’investissement et de maintenance réduits.
  • Beaucoup plus rare dans la gamme de puissance visée ici, un package spécifique assemblé sur mesure, où chacun des composants est sélectionné sur le marché et dont l’ensemble est optimisé pour répondre aux spécificités d’un projet particulier. Ce type de module est étudié au cas par cas et coûte généralement plus cher.

Il est important de noter que les unités de cogénération équipées d’un moteur diesel sont directement issues de la technologie camion ou voiture. Elles bénéficient ainsi d’effets de série très importants. Leurs prix sont moins élevés que les modèles de puissance équivalente alimentés au gaz, même si cette tendance s’estompe actuellement.


Le moteur

Fonction

Transformer le combustible (gaz, biogaz, huile végétale, …) en énergies mécanique, transformée plus loin en énergie électrique par la génératrice, et thermique, récupérée dans les échangeurs de chaleur.

Description

Le moteur est le cœur du cogénérateur, la régulation agit directement sur l’injection de carburant pour atteindre le niveau de puissance attendu.

Le moteur est aussi l’élément le plus fragile et il représente de loin la plus grande partie de la maintenance du groupe de cogénération.

Techniquement, le moteur se caractérise principalement par :

  • La puissance mécanique.
  • Le combustible utilisé, gaz ou mazout.
  • Les rendements à différentes charges.
  • Les émissions de gaz de combustion et la présence d’un pot catalytique ou non.
  • Les émissions sonores et la présence d’un silencieux ou non.
  • Le débit d’air et le sens de circulation, pour assurer la ventilation et l’air comburant.
  • Le déclassement du moteur en fonction de son usage : Stand-By; Prime; Base.

La génératrice

Fonction

Transformer l’énergie mécanique du moteur en énergie électrique et l’amener sur le réseau interne du client par le raccordement électrique.

Description

Alternateur synchrone

La génératrice synchrone est constituée d’un rotor, appelé inducteur, parcouru par un courant continu. Par la rotation des pôles de l’inducteur à l’intérieur du stator (l’induit), un courant alternatif est créé aux bornes de l’induit. Le courant induit est au départ indépendant du réseau et doit absolument être synchronisé en grandeur, en fréquence et en phase à celui-ci. La génératrice synchrone nécessite donc un équipement de synchronisation (le synchroniseur). Elle est plus complexe, plus onéreuse et nécessite la mise en place de matériels coûteux. Elle permet par contre d’assurer le secours de son établissement « hôte » en cas de perte de réseau.

La machine devra, en outre, être équipée d’une série de protections électriques comme une protection de découplage, une protection de surintensité et de mise à la terre.

Génératrice asynchrone

Une génératrice asynchrone est un moteur asynchrone dont la vitesse de glissement par rapport au champ tournant (qui est constitué par le réseau électrique) a une valeur telle qu’il se produit aux bornes du stator un courant alternatif (rotor en survitesse par rapport au champ tournant du stator). La génératrice asynchrone ne nécessite pas d’équipements de synchronisation dans la mesure où elle se synchronise automatiquement au réseau. Sa constitution est plus simple, les coûts sont moins élevés. Elle ne requiert pas d’auxiliaires électriques coûteux si ce n’est une batterie de condensateurs qui devra corriger le cosinus Phi. Celui-ci sera en effet détérioré par la puissance réactive appelée par la machine asynchrone. Ceci suppose aussi que la puissance électrique du cogénérateur ne pourra pas être trop importante pour ne pas trop détériorer le cosinus Phi de l’établissement. En pratique, pour la puissance électrique du groupe de cogénération, on ne dépassera pas 25 à 30 % de la puissance appelée par l’établissement.

Ayant besoin d’une alimentation du réseau électrique pour fonctionner, cette machine ne peut donc pas assurer un secours en cas de panne du réseau.

Résumé des avantages et inconvénients

Génératrice asynchrone
[+]

  • Coût d’investissement faible.
  • Simplicité d’utilisation.

[-]

  • Pas de possibilité d’utiliser l’unité de cogénération comme groupe de secours.
  • Limitation de la puissance du groupe par rapport à la puissance de l’établissement (25 à 30 %).
  • Nécessité de placer une batterie de condensateurs.

Alternateur synchrone
[+]

  • Possibilité d’utiliser l’unité de cogénération comme groupe de secours.
  • Solution adaptée à toutes les configurations techniques.

[-]

  • Coût d’investissement élevé.
  • Obligation d’auxiliaires électriques coûteux (synchroniseur, protection).

Caractéristiques techniques

Les caractéristiques principales de la génératrice sont :

  • la puissance électrique;
  • le régime de tension;
  • la génératrice synchrone ou asynchrone;
  • son cosinus phi.

Le raccordement électrique

Fonction

Amener l’énergie électrique depuis la génératrice vers le circuit électrique, avec toutes les protections nécessaires.

Description

La cohabitation de la cogénération et du réseau électrique du distributeur sur un même circuit demande l’installation d’une série de protections.

Le raccordement électrique se compose ainsi de plusieurs éléments :

  • le câble de puissance et les protections électriques « classiques »;
  • la protection spécifique à la production d’énergie électrique en parallèle sur le réseau;
  • le dispositif de synchronisation en cas de génératrice synchrone.

Câble de puissance et protections électriques « classiques »

Le câble de puissance, un câble électrique standard, amène l’électricité générée par la cogénération à l’installation électrique du client.

Plusieurs protections interviennent sur ce circuit électrique :

  • La protection des installations contre un dysfonctionnement du cogénérateur en plus des protections contre un dysfonctionnement du réseau électrique;
  • La protection du groupe de cogénération contre un dysfonctionnement interne ou contre un dysfonctionnement du réseau électrique;
  • La protection des personnes.

Les principales caractéristiques sont :

  • La tension de raccordement.
  • Le câble de puissance : type, dimensions et mode de pose du câble.
  • Les dispositifs de protection contre les surcharges et contre les courts-circuits.
  • Le régime de neutre et protection des personnes.

Protection spécifique à la production d’énergie électrique en parallèle sur le réseau

La protection spécifique à la production d’énergie électrique en parallèle sur le réseau permet :

  • Au gestionnaire de réseau d’exploiter son réseau de manière sûre et de se prémunir des incidents éventuels.
  • À l’auto producteur de protéger son installation en cas d’incident sur le réseau de distribution :

Schéma électrique de découplage.

Génératrice SYNCHRONE
avec fonctionnement en secours.

Deux situations sont prévues :

  • Soit le cogénérateur ne peut jamais fournir d’énergie au réseau. On parle « d’autoproduction », c’est-à-dire qu’on ne produit de l’électricité que pour ses propres besoins.
  • Soit le cogénérateur peut débiter sur le réseau (par exemple, dans le cadre d’un contrat de rachat d’énergie). On parle alors de production décentralisée.

Protection de découplage ou production décentralisée

Pour les installations de production décentralisée, on parle d’une protection de découplage. Cette protection permet, au moyen d’une série de relais (relais obligatoirement agréés par le distributeur), la mise hors service des cogénérateurs lorsque leurs influences deviennent trop importantes en cas de régimes de réseaux perturbés. Des packages agréés complets existent dans le commerce reprenant toutes les fonctionnalités de protection.

Protection directionnelle ou autoproduction

Une protection directionnelle isole le cogénérateur du réseau dès que de la puissance électrique passe vers le réseau. Dans ce cas, les protections mentionnées ci-dessus ne sont pas nécessaires.

Synchronisation de la génératrice synchrone

Le synchronoscope, composé d’un double fréquence-mètre et d’un double voltmètre (points 1 et 2 sur le schéma), donne une image des différences entre les champs tournants des deux branches du réseau à coupler que sont le cogénérateur et le réseau basse tension du client : comparaison de la fréquence et de la tension en grandeur et en phase.

Synchronisation de la génératrice synchrone.

Pour un démarrage normal, lorsque l’installation est sous tension, le synchroniseur va ajuster la puissance du moteur, via l’injection, pour adapter sa vitesse et donc la fréquence. Il va aussi moduler le courant d’excitation pour ajuster la tension en grandeur.

Lorsque les tensions et fréquences sont égales en grandeur et en phase, le couplage est actionné.

Pour un recouplage après un découplage du réseau, le même principe peut être utilisé avec une comparaison entre les points 1 et 3 au lieu des points 1 et 2.

Lorsque l’installation est alimentée par le groupe, mais isolée du réseau, on dit qu’elle est en îlotage. La puissance du moteur et le courant d’excitation régulent respectivement la fréquence et la tension. Lorsque le groupe fonctionne en parallèle sur le réseau, la puissance du moteur et le courant d’excitation régulent respectivement la charge électrique délivrée par le groupe et le cos phi.

Théorie

Pour plus d’informations sur le synchronisme des générateurs synchrones.

Les échangeurs de chaleur

Fonction

Récupérer la chaleur du moteur et des fumées pour la raccorder au système de production de chaleur  existant.

Description

Les échangeurs de chaleur permettent à 2 fluides, liquide ou gaz, de se croiser et d’échanger leur énergie thermique sans se mélanger. Les échangeurs les plus souvent rencontrés sont les échangeurs à plaques et les échangeurs à tubes droits ou en « U ». Ils se distinguent essentiellement par le type de surface d’échange entre les deux fluides. Leurs comportements respectifs en découlent.

Le groupe de cogénération comprend généralement 3 échangeurs de chaleur : le premier récupère la chaleur du bloc moteur dans l’eau de refroidissement, le deuxième celle des de l’huile de lubrification et le troisième celle des fumées.

Un quatrième échangeur est parfois présent au niveau du bloc turbo. Il est couramment appelé « intercooler » et sert à refroidir.

Une faible part de l’énergie thermique n’est pas récupérable, il s’agit de la chaleur dégagée par rayonnement et convection du moteur, de la chaleur résiduelle dans les échappements et des pertes dues à un éventuel intercooler.

Les caractéristiques essentielles des échangeurs de chaleur sont :

  • La températures d’entrée et de sortie.
  • Les débits.
  • Les polluants potentiels et solutions préconisées.

À quelques rares unités près, dans le secteur tertiaire, la plupart des cogénérateurs sont de petite puissance (quelques dizaines de kW) voire de puissance moyenne (quelques centaines de kW). Le cogénérateur alors se présente souvent sous la forme d’un « kit », échangeurs compris. Ces échangeurs sont, en général, en série; ce qui signifie que le cogénérateur ne dispose hydrauliquement que de deux connexions (départ/retour) pour se raccorder sur le circuit de chauffage.

Pour des unités de puissance plus importante, les échangeurs peuvent ne pas faire partie intégrante du cogénérateur. Dans ce cas, un ensemblier peut prévoir des échangeurs « externes » pour fournir de la chaleur à des températures différentes. Le dimensionnement de ces échangeurs se fera en fonction des exigences des différents besoins en chaleur. Ce genre d’unités de cogénération se retrouve plutôt dans l’industrie.


Le raccordement hydraulique

Fonction

Amener l’énergie thermique depuis les échangeurs du groupe de cogénération jusqu’au circuit d’utilisation de la chaleur, le plus souvent un système de chauffage central.

Schéma simplifié d’une installation type.

Description

Le raccordement hydraulique connecte la cogénération au circuit d’utilisation de chaleur du client et permet, par l’intermédiaire des vannes placées sur les canalisations, de gérer l’utilisation des différentes parties du circuit hydraulique.

On distingue essentiellement deux types de raccordement avec les chaudières : en parallèle ou en série.

Raccordement en série

Le raccordement en série est indiqué dans les configurations de chaufferie où :

  • Le réseau est de grande capacité.
  • Les débits d’eau sont importants.
  • La puissance du cogénérateur est faible par rapport à la puissance de la ou les chaudières.
  • Les chaudières sont à haute température.

Raccordement en série.

Dans le raccordement en série, la prise d’eau pour le refroidissement du moteur et sa sortie sont toutes les deux raccordées en amont des chaudières, sur le retour d’eau froide du circuit d’utilisation de chaleur du client. La prise d’eau se trouve en amont de son retour.

Une pompe de circulation assure l’irrigation correcte du moteur et, selon les cas, un échangeur de chaleur sépare le circuit principal du circuit de refroidissement du moteur.

L’inconvénient majeur de cette technique sera la non-adéquation avec une chaudière à condensation en raison d’un retour chaud et les pertes à l’arrêt inhérent à ce retour chaud.

L’avantage majeur est la « simplicité » de mise en œuvre dans une chaufferie existante, en limitant les modifications hydrauliques de la chaufferie.

Raccordement en parallèle

Raccordement en parallèle avec des chaudières à condensation par exemple.

Le raccordement en parallèle est indiqué dans les configurations de chaufferie où :

  • Les chaudières sont des chaudières à condensation.
  • Les nouvelles chaufferies.

Dans le raccordement en parallèle, la prise d’eau pour le refroidissement du moteur est raccordée en amont des chaudières, sur le retour d’eau froide du circuit d’utilisation de chaleur du client, tandis que le retour est raccordé en aval des chaudières, sur le départ vers le circuit d’utilisation de la chaleur.

Une pompe de circulation assure l’irrigation correcte du moteur et, selon les cas, un échangeur de chaleur sépare le circuit principal du circuit de refroidissement du moteur.

Un by-pass (vanne 3 V sur le schéma) permet la charge partielle ou la mise à l’arrêt du cogénérateur.

Principales caractéristiques techniques du raccordement hydraulique

Techniquement, le raccordement hydraulique se caractérise principalement par :

  • Le type de raccordement (parallèle, série, présence ou non d’un volume de stockage de chaleur, d’un aéro-réfrigérant…).
  • Le régime de température du réseau et la compatibilité des températures.
  • Le dispositif pour empêcher le retour d’eau chaude en entrée du groupe.
  • L’isolation du groupe du reste du circuit.
  • La qualité de l’eau d’appoint, traitement.
  • La bouteille de mélange ou non.
  • Le principe de régulation des chaudières.
  • L’aéro-réfrigérant :
    • l’échangeur,
    • l’antigel,
    • l’antibruit,
    • la puissance.

Le stockage de chaleur

Fonction

Si le besoin en chaleur du bâtiment est plus petit que la puissance thermique développée par la cogénération, cette dernière est normalement à l’arrêt. On peut cependant imaginer stocker une partie de la chaleur produite dans un ballon tampon pour l’utiliser lorsque la demande de chaleur est plus importante, par exemple lors de la relance matinale.

L’intérêt du stockage est :

  • De satisfaire une demande électrique sans que la chaleur produite à ce moment soit perdue. Cet avantage peut être particulièrement intéressant pendant les heures de pointe où l’électricité est particulièrement chère.
  • L’écrêtage des fluctuations de température, ce qui limite la fréquence de cycles marche/arrêt et augmente les temps de fonctionnement et la durée de vie de la machine.
  • La fourniture d’une plus grande partie de la demande de chaleur ce qui permet d’installer une plus grosse machine.

Description

Le stockage peut être mis en œuvre de différentes façons :

  • Le stockage dans les chaudières existantes (en fonction du volume d’eau de celles-ci).
  • Le stockage dans le réseau de tuyauterie (pour les grands réseaux).
  • Le stockage dans un réservoir indépendant.

Les principales caractéristiques du ballon de stockage sont

  • Le volume de stockage.
  • La position du stockage dans le circuit hydraulique.
  • Les températures et débits d’entrée et de sortie.
  • L’isolation thermique du ballon.

La régulation

Fonction

Réguler l’ensemble des équipements du cogénérateur, par exemple démarrer et arrêter le groupe ou moduler sa puissance en fonction de la demande de chaleur.

Description

La régulation se constitue d’un ensemble d’automatismes qui permettent de piloter, souvent à distance, le groupe de cogénération. C’est généralement le prescripteur qui rédige le cahier des charges de conduite.

De façon non-exhaustive, nous citons ici les principaux signaux de régulation :

  • Le démarrage
    • Le début des heures pleines relatives au tarif de l’électricité.
    • La pointe de consommation électrique (pointe quart-horaire).
    • Le besoin en chaleur (température de l’eau de retour).
    • La disparition du réseau électrique.
    • Le démarrage forcé par l’utilisateur.
  • L’arrêt
    • La fin des heures pleines relatives au tarif de l’électricité.
    • Le problème de parallélisme avec le réseau ou protections électriques.
    • La disparition du besoin de chaleur.
    • Le mauvais refroidissement du moteur (température de l’eau de retour).
    • Autre défaut sur le retour d’eau.
    • Le problème d’approvisionnement en combustible (niveau de fuel ou position de vanne).
  • La modulation de charge
    • La fluctuation du besoin en chaleur (température de l’eau de retour).
    • La pointe de consommation électrique (pointe 1/4 horaire).

 

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Moteur à combustion interne

Moteur à combustion interne


Principe dans le cas d’un cogénérateur

Parmi les moteurs de cogénérateur, les moteurs gaz ou diesel sont les plus couramment rencontrés. Par rapport au moteur à combustion interne classique (celui de votre voiture, par exemple), le moteur de cogénérateur valorise sa chaleur au travers d’une série d’échangeurs thermiques.

Le moteur diesel

Ce type de moteur appartient à la technologie des moteurs à combustion interne classique et fonctionne suivant un cycle thermodynamique en 4 temps (cycle Diesel), à allumage spontané. Il peut utiliser du combustible comme le diesel naturellement, mais aussi de l’huile végétale ou encore des huiles végétales de recyclage comme l’huile de friture. Cette filière est actuellement en cours d’évaluation tant d’un point de vue de l’étude de potentiel, de la qualité et la stabilité du combustible, ou encore de son statut par rapport à la définition de déchet, de combustible de « seconde génération », …
La qualité du carburant, sa stabilité au cours du stockage, … doivent être prise en compte afin d’éviter des ennuis mécaniques comme le dépôt de cristaux sur les têtes des pistons en occasionnant  des mises à l’arrêt intempestives.

Illustration du principe d’injection de diesel dans un moteur diesel.

Avantages et inconvénients

(+) Le moteur diesel :

  • À un rendement légèrement supérieur à son équivalent gaz.
  • Il peut facilement être adapté pour être utilisé avec des huiles végétales (pour autant que toutes les spécifications techniques de l’huile utilisée correspondent aux exigences du fabricant du moteur, par exemple la viscosité doit être adéquatement gérée).
  • Son couple mécanique est important. Il pourrait travailler en îlotage et reprendre une charge électrique non négligeable.
  •  …

(-) Par contre le moteur diesel :

  • À injection directe demande un contrôle très précis du carburant injecté pour assurer l’autoallumage.
  • Est plus bruyant que son homologue « essence ».
  • À puissance égale, sera plus lourd.
  • Demande un entretien plus régulier que son homologue.

Le moteur au gaz

Quant à ce type de moteur, il fait partir aussi de la gamme des moteurs à combustion interne. Mais, en réalité, on parlera plutôt de moteur à explosion. De plus, il fonctionne aussi suivant un cycle thermodynamique en 4 temps (cycle Otto), à allumage commandé.

Principe d’injection du mélange air/gaz dans la chambre de combustion pour un moteur gaz.

Avantages et inconvénients

(+) Le moteur gaz :

  • Plus léger.
  • Utilise des carburants plus propres que le diesel, d’où son entretien plus aisé et moins coûteux et avantageux d’un point de vue des CV octroyés.
  • Plus silencieux.
  •  …

(-) Par contre le moteur gaz :

  • Possède un moins bon couple mécanique que le moteur diesel. Son utilisation en îlotage est assez délicat.
  • Son rendement est inférieur à celui du moteur diesel.

Les échangeurs du moteur

La récupération de chaleur s’effectue à plusieurs niveaux :

  • Basse température : au niveau de l’eau de refroidissement, au niveau des huiles de lubrifications du moteur.
  • Haute température : au niveau des gaz d’échappement.
  • Basse température : au niveau de l’intercooler du turbo lorsqu’il est présent.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Moteur à combustion externe

Moteur à combustion externe


Principe

Photo moteur stirling.

Source : Wikipédia.

Dans le monde de la cogénération, le moteur stirling est une technologie de moteur utilisée particulièrement pour les micros cogénérations domestiques. C’est un moteur à combustion externe de petite puissance. Le gaz interne (hélium par exemple) est soumis aux quatre phases reprises ci-dessous :

Comme pour le moteur à combustion interne, le cycle du stirling s’articule sur la composition des 4 phases séquentielles suivantes :

  1. Chauffage externe du gaz à volume constant (isochore). C’est au point mort haut que le gaz s’échauffe et atteint une pression élevée. C’est l’exemple du brûleur qui assure le chauffage.

  2. Détente du gaz à température constant (isotherme). Le piston se déplace vers le bas.
  3. Refroidissement externe à volume constant (isochore) au point mort bas. En pratique, c’est à ce niveau que le circuit de chauffage récupère la chaleur du brûleur transmise au gaz tout en le refroidissant.

  4. Compression du gaz à température constant (isotherme). Le piston remonte.

On se doute bien que la mise en œuvre pratique d’un tel système poserait des problèmes de contraintes thermiques importantes, de la gestion du chauffage et du refroidissement du système et ne donnerait pas des performances intéressantes.

Pour pallier à ce problème, l’ingéniosité des inventeurs de tous bords n’a pas de frontières. La présence d’un « déplaceur » permet de chauffer et de refroidir le système de manière continue comme le montre les figures suivantes :

  1. Détente isotherme (à température constante). Le piston du moteur (en bleu) et le piston déplaceur se déplacent vers le bas en augmentant le volume du gaz dans le cylindre.
  2. Combinaison de la fin de la détente isotherme et du début du refroidissement isochore (à volume constant). Le piston moteur continue à se déplacer vers le bas jusqu’au point mort bas tandis que le piston se déplace déjà vers le haut.
  3. Compression isotherme. Le piston moteur remonte et le piston déplaceur se déplace vers le point mort haut.
  4. Combinaison de la fin de compression isotherme et du chauffage isochore. Le piston moteur arrive au point mort haut et le piston déplaceur redescend.

Type de moteur stirling

Histoire grecque

La plupart des moteurs stirling sont à mouvement rotatif; c’est-à-dire qu’ils transforment le mouvement alternatif linéaire des pistons en mouvement rotatif via l’ensemble bielle/vilebrequin.

Différents types de moteur stirling existent sur le marché. Un autre moteur stirling assez didactique est repris dans la figure suivante :

Type alpha.

Stirling Bêta pour cogénérateur

Schéma stirling Bêta pour cogénérateur.Schéma principe stirling Bêta pour cogénérateur.

Le type stirling bêta décrit ici est un moteur linéaire. Il remporte un franc succès auprès des constructeurs de micros cogénérateurs domestiques. Contrairement au stirling alpha, le bêta est composé d’un seul cylindre qui accueille les deux pistons. La chambre chaude se situe au niveau de la partie supérieure du cylindre tandis que la chambre froide, elle, à la base du cylindre. Sous le cylindre se situe le carter dans lequel se trouve l’alternateur. C’est un alternateur rectiligne ! La production électrique s’effectue par variation de flux lorsque la partie mobile de l’alternateur (on ne peut pas parler de rotor dans ce cas-ci) se déplace selon un mouvement rectiligne alternatif.

  1. Le gaz de travail est froid et occupe un volume minimum. Le déplaceur descend et chasse le gaz  de la partie basse du cylindre (froide) vers la partie haute (chaude) soumise à la chaleur du brûleur.

  2. Le gaz chauffé au niveau du brûleur tend à occuper plus de place et pousse le déplaceur et le piston moteur vers le bas en bout de course. Le piston entraine dans sa course la bobine.  Par variation de flux dans la bobine, il y a production d’électricité.

  3. Le gaz est maintenant à son volume maximum. Le déplaceur remonte mécaniquement et fait passer le gaz de la partie haut (chaude) vers la partie basse (froide) où il est refroidi.

  4. Le gaz en refroidissant dans la partie basse tend à occuper moins de place. Le piston moteur remonte et comprime le gaz. Le piston moteur entraine dans sa course la bobine vers le haut. Par variation de flux dans la bobine, il y a production d’électricité.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Alternateur

Alternateur

Les machines tournantes

Les machines tournantes électriques se composent principalement :

  • d’un rotor, l’élément  tournant;
  • d’un stator, la partie fixe de la machine.

Aussi, elles se divisent essentiellement en deux catégories : les machines synchrone et asynchrone. La différence principale entre ces deux types de machine réside dans la conception du rotor.

En ce qui  concerne la puissance, la plupart des machines tournantes à  courant alternatif sont, au-delà de quelques kW, des machines triphasées, raison pour laquelle les bobinages au niveau du stator sont souvent au nombre de trois ou un multiple de trois.

Schéma machines tournantes.


Les machines synchrones

Pour les machines synchrones, le rotor peut être constitué :

  • d’un ou de plusieurs aimants permanents. C’est le cas pour les petites et moyennes puissances.
  • de bobinages alimentés en courant continu et d’un circuit magnétique. On parle alors d’électro-aimants. Ce type de rotor est très courant.

Alternateur synchrone

Principe de fonctionnement

Lorsque le rotor est entrainé par un moteur à combustion interne par exemple, c’est le cas d’un cogénérateur, son champ magnétique tourne à la vitesse de rotation du moteur : il est appelé « champ tournant ». Il induit dans les bobinages du stator un courant alternatif de forme sinusoïdale pour autant que les circuits du stator soient fermés sur une charge. Dans ce cas, la machine tournante est  « génératrice » ou communément appelée « alternateur ».
La vitesse du champ tournant est aussi appelée vitesse de synchronisme pour autant qu’elle soit la même que celle du champ tournant généré par le réseau sur lequel la machine synchrone sera connectée.
Les réseaux interconnectés en Europe ont une fréquence de 50 Hz. Pourquoi cette fréquence ? La fréquence est en fait liée à la vitesse du champ tournant par la relation :

ω = 2πf / p

Avec :

  • ω : vitesse angulaire du champ tournant (radian/s).
  • f : fréquence du réseau (Hz).
  • p : le nombre de paires de pôles du rotor.

Schéma alternateur synchrone.

Par exemple, une machine tournant à 3 000 tr/min avec une seule paire de pôles génère un signal sinusoïdal de fréquence de 50 Hz. Si l’on veut brancher sur le réseau un alternateur tournant à 1 500 tr/min, le rotor devra être équipé de 2 paires de pôles pour pouvoir fournir un courant alternatif de fréquence 50 Hz. C’est le cas du rotor représenté dans la figure ci-dessus.

Démarrage de l’alternateur synchrone

Dans la plupart des cas, le démarrage est assuré par le moteur d’entrainement. Le couplage de l’alternateur se réalise lorsque tous les critères de synchronisation sont respectés.

Régulation de l’alternateur

En îlotage

Lorsque la charge d’un alternateur change, les puissances actives et réactives peuvent changer. Il en est de même pour la tension et la fréquence. Comment les maintenir stables ?
Sans rentrer dans les détails :

  • Lorsque la puissance active varie, la vitesse et la fréquence de l’alternateur varient. Comme pour une voiture où la pente de la route change, il faut « jouer » avec l’accélérateur pour rétablir la bonne vitesse et, par conséquent, la bonne fréquence (accélérer pour maintenir la bonne vitesse en côte et décélérer en descente).
  • Lorsque la puissance réactive varie, la tension de l’alternateur varie. Il est nécessaire de modifier l’excitation de l’alternateur.

En réseau

Couplé sur un réseau, l’alternateur est véritablement « accroché ». Les seuls paramètres à réguler sont :

  • la puissance réactive en agissant sur le niveau d’excitation de l’induit (le rotor);
  • la puissance active en sollicitant le régulateur ou le variateur de vitesse.

Moteur synchrone

Lorsque la machine synchrone n’est pas entrainée par un moteur à combustion interne, mais connectée à un réseau électrique classique, elle se comporte en « moteur ». Attention toutefois que le moteur synchrone est particulier dans le sens où  il ne peut pas se mettre à tourner seul sans artifice de démarrage : un variateur de fréquence placé entre le réseau et le stator permet au rotor « d’accrocher » le champ tournant du stator passant progressivement d’une basse vitesse à celle de synchronisme du réseau d’alimentation.


Les machines asynchrones

Contrairement aux machines synchrones, le rotor des machines asynchrones est plus simple dans sa conception : l’aimant permanent ou d’électro-aimant est remplacé par une simple cage d’écureuil.

Schéma machines asynchrones.

Pour expliquer le fonctionnement d’une machine asynchrone, parler des moteurs permet de simplifier la démarche.

Les moteurs asynchrones

L’application reine de la machine asynchrone est le « moteur ».  En effet, ce sont des machines simples, peu couteuses et robustes.

La notion de « glissement » est très importante pour les moteurs asynchrones. En effet, le glissement étant la différence de vitesse du champ tournant du stator par rapport à la vitesse du rotor, il est nécessaire au maintien d’une variation de flux électromagnétique au niveau des conducteurs du rotor. Sans cette variation de flux ΔΦ/Δt, selon les lois de l’induction (loi de Lenz en particulier), aucun couple n’est généré au niveau du rotor.  Le glissement, en mode moteur, est de l’ordre de quelques %. Par exemple, pour un champ tournant à une vitesse de 3 000 tr/min, le rotor,  à vide, tournera à 2 995 tr/min ; ce qui engendrera un glissement de (3 000 – 2 995) / 3 000 = 1.6 %.

Auparavant, le seul inconvénient de ce type de moteur était sa pointe importante de courant au démarrage et le fait qu’il était difficile de faire varier la vitesse de rotation du moteur. À l’heure actuelle, avec l’avènement de l’électronique de puissance, les onduleurs ont permis de faire varier la vitesse de rotation dans une large plage.

Les alternateurs asynchrones

Principe de fonctionnement

Contrairement à l’alternateur synchrone, l’alternateur asynchrone ne possède pas de circuit d’excitation au niveau du rotor, raison pour laquelle il est plus simple de raisonner d’abord sur le fonctionnement du moteur asynchrone pour ensuite détailler celui de l’alternateur.

Pour faire fonctionner un moteur asynchrone en alternateur, « il suffit » qu’il tourne légèrement plus vite que le champ tournant du stator et ce au moyen d’un moteur à combustion interne comme le cogénérateur par exemple. Autrement dit, le glissement, dans ce cas, devient négatif. On parle aussi de machine « hyper-synchrone ».

Le champ tournant du rotor d’un alternateur asynchrone est produit par le … stator connecté au réseau. L’induction d’un champ tournant dans le rotor par le stator se traduit par la génération d’une composante réactive du courant dans les enroulements du stator (courant de magnétisation du rotor) et emprunté au réseau. C’est la raison pour laquelle les alternateurs asynchrones ont un mauvais cos φ qu’il faut souvent compenser par le placement de capacités.

Cependant, pour que l’alternateur débite de l’énergie sur un réseau, il est impératif que l’induction du champ tournant au stator soit synchrone avec le celui du réseau. L’électronique est donc la bienvenue !

Démarrage

Dans la plupart des cas, le démarrage est assuré par le moteur d’entrainement. Dans certains cas particuliers, l’alternateur démarre en moteur asynchrone à vide. Un artifice de démarrage (résistances électriques en série avec les enroulements inducteurs) est nécessaire.

Régulation

Lorsque l’alternateur est couplé à un réseau, le seul paramètre de régulation est la vitesse du moteur d’entrainement qui agit sur le niveau de puissance injecté sur le réseau. Pratiquement, on considère qu’une variation de 10 % du glissement de 0 à 10 % augmente la puissance électrique de 0 à 100 %.

Couplage de l’alternateur sur un réseau

Afin de pouvoir coupler un alternateur sur le réseau, il est impératif de respecter des conditions de couplage sans quoi la destruction de l’alternateur est presque inéluctable.
Les conditions sont :

  • la concordance des fréquences;
  • la concordance des tensions;
  • la concordance des phases.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Réglementation pour les productions décentralisées

Réglementation pour les productions décentralisées


Préalable

En mettant en œuvre une installation productrice d’électricité, l’auteur de projet devient auto-producteur ou fournisseur d’électricité. À ce titre il se doit de respecter les normes et réglementations associées à ce métier particulier.

RGIE

Conformément à l’arrêté royal du 10 mars 1981, toute installation électrique est tenue de respecter les prescriptions de sécurité reprises dans le règlement général sur les Installations électriques (RGIE).

Synergrid

Synergrid est la fédération des gestionnaires de réseaux d’électricité et de gaz en Belgique.

À ce titre, elle édite les prescriptions à respecter par les fournisseurs en vue d’assurer la sécurité du réseau. La prescription C10/11 relative aux « Prescriptions techniques pour les installations de production décentralisées fonctionnant en parallèle sur le réseau de distribution » du 04 juin 2012 s’applique donc à tous les auteurs de projet mettant en œuvre une cogénération en parallèle du réseau basse ou moyenne tension.

Les prescriptions ont pour objectif de garantir le bon fonctionnement du réseau de distribution ainsi que de promouvoir la sécurité du personnel appelé à travailler sur le réseau. Il est donc essentiel de respecter ces prescrits lors de la mise en œuvre d’une installation.

 http://www.synergrid.be/

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Mécanisme des certificats verts

Mécanisme des certificats verts


Préalable

Le mécanisme des certificats verts est régi par l’Arrêté du Gouvernement Wallon du 3 avril 2014 relatif à la promotion de l’électricité produite au moyen de sources d’énergie renouvelable ou de cogénération.

Il convient de toujours se référer au site de la CWaPE, et/ou le Portail de l’énergie de la Région pour s’assurer de la dernière version de la procédure applicable.
Le principe du marché des certificats verts est résumé dans la figure suivante :


Présentation synthétique du mécanisme

Le mécanisme des certificats verts est un mécanisme de soutien aux énergies renouvelables développé afin d’atteindre les objectifs fixés par l’Europe et la Wallonie. Ce mécanisme se traduit par l’octroi de certificats verts au prorata de l’énergie « verte » produite, et ce selon les différentes filières.

Le mécanisme a été modifié depuis le 01/07/2014 et a mis en place trois nouvelles dispositions :

  • Le porteur de projet doit réserver ses certificats verts avant la réalisation du projet au sein d’enveloppes fermées par filière préalablement déterminée par le Gouvernement Wallon, le volume de CV restant par enveloppe par filière est mis à jour par la Région et est accessible sur le portail énergie de la Région Wallonne.
  • Le calcul du nombre de CV a été adapté. Le nombre de CV octroyé est fonction du caractère économique du projet (kéco) et des économies en CO2 générées par le projet. L’évaluation de cette estimation ainsi que les obligations du porteur de projet sont réglementées.
  • La garantie de rachat des certificats verts auprès du gestionnaire de réseau Elia est automatique.

Les infos utiles

La CWaPE : https://www.cwape.be

  • Mise en place une plateforme spécifique pour faciliter la gestion des certificats vert.
  • Édition chaque année d’un rapport sur l’évolution du marché des certificats verts.
  • Mise à disposition d’un outil Excel pour le calcul des certificats verts.

Le Portail de la RW : http://energie.wallonie.be

  • Les certificats verts.
  • La réservation.
  • Les procédure et formulaires.
  • L’état de l’enveloppe.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Permis d’environnement (anciennement permis d’exploitation)

Permis d’environnement (anciennement permis d’exploitation)


Préalable

En Wallonie, afin d’être exploités, tous les « établissements » nécessitent au préalable l’obtention d’un permis d’environnement. La notion d' »établissement » couvre principalement les activités et les installations de production, de service, de fabrication, de recherche & développement, de transport et de divertissement.

En outre si le projet nécessite des travaux de construction, ou modification d’un bâtiment, l’exploitant devra introduire un permis unique, reprenant le permis d’urbanisme, le permis d’environnement et d’exploitation.

Remarque importante : l’obtention  d’un permis d’environnement est actuellement un préalable à la réservation des certificats verts.

Foire aux bonnes adresses :


Le permis d’environnement (PE)

Selon le niveau du caractère polluant, les activités sont réparties en trois classes :

  • classe 1 pour les activités ayant le plus d’impact sur la santé et l’environnement;
  • classe 2 pour les activités intermédiaires;
  • classe 3 pour les activités les moins polluantes.

Pour chaque classe des dispositions particulières sont applicables :

Impact environnemental

Classe de PE

Durée de Validité MAX Type de PE

Peu d’impact

3

10 ans Déclaration

Intermédiaire

2 20 ans Permis d’environnement
Fort impact 1 20 ans Permis d’environnement

Les demandes de permis (PE ou PU) sont déposées auprès des autorités communales sur le territoire de la commune de l’unité d’exploitation.

Le permis est valables jusqu’à son terme, en cas de cession d’activités, le permis est cédé au repreneur.

La classe de PE, pour une activité donnée, est régie par un arrêté du gouvernement wallon :

http://environnement.wallonie.be/legis/pe/pe006bisannexe1.htm

Extrait relatif aux catégories applicables à la cogénération :

  • 40.10.01.01.01 égale ou supérieure à 100 kVA et inférieure à 1 500 kVA
  • 40.10.01.01.02 égale ou supérieure à 1 500 kVA
  • 40.40.10.01. lorsque la capacité de traitement est inférieure ou égale à 15 tonnes par jour
  • 40.40.10.03. lorsque la capacité de traitement est supérieure à 500 tonnes par jour
Numéro — Installation ou activité Classe EIE Organismes à consulter
40 PRODUCTION ET DISTRIBUTION D’ÉLECTRICITÉ, DE GAZ, DE VAPEUR ET D’EAU CHAUDE
40.10.01.01 Transformateur statique relié à une installation électrique d’une puissance nominale :
40.10.01.01.01 égale ou supérieure à 100 kVA et inférieure à 1 500 kVA 3
40.10.01.01.01 égale ou supérieure à 100 kVA et inférieure à 1 500 kVA 2

 

40.10.01.02 Batterie stationnaire dont le produit de la capacité exprimée en Ah par la tension en V est supérieure à 10 000 3
40.10.01.03 Centrale thermique et autres installations de combustion pour la production d’électricité dont la puissance installée est : DEBD*
40.10.01.03.01 égale ou supérieure à 0,1 MW thermique et inférieure à 200 MW thermiques 2
40.10.01.03.02 égale ou supérieure à 200 MW thermiques 1 X AWAC, DEBD*
40.30.02 Installation de production de froid ou de chaleur mettant en œuvre un cycle frigorifique (à compression de vapeur, à absorption ou à adsorption) ou par tout procédé résultant d’une évolution de la technique en la matière :
Puissance frigorifique nominale utile (en KW) : la puissance frigorifique maximale fixée et garantie par le constructeur comme pouvant être fournie en marche continue tout en respectant les rendements utiles annoncés par le constructeur.
40.30.02.01 dont la puissance frigorifique nominale utile est supérieure ou égale à 12 kW et inférieure à 300 kW ou contenant plus de 3 kg d’agent réfrigérant fluoré 3
40.30.02.02 dont la puissance frigorifique nominale utile est supérieure ou égale à 300 kW 2 DEBD
40.30.03 Installation de production de vapeur sous pression :
40.30.03.01 dont la puissance installée est supérieure ou égale à 100 kW et inférieure à 1 000 kW 3  

 

 

 

40.30.03.02 dont la puissance installée est supérieure ou égale à 1 000 kW 2  DEBD
40.40.10. Installation de biométhanisation visant à produire de l’électricité, du gaz, de la vapeur et de l’eau chaude à partir de biomatières ne constituant pas un déchet

Biomatière : tout objet ou substance décomposable par voie aérobie ou anaérobie.
Biométhanisation : processus de transformation biologique anaérobie de biomatières, dans des conditions contrôlées, qui conduit à la production de biogaz et de digestat.

Installation de biométhanisation : unité technique destinée au traitement de biomatières par biométhanisation pouvant comporter notamment :
a) des aires de stationnement pour les véhicules en attente d’être dépotés ou déchargés.
b) des aires de réception des biomatières entrantes.
c) des infrastructures de stockage des biomatières entrantes.
d) l’installation destinée à la préparation du mélange de biomatières avec le cas échéant des additifs qui sera injecté dans les digesteurs.
e) des systèmes d’alimentation des digesteurs en biomatières.
f) des digesteurs.
g) des post-digesteurs.
h) des infrastructures de stockage du digestat.
i) des infrastructures de post-traitement du digestat.
j) des infrastructures de stockage de biogaz.
k) des systèmes d’épuration du biogaz pour son utilisation comme combustible au sein de l’établissement.
l) des torchères ou tout autre offrant système des garanties équivalentes quant à la destruction du biogaz.
m) des infrastructures de stockage des biomatières refusées.
n) des installations de valorisation du biogaz produit au sein de l’installation de biométhanisation ayant pour objet de satisfaire aux besoins internes de l’établissement.
Capacité de traitement : la capacité, en tonnes, de traitement de biomatières dans le ou les digesteurs de l’installation de biométhanisation.

40.40.10.01. lorsque la capacité de traitement est inférieure ou égale à 15 tonnes par jour 3
40.40.10.02. lorsque la capacité de traitement est supérieure à 15 tonnes et inférieure ou égale à 500 tonnes par jour 2 DEBD, DPD, DPS, DRIGM, AWAC*
40.40.10.03. lorsque la capacité de traitement est supérieure à 500 tonnes par jour 1 X DEBD, DPD, DPS, DRIGM, AWAC¨*
DEBD : Département Énergie et Bâtiment Durable (http://dgo4.spw.wallonie.be/dgatlp/dgatlp/Pages/Energie/Pages/Accueil/Presentation.asp)
AWAC : Agence Wallonne de l’Air et du Climat (http://www.awac.be)
DPD : Direction de la Politique des Déchets
DPS : Direction de la Protection des Sols (http://dps.environnement.wallonie.be/home.html)
DRIGM : Direction des Risques Industriels, Géologiques et Miniers (https://www.wallonie.be/fr/acteurs-et-institutions/wallonie/departement-de-lenvironnement-et-de-leau/direction-des-risques-industriels-geologiques-et-miniers)

Les obligations liées au stockage de l’énergie primaire ne sont pas reprises dans la table ci-dessus.


En savoir plus

Lien vers le site de la Région mettant à disposition les formulaires de PU/PE :
http://www.wallonie.be/fr/formulaire/detail/20520

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Rentabiliser un projet de cogénération

Rentabiliser un projet de cogénération

Le client ne s’intéresse pas nécessairement aux dessous techniques de la cogénération et du pré-dimensionnement. S’il s’y intéresse, les informations sont disponibles et peuvent lui être communiquées. Dans le cas contraire et afin de ne pas le noyer dans des notions techniques qu’il maîtrise parfois mal, il peut être commercialement utile de ne lui parler que de ce qui l’intéresse et qu’il connaît : ses consommations, ses coûts et la sécurité de son approvisionnement énergétique. C’est le rôle de l’agent commercial de déterminer la meilleure approche.

La faisabilité économique d’une installation de cogénération, se détermine par :


La situation de référence

La situation de référence donne les coûts de consommation et de maintenance avant la cogénération.
Ces coûts relatifs à la situation initiale permettent de calculer une rentabilité en les comparant aux prévisions de coûts et de gains liés à la cogénération.

La situation de référence comprend :

  • une description des installations existantes de chauffage, d’approvisionnement en combustible;
  • une description des consommateurs de chaleur et d’électricité;
  • les coûts des approvisionnements en combustible et en électricité;
  • les coûts d’exploitation en ce compris la maintenance des installations.

L’investissement

Les investissements comprennent : l’étude, l’installation et la mise en service; le cogénérateur et ses équipements annexes, les aménagements, les raccordements hydraulique, électrique et gaz si nécessaire.

Même si l’investissement et la répartition des coûts varient en fonction de la puissance nominale de la cogénération, d’une façon générale, les coûts se répartissent comme représenté dans le graphique suivant :

Répartition des coûts d’investissement.

En pratique, le prescripteur se renseignera auprès des fournisseurs pour obtenir les informations budgétaires dont il a besoin pour évaluer la rentabilité du projet.


Les gains d’exploitation

Outre l’investissement et la maintenance de celui-ci, le calcul de rentabilité d’une installation doit intégrer les postes suivants :

Coûts liés à la cogénération :

  • les revente au réseau de l’électricité non consommée;
  • la vente de certificats verts;
  • le coût de la maintenance de la nouvelle installation.

Coûts liés à l’ancienne installation :

  • l’économie en combustible par le remplacement de l’ancien système;
  • l’économie en électricité (part autoconsommée de la production électrique);
  • l’économie de la maintenance (si l’ancienne installation est retirée).

Afin d’établir cette évaluation, il est donc indispensable de connaître le tarif applicable d’électricité et de combustibles de l’installation.

Sur cette base, il est alors possible d’établir une première image de rentabilité de l’installation.

Évolution de la facture combustible

Puisque le combustible sert à produire de la chaleur et de l’électricité, sa consommation sera plus importante que pour produire uniquement la même quantité de chaleur avec une chaudière classique.

Afin d’évaluer la consommation en combustible de la nouvelle installation, il est essentiel d’en référer au rendement de production de chaleur de l’installation envisagée. Ce rendement est à considérer en fonction du taux de charge attendu de l’installation. Le dimensionnement de l’installation pour un besoin de chaleur donné reste ici essentiel. On ne peut dès lors que souligner l’importance de la bonne connaissance du besoin en chaleur de l’installation.

Le coût de la surconsommation dépend également du prix du combustible.

Évolution de la facture de maintenance

La cogénération est une installation particulière mettant en œuvre des technologies plus spécifiques qui s’écartent de la chaudière traditionnelle.

Il est important d’évaluer dès le départ les coûts associés à la maintenance du matériel et le responsable de cette maintenance.

Les fournisseurs de groupe de cogénération proposent des contrats de maintenance pour leur matériel. Ces contrats peuvent comprendre non seulement la maintenance continue, mais également le dépannage dans un temps minimum.

Le coût de l’entretien du groupe dépend de son temps de fonctionnement. Les fabricants présentent d’ailleurs le coût de leur contrat en « €/h » (ou en €/kWhé). Il faut donc être attentif à définir correctement les périodes de fonctionnement de l’unité.

Pour les petits moteurs, le coût d’entretien est proportionnellement plus élevé que pour les grosses installations (les prestations sont à peu près semblables quelle que soit la puissance), ce qui les pénalise. Il est cependant possible de diminuer ces coûts en proposant de prendre en charge certaines prestations courantes en interne.

Ces prestations, réalisables en interne moyennant une formation adéquate, consistent en :

  • un contrôle, vidange de l’huile;
  • un remplacement des filtres;
  • une inspection du circuit de refroidissement;
  • une inspection des batteries;
  • un remplacement des bougies (moteurs gaz);
  • un contrôle du système d’allumage et du système de carburation;
  • une lubrification de l’alternateur;
  • un contrôle des sécurités.

Le fournisseur ne prend plus en charge que les dépannages et la révision complète du système (moteur et alternateur). Il est important de définir par contrat les modalités de prise en charge interne d’une part de la maintenance, notamment en ce qui concerne les conditions de garantie du cogénérateur.


Le temps de retour sur investissement

Les données définies jusqu’à présent permettent de calculer un temps de retour sur l’investissement, qui est un critère important dans la décision de réalisation ou non du projet.
Le temps de retour sur l’investissement se définit comme le rapport de l’investissement sur le gain d’exploitation annuel.  Pour rappel, il s’agit de la durée nécessaire pour rentabiliser l’investissement. Au-delà de cette période, tout le bénéfice généré par l’installation profite directement à l’investisseur.

La valeur actualisée nette VAN

La valeur actualisée nette des gains engendrés lors de l’exploitation de l’unité de cogénération est la différence entre les flux financiers positifs ou gains (c’est-à-dire gains sur la facture d’électricité, vente des certificats verts, …) et les flux financiers négatifs ou dépenses (c’est-à-dire investissement net, frais de combustible, entretiens, …).

Par ailleurs, ces flux financiers « futurs » sont actualisés en euros « actuel ». En effet, il est important de pouvoir comparer des gains « futurs » avec un investissement à réaliser « aujourd’hui ». Il s’agit de l’actualisation.

Par exemple, la valeur actuelle d’un gain de 10 000 € disponible dans 5 ans avec un taux d’actualisation de 4 % est de 8 219 €. Autrement dit, pour obtenir 10 000 € dans 5 ans, il suffit de placer 8 219 € en banque avec un taux d’intérêt de 4 %.

En outre, la valeur actualisée nette tient compte de l’évolution des prix des composants intervenant dans les flux financiers, c’est-à-dire l’inflation sur le prix des entretiens ou l’augmentation du prix des énergies.

La formule donnant la valeur actualisée nette est la suivante :

VAN = – INV + ∑ VA (gains) – ∑ VA (dépenses)

avec VA (gain) = ∑t = 1 à n (gain x (1 + j)t / (1  + i)t

Où :

  • VAN = Valeur Actualisée Nette
  • INV = Investissement initial net
  • VA = Valeur Actuelle d’une variable (gain ou dépense)
  • t = année
  • n = durée de vie économique de l’investissement
  • i = taux d’actualisation
  • j = taux d’évolution du prix d’une variable (gain ou dépense)
  • ∑ = sigle de sommation

Le taux de rentabilité interne

Le taux de rentabilité interne (TRI) est le taux d’intérêt fictif pour lequel la valeur actuelle nette serait nulle sur la durée de vie économique (souvent 10-15 ans dans le cas d’une cogénération). Plus le TRI est élevé (par rapport au taux d’intérêt d’un placement bancaire par exemple), plus le projet est rentable.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Optimaliser l’étude de faisabilité [cogen]

Lors du dimensionnement final, le bureau d’étude va évaluer les puissances thermique et électrique les mieux adaptées à chaque projet.

C’est ce dimensionnement des puissances thermique et électrique, qui permettra d’échafauder un plan financier et d’évaluer la rentabilité financière du projet.

Voici décrit une méthodologie de dimensionnement qui se base sur les besoins en chaleur et en électricité et sur leur simultanéité pour définir la cogénération adaptée à chaque cas spécifique. Elle décrit pas à pas les étapes que le prescripteur peut suivre pour le dimensionnement complet de la puissance de la cogénération.


L’importance du dimensionnement

Soulignons d’emblée l’importance du dimensionnement. Une mauvaise évaluation à ce stade aura des répercussions économiques d’autant plus grandes que les investissements et les durées de vie des équipements sont relativement importantes et que chaleur et électricité sont simultanément concernées.

Si un sous-dimensionnement n’est préjudiciable « que » dans la mesure où le client ne bénéficiera pas de toutes les économies potentiellement réalisables, un sur-dimensionnement peut s’avérer beaucoup plus pénalisant sur le plan économique : le fonctionnement en charge réduite est un fonctionnement proportionnellement plus coûteux qu’à pleine charge. Par ailleurs, cela augmente le nombre de démarrages-arrêts, préjudiciable pour la durée de vie du moteur.

Notons encore qu’avant d’entamer le calcul de dimensionnement, il importe de rationaliser toute consommation de chaleur et d’électricité par des mesures adéquates : isolation, période d’utilisation… Si cette rationalisation devait intervenir après le projet de cogénération, les consommations de chaleur et d’électricité s’en trouveraient modifiées et par là le dimensionnement de l’installation deviendrait inadéquat.

Dans le même ordre d’idée, les besoins énergétiques évoluent et il s’agit pour le prescripteur d’anticiper ces modifications et d’en tenir compte lors de son évaluation.

Dimensionner revient à calculer la puissance du cogénérateur et ses heures de fonctionnement, pour coller au mieux aux deux contraintes essentielles :

  • La production de chaleur doit égaler le besoin de chaleur (sauf si l’excédent peut être stocké dans un ballon de chaleur) ;
  • La production d’électricité doit être valorisable au maximum par le site.

Le dimensionnement optimum cherche à définir les puissances thermique et électrique les mieux adaptées aux caractéristiques du projet. L’optimisation consiste à simuler le fonctionnement « en temps réel » de plusieurs tailles d’unités de cogénération et d’en évaluer la rentabilité. Ensuite, sur base d’une série de critères définis par le décideur, l’expert propose la solution la plus intéressante au cas étudié. En cas de résultats similaires, mieux vaut opter pour la cogénération la plus petite.

Optimisation de la rentabilité de plusieurs unités de cogénération.

Dans le cas de cette maison de repos, la puissance optimale de 150 kW est celle qui maximalise la Valeur Actualisée Nette des gains et qui minimise le temps de retour simple de l’investissement.

Une rapide analyse de la sensibilité de cette rentabilité peut être utile. Les paramètres sont généralement les prix des énergies, le montant d’investissement, les performances de l’équipement et ses rendements.

Un impact important sur la manière de dimensionner une unité de cogénération est la mise sur place du mécanisme de certificats verts. Les modifications de la méthodologie de dimensionnement se situent à trois niveaux :

  • Valoriser toute la chaleur produite, afin de prétendre au titre de cogénération de qualité. Il est donc indispensable de piloter la cogénération sur base des besoins en chaleur et non plus pour faire de l’effacement de la pointe électrique. L’octroi des certificats verts est en effet proportionnel à la quantité de chaleur effectivement valorisée.
  • Fonctionner le plus longtemps possible. Alors qu’auparavant les unités de cogénération ne fonctionnaient principalement que durant les heures pleines, période où l’électricité est la plus chère, l’apport financier des certificats verts permet de fonctionner également durant les heures creuses voire de revendre le surplus sur le réseau.
  • Installer un ballon de stockage permet bien souvent d’accroître la rentabilité suite à la souplesse de fonctionnement qu’il apporte. La cogénération peut fonctionner à pleine puissance (rendements maximums) durant une plus grande partie de l’année. Ce qui permet de recevoir davantage de certificats verts.

Vous l’avez compris, le dimensionnement est le travail de spécialistes. Si l’étude de pertinence s’avère positive, vous pouvez donc faire appel à un bureau d’étude compétent pour cette étude de faisabilité. Pour vous aider à bien formuler votre demande, vous pouvez vous inspirer du document suivant :

Évaluer

Réaliser une étude de faisabilité d’une cogénération dans les règles de l’art (PDF)

L’étude des besoins énergétiques

Pour effectuer une simulation « en temps réel », et donc avec précisions, il est indispensable de connaître les besoins électriques, mais aussi thermiques durant une année entière (base de calcul pour le dimensionnement de la cogénération). Cependant, ce type d’information est rarement disponible. L’idéal serait donc de mesurer ces besoins sur une année entière, à la précision du quart d’heure (base de la facturation électrique). Une telle campagne de mesures aurait un coût prohibitif. Et allongerait considérablement le temps pour effectuer une telle étude de faisabilité.

C’est pourquoi une méthodologie simple a été mise gracieusement à disposition des bureaux d’études, experts et consultants en matière de cogénération. Il s’agit, à partir d’une courte période de mesures (typiquement deux semaines), d’obtenir un profil thermique et électrique extrapolée sur une année entière. Cette méthodologie est rassemblée dans l’outil de calcul : COGENextrapolation.xls

Les paramètres qui permettent cette extrapolation sont les données de factures mensuelles ainsi que, pour la partie thermique, les degrés-jour de la station météo la plus proche du site.

Étape 1 : les besoins en électricité

Le besoin en électricité, où la consommation électrique est relativement simple à étudier.

Un enregistrement des impulsions provenant du compteur électrique sur une période de deux semaines permet de définir précisément le profil de consommation électrique, quart d’heure par quart d’heure (précision de la facturation électrique). Choisir une période de deux semaines est un bon compromis entre la connaissance de la variation d’une semaine à l’autre des besoins électriques et la durée (et donc le coût) de la campagne de mesure.

Néanmoins, si lors de discussions avec les utilisateurs il s’avère que les consommations varient très fortement d’une semaine ou d’une saison à l’autre, les profils devront alors être mesurés pour les différents cas de figure.

Profil de consommation électrique mesuré sur une journée.

Note : la fréquence de prise de mesure pour définir le profil de consommation est le quart d’heure. Cette fréquence correspond à la fréquence utilisée actuellement par les fournisseurs d’électricité pour établir les factures.

Une autre possibilité est de demander au gestionnaire du réseau si ces données sont disponibles. C’est souvent le cas si les consommations électriques sont télé-relevées. Dans ce cas, vous pouvez obtenir les puissances quart d’heure par quart d’heure sur toute une année, ce qui est naturellement idéal.

Le profil de consommation électrique est étroitement lié à la facture électrique. Celle-ci découle effectivement directement du profil de consommation électrique. La facture étant directement accessible, sa lecture donne plusieurs paramètres clés particulièrement utiles du profil de consommation électrique pour générer l’extrapolation : la puissance maximum appelée, et surtout les consommations en heures pleines et en heures creuses. Les aspects économiques de la facture interviendront quant à eux lors du calcul de rentabilité de l’installation.

Une extrapolation sur toute une année devra être effectuée, par exemple, à l’aide de l’outil COGENextrapolation.xls

Étape 2 : les besoins en chaleur

La première étape est l’identification du type de chaleur et de tous les postes concernés par cette chaleur, que ces postes fassent partie d’un processus industriel ou non. Ensuite, mesurer la consommation de chaleur sur une période de deux semaines, quart d’heure par quart d’heure, est indispensable.

Le placement d’un compteur de chaleur à ultrasons sur le collecteur principal est une possibilité (mesure du débit et du delta T°). Une autre possibilité est l’enregistrement des impulsions des brûleurs en tenant compte de leur puissance et de la consommation totale pendant la période. Ces informations permettront de définir les puissances quart d’heure par quart d’heure, et ainsi définir le profil de consommation de chaleur.

Une extrapolation sur toute une année devra être effectuée, par exemple, à l’aide de l’outil COGENextrapolation.xls

Citons de façon non exhaustive les autres méthodes les plus utilisées pour définir les profils de consommation quotidiens, hebdomadaires et annuels :

  • la consommation annuelle de combustible de la chaudière combinée aux profils types de consommation pour le consommateur concerné;
  • des discussions avec l’utilisateur sur ses consommations de chaleur sous forme d’eau chaude;
  • une mesure :
    • des impulsions sur le compteur gaz,
    • du débit de mazout,
    • des heures de fonctionnement de la chaudière,
    • du débit d’eau chaude,
  • d’expérience acquise par le bureau d’étude et de calculs de comparaison.

Exemple de profil de consommation type
Profil D : Activité continue 7 jours sur 7 (hôpitaux, horeca…)

Profil du besoin net en chaleur d’une année type,
Besoin exprimé mois par mois, en % du besoin annuel.

Dans la majorité des cas, le besoin annuel en chaleur correspond à la consommation annuelle de combustible multipliée par le rendement de production.

Profil du besoin net en chaleur d’une semaine type,
Besoin exprimé jour par jour, en % du besoin hebdomadaire.

Profil du besoin net en chaleur d’une journée type,
Besoin exprimé heure par heure, en % du besoin quotidien.

Au niveau thermique, surtout si un ballon de stockage de chaleur est envisagé, il est possible d’utiliser des profils thermiques types plutôt que de mesurer ce profil. C’est d’autant plus vrai que les besoins thermiques sont de type climatique (production d’eau chaude pour le chauffage), dans le secteur tertiaire.

À l’opposé, dans l’industrie, les consommations estivales peuvent être semblables aux consommations hivernales, selon le type de procédé. Ce point est à analyser par le bureau d’étude. D’autre part, dans l’industrie, les responsables techniques connaissent mieux leurs procédés et leurs profils de consommation, parfois des mesures existent même.

Les chiffres de consommation sont essentiels, car ils servent de base à toute l’évaluation de la rentabilité du projet. L’accord entre le concepteur et le client sur ces résultats doit être très clair !

Calculs

Pour lancer le programme COGENextrapolation.xls

Dimensionnement optimum avec COGENsim 3.12

Les profils thermiques et électriques quart horaire sur une année entière étant déterminé, nous pouvons passer à l’étape suivante : la simulation en temps réel de l’unité de cogénération.

Cette simulation permet de connaître, à tout moment, quelle sera la production thermique et électrique de la cogénération en fonction des besoins et des règles de fonctionnement. En faisant le bilan annuel, il devient facile de calculer avec précisions le bilan énergétique et partant le bilan économique et environnemental.

La puissance de calcul des ordinateurs actuels permet même de lancer des simulations pour plusieurs tailles de cogénération. Et d’être ainsi libre de choisir celle qui convient le mieux au site étudié.

À nouveau, pour « faciliter » le travail des bureaux d’études, experts et consultants en cogénération, la Région de Bruxelles-Capitale à mis à jour le logiciel COGENsim, initialement développé par la Région wallonne. Des ajouts ont par ailleurs été faits, comme la possibilité de simuler le fonctionnement d’une cogénération avec (ou sans) ballon de stockage de chaleur.

Logiciel de simulation COGENsim 2.06.xls.

Cependant, avant d’utiliser ce puissant outil de simulation, il est conseillé de lire attentivement son mode d’emploi.

Calculs

Utiliser le logiciel de simulation COGENsim 3.12

Calculs

Mode d’emploi du logiciel COGENsim 3.12.

Le calcul de la rentabilité

La méthode de dimensionnement intègre déjà un calcul de rentabilité : le logiciel COGENsim 3.12.xls simule plusieurs unités de cogénération et propose celle qui est la plus rentable.

Le calcul de rentabilité implique une estimation fine du gain annuel net, du montant de l’investissement et des paramètres de rentabilité comme le Temps de Retour Simple (TRS), la Valeur Actualisée Nette (VAN) des gains engendrés sur la durée de vie de l’équipement et le Taux de Rentabilité Interne (TRI) du projet.

Calculer le gain annuel net

Le gain annuel net est la différence entre la somme des gains apportés par la cogénération (électricité, chaleur et certificats verts) et des dépenses associées (combustible et entretien).

Gain sur la facture électrique

Le gain sur la facture d’électricité sera égal à la différence entre la facture sans cogénération et la facture qui serait payée pour la consommation électrique résiduelle suite à la production locale d’électricité par cogénération. Par ailleurs, la cogénération optimale produira de temps en temps trop d’électricité par rapport aux besoins. Ce surplus d’électricité sera revendu au réseau, au fournisseur le plus offrant voire au GRD. Généralement, le prix oscille entre 20 à 50 €/MWh pour une cogénération. L’ensemble des deux vous donnera le gain sur la facture électrique.

Il est fort probable que le prix unitaire de l’électricité résiduelle qui restera à acheter à un fournisseur après installation d’une cogénération soit supérieur au prix unitaire actuel. La raison est que les termes fixes de la facturation sont répartis sur une consommation plus faible. Parfois, il sera peut-être nécessaire de renégocier votre contrat de fourniture avec votre (ou d’autres) fournisseur.

Gain sur la chaleur

Toute la chaleur produite par la cogénération, si elle est correctement valorisée, ne devra plus être fournie par la chaufferie existante (ou à construire). Ce qui constitue un gain non négligeable sur facture d’achat en combustible.

Gain sur la vente des certificats verts

Si votre cogénération est de qualité, alors vous recevrez des certificats verts.

Vu la volatilité de la valeur d’un certificat vert et de la méthode de calcul, vous comprendrez aisément qu’une visite sur le site de la CWaPE s’impose.

Le gain apporté par les certificats verts pour les technologies renouvelables, nettement plus important que pour les technologies classiques, est bien nécessaire pour compenser le surcoût à l’investissement voire à l’achat du combustible.

Précisons que ce gain en certificats verts vient s’ajouter au prix de votre électricité (auto-consommée ou revendue).

Dépense pour l’achat de combustible pour la cogénération

Il faudra bien entendu acheter du combustible pour faire tourner la cogénération. Cette dépense, non négligeable, doit intervenir dans le calcul de la rentabilité.

Comme au total vous allez consommer plus de combustible qu’avant (cogénération + complément chaudière), vous pourriez éventuellement négocier un meilleur prix unitaire.

Dépense en entretien de la cogénération

Également, les frais d’entretien doivent être considérés dans les calculs. Ces frais dépendent de la formule choisie et des garanties de performances proposées. Également de quelle est la répartition du travail entre vous et la société de maintenance.

Ces prestations réalisables en interne moyennant une formation adéquate consistent en :

  • un contrôle du niveau d’huile et la vidange de l’huile;
  • un remplacement des filtres;
  • une inspection du circuit de refroidissement;
  • une inspection des batteries;
  • un remplacement des bougies (moteurs gaz);
  • un contrôle du système d’allumage et du système de carburation;
  • une lubrification de l’alternateur;
  • un contrôle de sécurité.

Le montant d’investissement

Le montant de l’investissement est toujours déterminant dans le calcul de rentabilité. Il faudra, à ce stade de l’étude,  objectiver les coûts :

  • Du cogénérateur proprement dit;
  • De génie civil, de raccordement, …

Il sera aussi intéressant de vérifier si vous avez droit à des subsides. Pour plus d’informations sur les primes et subsides, voir le portail de la Région wallonne.

Calculer les paramètres de rentabilité (TRS, VAN et TRI)

Les indicateurs de rentabilité sont très importants pour l’étude de faisabilité. En effet, lorsque ces indicateurs  « virent au vert » selon les critères de rentabilité du porteur de projet, l’étude de faisabilité confirme l’intérêt de passer à l’étape suivante : réaliser le projet !

Évaluer

Réaliser une étude de faisabilité d’une cogénération dans les règles de l’art ( PDF).

Le tunning de votre moteur de cogénération

Que ce soit au moment de la conception du projet, mais aussi pour une installation existante, il est possible de « tunner » le fonctionnement de l’unité de cogénération afin d’en retirer le maximum.

Un logiciel comme COGENsim 3.12.xls permet d’affiner le paramétrage de son fonctionnement :

  • le taux de la charge partielle minimale pour le fonctionnement de la cogénération;
  • les besoins thermiques en dessous desquels il ne vaut pas la peine de redémarrer la cogénération;
  • les taux de charge minimum et maximum du ballon de stockage de la chaleur;
  • la part de la consommation électrique consommée par les auxiliaires;
  • la plage de fonctionnement (heures, jours, mois);
  • la possibilité de réinjecter ou non l’électricité excédentaire sur le réseau;

D’autres actions sont possibles pour davantage affiner le projet de cogénération, mais cependant non réalisables avec COGENsim 3.12.xls.

  • le fractionnement de la puissance totale en plusieurs unités de tailles identiques, voire différentes;
  • l’adaptation de la régulation de la chaufferie (anticipation, …) pour lisser le profil thermique;
  • l’utilisation d’un groupe de secours pour écrêter le profil électrique résiduel après cogénération;
  • la gestion du stockage de chaleur pour produire le maximum d’électricité durant les heures pleines;

Précisons que ce « tunning » est parfois proposé par les fournisseurs de cogénération voire les fabricants qui connaissent bien leurs équipements et surtout comment en obtenir le meilleur.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Étudier la pertinence d’un nouveau projet de cogénération

Étudier la pertinence d'un nouveau projet de cogénération


L’étude de pertinence d’une cogénération

En matière de cogénération, il n’existe pas de règle rapide, univoque et universelle pour son dimensionnement : « inconvénient ou opportunité ? »

Il faut veiller à ce que la cogénération assure la « base » des besoins thermiques d’un bâtiment ou d’une entreprise pour pouvoir la faire fonctionner suffisamment longtemps à pleine puissance. Les « pointes » seront donc assurées par la chaufferie existante (ou à installer) qui ne pourra, que très rarement, être totalement remplacée par la cogénération.

Cet inconvénient se transforme en opportunité dans la mesure où le bureau d’études ou le consultant doit rechercher le dimensionnement « optimum », c’est-à-dire qui procure le maximum de bénéfices (économique, énergétique et environnementaux).

Monotone de chaleur.

Une autre manière d’exprimer le bénéfice énergétique est, de déterminer quel est l’optimum de puissance du cogénérateur qui couvre la surface maximale sous la monotone de chaleur.

Ne soyez donc pas surpris si l’on vous propose plusieurs tailles différentes : à vous de choisir celle qui vous convient le mieux.

Cette étude d’optimisation, encore appelée « étude de faisabilité », réalisée par un expert compétent, est payante et nécessite un peu de patience pour obtenir les résultats, surtout si une campagne de mesures des besoins énergétiques (électricité et chaleur) doit être envisagée. Et il est probable qu’il n’y ait pas de solution « cogénération » suffisamment attrayante dans votre cas.

Une première étude de faisabilité d’un projet peut être directement menée par le demandeur au moyen d’un outil simplifié – l’outil de calcul COGENcalc.xls.

Ce n’est qu’au terme de cette étude de pertinence à réaliser par soi-même, avec l’éventuel concours du Facilitateur en Cogénération, que vous pouvez décider de commander une étude de faisabilité.

Les éventuelles subventions mises à disposition de la Région sont disponibles sur le site de la Région : energie.wallonie.be.

>> Installer une cogénération dans votre établissement (PDF)


Les données nécessaires à une première évaluation avec COGENcalc.xls

Les données nécessaires à une première évaluation de rentabilité d’une installation de cogénération sont essentiellement les données relatives à vos consommations d’électricité et de chaleur :

  • Pour l’électricité, il vous faudra encoder les données relatives aux factures d’une année complète, soit douze factures.
  • Pour la chaleur, vous devrez fournir des informations d’une part sur la quantité de combustible que vous consommez sur une année et d’autre part sur l’utilisation faite de cette chaleur.
    • Si vous consommez actuellement du gaz, ce sont les douze factures relatives à la même période que les factures électriques que vous aurez à encoder.
    • Si vous consommez du mazout, soit vous encodez la quantité totale de mazout consommée sur une année et le montant auquel cela correspond, soit vous introduisez les livraisons de mazout réalisées pendant la même période.

Des informations de base vous seront également demandées par choix multiples sur le type de chaudière dont vous disposez et sur votre cuisine si elle est alimentée au gaz.

Finalement, vous indiquerez par un choix multiple le type d’institution pour lequel vous envisagez une cogénération avec son horaire de fonctionnement, par exemple « établissement de soin, consommation continue de chaleur, 7 jours sur 7 » et le type de moteur choisi, gaz s’il est disponible, mazout dans le cas contraire. Chacun des choix sur le type d’institution avec son horaire de fonctionnement correspond à un profil de consommation de chaleur type.

Les certificats verts sont intégrés dans le logiciel.

Il se peut que les valeurs de référence se modifient : coefficient d’émissions en CO2 et/ou rendements de l’installation de référence. Vous devrez vérifier auprès de la CWaPE ou vous tenir informé via le site portail énergie de la Région wallonne.


Mode d’emploi de l’outil COGENcalc.xls

Calculs

Pour lancer le programme de calcul COGENcalc.xls

Introduction

Le programme vous permet d’établir rapidement un premier dimensionnement d’une éventuelle cogénération adaptée à vos besoins électriques et thermiques. Il calcule aussi la rentabilité que vous pourrez attendre de cet investissement.

Lors de l’ouverture du fichier, Excel vous demandera si vous souhaitez activer les macros. Vous devez les activer.

De manière générale, les cellules sur fond bleu ou brun (caractères bleus) sont des valeurs à introduire, les cellules sur fond jaune (caractères rouges) sont des valeurs calculées.

Première partie : »Premier dimensionnement de l’unité de cogénération »

Étape 1.1 : Déterminer votre BNeC

Il s’agit de déterminer les besoins nets de chaleur de votre établissement.

Pour cela, il est nécessaire de compléter certaines informations relatives à votre bâtiment et son usage, dans l’ordre de la feuille :

  • Le type de bâtiment concerné (type d’établissement et taille de l’établissement).
  • Q : la consommation annuelle en combustible (gaz ou mazout) en kWh PCI.
  • Qnon cogen : la part de combustible qui ne pourrait pas être assurée par la cogénération, c’est-à-dire, la part de combustible, si elle existe, qui n’est pas utilisé pour la production d’eau chaude (chauffage et ECS). Ce sera la part qui ne pourra pas être assurée par la cogénération : Qnon cogen.
  • URE : la réduction de consommation qui pourrait être envisagée par la mise en place d’éventuelles mesures URE.  Une économie de 10 % est proposée par défaut dans le cadre de la réalisation d’un audit énergétique.
  • ΔQ : l’évolution de la consommation dans le futur, réduction ou augmentation (par exemple pour une extension) de la consommation initiale mentionnée.
  • ηchaufferie : le rendement thermique de l’installation de votre installation de chauffage actuelle, idéalement un rendement mesuré sur une assez longue période, sinon votre meilleure estimation. Attention, le rendement en question n’est pas le rendement ponctuel de la chaudière, mais le rendement global de l’installation sur une période de plusieurs mois.
  • La cellule jaune vous donne finalement le Besoin Net de Chaleur (BNeC), base du dimensionnement de l’unité de cogénération.

Étape 1.2 : Sélectionner un « profil type » de consommation de chaleur.

Vous indiquerez par un choix multiple le type d’institution pour lequel vous envisagez une cogénération avec son horaire de fonctionnement, par exemple « établissement de soin, consommation continue de chaleur, 7 jours sur 7 ». Chacun des choix sur le type d’institution avec son horaire de fonctionnement correspond à un profil de consommation de chaleur type.

À partir des profils thermiques types de besoins de chaleur, propres à votre établissement, le logiciel calcule directement 3 paramètres utiles pour le dimensionnement :

  • UQ : la durée de fonctionnement d’une chaudière bien dimensionnée pour assurer la satisfaction des BNeC.
  • Ucogen : la durée de fonctionnement de la cogénération pour assurer la satisfaction d’une partie des BNeC.
  • Partcogen : qui représente la puissance thermique de la cogénération par rapport à la puissance thermique maximale (de la chaudière bien dimensionnée).

Dans cette étape, il sera également possible de sélectionner la présence d’un ballon de stockage.

Étape 1.3 : Déterminer la puissance thermique de l’unité de cogénération

Sur base de ces 3 paramètres, on obtient directement :

  • PQcogen : la puissance thermique de l’unité de cogénération. Si la puissance thermique calculée est trop faible (< 10 kW) le logiciel mentionnera directement 0.
  • Qcogen : la production de chaleur.

Éventuellement, vous pouvez réduire cette puissance d’un certain pourcentage si vous estimez que l’unité est trop grande. Par exemple, si la production électrique est trop importante par rapport à votre consommation et que ne vous désirez ne pas vendre trop au réseau, le facteur de réduction de la puissance thermique peut s’avérer « payant ».

Étape 1.4 : Choisir une unité de cogénération

Dernière étape du dimensionnement, il s’agit de choisir la technologie. En effet, de ce choix, dépendra la puissance électrique de l’unité de cogénération, la puissance thermique étant identique. Typiquement, un moteur à l’huile végétale aura une puissance électrique supérieure à celle d’un moteur gaz. Cette différence étant due aux caractéristiques technologiques différentes entre ces moteurs.
Sur base du choix de la technique, on obtient une évaluation de :

  • PEcogen : la puissance électrique de l’unité de cogénération.
  • ηcogen : le rendement électrique de l’unité choisie.
  • Ecogen : la production électrique annuelle de l’unité choisie dans la configuration étudiée.

Remarque :
À ce stade, il faut être attentif au fait que ces caractéristiques de moteur sont extrapolées sur base de moteur existant, mais que vous ne rencontrerez sans doute pas sur le marché un moteur ayant exactement ces caractéristiques. Il se pourrait par exemple que le programme vous renseigne un moteur de 67.3 kWé alors que dans la pratique, vous aurez à choisir entre un moteur de 60 ou de 80 kWé. Cette remarque vaut aussi pour les autres paramètres (rapport entre le rendement électrique et thermique de votre moteur, frais d’entretien, valeur de l’investissement).

Deuxième partie : « Rentabilité du projet de cogénération »

Cette seconde partie consiste à calculer, à la « grosse louche » la rentabilité du projet de cogénération sur base du premier dimensionnement effectué.

Étape 2.1 : Calculer le gain sur facture électrique

Pour réaliser une première évaluation économique du projet, vous devez introduire :

  • Etotale : la consommation annuelle totale d’électricité (en reprenant la somme des consommations en heures pleines et en heures creuses),
  • Coût Etotale : le montant total de la facture annuelle électrique.

Si les données ne sont pas connues, l’outil calculera des valeurs automatiquement.
Sur base de ces premières données, l’outil évaluera :

  • Prixmoyen achat : le prix moyen de votre électricité.
  • Eauto-cons : la part de l’électricité qui sera autoconsommée dans le projet.
  • Erevente : la quantité d’électricité qui sera revendue sur le réseau.

Sur base de ces données et du prix de revente, l’outil calcule le gain sur la facture de l’électricité – Gainélec.

À ce stade vous devez estimer le pourcentage de l’électricité produite qui sera autoconsommée, ce pourcentage dépendra de votre consommation et votre profil d’utilisation. Si vous n’avez aucune idée, vous pouvez mettre une valeur entre 75 et 90 %. Le reste de l’électricité sera alors vendu par le réseau à un fournisseur d’électricité de votre choix, à un prix qui aura convenu avec le fournisseur (actuellement ce prix est d’environ 35 €/MWh).

Un calcul se fait automatiquement pour déterminer le gain sur la facture d’achat d’électricité, le gain sur la vente d’électricité et le gain total sur la facture d’électricité (Gainélec).

Étape 2.2 : Calculer le gain sur la chaleur

La consommation annuelle en combustible est automatiquement reprise (Q), il suffit d’introduire le montant total de la facture annuelle du combustible et le prix moyen du combustible se calcule en fonction de votre encodage.

Ensuite la consommation évitée de la chaufferie (Conschaufferie) et le gain sur la facture chaleur (Gainchaleur) se calculent.

Étape 2.3 : Calculer le gain par la vente des certificats verts

L’installation de cogénération vous permettra de réduire les émissions polluantes, dont le CO2, qui est gratifié par le mécanisme des certificats verts, pour autant que vous arriviez à une économie relative de CO2 supérieur ou égal à 5 %.

À ce stade vous devez sélectionner si le site est connecté au non au gaz naturel, ce qui doit être compatible avec le type de cogénération précédemment sélectionné.  Le facteur d’émission de l’installation est automatiquement repris (CCO2) et permet le calcul du gain en CO2 (GCO2) et en énergie primaire (Gain énergie primaire)  Le taux d’octroi est calculé selon la réglementation en vigueur.

Étape 2.4 : Calculer la dépense en combustible

En introduisant le prix moyen du combustible de la cogénération, vous obtenez automatiquement la dépense en combustible pour la cogénération (DépenseComb).

Étape 2.5 : Calculer la dépense en entretien

Ce calcul se fait directement en fonction de la technologie utilisée et de la puissance de l’unité de cogénération.

Étape 2.6 : Estimer le montant de l’investissement.

En ajoutant un facteur de sur-investissement d’environ 40 % [10 % pour les frais d’installation, 7 % pour les frais d’études, 10 % pour d’éventuels travaux de génie civil, 5 % pour la connexion sur le réseau électrique et 8 % d’imprévus] vous obtenez l’investissement brut de l’unité de cogénération « tout compris » (Invbrut cogen).

Si vous avez droit à des subsides, vous pouvez introduire ici le pourcentage ou le montant total. Pour plus d’informations sur les primes et subsides, voir le portail énergie de la Région wallonne : energie.wallonie.be.

L’investissement net se calcule automatiquement (Invnet cogen).

Étape 2.7 : Estimer la rentabilité du projet

Le gain annuel net du projet se détermine par la différence entre les gains et les dépenses.

Le temps de retour simple (TRS) se calcule en divisant l’investissement net par le gain annuel net.

Conclusion

Une conclusion s’affiche en fonction du temps de retour simple :

  • si le TRS est inférieur à 6 ans, la conclusion sera positive,
  • si il est supérieur à 6 ans, la conclusion sera négative.

Cette information est naturellement tout à fait libre et elle doit être interprétée cas par cas. Dans certains cas un TRS de 10 ans peut être acceptable, dans d’autres cas un TRS de maximum de 3 ans est jugé comme limite.

Remarque :
Le logiciel vous donne des résultats techniques et économiques qui vous permettront d’évaluer, en connaissance de cause, l’opportunité d’installer ou non une unité de cogénération. Cependant, les résultats obtenus ne sont qu’une première approximation. Ils ne donnent qu’une indication quant à la suite ou non du projet, à savoir la commande d’une étude de faisabilité dans les « Règles de l’art » à un bureau d’études compétent, et non la commande de l’équipement !


Limites de COGENcalc.xls

Les hypothèses suivantes s’appliquent à l’outil d’évaluation. Pour un dimensionnement précis, ces hypothèses sont limitatives et, sauf exception, le prescripteur devra affiner cette évaluation, notamment par rapport aux points suivants :

  • Le profil de consommation de chaleur est à choisir parmi des profils types.
  • La puissance de la cogénération et le nombre d’heures de fonctionnement sont prédéfinis pour chaque profil type de consommation de chaleur.
  • Le besoin en chaleur est continu et ne descend en tout cas pas sous la charge minimale du cogénérateur pendant les heures de fonctionnement.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Profils types de demande de chaleur et monotone

Profils types de demande de chaleur et monotone


Les profils de prélèvement

Les profils de demande de chaleur présentés ici (Besoin net en chaleur, BNeC), montrent la répartition de la demande de chaleur d’un bâtiment type sur une année, sur une semaine et sur un jour. La répartition s’exprime en pourcents.

Profil A Profil B Profil C Profil D Profil E Profil F
Activités diurnes
5 jours sur 7
Activités diurnes
6 jours sur 7
Activités diurnes
7 jours sur 7
Activités continues
7 jours sur 7
Activités diurnes
5 jours sur 7
Activités diurnes
7 jours sur 7
Bureaux
Écoles
Services aux personnes
Commerces
Culture
Centres sportifs
Soins aux personnes
HORECA
PME à consommation très régulière
Blanchisseries
Teintureries
Logement collectif
BNeC d’une journée type (%) – Profil de prélèvement horaire
BNeC d’une semaine type (%) – Profil de prélèvement hebdomadaire
BNeC d’une année type (%) – Profil de prélèvement annuelle

Les monotones de demande de chaleur

Les monotones de demande de chaleur représentent l’organisation par ordre décroissant des demandes de chaleur horaires de l’utilisateur. Une courbe « monotone de chaleur » peut être déterminée pour chaque « profil type de consommation ».

Profil A Profil B Profil C
Profil D Profil E Profil F

Q = demande de chaleur horaire de l’utilisateur (100 % = PQ = puissance thermique de l’utilisateur).

Courbe supérieure = monotone de demande de chaleur de l’utilisateur (demande de chaleur mesurée heure par heure et classée par ordre décroissant). La surface comprise sous la courbe 1 correspond au besoin net de chaleur (BNeC) annuel de l’utilisateur.

Courbe inférieure = monotone de demande de chaleur de l’utilisateur, pendant les heures pleines.

*Durée d’utilisation = nombre d’heures ”équivalentes” de fonctionnement de l’installation à puissance nominale pour produire la quantité totale de chaleur.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Technologies alternatives

Technologies alternatives

Principe de la pirolyse.


Cogénération et biomasse

La cogénération et la biomasse, une solution éprouvée !

La biomasse, qu’elle soit d’origine ligneuse, agricole, agro-alimentaire ou résidentielle, constitue une source d’énergie renouvelable et, bien souvent aussi, un déchet difficile à gérer.

Dans ce contexte, la gazéification de produits ligneux et la biométhanisation de déchets agricoles et résidentiels alimentant une unité de cogénération peuvent apporter des réponses tant du point de vue énergétique qu’environnemental.

Les techniques de gazéification ou de biométhanisation permettent maintenant de bien maîtriser les processus de combustion et de limiter ainsi les émissions de polluants.

Ces technologies valorisent ainsi efficacement une source d’énergie renouvelable, présente abondamment en Wallonie et encore largement sous exploitée. Leur utilisation comme source d’énergie primaire permet donc d’alléger nos émissions de CO2 et de participer à l’effort de notre pays au niveau de l’accord COP 21.

À ce titre, elles sont particulièrement visées par le décret relatif à l’organisation du marché de l’électricité en Wallonie, qui incite financièrement au développement d’applications économes en énergie primaire par le principe des certificats verts. L’économie en CO2 engendrée par des cogénérations à partir de biomasse est effectivement très importante.

D’une part, s’il s’agit d’une cogénération de qualité, elle participe au même titre que toute cogénération de qualité à l’économie de CO2 et peut donc recevoir à ce titre des certificats verts en fonction de sa qualité.
Par ailleurs, les cogénérations à partir de biomasse rendent également possible la création de nouvelles filières d’activités économiques et de nouveaux pôles d’excellence technologique en Wallonie.
Enfin, elles peuvent apporter des éléments de réponse à la lancinante question du traitement des déchets. Dans certains cas et sous certaines conditions, elles présentent, en effet, une réponse intégrée à ce problème majeur de société.

Cogénération au biogaz

Une réalisation concrète : la cogénération au biogaz à la décharge d’Anton.

Installation de la décharge d’Anton – © SPAQUE.

Dans le cas de la décharge d’Anton située à proximité d’Andenne, dont la réhabilitation pour le compte de la Région wallonne est menée par la Spaque, le biogaz généré par la masse des déchets enfouis est collecté et envoyé vers un module de cogénération.

Après une première expérience dans la cogénération débutée en 1999, l’unité a été remplacée en 2013.

Une nouvelle unité de cogénération a été mise en place, adaptée au biogaz produit sur le site, à savoir un biogaz pour une richesse en méthane de 55 %.

La nouvelle installation a une Puissance électrique installée de 115 kWé pour une puissance thermique de 160 kWth. Cette installation est dimensionnée pour absorber un débit de 50 m³/h de biogaz.

La chaleur est envoyée vers les différents bâtiments de l’Institut Saint-Lambert.

En 2014, l’installation a valorisé à peu près 1 million de m³ de déchets ménagers (445 000 m³ de biogaz produit), en produisant 912 MWh d’électricité (dont 41 % auto consomme et le reste a été réinjecté sur le réseau.) et 1 054 MWh de chaleur (dont 21 % a été autoconsommé et le reste renvoyé vers l’institut St Lambert).

Les rendements d’une installation de ce type (base de comparaison : pouvoir calorifique du gaz brûlé), pour un trimestre représentatif, sont de 33,6 % comme rendement électrique et 52,6 % pour le rendement thermique; ce qui donne un rendement global de 86,2 %.

Cogénération au bois

La cogénération au bois valorise le bois en électricité et en chaleur par une technologie unique qui est la seule solution bien adaptée aux déchets de bois produits dans les scieries, menuiseries de taille moyenne ainsi que ceux qui sont mobilisables lors de la gestion des espaces verts et des forêts.

Cogénérateur à gazéification de bois (source : Coretec).

La conversion du bois en électricité et en chaleur est réalisée par la gazéification du bois dans un gazogène et par la combustion du gaz produit dans un groupe de cogénération.

Installation d’une cogénération au bois : schéma de principe (source : Coretec).

Le combustible, par exemple sous forme de plaquette de bois, alimente le gazogène dans lequel il est transformé en gaz combustible. Le gaz produit est ensuite conditionné pour être brûlé dans le moteur du groupe de cogénération. L’électricité produite peut être consommée sur place ou être envoyée sur le réseau. La chaleur peut alimenter un procédé industriel ou des installations de chauffage. L’installation est entièrement automatisée et contrôlée à distance.

Les rendements de conversions électrique et thermique sont respectivement de 23 à 25 % et 50-57 %; soit un rendement total de 75-80 %. La puissance unitaire des centrales de cogénération développées et commercialisées en Wallonie varie de l’ordre de 30-45 kWé.


Trigénération

L’ajout à l’unité de cogénération d’une unité de production de froid par absorption transforme la cogénération en tri-génération.

L’objectif est d’utiliser la chaleur du moteur en été, à l’heure où elle est généralement moins utile, pour produire du froid. Ce froid peut être utilisé pour diverses applications comme la climatisation ou la réfrigération. La cogénération peut ainsi exploiter l’énergie primaire même en été.

Une telle technologie a naturellement un coût d’investissement élevé. De plus, la rentabilité tant énergétique que financière n’est pas souvent au rendez-vous. Une étude réalisée à l’UCL montrait les limites de cette technologie (« Économie d’énergie en trigénération ; Pépin Magloire, Tchouate Heteu, Léon Bolle ; Unité de thermodynamique et turbomachines, département de mécanique, Université catholique de Louvain ; 2002 »). En voici les principales conclusions :

  • Une cogénération de froid et d’électricité ne permet pas d’économiser systématiquement de l’énergie, mais permet dans certaines conditions une économie financière.
  • Cependant, la production simultanée de froid, de chaleur et d’électricité (trigénération) permet une économie d’énergie primaire en fonction de la fraction de chaleur λ utilisée pour la production de froid :
    • Pour les cycles LiBr/H2O, si λ est de l’ordre de 0,7.
    • Pour les cycles H2O/NH3, si λ est de l’ordre de 0,5.

Sur le marché, les puissances descendent actuellement jusqu’à 80 kW pour les machines à l’ammoniac ou même 70 kW pour les machines au Lithium-Bromure.

Le dimensionnement de la machine se fait en ajoutant la consommation de chaleur relative à la production de froid à la monotone de chaleur (calcul des puissances et des plages de fonctionnement) déjà définie précédemment.

Le fonctionnement idéal des machines à absorption, qui permet des rendements très élevés, utilise un fluide chaud à une température supérieure à 100 °C. Lorsque le fluide chaud n’est « qu’à » 95 °C, la puissance frigorifique est dans un rapport 1/1,6 de la puissance en chaud.

Notons finalement qu’une telle machine nécessite une tour de refroidissement plus grande.

Techniques

Présentation synthétique du phénomène d’absorption.

Microcogénération domestique

Source : Viessmann.

La micro-cogénération est une solution adaptée pour des plus petites installations, et en l’occurrence pour l’usage domestique. Au niveau du cogénérateur proprement dit, le moteur à combustion interne fait place à un moteur à combustion externe de type « stirling ». Dans de nombreux cas, la cogénération sera directement combinée avec une chaudière gaz à condensation. Les différents acteurs du marché ont à peu près tous développé une cogénération de type gaz.

Moteur stirling.

Cette technologie a été mise sur le marché pour répondre à des consommations électriques de l’ordre de 2 500 à 3 000 kWhé/an, ce qui correspond à la consommation annuelle moyenne d’un ménage.

Les puissances développées sont de 1 kWé et 6 kWth. Le complément thermique est donné par la chaudière à condensation qui peut moduler de 6 à 20 kW.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Choisir le stockage de chaleur [cogen]

Critères de sélection

Le volume du stockage est calculé lors du dimensionnement des équipements. Si le dimensionnement s’est limité à une évaluation grossière des puissances nécessaires, des investigations supplémentaires selon la même méthodologie compléteront et valideront les résultats.

Comme dans toutes les applications de stockage, il faudra tenir compte des pertes (pertes en stand-by pour les chaudières, pertes dans les tuyauteries,…). Dès lors, le raccordement et la régulation d’un stockage de chaleur seront plus complexes que l’installation standard d’une cogénération.

D’ordinaire, le ballon de stockage est installé en parallèle avec le cogénérateur. Cela permet de fonctionner de la même façon quelle que soit la source de chaleur : la cogénération ou le ballon.

Les critères de dimensionnement relatifs à la connexion aux débits et températures mentionnés dans le chapitre sur le raccordement hydraulique sont d’applications, notamment :

  • Assurer le débit d’eau au moteur quel que soit le mode de fonctionnement ou la charge et le maintenir constant.
  • Maintenir la température d’entrée du groupe inférieure à une valeur de consigne définie par le constructeur.
  • Éviter toute fluctuation brusque de la température d’entrée.
  • Éviter le recyclage dans le circuit de retour du groupe afin de ne pas augmenter la température de l’eau à l’entrée du moteur par des mélanges.
  • Gérer la puissance de déstockage de façon à toujours garantir un débit de refroidissement du moteur suffisant.
  • Rendre possible l’isolation du circuit d’utilisation pour faire fonctionner la chaufferie sans le groupe de cogénération.
  • Prévoir un système de vidange du circuit hydraulique simple.
  • Prévenir les problèmes de corrosion et d’hydrolyse dans le circuit de refroidissement.

Raccordement d’un ballon de stockage

Stockage pour configuration en parallèle

Une des méthodes de stockage appropriées est celle décrite ci-dessous. Cependant, sur le terrain, elle reste relativement peu courante. Peut-être pour une question financière ?

Schéma stockage pour configuration en parallèle.

Dans son principe, le fonctionnement du cogénérateur est relativement indépendant de celui des chaudières. En effet, le cogénérateur peut charger le ballon à une température de consigne fixe. C’est la vanne 3 voies qui fait le gros du boulot et qui peut mitiger la température de sortie de l’ensemble cogénérateur/ballon de stockage en fonction de la température de départ primaire.

La séquence des schémas suivants donne une idée des phases de stockage/déstockage. À remarquer, qu’en termes de dimensionnement des conduites, il faut prévoir que le débit d’entrée/sortie de l’ensemble cogénérateur/stockage sera de l’ordre de 1.5 à 2 fois celui du cogénérateur s’il était prévu dans stockage.

Stockage pur

Schéma stockage pur.

  • Pas de besoin, mais le ballon n’est pas à température.
  • Le cogénérateur fonctionne à régime nominal et charge le ballon (stockage).

Déstockage et boost de la cogénération

Schéma déstockage et boost de la cogénération.

  • Besoins importants.
  • Le cogénérateur fonctionne à régime nominal.
  • Le ballon déstocke.

Déstockage pur

Schéma déstockage pur.

  • Besoins moyens.
  • Seul le ballon déstocke.

Stockage pour configuration en série

Quelques constructeurs proposent une configuration série avec ballon tampon. Le débit total de retour du collecteur traverse le ballon. On ne peut pas vraiment parler de ballon de stockage vu qu’il n’y a pas de stratification. On parlera plutôt d’augmentation de l’inertie du réseau. Pour autant que les conduits d’entrée et de sortie du ballon soient bien dimensionnés, le ballon tampon agit comme un large collecteur à faibles pertes de charge et perturbant peu les équilibres hydrauliques de la chaufferie existante. On peut comprendre que cette configuration soit intéressante, car hydrauliquement elle est simple et peut donner de bons résultats en terme de court cycle du cogénérateur.

Schéma stockage pour configuration en série.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Choisir la régulation [Cogen]

Modulation de puissance

Une modulation de charge du cogénérateur entre 100 et 50 % est techniquement possible, mais le coût de l’entretien du groupe dépend principalement de son temps de fonctionnement et ce coût d’entretien entraîne une augmentation relative du prix du kWh lorsque la charge diminue. Combinée à une légère chute du rendement à charge réduite, il est généralement préconisé d’éviter de fonctionner à moins de 70 % de charge, sauf pour un nombre de cas très limités.

Il est encore très important de veiller à une parfaite coordination des régulations des différents éléments de chauffage, avec un intérêt certain pour l’exploitant de la cogénération de gérer toutes les installations thermiques et électriques, afin d’éviter des interfaces parfois délicates.


Contraintes thermiques sur la régulation

Intégration dans la cascade de chaudières

Une régulation de cascade doit être mise en place sachant qu’il faut pouvoir gérer la « libération » des différents équipements de production de chaleur en fonction des besoins, et ce au bon moment. On tiendra à l’esprit que c’est la cogénération qui doit être en tête de cascade de manière à couvrir le maximum des besoins de chaleur. La monotone de chaleur représentée ci-dessous est très didactique pour montrer l’importance de la programmation d’une cascade séquentielle pour l’ensemble des équipements de production de chaleur.

On rappelle qu’une monotone de chaleur exprime surtout une représentation des besoins de chaleur au cours de l’année. On voit tout de suite que pour rentabiliser une cogénération d’un point de vue « énergético-environnemento-financier », on a intérêt à programmer une cascade des chaudières et du cogénérateur pour que ce dernier couvre la plage 2 de la monotone de chaleur.

Monotone de chaleur.

Monotone de chaleur.

  1. Libération d’une des chaudières à faible régime. Pour les anciennes chaudières, leur fonctionnement à faible charge entraine une dégradation du rendement non négligeable. Pour les chaudières à condensation modulantes, elles travaillent dans des bonnes conditions de rendement (optimum autour des 30 % de taux de charge).
  2. Libération du cogénérateur seul avec une modulation de puissance entre 100 et 70 %.
  3. Libération simultanée du cogénérateur et d’une des chaudières.

La plupart du temps, un besoin de chaleur au niveau secondaire se traduit par une diminution de température au niveau de la sonde de départ du primaire. Tenant compte du fait que le régulateur adapte souvent la température de consigne de départ en fonction de la température externe (fonctionnement en température glissante), la comparaison entre la température du départ et sa consigne glissante doit permettre de libérer les différents équipements de production suivant une séquence dans la cascade bien définie comme le représente la figure suivante :

Séquence de cascade.

Interactions hydrauliques avec les chaudières

Compte tenu de notre climat, la régulation en mi-saison est la plus complexe. Le besoin en chaleur oscille pendant ces périodes à des valeurs qui ne sont ni hautes pour permettre un fonctionnement à 100 % de charge, ni basses et qui imposeraient un arrêt. Ces besoins imposent une modulation plus fréquente qu’en été ou en hiver. Notons que cela ne s’applique pas à des cogénérations qui produisent de la chaleur en continu pour un processus industriel.

Dans ce cas, de nombreux arrêts peuvent être dus à des arrêts de process du client. Le prescripteur doit alors aborder le process dans son ensemble pour définir le cahier des charges de la conduite.

Il existe des petites installations plus ou moins « sous-dimensionnées » par rapport à la monotone de chaleur. Ils garantissent un fonctionnement 24 h/24 et sans stockage.

Dans le cas du secteur tertiaire, la production thermique du cogénérateur sera raccordée à l’installation de chauffage (et/ou de production d’eau chaude sanitaire). Comme la demande de chaleur du bâtiment, dépendante de la température extérieure, est variable dans le temps, une régulation adaptée est alors exigée.

Le réglage de l’installation consiste à définir le point de commutation entre les chaudières et la cogénération et à régler les temporisations sur les variations de puissance en fonction de l’inertie thermique de tout le système, qui n’est pas bien connue à priori. Idéalement c’est le profil de demande de chaleur qui permet d’affiner le réglage du cogénérateur.

Le risque majeur à éviter dans la combinaison chauffage-cogénération est une température d’eau de retour trop élevée vers le moteur. Une température trop élevée peut entraîner une instabilité de l’enclenchement / déclenchement du moteur. On peut résumer le problème de la façon suivante :

Le cogénérateur fournit assez de puissance pour couvrir la demande de chaleur. Mais la température de départ primaire chute. Le régulateur de chaufferie libère la chaudière (démarrage).

La chaudière se met en fonctionnement. Elle délivre très rapidement suffisamment de chaleur pour que les vannes 3 voies des circuits secondaires se ferment. La température de retour monte et réchauffe le ballon tampon.

Le cogénérateur et la chaudière s’arrêtent.

Après refroidissement du ballon tampon, le moteur redémarre. La cogénération ne parvient pas suffisamment vite à répondre à la demande de chaleur et la chaudière redémarre.
Ainsi de suite …

En pratique, on peut travailler par essais/erreurs pour ajuster le point de commutation et les temporisations. On peut également adapter le réglage en fonction des performances mesurées du moteur par comptage de sa consommation et de sa production et essayer de maintenir un rendement optimum.

Un suivi des performances du moteur permettra de se rendre compte qu’il ne faut sûrement pas essayer de faire fonctionner le moteur le plus longtemps possible. Il est plus intéressant d’adapter son fonctionnement à la demande de chaleur plutôt que de suivre à tout prix la demande électrique.

Pratiquement la permutation entre le fonctionnement du cogénérateur et celui des chaudières peut se faire en fonction de la température extérieure.

Interaction  avec les courbes de chauffe des chaudières

Sauf si vous avez hérité d’une installation « d’un autre âge », en général, quel que soit le type de chaudière, une régulation de chaudière classique comprend au minimum un mode de régulation « en température glissante » par rapport à la température externe. Sans rentrer dans les détails, la température de l’eau chaude de chauffage est adaptée aux conditions climatiques externes. Ce mode de régulation est très intéressant surtout pour les chaudières à condensation, car il permet de valoriser la chaleur de condensation en faisant travailler les chaudières à basse température. Pour les autres types de chaudière, cette régulation permet de limiter les pertes thermiques qui sont générées lorsque les températures d’eau chaude sont élevées.

L’intégration d’une installation de cogénération dans une chaufferie constitue une modification assez importante de la régulation pour les raisons évidentes suivantes :

  • Avec une seule chaudière existante, pour pouvoir placer le cogénérateur en tête de séquence, une régulation en cascade doit être programmée. Le régulateur de la chaudière est-il suffisamment évolué pour pouvoir intégrer cette cascade ? De manière générale, pour les chaudières d’une dizaine d’années, c’est faisable. Pour les chaudières de génération précédente, c’est du cas par cas.
  • Avec plusieurs chaudières, la cascade existante doit inclure le cogénérateur au même titre qu’une chaudière supplémentaire. Les régulateurs d’un ensemble de chaudières sont généralement prévus pour ajouter un équipement supplémentaire.

Donc, le régulateur d’une chaufferie (une ou plusieurs chaudières) doit au minimum « chapeauter » le régulateur de l’installation de cogénération, ne fusse que dans la séquence de cascade de libération du cogénérateur ET des chaudières. En effet, quelle que soit la configuration hydraulique, la difficulté d’intégration du cogénérateur est de concilier la ou les chaudières régulées par des courbes de chauffe, et donc des températures de consigne variables, avec un équipement de cogénération qui travaille avec une température de consigne constante. On constate dans certaines chaufferies les phénomènes suivants :

  • En période froide, la consigne de température de départ appliquée par le régulateur aux chaudières est élevée (par exemple 80 °C par -10 °C de température externe). Les consignes de température de démarrage des chaudières sont, par exemple, respectivement de 75 et 70 °C pour les chaudières « maître » et « esclave ». Par contre, la température de consigne de démarrage du cogénérateur est de l’ordre de 60 °C en fixe. Cette valeur de 60°C pour le démarrage est conditionnée par les caractéristiques intrinsèques du cogénérateur. En effet, elle pourrait être plus élevée, mais sachant que la température de retour au cogénérateur est maximum de l’ordre de 70 – 75 °C, une valeur de consigne de démarrage du cogénérateur de 70 °C entrainerait des cycles très courts marche/arrêt du cogénérateur et ne permettrait de toute façon pas un passage en tête de séquence de cascade (la consigne de démarrage en tête de séquence dans ce cas-ci est de 75 °C).
  • En mi-saison, lorsque les courbes de chauffe de régulation des chaudières définissent une consigne de température de départ primaire sous la consigne de température fixe du cogénérateur, soit dans l’exemple de 60 °C, la cogénération va naturellement se placer en tête de cascade et démarrera avant les chaudières. C’est une bonne nouvelle, mais qui arrive un peu tard, comme les « carabiniers d’Offenbach », vu que les besoins de chaleur deviennent faibles. Il en résulte que le cogénérateur risque d’avoir des cycles marche/arrêt courts, ce qui n’est pas idéal.

Régulation des chaudières et du cogénérateur.

Régulation des chaudières et du cogénérateur.


Contraintes mécaniques sur la régulation

Des démarrages et des modulations de puissance trop fréquents et trop forts, comme c’est souvent le cas en mi-saison par exemple, entraînent une fatigue mécanique importante du moteur, ce qui augmente considérablement les risques de panne. Il est donc conseillé de réaliser des montées en puissance « douces » et des démarrages en nombre relativement réduit, typiquement limités à 2 ou 3 par jour. La priorité est à la cogénération, la modulation reste à la chaudière.

Dans le même ordre d’idée, puisqu’une cogénération ne peut pas moduler comme une chaudière (fréquence et intensité des modulations), il est essentiel de bien connaître son profil de consommation de chaleur pour ne démarrer la cogénération que pour des périodes suffisamment longues.

Le fonctionnement correct du moteur demande encore un préchauffage constant pendant les heures de démarrage potentiel, afin d’éviter un démarrage à froid et les contraintes thermiques très nocives que cela entraîne.

Comme pour tout moteur, il est également conseillé de le faire tourner fréquemment afin d’en garantir le bon fonctionnement au moment voulu.


Contraintes électriques sur la régulation

Lorsque le groupe de cogénération est prévu pour fonctionner en groupe secours (ce qui n’est pas idéal), il est nécessaire de gérer la charge électrique du client pour ne pas imposer de variation de charge trop importante au moteur qui risquerait de s’étouffer.

Par exemple, en cas de coupure du réseau, il peut être nécessaire de délester les charges électriques, connecter la cogénération comme approvisionnement en électricité puis relester progressivement les charges en commençant par les plus importantes. Le groupe ne saurait effectivement pas alimenter instantanément l’ensemble des charges.

Pour un fonctionnement en groupe de secours toujours, la législation impose dans certains cas comme les hôpitaux, des délais pour l’apport du courant par les groupes secours. Le groupe de cogénération doit être capable de répondre à ces exigences.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Intégrer la cogénération à l’hydraulique et à la régulation


Les pièges d’intégration

Les principaux constats des projets « piégés » sont les suivants :

  • Le manque d’heures de production du cogénérateur par rapport aux prévisions. Les conséquences sont immédiates : un manque de rentabilité du projet aux niveaux énergétique, environnemental et financier.
  • Un nombre de cycles de démarrage et d’arrêt important qui implique une réduction de la durée de vie de l’installation de cogénération et une augmentation des frais d’entretien, car les cogénérateurs, comme tout moteur, aiment les régimes stables.

Bien souvent, on pense que l’intégration d’un cogénérateur dans un projet de rénovation de chaufferie ou dans un nouveau projet peut se réaliser de manière indépendante par rapport aux chaudières. Dans la plupart des projets réalisés qui posent problème, c’est un peu réducteur et caricaturé, mais on a simplement demandé à l’installateur de fournir « deux conduites » sur lesquelles le constructeur ou le fournisseur de cogénérateur vient connecter son installation au moyen de flexible; c’est ce que l’on appellera un « plug&play » du cogénérateur. Croire que tout va fonctionner comme prévu peut s’avérer, dans certains cas, être une erreur d’appréciation fatale.


Vision globale d’intégration

Pour éviter le piège d’intégration « sauvage » du cogénérateur en chaufferie, les acteurs du projet doivent prendre un certain recul de manière à visionner les productions de chaleur et le cogénérateur comme un tout en chaufferie.

Pour les équipements de production de chaleur, il faut arriver à trouver un compromis entre les différents impératifs des chaudières.

En effet :

  • Dans une chaufferie existante, un retour suffisamment chaud pour les chaudières classiques afin d’éviter la condensation de la vapeur d’eau contenue dans les gaz de combustion (corrosion accélérée des échangeurs des conduits d’échappement, …).
  • Dans une nouvelle chaufferie, un retour suffisamment froid pour faire condenser les chaudières à condensation ou garantir de bonnes performances aux pompes à chaleur (PAC) par exemple.
  • Un débit minimum pour certains types de chaudières.

Et la cogénération dans tout cela ?

À première vue, la cogénération doit être considérée comme une chaudière supplémentaire qui vient se « greffer » sur le circuit primaire. Force est de constater que son intégration n’est pas évidente ! En effet :

  • Pour certaines configurations hydrauliques existantes, le rapport de puissance thermique entre les chaudières et le cogénérateur est déterminant pour le fonctionnement de ce dernier. Il n’est pas rare de constater qu’en hiver, lorsque les chaudières sont censées venir en appoint bivalent du cogénérateur, ce dernier se fasse « voler la vedette » par des chaudières surdimensionnées.
  • De même, la présence ou pas d’un ballon de stockage et sa position par rapport aux chaudières influencent le comportement du cogénérateur.
  • La configuration en série ou en parallèle convient à certaines installations de chaufferie et pas à d’autres. Il est important d’en tenir compte.

Impérativement, le cogénérateur doit s’intégrer de manière intelligente au niveau :

  • Hydraulique, en tenant compte de la configuration de l’installation de chaufferie, des caractéristiques des chaudières, du collecteur principal et des circuits secondaires.
  • De la régulation, en partant du principe qu’une communication minimale doit exister entre les régulateurs des chaudières et le régulateur de l’installation de cogénération.

Des solutions existent ! Elles sont simples, efficaces et ne nécessitent pas, la plupart du temps, de gros investissement.


D’un point de vue hydraulique

Intégration dans une chaufferie existante

La grande majorité des chaufferies existantes sont équipées de chaudières. Hydrauliquement parlant, l’analyse de la configuration existante des chaudières est primordiale pour intégrer un cogénérateur dans de bonnes conditions.
Quelques questions importantes à se poser. Les chaudières sont-elles :

  • À haute, basse température, très basse température ou à condensation ?
  • À faibles pertes de charge ?
  • À débit minimum ?

Dans tous les cas, si la conception a été bien réalisée, la configuration hydraulique du circuit primaire renseigne le type de chaudière. Par exemple, une ou plusieurs chaudières :

  • À haute température impliquent souvent un collecteur principal bouclé ou une bouteille casse-pression entre le collecteur principal et les chaudières ou encore un bouclage direct des chaudières.
  • À condensation sont pourvues de deux retours (un chaud un froid) ou sont connectées sur des circuits type chauffage par le sol par exemple.
  • À fortes pertes de charge sont équipées de circulateurs ou pompes de circulation.


Chaudière classique / collecteur  bouclé.


Chaudière classique / collecteur ouvert.


Chaudière classique faible volume d’eau /
bouteille casse-pression.


Chaudière à condensation deux retours.


Chaudière à condensation grand volume d’eau.

Les résultats de l’analyse doivent permettre de pouvoir répondre aux questions suivantes :

  • Où et comment placer hydrauliquement la cogénération en chaufferie pour éviter de perturber les équilibres hydrauliques initiaux ?
  • Comment modifier le circuit hydraulique existant pour permettre le fonctionnement conjoint de chaudières à haute température ou, à l’inverse, de chaudières à condensation avec un cogénérateur ayant ses propres régimes de température ?

Intégration dans un nouveau projet de chaufferie

D’emblée lors d’un nouveau projet de chaufferie intégrant un système de cogénération, les acteurs doivent considérer des systèmes de production de chaleur à basse température, voire très basse température (pompe à chaleur (PAC), chaudière à condensation, …). Hydrauliquement parlant, toute l’installation de la chaufferie, y compris le cogénérateur, doit être pensée pour ramener des retours d’eau chaude en chaufferie les plus froids possible.


D’un point de vue de la régulation

Comme pour l’hydraulique, le même exercice doit être mené au niveau de la régulation. Les acteurs du projet doivent avoir une vision globale de la régulation et non pas de l’installation de cogénération comme un « appendice » capable de travailler de manière autonome

Le régulateur de la chaufferie existante ou des chaudières d’un nouveau projet et le régulateur de l’installation de cogénération doivent communiquer entre eux de manière à inscrire au minimum la cogénération dans la séquence de cascade des chaudières.

Intégration de la cogénération dans la cascade des chaudières.

Pour en savoir plus voir le vadémécum : « Réussir l’intégration de l’hydraulique et de la régulation d’une cogénération dans une chaufferie » (PDF).

 

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Choisir les éléments annexes [Cogénération]

Dispositif anti-vibrations.

Les éléments annexes sont repris avec leurs caractéristiques principales.


Localisation de l’installation

Le local de la cogénération peut être la chaufferie existante, un local dédié, ou elle peut être placée à l’extérieur des bâtiments, dans un caisson spécifique.

Les règlements habituels sur les chaufferies sont d’application.
La disposition spatiale est essentielle. La cogénération sera placée le plus près possible de l’endroit où la chaleur va être utilisée, pour réduire le coût des équipements de transport de la chaleur.

Les variables clés dans le dimensionnement du local et de ses abords sont :

  • la puissance des équipements;
  • le type et la position du local d’implantation;
  • la destination du bâtiment (public ou non);
  • les accès au local (non-accessibilité au public, accès direct extérieur, distance par rapport aux locaux occupés, nombre d’issues…);
  • la résistance au feu des parois;
  • la ventilation;
  • l’évacuation des gaz;
  • les équipements électriques…

Plan placement d'une cogénération.

Exemple d’implantation.


Sécurité de l’emplacement

La sécurité de l’emplacement doit être étudiée au minimum par rapport aux inondations et à l’incendie.

Il n’existe pas de réglementation relative à la détection gaz-incendie, mais des clauses particulières doivent être envisagées afin d’éviter d’interminables discussions le cas échéant.

La signalisation doit aussi faire l’objet d’une définition précise.


Raccordement combustible

Les principales caractéristiques d’une rampe à gaz sont :

  • sa pression d’alimentation;
  • le filtre;
  • les vannes de sécurité;
  • la détection gaz;
  • la détente.

Exemple : alimentation en gaz.

Raccordement gaz.


Génie civil

La dalle d’accueil de la cogénération s’étudie en tenant compte :

  • de la charge admissible;
  • du bac de rétention (éventuellement compris dans le châssis);
  • d’un dispositif anti-vibratoire (éventuellement compris dans le châssis).

Accessibilité

L’accessibilité doit être garantie pour :

  • l’installation;
  • la maintenance.

Ventilation

Les dispositions classiques pour les chaufferies sont d’application (ventilation permanente, air neuf par le bas, air usagé par le haut…).

Une attention particulière sera portée à l’apport en air comburant et à l’évacuation de la chaleur émise par rayonnement et des batteries.


Échappement

L’échappement se caractérise principalement par :

  • son implantation (hauteur, vitesse minimale d’éjection…);
  • la position de la cheminée;
  • les matériaux;
  • la conformité des fixations;
  • une pression d’évacuation suffisante pour le tracé de la cheminée;
  • la récupération des condensats;
  • l’isolation thermique;
  • le silencieux pour le traitement des émissions (voir le permis d’exploitation);
  • le pot catalytique intégré dans le silencieux;

Exemple : évacuation des gaz de combustion.

Évacuation gaz.


Acoustique et vibrations

Le permis d’environnement impose les limites en matière de bruit, qui viennent s’ajouter aux éventuelles contraintes imposées par le client comme dans le cas d’un hôtel par exemple.

Un capotage avec double enveloppe est généralement nécessaire pour atteindre les limites sonores.

La transmission du bruit s’effectue :

  • en direct;
  • via la cheminée;
  • via la tuyauterie;
  • via le fluide.

Le client ne connaît pas ses exigences en valeurs chiffrées, mais il veut de bons résultats. Un cahier des charges en terme de résultats est à déterminer avec lui avant.

Le niveau sonore du moteur ou de la cogénération avec son spectre est à connaître en champ libre pour ensuite calculer son spectre en conditions réelles et isoler adéquatement.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Choisir les échangeurs de chaleur [cogen]

Échangeur à plaques   échangeur tubulaire

Échangeur à plaques et échangeur tubulaire.


Critères de sélection

Lorsque le projet nécessite un choix d’échangeurs séparés, il est important de les différencier :

  • La chaleur du bloc moteur est récupérée par un échange à plaque eau-eau.
  • La chaleur du circuit de lubrification est récupérée par un échange huile-eau.
  • La chaleur contenue dans les échappements est récupérée par un échange air-eau dans un échangeur à tubes droits.

Les températures et débits côtés moteur, lubrification  et échappement sont des données « constructeur » dépendantes du moteur sélectionné.

Le calcul des températures et débits côté eau doit assurer la cohérence du débit et des températures d’un échangeur à l’autre et garantir le refroidissement de chacun des postes de récupération de chaleur, avec une sécurité maximale pour le refroidissement du bloc moteur.


Échangeur sur les gaz d’échappement

La puissance de cet échangeur est fonction de sa perte de charge, mais le rendement du moteur est aussi très sensible à la pression de sortie. Un équilibre est à trouver et surtout à maintenir à ce niveau, à l’aide par exemple d’un pressostat dont le calibrage est régulièrement contrôlé. S’il y a un encrassement de l’échangeur, les pertes de charge augmentent et peuvent causer des dégâts considérables au moteur. Ce problème a causé jusqu’à l’explosion de certains moteurs.

Échangeurs sur le bloc moteur et le circuit de lubrification

Côté refroidissement du moteur, des problèmes de corrosion et d’hydrolyse dans le circuit de refroidissement peuvent engendrer des problèmes aux joints des pompes à eau par exemple. La séparation des circuits de refroidissement du moteur (water jacket) du reste de l’installation hydraulique confine le problème. La solution est alors d’analyser la qualité de l’eau et de définir les additifs qui neutralisent les polluants.

L’isolation des échangeurs de refroidissement du moteur et du circuit de lubrification permet de n’ajouter les additifs que dans un circuit local, au contraire d’un circuit unique, qui impose l’ajout des additifs en question dans tout le circuit de chaleur.

Il est encore conseillé de vérifier régulièrement la différence de température effective entre entrée et sortie des différents échangeurs, pour s’assurer du fonctionnement correct de l’installation. Rappelons qu’un mauvais refroidissement du moteur peut le détruire très rapidement.


Intercooler

Lorsque le cogénérateur est équipé d’un turbo-compresseur, l’intercooler, qui le refroidit, peut-être mis sur le même circuit que les échangeurs du bloc moteur et du circuit d’huile. Vu que son régime de température est assez bas (30 – 35 °C), l’intercooler est placé en amont des deux échangeurs précités pour bénéficier des retours froids du circuit de chauffage.

Échangeurs de secours

Un aéro-réfrigérant de secours reste souvent maintenu pour garantir le refroidissement du moteur dans des circonstances exceptionnelles. La chaleur évacuée par l’aéro-réfrigérant de secours ne peut cependant pas être comptabilisée pour l’attribution des certificats verts dans la mesure où elle ne contribue pas à la réduction de CO2.

Deux vannes 3 voies servent respectivement à by-passer l’échangeur eau-eau pour éviter un retour d’eau trop froide au moteur et à utiliser l’aéro-réfrigérant de secours (radiateur initial du moteur) pour garantir le refroidissement du moteur si le besoin en chaleur est réduit.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Dimensionner l’installation de cogénération

Dimensionner l'installation de cogénération


 Principe de dimensionnement

Schéma principe de dimensionnement.

Schéma simplifié d’une installation de cogénération.

Sur le plan technique, le pré-dimensionnement a permis de déterminer les puissances thermique et électrique ainsi que les plages de fonctionnement du cogénérateur.

Lors du dimensionnement, le prescripteur va opérer une série de choix techniques, calculer les variables clés et choisir les composants du groupe de cogénération.

Le dimensionnement peut être soit un dimensionnement complet suivi d’un appel d’offre; soit, et c’est le plus souvent le cas, un dimensionnement interactif avec les fabricants pour le choix des équipements, intégrant dès la conception les caractéristiques de moteurs et de composants disponibles sur le marché. De cette façon, le cahier des charges imposé au motoriste est très simple et c’est ce dernier qui propose des solutions sur base de quelques variables clés. Dans le cas contraire, des points spécifiques risquent de nécessiter des adaptations parfois coûteuses. L’offre du motoriste peut éventuellement comprendre un chapitre avec les besoins minimums qui ne sont pas respectés et les options possibles.

Selon le cas, le bureau d’étude sous-traitera ou réalisera lui-même le calcul complet des composants, calcul qui sort du cadre de cet outil.

Techniques

Présentation synthétique des principaux composants d’une unité de cogénération.


Puissances thermiques mises en jeu et interaction avec les chaudières

Rappelons brièvement que l’objectif de l’installation d’une cogénération en chaufferie est de couvrir au mieux le besoin énergétique en chaleur tout en produisant simultanément de l’électricité. Au vu de l’allure de la monotone de chaleur représentée ci-dessous, l’optimum énergétique pour intégrer une cogénération se situe régulièrement au tiers de la puissance maximale enregistrée. Ce n’est naturellement qu’un ordre de grandeur et sûrement pas une règle générale établie; tout dépend des profils des consommations de chaleur (liées à la performance de l’enveloppe du bâtiment) et d’électricité.
Rappelons ici que la « monotone » de chaleur est un classement par ordre décroissant des besoins en puissance du bâtiment à chauffer tout au long de l’année. Par exemple, une puissance de 200 kW doit être assurée en chaufferie pendant au moins 2 300 heures pour assurer le confort des occupants.
Ce nombre d’heures peut être plus important que celui de la période de chauffe, due à un besoin de chaleur pour l’eau chaude sanitaire (ECS). L’intérêt de parler de la monotone de chaleur ici, est que l’aire sous la courbe représente l’image des besoins thermiques du bâtiment en kWhth et d’ECS.

Monotone de chaleur

La cogénération, dans certains cas, est de très petite puissance par rapport à certaines chaudières qui généralement sont dimensionnées pour délivrer minimum 3 fois plus de puissance que le malheureux cogénérateur (c’est un ordre de grandeur). En théorie cela ne devrait pas poser trop de problèmes, mais en pratique, la cohabitation entre « Gulliver et les Lilliputiens » est parfois problématique surtout lorsque, dans les chaufferies courantes, le collecteur principal est bouclé ou une bouteille casse-pression réalise le découplage des circuits primaire et secondaire.

Le cogénérateur fournit assez de puissance pour couvrir la demande de chaleur. Mais la température de départ primaire chute. Le régulateur de chaufferie libère la chaudière (démarrage).

La chaudière se met en fonctionnement. Elle délivre très rapidement suffisamment de chaleur pour que les vannes 3 voies des circuits secondaires se ferment. La température de retour monte et réchauffe le ballon tampon.

Le cogénérateur et la chaudière s’arrêtent.

Après refroidissement du ballon tampon, le moteur redémarre. La cogénération ne parvient pas suffisamment vite à répondre à la demande de chaleur et la chaudière redémarre.
Ainsi de suite …

De plus, les facteurs aggravants sont souvent :

  • Des chaudières qui ne travaillent pas à puissance modulante ou qui ne démarrent pas en « petite flamme ». La puissance délivrée par une chaudière en relance d’appoint risque de délivrer un « boost » de chaleur capable d’imposer à la cogénération de s’arrêter.
  • Des circulateurs ou des pompes de circulation d’équipements de production de chaleur fonctionnant à débit fixe. Dans ce cas, le débit du primaire n’est que trop rarement en adéquation avec les débits des circuits secondaires, ce qui favorise un retour chaud au primaire capable de réduire fortement le temps de fonctionnement de la cogénération.

Le risque majeur à éviter dans le raccordement hydraulique est donc une température de retour trop élevée. Ce phénomène est influencé par la température de départ des chaudières et apparaît surtout dans le cas de forte demande de chaleur.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Visualiser les étapes d’un projet de cogénération

Visualiser les étapes d'un projet de cogénération


Vue d’ensemble

Si chaque projet présente des caractéristiques particulières, il est possible de définir les grandes étapes d’un projet de cogénération.

Le délai de réalisation d’un projet de cogénération, depuis l’étude jusqu’à la mise en service oscille autour de 8 mois ou plus, selon les spécificités qui peuvent influencer les délais.

Les démarches administratives doivent être entamées dès que la décision de réaliser le projet intervient. Ces démarches comprennent l’obtention des permis d’exploitation et d’urbanisme si nécessaire, la réservation des CV à l’administration, l’acceptation des plans des installations électriques et thermiques par les organismes de contrôle, le choix des assurances, le marquage CE, …

Une série d’acteurs vont se côtoyer au cours de ce projet, prendre dès le départ les coordonnées de toutes les personnes responsables facilite la communication et la coordination du projet.

  • le maître d’ouvrage ;
  • l’exploitant de la chaufferie actuelle ;
  • le bureau d’étude ;
  • le maître d’œuvre ;
  • le motoriste ;
  • l’installateur et les entreprises de travaux ;
  • la société de maintenance ;
  • les organismes de contrôle ;
  • les organismes délivrant les autorisations et permis ;
  • les organismes financiers ;
  • le fournisseur de combustible, …

Le planning

Voici une proposition de planning de réalisation d’une installation de cogénération comprenant étude, chantier, mise en service et essais, mais sans tenir compte de délais éventuels liés à l’obtention de permis ou d’autorisations liées à la réservation des CV, la certification, l’acceptation de primes éventuelles, …

Durée (jours) 1er mois 2ème mois 3ème mois 4ème mois 5ème mois 6ème mois 7ème mois

Études

Étude d’exécution des travaux électriques BT

10 X X

Étude d’exécution des travaux thermiques

10 X X

Approbations

Visa des études par les organismes de contrôle et le distributeur

5 X

Commande de matériel

Commande du groupe et équipements

2 X

Début du chantier

X

Génie Civil

Réalisation du socle

2 X

Tranchées pour circuit de récupération

5 X

Début chantier hors GC

X

Groupe de cogénération

Mise en place du groupe

5 X

Raccordement échappement (silencieux, pot catalytique, cheminée)

5  X

Circuit de refroidissement, y compris aéro-réfrigérant

10 X  X

Alimentation combustible, sécurité et essais

5  X

Travaux électriques

Pose et raccordements armoires BT

10 X  X

Circuit de puissance

5 X

Travaux de chauffage

Raccordement de la récupération de chaleur de la cogénération

10 X X

Travaux en chaufferie, coupure et raccordement

5 X

Electricité et Régulation

5 X

Mise en route et essais

10 X X

Les intervenants et leurs responsabilités

    MO – Maître d’ouvrage    

    AUD – Auditeur    

    FAC – Facilitateur    

    BE – Bureau d’études

    INST – Installateur    

    MAIN – Maintenance    

    EXPL – Exploitation    

Un projet d’implantation d’un système de cogénération dans une chaufferie existante ou dans une nouvelle chaufferie nécessite de bien définir l’intervention des différents acteurs et leurs limites.
Les responsabilités et les limites d’entreprise doivent donc être définies de la manière la plus claire possible à chaque étape du projet, à savoir au niveau :

  • D’un audit éventuel.
  • De l’avant-projet à travers les études de pertinence et de faisabilité.
  • Du projet par la réalisation de l’engineering et la rédaction des cahiers de charge.
  • De l’exécution par la réalisation correcte et critique de l’installation en collaboration étroite avec le bureau d’études ou/et le maître d’ouvrage.
  • De l’exploitation par le suivi des performances et optimalisation de l’installation.
  • De la maintenance par la réalisation des différentes tâches définies dans les cahiers de charge de maintenance (entretien à temps et à heure).

La bonne coordination du chantier implique la désignation d’un responsable et se trouve grandement facilitée par le recensement des coordonnées des responsables de tous les intervenants, à savoir :

  • l’auditeur éventuel;
  • le maître de l’ouvrage;
  • le coordinateur de l’opération;
  • le bureau d’étude;
  • le ou les bureaux de contrôle;
  • l’administration;
  • le fournisseur du groupe;
  • le maître d’œuvre des travaux;
  • la société de maintenance;
  • l’exploitant de la chaufferie actuelle;
  • les sous-traitants éventuels;
  • le distributeur d’électricité;
  • le distributeur de gaz.

L’audit

     MO       AUD       FAC   

Le maître d’ouvrage dans sa démarche d’amélioration de son installation existante a, à sa disposition, toute une série de services lui permettant de mieux appréhender « ce qui va lui tomber sur la tête » en termes de rénovation de chaufferie.

La première étape conseillée est souvent d’effectuer un audit de son installation. L’auditeur va pointer surtout les sources d’amélioration URE possibles de manière à réduire les consommations énergétiques. C’est à ce moment-là que l’auditeur peut évaluer le potentiel de réduction de la facture énergétique thermique. Cette analyse de potentiel influence fondamentalement le pré-dimensionnement et le dimensionnement d’un cogénérateur.


L’avant-projet

Pré-dimensionnement du cogénérateur

     MO       FAC       BE  

Dans tout projet d’installation de cogénération, des études de pertinence (« à la grosse louche ») et de faisabilité  (étude fine) doivent être réalisées de manière à savoir si ce projet est viable ou pas d’un point de vue :

  • Énergétique : comparaison en énergie primaire de la production de chaleur et d’électricité de la cogénération par rapport à une centrale électrique TGV (rendement de référence de 55 %) et une chaudière gaz (rendement de référence de 90 %) pour répondre au même besoin de chaleur et d’électricité du bâtiment considéré.
  • Environnemental : la réduction des émissions de gaz à effet de serre (CO2) doit être significative. En Wallonie, le taux d’économie sur les émissions de CO2 doit être supérieur à 10 % et à Bruxelles d’au moins 5 % pour avoir droit aux primes et aux certificats verts (CV). On parle de cogénération de qualité quand le dimensionnement du cogénérateur est basé sur les besoins de chaleur, génère une économie d’énergie primaire et une réduction des émissions de gaz à effet de serre comme indiqué ci-avant en fonction de la région.
  • Économique : le projet doit être rentable économiquement. Tous les indicateurs de rentabilité devront être au vert (temps de retour simple sur investissement TRS, valeur actualisée nette VAN, taux de rentabilité interne TRI).

Remarque : Le facilitateur cogénération est naturellement disponible pour ce genre d’accompagnement. Des outils sont mis à la disposition des responsables du projet : le guide de pertinence aide les auteurs de projet dans leurs premiers pas dans la technique de cogénération. L’outil de calcul CogenCalc, lui, permet, suivant des profils types de consommation de se faire une idée de la viabilité du projet avec une précision relative (de l’ordre de 20 à 30 %).
Tous les outils sont disponibles sur le site de la Région wallonne :

Intégration hydraulique et régulation du cogénérateur  

     BE       INST   

Cas d’une nouvelle chaufferie

Ce cas de figure est plus facile à aborder sachant que, de toute façon, un nouveau régulateur doit être prévu. La seule contrainte est de s’assurer que le module de régulation de l’installation de cogénération puisse communiquer avec le régulateur de chaufferie et s’intégrer dans la cascade

Cas d’une chaufferie existante

Hydraulique
Pour que l’intégration de la cogénération dans l’installation hydraulique d’une chaufferie existante soit une réussite, l’analyse de la situation par le bureau d’études en technique spéciale (ou par l’installateur pour les petits projets) doit être fine. Les contraintes d’intégration ne manquent pas. Celles qui sont à pointer sont généralement :

  • L’espace disponible dans la chaufferie pour les différents équipements comme le cogénérateur, le ou les ballons de stockage, l’armoire de régulation.
  • L’espace sur le circuit hydraulique pour placer les points d’injection de la chaleur du cogénérateur. Il doit bien être choisi par rapport aux chaudières existantes de manière à ne pas ou peu perturber l’équilibre hydraulique existant. L’intégration hydraulique doit tenir compte aussi des caractéristiques des chaudières.Par exemple :
    • Lorsque les chaudières existantes sont des chaudières à condensation, idéalement, le cogénérateur doit être placé en parallèle, et ce afin d’éviter de réchauffer le retour des chaudières. Lorsque les équilibres hydrauliques ne sont plus assurés par l’insertion d’un cogénérateur, il y aura lieu de redimensionner complètement le circuit primaire de manière à tenir compte de la redistribution des débits et des pertes de charge en fonction des caractéristiques hydrauliques des équipements en présence sur le circuit primaire.
    • Lorsque les chaudières existantes sont des chaudières à haute température, la configuration série est envisageable.

Il est toujours intéressant d’avoir un avis sans engagement d’un installateur sachant que, in fine, c’est lui qui aura les contraintes d’une bonne intégration de l’installation de cogénération en partenariat avec le bureau d’études.

Régulation
La régulation existante de la chaufferie doit pouvoir au minimum intégrer la cogénération dans la séquence de cascade des chaudières. Si ce n’est pas le cas, cette absence de communication des régulateurs des chaudières et de la cogénération risque de compromettre le bon fonctionnement du cogénérateur. En effet, on observe en pratique que l’installation de cogénération fonctionne moins d’heures que prévu et effectue des cycles de démarrage/arrêt importants.

C’est essentiellement dû au fait que les chaudières sont régulées sur base de courbes de chauffe à températures de consigne glissantes en fonction de la température externe, donc variables. La consigne de température pour réguler le fonctionnement de la cogénération est, quant à elle, fixe. Il en résulte que lorsque les deux systèmes ne communiquent pas :

  • En période froide, les consignes de démarrage des chaudières sont élevées par rapport à celles de la cogénération. Les chaudières sont donc mises en avant par rapport à la cogénération ; ce qui n’est pas le but recherché.
  • En mi-saison, les consignes des chaudières sont basses et en dessous de celles du cogénérateur et, par conséquent, le cogénérateur démarrera avant les chaudières. C’est bien, mais trop tard dans la saison de chauffe.

Dans le cas où la régulation existante des chaudières ne peut pas intégrer cette séquence de cascade et, pour autant qu’individuellement les régulateurs des différents équipements puissent accepter de l’être, il est donc impératif de prévoir un élément de régulation qui chapeaute les deux régulateurs.

Un autre moyen d’intégration est de prévoir un nouveau régulateur qui permette d’intégrer l’ensemble des équipements.


Le projet

Les étapes essentielles de tout projet, à partir du moment où la décision d’installer une unité de cogénération est prise, sont les suivantes :

  • étude des travaux électriques et thermiques ;
  • approbation des plans par le maître d’œuvre et les organismes de contrôle ;
  • commande des matériels (attention aux délais) ;
  • chantier pour le génie civil ;
  • installation du cogénérateur et raccordement (cheminée, combustible, chaleur et électricité) ;
  • travaux d’électricité (raccordement au réseau) ;
  • travaux thermiques (intégration hydraulique du cogénérateur en chaufferie) ;
  • système de régulation (intégration de la régulation du cogénérateur au système de régulation central de la chaufferie) ;
  • mise en route et essais ;
  • réception provisoire ;
  • « commissioning » (analyse et vérification des performances énergétique, environnementale et financière de l’installation) ;
  • réception définitive.

Dimensionnement

      BE   

En appui du cahier des charges pour la cogénération, le vadémécum se doit d’insister sur le dimensionnement de la cogénération surtout en tenant compte de la composante URE :

  • Un cogénérateur surdimensionné effectuera des cycles courts marche/arrêt ; ce qui réduira sa durée de vie. Le surdimensionnement d’une cogénération vient souvent du fait que l’on n’a pas de tenu compte à moyen terme de l’amélioration énergétique de l’enveloppe du bâtiment (changement des châssis vitrés, isolation des murs et des toitures, …) et des systèmes de production de chaleur et d’ECS.
  • Un sous-dimensionnement réduit la rentabilité du projet.

L’étude de faisabilité donne la méthodologie et les bonnes hypothèses aux auteurs de projet pour dimensionner et choisir une installation de cogénération dans les règles de l’art. Les outils de calcul CogenSim et CogenExtrapolation arrivent à un degré de précision suffisant (10 %) pour déterminer des points de vue  énergétique, environnemental et économique si un projet de cogénération est viable. Attention que ces outils se basent sur une mesure des besoins thermiques et électriques.

Cahier des charges

      BE   

Un cahier des charges pour la cogénération est disponible ici.

Ici, on voudrait juste pointer les petites inclusions à réaliser dans les cahiers des charges de manière à éviter les pièges de l’intégration hydraulique et de la régulation. Attention cependant que le cahier spécial des charges est à utiliser avec précaution sachant que chaque projet est un cas particulier. Le « copier/coller » pur et dur est à proscrire.

URE

Sensibilisation à l’URE

Si on veut rester cohérent par rapport à la notion de durabilité dans le bâtiment, l’URE doit être envisagée en premier lieu de manière à réduire les besoins de chaleur ET d’électricité.
Si des actions URE sont prévues dans le cadre du projet, il est impératif de le préciser dans le cahier des charges. En général, l’entreprise en techniques spéciales effectue un redimensionnement de contrôle ; c’est souvent demandé par le bureau d’études. Régulièrement, l’action URE ne s’arrête pas à l’amélioration énergétique de l’enveloppe, mais aussi au niveau des techniques spéciales :

  • On en profite pour remplacer une, voire toutes les chaudières de la chaufferie. La chaudière à condensation, dans ce cas-là, est souvent préconisée.
  • On enlève le bouclage de collecteur.
  • On prévoit une bouteille casse-pression pour mettre en place un découplage hydraulique des circuits primaire et secondaire.
  • Pour assurer un retour froid aux chaudières à condensation et au cogénérateur, on prévoit de réguler les débits primaires par des variateurs de vitesse, et ce sur base de la différence de température de part et d’autre de la bouteille casse-pression.

Au travers de son cahier des charges, le bureau d’étude devra sensibiliser par une remarque générale l’entreprise en technique spéciale de l’intention rapide, à court ou moyen terme, du maitre d’ouvrage d’entamer une action URE. Cette précision permet d’anticiper la configuration hydraulique adéquate en fonction de cette action URE.

Par exemple, le fait d’envisager à court ou moyen terme de remplacer une chaudière classique par une chaudière à condensation conditionne le positionnement hydraulique du cogénérateur vers une configuration parallèle.

Adaptation des débits primaires aux débits secondaires

Bien souvent, et à juste titre, les bureaux d’études en techniques spéciales aiment bien le concept de bouteille casse-pression, car elle permet d’éviter pas mal de problèmes de perturbation (ou « dérangement ») hydraulique et de régulation entre les circuits primaires et secondaires. Cependant, la faiblesse de ce découplage hydraulique qu’est la bouteille casse-pression réside dans le risque de ruiner tous les efforts réalisés pour mettre en place une politique URE. Comme on l’a vu précédemment, sans régulation des débits en amont et aval de la bouteille casse-pression, le retour primaire risque d’être chaud. La plupart des installations qui ont des problèmes de chaudières à condensation ne condensant pas et/ou des cogénérateurs fonctionnant peu d’heures sont équipées de bouteilles casse-pressions non régulées. Il y a donc lieu de prévoir dans le cahier des charges une clause énergétique qui décrit la régulation autour de la bouteille casse-pression.

Hydraulique

Les clauses du cahier des charges relatives à l’hydraulique devront être écrites différemment en fonction de différents paramètres :

  • La configuration hydraulique existante et future en fonction des actions URE envisagées.
  • Le type de chaudière maintenu ou nouveau envisagé. Par exemple, on préfèrera la configuration en parallèle lorsqu’on prévoit le placement en chaufferie de chaudières à condensation.

Régulation

Maintes fois soulignée dans ce vadémécum, l’importance de la communication entre les régulateurs des chaudières et du cogénérateur ne fait pas l’ombre d’un doute. Le bureau d’études devra la décrire dans son cahier des charges de manière détaillée.

Lorsque les circulateurs ou pompes de circulation à vitesse variable des chaudières et du ballon de stockage débitent dans le circuit primaire en amont d’une bouteille casse-pression, ils peuvent fonctionner à faible débit ou carrément être mis à l’arrêt quand les besoins de chaleur côté secondaire sont faibles. Lorsque ces derniers redeviennent importants, il est nécessaire de redémarrer les pompes ou les circulateurs. Cela ne peut se faire qu’en intégrant les variations de température au secondaire de la bouteille casse-pression. Il faudra donc décrire ce point de régulation dans le cahier des charges.

Gestion Technique Centralisée (GTC)

Normalement quand la cogénération est de qualité, des compteurs d’énergie thermique, électrique ainsi qu’un compteur combustible peuvent être « télégérés ». Ces compteurs sont indispensables dans toutes les installations de cogénération si le maître d’ouvrage veut valoriser son économie de CO2 sous forme de Certificat Vert CV (voir les prescriptions de la CWaPE et de Brugel).

Indépendamment de cela, une supervision (GTC) peut être envisagée pour affiner la gestion de la cogénération. Vu que la période de garantie permet d’analyser le comportement de l’installation de cogénération intégrée dans la chaufferie en situation réelle, on conseillera de décrire la télégestion du cogénérateur dans le cahier des charges. C’est vrai que c’est un coût complémentaire, mais il rendra immanquablement d’énormes services au maître d’ouvrage. En effet, moyennant la description d’un protocole précis d’analyse des paramètres du cogénérateur (« Commissioning »), d’emblée, pendant la période de garantie, l’enregistrement des valeurs de ces paramètres permettra de se faire une idée précise du bon fonctionnement de l’ensemble de l’installation. Voici une liste non exhaustive des paramètres que le bureau d’études pourrait décrire dans son cahier des charges :

  • Nombre d’heures de fonctionnement de la cogénération avec les dates et heures ;
  • en fonction du temps :
    • les températures du ballon, du retour du cogénérateur, … ;
    • l’état de fonctionnement de la cogénération ;
    • l’état des alarmes ;
    •  …

Lorsque la communication est possible entre les régulateurs de la chaufferie et de la cogénération, on conseille aussi de décrire dans le cahier des charges la télégestion du régulateur de chaufferie de manière à avoir une vue d’ensemble du fonctionnement de la chaufferie y compris le cogénérateur. Voici de nouveau une liste non exhaustive des paramètres que le BE pourrait intégrer dans son cahier des charges :

  • température externe ;
  • températures aux entrées et sorties de la bouteille casse-pression si présentes ;
  • températures des départs des circuits secondaires ;
  • températures de consigne de la cascade de chaudières ;
  • niveau d’ouverture des vannes des circuits secondaires ;
  • états des chaudières ;

L’exécution

     MO       BE       INST

L’administration

Une série de démarches administratives sont nécessaires avant et pendant la mise en œuvre du projet.

Avant exécution des travaux

  • Obtenir le permis de construire.
  • Obtenir le permis d’environnement (ou permis unique).
  • Obtenir l’accord écrit du distributeur d’électricité sur le cahier des charges relatif au raccordement électrique.
  • Réservation des CV auprès de la DGO4 et demande d’avis de la CWAPE sur les valeurs à attribuer au kCO2 et au keco.

Implantation des ouvrages

  • Faire exécuter le piquetage par un géomètre.
  • Placer les panneaux de chantier.
  • Placer les palissades pour la protection des installations de chantier.
  • Définir et assurer le système qualité du chantier.

Plan d’hygiène et de sécurité du chantier

  • Fournir le plan des locaux pour le personnel et leurs accès.
  • Assurer les dessertes pour réseaux d’eau, d’électricité et d’assainissement.
  • Désigner le responsable de coordination entre maître d’ouvrage et maître d’œuvre.
  • Définir les emplacements mis à disposition pour l’entreprise : des installations, matériels, fluides et énergie pour l’exécution des travaux.

Calendrier d’exécution des travaux

  • Établir un programme d’exécution des travaux.
  • Définir les matériels et méthodes utilisés.
  • Définir le calendrier d’intervention sur le réseau électrique.
  • Définir le calendrier d’intervention sur le réseau de chauffage.
  • Informer sur la continuité de services des installations ou dates d’interruptions.

Énergie

  • Électricité : définir les conditions de comptage, de raccordement, de mise sous tension (protection) et de mise en service (réception).
  • Gaz : définir les conditions de livraison, pression, comptage.

Le suivi de chantier

L’exécution du chantier d’intégration de la cogénération est une phase très importante. En effet, c’est à ce niveau que le dimensionnement, la rédaction des cahiers des charges, l’exécution des plans, … sont confrontés à la réalité de terrain qui nécessite souvent des compromis comme :

  • L’arbitrage des choix d’équipements sur base des fiches techniques. Les caractéristiques ne correspondent pas toujours « tip top » aux prescriptions des cahiers des charges, aux dimensionnements, etc.
  • L’adaptation des tracés des circuits hydrauliques en fonction des modifications en cours de chantier qui peuvent intervenir.

Les réunions de chantier sont là pour trouver les compromis nécessaires à la bonne réalisation du projet d’intégration.


Les réceptions

   MO       BE       INST

La réception provisoire

La réception provisoire n’est pas toujours exécutée à la période idéale; c’est-à-dire lorsque les besoins de chaleur sont suffisants pour faire fonctionner l’installation de cogénération. La période idéale pour réceptionner l’installation est en mi-saison sachant que l’on peut réellement observer le bon fonctionnement du régulateur du système de cogénération et de la communication entre ce dernier et le régulateur de chaufferie. En hiver, la réception ne devrait pas poser trop de problèmes. Par contre en été, la réception pose réellement un problème, car, même si des besoins d’Eau Chaude Sanitaire (ECS) sont présents, les tests d’interaction entre la ou les chaudières et l’installation de cogénération sont limités vu les faibles besoins de chaleur.

Dans la mesure du possible il faut éviter cette période.

Toute une série de tests devra être réalisée lors de la réception provisoire. Ils devront être décrits de manière  précise dans le cahier des charges si l’on veut éviter que « pleuvent les suppléments ». Les grandes lignes des tests à réaliser sont reprises ci-dessous en mi saison par exemple. Outre les tests classiques inhérents aux installations de chauffage (sécurités sur les équipements, équilibrage des circuits, autorité réelle des vannes motorisées, tests des pompes de circulation ou des circulateurs, …), à l’installation de cogénération (sécurités, marche/arrêt du cogénérateur sur base des consignes de température,  …), on pointera les tests spécifiques à réaliser sur les interactions entre la chaufferie et l’installation de cogénération (liste non exhaustive) :

  • Tester la séquence de cascade du cogénérateur par rapport aux chaudières :
    • Le cogénérateur doit être en tête de cascade lorsque des besoins de chaleur réapparaissent après une période de non-demande.
    • Lorsque le cogénérateur ne couvre pas les besoins de chaleur, les chaudières doivent s’enclencher séquentiellement de manière optimale. À l’inverse, quand les besoins diminuent, la séquence d’arrêt des chaudières doit être opérationnelle. Le cogénérateur devra être arrêté en dernier lieu si les besoins deviennent faibles.
  • Tester l’adaptation des débits primaires en fonction des débits secondaires. Lorsqu’une bouteille casse-pression est présente avec des sondes de température de part et d’autre de celle-ci, les débits primaires doivent bien s’adapter au Δ de température donné par les sondes. On pourra mesurer aussi à différents moments de la journée les quatre températures des conduites d’alimentation de la bouteille casse-pression.
  • Analyser le comportement de l’installation de cogénération en fonction d’une demande importante d’ECS. L’augmentation temporaire de la consigne de température du départ primaire pour satisfaire ce type de besoin ne doit pas permettre le réchauffement du retour primaire au-dessus de la consigne d’arrêt du cogénérateur. C’est une manière de constater que l’échangeur du circuit ECS est bien surdimensionné pour pouvoir ramener sur le retour primaire de l’eau chaude la plus froide possible (c’est un paradoxe !).
  • Vérifier que les puissances et rendements électrique et thermique sont conformes au cahier des charges.

En cas de réception provisoire pendant la période d’été, on ne peut évidemment pas analyser et tester les installations dans des conditions optimales. Les seuls tests qui peuvent être réalisés sont principalement :

  • l’équilibrage des circuits;
  • la vérification des débits nominaux.

La période de garantie

Comme signalé précédemment, dans le cahier des charges, il est important de décrire une période de garantie d’un an au minimum pour pouvoir couvrir une saison de chauffe complète et deux mi-saisons.

Pendant cette période, si une installation de Gestion Technique Centralisée (GTC) a été décrite dans le cahier des charges, un protocole de « commissioning » (sur base d’une analyse fonctionnelle) devra être mis en place de manière à contrôler le bon fonctionnement de la cogénération. Lorsqu’une GTC n’a pas été décrite dans le cahier des charges, Il faudra prévoir un relevé manuel des paramètres de fonctionnement principaux du cogénérateur, et ce à intervalles réguliers. On conseille aussi de décrire dans le cahier des charges le protocole d’analyse et de présentation des résultats issus des « trends » (enregistrements).

La réception définitive

La réception définitive en fin de garantie représente la dernière chance de pouvoir définitivement optimiser l’intégration en chaufferie de l’installation de cogénération. Elle n’est en fait qu’une  « deadline » ! Le gros des remarques par rapport à l’intégration du cogénérateur aura dû être résolu pendant la période de garantie.


Les documents utiles

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Prescriptions relatives aux espaces extérieurs

Prescriptions relatives aux espaces extérieurs


Éclairement des espaces extérieurs

Éclairement moyen recommandé au niveau du sol (en lux)

Circulation générale Trottoirs réservés aux  piétons.

5

Pour des véhicules se déplaçant lentement (max 10 Km/h).

10

Circulation régulière de véhicules (40 km/h max.).

20

Passages piéton, point de chargement et déchargement des véhicules.

50

Parkings

Circulation peu intense comme parkings de magasin, maisons alignées et immeubles collectifs ; parking pour vélo.

5

Densité de circulation moyenne comme immeuble de bureaux, complexes sportifs, de grands magasin.

10

Circulation intense comme parkings des grands centres commerciaux, grands complexes sportif et polyvalent.

20


Uniformités des espaces extérieurs

Uniformité Emin / Emoy  recommandée au niveau du sol

Circulation générale
  • Trottoirs réservés aux piétons pour des véhicules se déplaçant lentement (max 10 Km/h) ;
  • Circulation régulière de véhicules (40km/h max.) ;
  • Passages piéton ;
  • Point de chargement et déchargement des véhicules.
0,25
0,4
0,4
0,4
Parkings
  • Circulation peu intense comme parkings de magasin, maisons alignées et immeubles collectifs, parking pour vélo ;
  • Densité de circulation moyenne comme immeuble de bureaux, complexes sportifs, de grands magasins ;
  • Circulation intense comme parkings des grands centres commerciaux, grands complexes sportif et polyvalent.
0,25
0,25
0,25

Régler les débits de ventilation

Régler les débits de ventilation [gérer - ventilation]


Principes de réglage

Avant tout chose, il convient de ne pas confondre : régler les débits d’air ce n’est pas les réguler !

  • Réguler les débits d’air c’est modifier l’alimentation en air des locaux en fonction de conditions et de paramètres intérieures et ou extérieurs. Par exemple, si la pollution d’un local dépasse un seuil limite, les débits peuvent être automatiquement réguler à la hausse pour évacuer ce trop plein de pollution intérieur.
  • Régler les débits d’air consiste à effectuer le réglage complet du système juste après son installation (complète !) pour lui permettre d’atteindre les débits prévus lors de la conception. Il s’agit donc du réglage des bouches de pulsion et d’extraction, des clapets de régulation, des ventilateurs, des systèmes de distributions, etc.

Régler une installation, c’est donc assurer dans chaque local le débit d’air nécessaire. Ni plus, ni moins. Par souci de confort et d’économie d’énergie. Cette opération est normalement effectuée par l’installateur avant la réception des travaux, pour ajuster les débits aux valeurs prévues par le bureau d’études. Mais une mise au point ultérieure par le gestionnaire est parfois nécessaire en fonction de l’occupation effective du bâtiment.
L’équilibrage est réalisé dans les conditions normales de fonctionnement, soit

  • avec portes intérieures fermées, sauf si l’usage courant les destine à rester ouvertes,
  • avec portes et fenêtres extérieures fermées,
  • avec l’extraction en fonctionnement dans le cas d’un système double flux.

Il est grandement favorisé par l’existence d’organes de réglage des débits aux bouches et en tête des branches. À défaut, des diaphragmes de réglage peuvent être insérés dans les conduits, mais leur utilisation est moins souple.

Deux principes dirigent le travail :

  1. Tous les débits d’une distribution restent proportionnels entre eux lorsque le débit en tête varie. Autrement dit, si une bouche est réglée pour diffuser un débit double de sa voisine, ce rapport restera quel que soit le débit qui les alimentera.
    Ce principe va entraîner le réglage proportionnel de toutes les bouches d’une branche, puis toutes les branches entre elles, sans se soucier du débit effectif. En fin de travail seulement, le débit total souhaité sera réglé au ventilateur… et donc automatiquement à toutes les bouches.
  2. Après équilibrage de l’ensemble, la consommation d’électricité est la plus faible :

    • Si au moins un organe de réglage de bouche est totalement ouvert (c’est la bouche la plus défavorisée),
    • si au moins un organe de réglage de branche est totalement ouvert (c’est la branche la plus défavorisée),
    • et si le registre du ventilateur est ouvert totalement (à partir du moment où le ventilateur a été correctement dimensionné).

Un exemple vaut mieux qu’un long discours :

Calculs

Un programme de simulation de l’équilibrage d’un réseau aéraulique vous permet de tester la méthode, en vous amusant !

Objectif ? En agissant sur les ouvertures de vannes, il faut obtenir les débits souhaités en adaptant les débits réels.

Suggestion : Imprimer préalablement le mode d’emploi ci-dessous pour l’avoir à côté de soi lors de l’utilisation du programme.


Méthodes d’équilibrage de l’installation

Mode d’emploi de l’équilibrage

  1. Commencer par ouvrir tous les organes d’équilibrage du réseau (bouches, têtes des branches, registre du ventilateur). Sur le terrain, il faudra maintenir le registre du ventilateur à une position proche de la fermeture pour ne pas dépasser la limite de charge du ventilateur (à contrôler par la mesure du courant absorbé par le moteur). Dans les réseaux à débit variable, placer les points de consigne des régulateurs de débit à leur valeur maximale.
  2. Réaliser un premier ajustement des débits (régler approximativement le ventilateur pour que son débit soit légèrement supérieur (10 %) à sa valeur nominale, approcher l’équilibrage en tête des branches par un premier réglage grossier). Cette opération permet d’arriver plus facilement au bon résultat sur le terrain. Elle ne doit pas être faite sur le programme de simulation.
  3. Attaquer une branche (de préférence la branche la plus défavorisée) : repérer la bouche la plus défavorisée (voir remarque ci-dessous), mesurer son débit, laisser son réglage ouvert à 100 %, puis régler le débit de toutes les autres bouches de la branche à un débit proportionnel à celui de la bouche la plus défavorisée. Tous les débits obtenus seront incorrects en valeur, mais corrects dans les proportions entre eux.
  4. Procéder de même pour chaque branche.
  5. Régler les registres des têtes de branches de la même manière : les proportions entre branches doivent être correctes, en vous référant à la demande de la branche la plus défavorisée pour laquelle le registre reste ouvert.
  6. Enfin régler le débit du ventilateur à la valeur totale souhaitée. Normalement, si le ventilateur a été correctement dimensionné ou s’il dispose d’un régulateur de débit, le registre du ventilateur devrait rester ouvert à 100 %. Freiner après le ventilateur, c’est appuyer en même temps sur l’accélérateur et le frein d’une voiture…
Exemple pratique.

Dans le programme de simulation, prenons les 2 dernières bouches de la 3ème branche : elles demandent toutes deux 800 m³/h de débit. Or, sans toucher aux autres organes de réglages, l’une donne 416 m³/h et l’autre 219 m³/h. Fermons l’avant-dernière bouche jusqu’à 82,2 % d’ouverture. Cette fois, les 2 dernières bouches donnent 285 m³/h. Ce n’est donc pas le débit demandé, mais le rapport des débits entre eux est correct : l’avant-dernière bouche donne 100 % de la dernière, l’objectif du réglage est atteint. Après avoir réalisé le même travail avec toutes les autres bouches, il suffira d’adapter le débit total pour que tous les débits soient corrects.

Remarques.

  • Toucher au débit d’une bouche, c’est modifier le débit de toutes les bouches ! Le réglage est donc plus facile à faire sur ordinateur que sur le terrain : l’ordinateur calcule en permanence le rapport entre tous les débits. Sur le terrain, il faut travailler à deux, l’un restant à la dernière bouche durant tout le réglage de la branche et communiquant à son collègue l’évolution du débit…
  • Le programme de simulation permet de visualiser de façon didactique les étapes d’un équilibrage de réseau. Il n’est pas destiné à prédire le réglage d’un réseau déterminé… On ne peut donc y intégrer les données particulières de son propre bâtiment.
  • Ce type de travail est bien adapté aux réseaux pour lesquels la perte de charge des bouches est importante par rapport à la perte de charge des conduits. C’est souvent le cas pour les installations de conditionnement d’air, ce sera sans doute plus difficile dans le cas des réseaux de ventilation.
  • À la fin d’un équilibrage, il est utile de consigner par écrit les valeurs réglées : débits des bouches, pressions en amont des registres, tension, intensité et vitesse du ventilateur, température du réseau lors de l’opération,…
  • Il existe des bouches auto-régulatrices : dans une plage de pression donnée, le débit est maintenu relativement constant, ce qui facilite fortement l’opération, voire la rend inutile…
  • On entend par « bouche la plus défavorisée », celle qui est soumise à la plus faible pression différentielle pour des débits réglés à leur valeur nominale : c’est souvent la bouche la plus éloignée, parce que le trajet le plus long entraîne les pertes de charges les plus élevées. Mais cela peut être parfois l’avant-dernière bouche qui aurait un débit plus élevé et donc également des pertes de charges plus importantes.

Calculs

Si vous faites partie de ceux qui vont toujours voir les réponses à la fin sans chercher, il est possible de visionner le résultat de l’équilibrage… déjà tout fait par un autre ! Il faut admettre que vous avez déjà lu jusqu’ ici…

Groupe de ventilation

Groupe de ventilation


Composition

Le groupe de ventilation correspond à un caisson permettant de centraliser, en un même endroit accessible, la plupart des composants principaux de la ventilation hygiénique suivant le projet.

Dans le cas où le système permet de traiter l’air neuf et de climatiser les locaux on parlera plus souvent de caisson de traitement d’air (CTA).

Les principaux composants que l’on peut retrouver dans le groupe de ventilation ou le caisson de traitement d’air sont les suivant :


Accessibilité et emplacement

Le groupe de ventilation ou la centrale de traitement d’air rassemble un certains nombre des composants d’un réseau de ventilation. C’est pourquoi, peu importe son emplacement, il doit impérativement rester accessible afin de permettre les contrôles, entretiens, inspections, nettoyages, réglages, remplacements, … périodiques et nécessaires.

De manière générale, le groupe de ventilation peut se trouver :

  • soit à l’extérieur du bâtiment, bien souvent en toiture,
  • soit à l’intérieur d’un local technique, situé également en haut du bâtiment pour favoriser les prises et rejets d’air.

Mais le plus important est de savoir s’il se situe à l’intérieur ou à l’extérieur du volume protégé et isolé du bâtiment.

Situation dans le volume protégé

C’est la situation la plus recommandée.

Avantages

  • Si le groupe de ventilation est proche de l’enveloppe, le nombre et la longueur des conduits à isoler sont limités.
  • Le risque de condensation est réduit dans les conduits d’évacuation.
  • Le risque de givre est réduit pour la récupération de chaleur.
  • L’alimentation électrique est interne au bâtiment : pas de percement de l’enveloppe.

Inconvénients

  • Les conduits de prise et de rejet d’air à l’extérieur perce l’enveloppe isolée et étanche du bâtiment.
  • L’air froid extérieur entre vie les conduits; les parties de conduits situées entre l’enveloppe et le groupe de ventilation ou le caisson de traitement d’air doivent isolées pour éviter tout risque de condensation ou de refroidissement de l’ambiance intérieure.
  • De même ces portions de conduits doivent être limités au maximum ce qui peut s’opposer à un emplacement central du groupe de ventilation qui est bénéfique pour la distribution de l’air neuf au sein du bâtiment et à une limitation des pertes de charges.
  • Le local technique devrait être suffisamment grand, permettre l’accessibilité et l’entretien du caisson et être correctement isolé acoustiquement pour éviter la propagation des bruits des ventilateurs dans le bâtiment.

Situation hors du volume protégé

Il s’agit d’une situation courante mais peu recommandée.

Avantages

  • Si le groupe de ventilation est proche de l’enveloppe, le nombre et la longueur des conduits à isoler sont limités.
  • Le groupe est généralement situé en toiture (plate) ce qui permet de disposer de suffisamment de place et de limiter les portion de conduit de distribution à isoler.
  • Un local technique n’est pas nécessaire mais il faudra veiller à ce que le caisson de traitement d’air soit protéger des intempéries.
  • Les conduits de prises et rejets d’air sont limités à leur maximum voir quasi inexistants.

Inconvénients

  • Les conduits de distribution perce l’enveloppe isolée et étanche du bâtiment.
  • L’air traité au sein du groupe circule dans le conduits de distribution situé à l’extérieur; les parties de conduits situées entre l’enveloppe et le groupe de ventilation ou le caisson de traitement d’air doivent isolées pour éviter de détruire le traitement de l’air effectué au sein du caisson.
  • Un endroit suffisamment grand et accessible doit être disponible, ce qui n’est pas toujours le cas.
  • L’alimentation électrique est interne au bâtiment : de percement de  l’enveloppe.
  • Le caisson de traitement d’air est parfois visible ce qui n’est pas toujours très au goût des occupants ou architectes.

Appareils de filtration de l’air vicié

Appareils de filtration de l'air vicié


Principes et techniques de filtration

L’air vicié des cuisines est chargé en graisses, odeurs et fumées, notamment.

De manière à rejeter l’air le plus propre qui soit et à ne pas salir inutilement les filtres et le système de ventilation, divers appareils de traitement de l’air aspiré peuvent être installés. On distingue plusieurs technologies :

  • La filtration mécanique : les graisses sont récoltées grâce à certains principes physiques : choc, inertie, gravité, … dans des séparateurs de graisses.
  • La filtration biologique : les graisses sont « digérées » par un brouillard d’enzymes.
  • La filtration UV : les graisses sont détruites par effet de photolyse.
  • La filtration par brumisation : les graisses sont récoltées par agglomérations dans un nuage de vapeur d’eau.
  • La filtration électrostatique : les particules de fumées et de graisses sont récoltées par ionisation.
  • La filtration à charbon actif : les particules des odeurs sont retenue par la poudre de charbon actif.

Chacune des techniques de filtrations à ses caractéristiques propres pour extraire les particules de l’air rejeté. Aucune n’est efficace pour extraire à la fois les graisses, les fumées et les odeurs. Par exemple, les séparateurs de graisses ne peuvent pas filtrer les graisses à 100% et laissent passer les fumées et les odeurs, des systèmes secondaires ont été élaborés comme la filtration par UV ou biologique.

C’est pourquoi, plusieurs systèmes de filtration différents doivent être installés en série pour purifier l’air rejeté au maximum.

Une même règle est d’application pour tous ces systèmes: l’installation et l’entretien doit se faire par des professionnels.


La filtration mécanique

Les graisses sont extraites de l’air par chocs, effet d’inertie, centrifugation et gravité. On distingue deux technologies :

  • Les filtres qui sont des outils de filtration où les graisses restent emprisonnées, par exemple : filtre à treillis, filtre à choc ou filtre à charbon actif, …
  • Les séparateurs de graisses qui sont des outils de filtration ou les graisses sont extraites de l’air et récoltées dans un bac à condensats ou une gouttière, par exemple le séparateur de graisses cyclonique ainsi que certains filtres à chocs (filtre à chocs 1 couche sans zones inaccessibles). Les séparateurs de graisses ne retenant pas ou très peu de graisses sur leurs surfaces, ils sont un atout pour la sécurité anti-incendie et pour l’hygiène (pas de souches de bactéries inaccessibles).

Les filtres

S’ils sont utilisés, ils doivent toujours être en acier inoxydable et être utilisés en combinaison avec des séparateurs de graisses. Les filtres à treillis sont interdits dans les cuisines professionnelles. Un filtre ne peut être utilisé dans une hotte en tant que seul moyen de filtration (prEN 16282) pour des raisons de sécurité anti-incendie.

Les filtres à chocs ou labyrinthe sont composés de profilés en quinconce qui interceptent les particules de graisse, principalement :

  • Par effet d’inertie : à chaque virage autour d’un profilé, les particules sont projetées en dehors du flux d’air.
  • Par condensation des particules sur les surfaces « froides ». Dès lors, le rendement s’accroît avec une diminution de la vitesse de l’air. Le filtre à choc est donc l’outil optimal pour la filtration de l’air dans des zones humides, genre laverie ou lave-casseroles.

Les filtres à treillis correspondent à des filtres plans composés d’un treillis de fils d’acier.

Illustration filtres à treillis.

Filtre à choc (vue de face et en coupe).

Photo filtre à choc.

Filtre à treillis métallique et filtre à choc.

Avantages

  • Leur faible coût.

Inconvénient

  • Une rétention importante des graisses à l’intérieur des filtres ce qui accroit le risque d’incendie s’ils ne sont pas régulièrement lavés. En outre, l’intérieur des filtres n’étant pas accessible, il faut les remplacer régulièrement.
  • Une variation de la perte de charge (et donc du débit) en fonction de l’encrassement.
  • Pour les filtres à chocs, un faible rendement de 50% sur les particules de 10µ pour les filtres à une couche (on peut monter à 60% dans le cas des 2 couches).

Le séparateur de graisses à chocs

Le séparateur de graisses à chocs se différencie des filtres à chocs classiques par le fait que les ailettes sont ouvertes aux extrémités. Ceci permet un écoulement des graisses récoltées et également le nettoyage total des surfaces du séparateur de graisses.

Ne retenant pas les graisses à l’intérieur le séparateur de graisses ne représente pas de risque en cas d’incendie au moment où les flammes l’effleurent.

Avantages

  • Une perte de charge (et donc un débit) constant(e) avec l’encrassement,
  • Un entretien facile en lave-vaisselle,
  • Faible risque de développement d’un feu de cheminée.

Inconvénients

  • Un faible rendement de 50% sur les particules de 10µ, d’autant plus que des séparateurs de graisses à 2 couches n’existent pas.

Le séparateur de graisses à effet cyclonique

Grâce à la forme des séparateurs, l’air vicié effectue continuellement une spirale dans le même sens, les particules de graisse et d’eau sont séparées par centrifugation et récupérées par gravité dans un collecteur.

Photo séparateur de graisses à effet cyclonique.   Illustration séparateur de graisses à effet cyclonique.

Avantages

  • Un rendement maximal jusqu’à 90% pour des particules de 10µ.
  • Une perte de charge (et donc un débit) constant(e) avec l’encrassement,
  • Un entretien facile en lave vaisselle
  • Faible risque de développement d’un feu de cheminée.

Inconvénients

  • Un coût plus élevé

La filtration biologique

Ce système consiste à créer un brouillard d’enzymes agissant sur les graisses et les huiles détruisant ainsi tout résidu ayant passé le premier stade de filtration. Pour ceci un réseau de tubes et de buses est placé dans les plénums d’extraction, le gainage et le groupe. Deux modes de fonctionnement existent : aspersion en continu ou aspersion unique après le service.

Fonctionnement continu

Avantages

  • Élimine toutes les graisses dans l’air extrait et donc une grande partie des odeurs.
  • Récupération d’énergie thermique possible de manière optimale.
  • Supprime totalement les risques d’incendies, plus de dépôts de graisses, ce qui permet de revoir à la baisse les coûts d’entretien et les primes d’assurances
  • Entretien aisé simultanément avec l’entretien annuel obligatoire.
  • Le matériel, récupérateur + groupe restant propres, leur durée de vie est allongée.

Inconvénients

  • Comme le produit doit être utilisé en continu la consommation en produits biologiques, pour lequel on est lié au fabriquant, s’avère rapidement très onéreuse.
  • Ne peut être utilisé en combinaison avec un filtre à charbon actif.

Aspersion en fin de service uniquement

Avantages

  • Le gainage est nettoyé chaque soir, les risques d’incendie dans le gainage sont quasi nuls, ce qui permet de revoir à la baisse les coûts d’entretien et les primes d’assurances.
  • Le matériel, récupérateur + groupe restant propres, leur durée de vie est allongée.

Inconvénients

Peu d’inconvénients, sauf qu’il ne présente pas les avantages du fonctionnement à aspersion continue, donc :

  • Pas d’élimination des odeurs
  • Pas de récupération d’énergie possible, sauf par récupérateur moins efficace à large espacement d’ailettes.

La filtration par UV

Filtration par rayon UV dans les plénums d’extraction

En installant les lampes UV dans les plénums d’extraction l’effet  de photolyse est combiné à celui de l’ozonolyse, détruisant ainsi 100% des graisses résiduelles. En éliminant toutes les graisses dans l’air d’extraction, une récupération de haute efficacité peut être installée dans le groupe d’extraction. Sans ceci, un récupérateur de chaleur se colmaterait rapidement, causant une consommation de l’ensemble du système supérieure à un système sans récupérateur de chaleur.

Avantages

  • Élimine toutes les graisses dans l’air extrait et donc une grande partie des odeurs.
  • Récupération d’énergie thermique possible de manière optimale.
  • Supprime totalement les risques d’incendies, plus de dépôts de graisses, ce qui permet de revoir à la baisse les coûts d’entretien et les primes d’assurances
  • Entretien aisé simultanément avec l’entretien annuel obligatoire.
  • Le matériel, récupérateur + groupe restant propres, leur durée de vie est allongée.

Inconvénients

  • Les rayons UV et l’ozone étant nocifs pour l’homme, des mesures pour éviter toute exposition doivent être prises.
  • Après la durée de vie des lampes UV celles-ci doivent être remplacées par le fabriquant. La durée de vie des lampes UV varient selon le fabriquant de 6000h à 13000h.

Filtration par rayon UV dans un caisson placé hors du flux d’air

L’effet est le même que les systèmes avec les lampes placés dans le flux d’air. Cependant l’effet de photolyse étant absent, l’efficacité de destruction des graisses résiduelles ne dépasse pas les 70%.

Avantages

  • Ce système peut être placé des années après l’installation des hottes de ventilation.
  • Récupération d’énergie possible. Un échangeur à large espacement (moins efficace) ou échangeur autonettoyant est alors impératif.
  • Mêmes avantages que les systèmes UV placés dans le flux d’air. Mais moins performant

Inconvénients

Idem à ceux des systèmes UV placés dans le flux d’air

Générateur d’ozone

Ce système à la même fonction que les systèmes de filtration par UV placés hors du flux d’air, sauf que la génération d’ozone se fait par un autre processus chimique.
Avantages et inconvénients idem aux systèmes de filtration par UV placés hors du flux d’air.


La filtration par brumisation


Dans le cas de cuissons à très hautes températures (par exemple pour les woks ou barbecues), les graisses sont décomposées en très fines particules et passent facilement à travers les systèmes de filtrations « classiques » (filtration mécanique, enzymatique et UV).

Ceux-ci sont donc inutiles et le système d’extraction est alors conçu avec une filtration par brumisation. Cette technique consiste à projeter un brouillard de fines gouttelettes dans le système d’extraction. Les graisses s’agglomèrent autour des gouttelettes et l’eau viciée est alors récoltée et évacuée.

Avantages

  • Un rendement élevé pour les particules les plus fines

Inconvénients

  • Un coût plus élevé
  • Le besoin de raccordement à l’eau et son évacuation
  • Un coût de consommation d’eau en cas de non-recyclage
  • L’entretien et le nettoyage du bac ainsi que la filtration de l’eau si un recyclage de l’eau est effectué (peu courant)

La filtration électrostatique

Le filtre électrostatique comporte deux zones opérationnelles : une zone d’ionisation et une zone collectrice. Par la traversée de la zone d’ionisation, toutes les particules sont chargées positivement : elles sont alors ionisées. Les lames du filtre qui constituent la zone collectrice captent la totalité des particules par un champ électrostatique (négatif) de forte puissance. Le filtre électrostatique permet donc également de capter les fumées.

Avantage

Élimination des fumées dans le flux d’air rejeté

Inconvénients

Bien que le filtre électrostatique permette également d’éliminer les graisses résiduelles, ceci est fortement à déconseiller. La graisse se colmatant dans la zone collectrice, celle-ci perds rapidement son efficacité. Un nettoyage journalier est conseillé si le filtre électrostatique est utilisé sans autre système de filtration secondaire.


La filtration à charbon actif

Le filtre à charbon actif permet d’éliminer toutes les odeurs dans le flux d’air rejeté.

Avantage

Le filtre à charbon actif est l’élément indispensable là ou un air d’extraction complètement sans odeurs est demandé.

Inconvénients

Le filtre à charbon actif est très cher à l’achat, un filtre préliminaire éliminant toutes les graisses est donc impératif. Tel que : UV dans le flux d’air, hors du flux d’air ou générateur d’ozone. Les systèmes à enzymes sont à éviter. Ainsi le filtre à charbon actif peut fonctionner sans problème jusqu’à 6 mois (UV hors du flux d’air ou générateur d’ozone) ou jusqu’à 2 ans (filtre UV dans le flux d’air).
Bien que le filtre à charbon actif permette également d’éliminer les graisses résiduelles, ceci est fortement à déconseiller. La graisse se colmatant sur les particules actives du filtre à charbon actif, celui-ci perd rapidement de son efficacité. Un remplacement mensuel est alors nécessaire ce qui rendrait le système très onéreux


Comparaison des techniques de filtration

Système Élimination des graisses Élimination des fumées Élimination des odeurs Récupération d’énergie Protection du système de ventilation Lavable en lave-vaisselle Pare flamme Coût d’installation Coût d’entretien
Filtre à treillis Non €€€
Filtre à choc Non €€
Filtre à choc double Oui €€ €€
Séparateur de graisses à choc simple Non
Séparateur de graisses cyclonique Oui €€
UV dans le flux d’air Non €€
UV hors du flux d’air Non €€
Générateur d’ozone Non €€
Enzymes en continu Non €€ €€€
Enzymes après le service Non €€
Filtre électrostatique* Non €€
Filtre à charbon actif** Non €€€

Légende :
= optimal
= utilisable
= déconseillé ou non-utilisable
 * Les valeurs pour le filtre électrostatique ne sont valables que si un système d’élimination des graisses est prévu.
** Les valeurs pour le à charbon actif ne sont valables que si un système préliminaire de filtration par UV est installé.

Concevoir les percements

Concevoir les percements

Principe général

Les jonctions telles que les percements (passage de conduite, caisson de volet, portes, baies vitrées, boîtiers électriques, …) sont toujours des points délicats. On doit vérifier la parfaite jonction du raccord entre la paroi et le percement dès que ce dernier touche la ou les couche(s) de la façade qui assure l’étanchéité à l’air. Si cette jonction présente des espaces, il faut les colmater.

De manière générale, on essayera de réduire au maximum le nombre de percements.


Manchons et fourreaux

Les manchons

Les manchons sont des raccords préfabriqués permettant de réalisé la continuité entre l’élément cylindrique, le conduits ou tuyau, et la surface plane de la paroi. Il est composé d’un élément en forme de cône tronqué, permettant le resserrage autour du conduit, qui est soudé à un élément plan.

Sa mise en œuvre nécessite une place suffisante autour du percement et de la conduite et doit être effectué par l’installateur concerné par la technique.

Le manchon est fixé à la couche d’étanchéité à l’air du mur ou de la toiture grâce à des bandes adhésives simples ou doubles face. Cela nécessite donc que le manchon soit adapté à la nature du pare-air mis en place.

Les fourreaux

Lors de la pose du gros-œuvre, des fourreaux peuvent être mis en place pour accueillir plus tard le passage d’un conduit.

Lorsque le conduit a été mis en place, on dispose un resserrage sur le fourreaux et finalement un manchon souple vient terminer et réaliser la continuité de l’étanchéité à l’air entre l’enduit intérieur et le conduit.

Bruxelles Environnement a édité à une vidéo illustrative du traitement des percements par les câbles et les conduits dans une paroi bois :

Etanchéité à l’air : Percements étanches par les câbles et les conduits[Vidéo réalisée dans le cadre du projet Conclip, soutenu par Bruxelles Environnement].


Raccords souples

Les raccords souples sont très utiles pour les géométries plus complexes que les cylindres.

Sous forme liquide

Il s’agit ici d’appliquer un liquide effectuant le raccord d’étanchéité à l’air. Cette couche de jonction est renforcée par un géotextile permettant de reprendre les éventuels contraintes et d’éviter que la peinture ne se morcelle et que l’air puisse circuler.

Sous forme de ruban adhésif étirable

Des bandes de raccord plissées existent et permettent la jonction avec un conduit cylindrique. Ces bandes doivent ensuite être raccordées comme une jonction sec-sec avec la membrane pare-air ou une jonction sec-humide avec l’enduit.


Élément préfabriqué pour cheminée

Certains fabricants proposent des sorties de cheminée en toiture préfabriquées garantissant la continuité de l’étanchéité à l’air. Ces systèmes permettent également d’assurer la continuité de l’isolation thermique.

Concevoir les menuiseries

Concevoir les menuiseries

Importance de l’étanchéité à l’air des menuiseries extérieures

Les portes et châssis extérieures peuvent déforcer l’étanchéité à l’air globale du bâtiment si leur étanchéité propre n’est pas suffisante. C’est particulièrement le cas si l’étanchéité courante de l’enveloppe extérieur est bonne. Ainsi les châssis peuvent être responsable de près de 50% des fuites d’air.

La perméabilité à l’air d’un châssis est testé en usine et la classe de perméabilité à l’air est généralement communiqué par le fabricant dans ses spécifications techniques.

La norme NBN EN 12207 définit 4 classes de perméabilité à l’air de la classe 1, la moins performante, à la classe 4, la plus performante. Dans une de ses études, le CSTC a montré que la plupart des châssis actuels atteignaient la classe 4 qui est la classe recommandée pour garantir un bonne étanchéité à l’air des menuiseries extérieures.


Performances recommandées pour l’étanchéité à l’air

Concernant les châssis, les STS définissent des niveaux de performance d’étanchéité à l’air (PA2, PA2B, PA3) recommandés en fonction de la hauteur du châssis par rapport au sol.

Voici un tableau (selon les STS 52) reprenant les valeurs de perméabilité à l’air recommandées, en fonction de la hauteur du châssis par rapport au sol :

Hauteur par rapport au sol Perméabilité à l’air
0 à 10 m

10 à 18 m

18 à 25 m

25 à 50 m

> 50 m

PA2B (1) (3)

PA2B (3)

PA3

PA3

PA3

(1) Si il n’y a pas d’exigence particulière du point de vue thermique et/ou acoustique, on se contentera d’un niveau PA2.

(2) Si le bâtiment a une exposition sévère (digue de mer), on prendra un châssis de résistance PE3, et on le signalera dans le cahier spécial des charges.

(3) Si on est en présence de locaux avec air conditionné, un niveau PA3 s’avérera nécessaire.

Selon les STS 52 [5] le cahier spécial des charges peut, pour des raisons d’uniformisation ou d’aspect, prescrire le même niveau de performance pour tous les châssis du bâtiment en se basant sur les éléments de construction les plus exposés.


Les critères de choix

Lors du choix des menuiseries extérieures, il convient de faire particulièrement attention aux points suivant pour assurer l’étanchéité à l’air :

  • La compression des joints entre dormant et ouvrant : le réglage des quincaillerie doit être correctement réalisé pour assure la compression des joints lorsque la fenêtre est en position fermée;
  • La continuité des joints : la continuité des joints des être vérifiée sur le pourtour du châssis. Les jonctions entre deux joints doivent être soudées ou collées;
  • Le raccords entre les pare-closes et la menuiserie : l’étanchéité de ces raccords doit être vérifiés. Au besoin, ils peuvent être rendus étanche à l’air au moyen d’un joint souple, par exemple;
  • Les portes extérieures : le seuil d’une porte donnant vers un espace extérieur ou un espace adjacent non-chauffé est une source de fuite d’air importante. Il faut au minimum prévoir un joint brosse ou une plinthe à guillotine. Le mieux restant la pièce d’appui inférieure.

Concevoir les noeuds constructifs

Concevoir les noeuds constructifs

© B-ARCHITECTES / Architecture et Expertises.


Principe général

Les jonctions telles que les raccords entre les éléments de la construction (façade-toiture, façade-plancher au niveau de la plinthe, …) sont toujours des points délicats. On doit vérifier la parfaite jonction du raccord entre les différents éléments de construction dès que ce dernier touche la ou les couche(s) de la façade qui assure l’étanchéité à l’air. Si cette jonction présente des espaces, il faut les colmater.

La conception ou la vérification de l’étanchéité à l’air des nœuds constructifs d’un bâtiment est une adaptation des principes généraux valables pour les parties courantes et les types de jonction mais une réflexion par rapport à la géométrie du détails doit également être menée.

Les procédés de conception de l’étanchéité à l’air d’un bâtiment décrits et expliqués ci-après sont en grande partie basée sur les détails et conseils techniques donnés par le CSTC dans ses diverses publications.


Façades

Pour assurer l’étanchéité à l’air des façades, les points importants auxquels il faudra faire attention sont les jonctions des murs extérieurs avec les planchers et murs intérieurs, en pied de mur mais également à l’intégration des menuiseries. Les solutions à apporter seront différentes suivant la structure, lourde ou légère, du bâtiment.

Jonction façade-plancher

Dans le cas d’une structure lourde, la continuité de l’étanchéité à l’air est assurée par les enduits des deux pièces superposées et la dalle de plancher en béton coulé. Une attention particulière au joint doit être apportée. Dans le cas de hourdis, il faut s’assurer que le béton de second phase doit correctement remplir les cavités sur le pourtour complet pour assure la continuité entre la maçonnerie, le béton et les enduits.

Schéma jonction façade-plancher.

Dans le cas d’une construction légère, la position de la barrière à l’air doit être pensée dès la conception. En effet il faut prévoir une bande de pare-air à placer en attente sur les murs de pourtour horizontalement avant la mise en place des parois internes pour ensuite pouvoir effectuer le raccord entre les membranes pare-air de deux locaux superposés.

Deux cas existent:

  • soit le plancher repose sur le mur inférieur auquel cas la bande de pare-air doit être suffisamment longue pour recouvrir le mur intérieur sur une dizaine de centimètres, effectuer le tour du plancher et revenir sur une dizaine de centimètres au niveau de mur supérieur.
  • soit le plancher est ancré dans le mur de façade qui lui est continu du pied à la corniche auquel cas, la bande en attente, indispensable, doit être placée sur le pourtour là où viendra s’ancrer le plancher. Il conviendra de faire particulièrement attention aux percements et à ne pas déchirer le pare-air lors de la mise en place du plancher. Ce deuxième cas est également valable lorsque l’on isole par l’intérieur et que le plancher est désolidariser du mur extérieur.

Jonction façade-mur de refend

La jonction entre le mur extérieur et un mur intérieur perpendiculaire se fait par la continuité de l’enduit sur les deux faces. Toutefois, il convient de faire attention au encadrement de porte intérieur qui peuvent représenté des endroits de fuites s’ils ne sont pas enduits.

Dans le cas d’une construction légère, la position de la barrière à l’air doit être pensée dès la conception. En effet il faut prévoir une bande de pare-air à placer en attente sur les murs de pourtour avant la mise en place des parois internes pour ensuite pouvoir effectuer le raccord entre les membranes pare-air de deux pièces voisines. C’est le même principe, mais à la verticale, que dans le cas de la jonction façade-plancher.

Jonction façade-dalle de sol

Il convient de faire le raccord entre la dalle de sol coulée sur place qui est normalement intrinsèquement étanche à l’air et la partie courante du mur faisant office d’étanchéité à l’air : l’enduit dans le cas d’une structure lourde ou le pare-air dans le cas d’une structure légère.

On peut donc effectuer soit un raccord en enduisant un film d’étanchéité de sous la chape ou de sous l’isolant dans le plafonnage ou un disposant une couche de mortier périphérique effectuant le raccord entre l’enduit du mur et la dalle de sol.

Schéma -noeuds constructifs-jonction façade-dalle de sol.

La feuille d’étanchéité (9) faisant office de pare-air doit remonter suffisamment sur le bord pour être enduit par le plafonnage intérieur sur au moins 2 cm.

  1. Mur de structure.
  2. Bloc isolant.
  3. Isolation sur dalle.
  4. Joints verticaux ouverts.
  5. Membrane d’étanchéité.
  6. Membrane d’étanchéité.
  7. Feuille d’étanchéité.
  8. Feuille d’étanchéité.
  9. Feuille d’étanchéité.
  10. Interruption de l’enduit.
  11. Enduit.

Dans le cas d’une structure légère, une bande pare-air sera placé sur le pourtour pour effectuer la jonction entre la dalle et la paroi légère avant la pose du pare-air du mur en partie courante.

Bruxelles Environnement a édité à une vidéo illustrative du placement d’une telle bande :

Etanchéité à l’air : Pied de mur ossature bois [Vidéo réalisée dans le cadre du projet Conclip, soutenu par Bruxelles Environnement].

Dans le cas d’une isolation par l’intérieur, la continuité de l’étanchéité à l’air au pied du mur peut se faire en enduisant la membrane d’étanchéité de sous la chape dans le plafonnage ou en raccord avec le pare-vapeur du mur.

Schéma -noeuds constructifs-jonction façade-dalle de sol.

  1. Mur existant.
  2. Enduit existant.
  3. Dalle existante.
  4. Film d’étanchéité.
  5. Isolant thermique.
  6. Isolant périphérique.
  7. Membrane d’étanchéité.
  8. Chape armée.
  9. Film d’étanchéité.
  10. Isolant.
  11. Pare-vapeur.
  12. Finition.
  13. Panneau composite.
  14. Mousse isolante.
  15. Carrelage.
  16. plinthe.
  17. Joint d’étanchéité.

Jonction façade-châssis

Les fenêtres et portes extérieures sont toutes autant des percements de l’enveloppe du bâtiment que de l’étanchéité à l’air. Si ces menuiseries extérieurs sont déjà garanties étanche à l’air, il convient d’assurer la continuité entre le châssis étanche et l’élément courant du mur faisant office d’étanchéité à l’air.

Le moyen le plus courant d’effectuer cette jonction est de fixer une membrane d’étanchéité à l’air sur le pourtour du châssis au moyen d’un adhésif avant sa pose. Cette membrane pourra, une fois le châssis en place, recouvrir le tour de la baie et être enduit par le plafonnage ou raccordé au pare-air en partie courante. Une attention particulière devra être portée au coin afin d’éviter les plis surnuméraires et de faciliter la mise sous enduit de la membrane.

Schéma - noeuds constructifs- jonction façade-châssis.

Schéma - noeuds constructifs- jonction façade-châssis.

Bruxelles Environnement a édité une vidéo illustrative de cette technique :

Etanchéité à l’air : Pose d’une fenêtre, mur en brique, avec isolation par l’extérieur [Vidéo réalisée dans le cadre du projet Conclip, soutenu par Bruxelles Environnement].

La jonction d’étanchéité à l’air entre le dormant et l’enduit du mur peut également être réalisé avec un joint souple.

Dans le cas d’une structure légère ou d’un mur présentant une épaisseur d’isolation importante, un caisson en panneaux de bois ou en polystyrène haute densité peut être utilisé comme encadrement de la fenêtre. La continuité de l’étanchéité à l’air entre le châssis et le caisson est assuré par un joint continu ou une colle. Le raccord entre le caisson et la partie courante du mur grâce à une bande de membrane d’étanchéité à l’air faisant le pourtour et se noyant dans l’enduit du mur intérieur ou se collant sur le pare-air mis en place.


Toitures inclinées

La barrière d’étanchéité à l’air en partie courante est généralement réalisée avec le pare-vapeur. Il est en effet important d’éviter tout risque de condensation en toiture.

Dans la pente de toiture, la panne représente un point d’attention particulier. Il faut soigner son raccord ou son passage avec le pare-vapeur, le raccord peut se faire soit grâce à un lé en attente, soit en passant sous la panne, cas d’une rénovation par exemple, soit en l’interrompant et en effectuant une liaison avec la panne :

  • En faisant passer le pare-vapeur sous la panne de manière ininterrompue;

Schéma noeuds constructifs - toitures inclinées- 01.

  1. Première couche d’isolant.
  2. Deuxième couche d’isolant.
  3. Pare-vapeur.
  • Au moyen d’une bande de pare-vapeur placée en « attente » sur les pannes avant la mise en place des chevrons. Les parties courantes peuvent alors y être collées au moyen d’un ruban adhésif double face. Cette solution est la plus efficace car elle est pensée dès la conception;

Schéma noeuds constructifs - toitures inclinées- 02.

  1. Panne.
  2. Chevron.
  3. Pare-vapeur.
  4. Latte.
  5. Sous-toiture.
  6. Contre-latte.
  7. Couverture.
  8. Bande de pare-vapeur en attente.
  • Au moyen d’un joint de silicone (uniquement entre pare-vapeur et charpente). Ce joint sera éventuellement caché par la finition;

Schéma noeuds constructifs - toitures inclinées- 03.

  1. Panne.
  2. Chevron.
  3. Pare-vapeur.
  4. Contre-latte.
  5. Sous-toiture.
  6. Latte.
  7. Couverture.
  8. Joint-colle.
  • En comprimant le pare-vapeur entre un joint souple et une latte, le tout cloué ou vissé;

Schéma noeuds constructifs - toitures inclinées- 04.

  1. Pare-vapeur.
  2. Latte.
  3. Joint souple.
  •  Au moyen d’un ruban adhésif double face adhérant parfaitement au bois.

La finition intérieure final par panneaux de bois ou, par exemple, plaques de plâtres. devra être posée en minimisant le nombre de point de percement du pare-vapeur et en laissant un espace suffisant de 6 cm pour faire éventuellement passer des câbles électriques et installer des prises sans endommager la barrière d’étanchéité à l’air.

Finalement, certaines techniques d’isolation comme la toiture « sarking » mettent en place des panneaux préfabriqués intégrant une couche interne étanche à l’air faisant office de pare-vapeur. Il faudra donc veiller à réaliser une jonction correcte entre les panneaux suivant les recommandations du fabricant ou en utilisant des bandes adhésives.

Jonction toiture-façade

Ce type de jonction est traité soit par recouvrement du pare-vapeur par l’enduit de finition intérieur soit par jonction du pare-vapeur du mur et de celui de la toiture par collage ou ruban adhésif double face.

Pour se prémunir de toutes les déchirures qui pourraient avoir lieu dû aux différentes natures de matériaux, on rajoute un élément faisant la liaison entre l’enduit et la maçonnerie et le pare-vapeur de la toiture. Il convient de laisser aussi suffisamment de souplesse, réalisation d’une « boucle » au pare-vapeur de la toiture lors du raccord.
La jonction entre l’enduit et la finition intérieure de la toiture est réalisée par un joint souple.

Schéma noeuds constructifs - Jonction toiture-façade.

  1. Panne sablière.
  2. Chevron ou fermette.
  3. Planche de rive.
  4. Cale de bois.
  5. Panneaux isolants.
  6. Isolant entre chevrons ou fermette.
  7. Sous-toiture éventuelle.
  8. Contre-latte.
  9. Lattes.
  10. Latte plâtrière.
  11. Couverture.
  12. Gouttière.
  13. Bavette indépendante.
  14. Peigne.
  15. Finition intérieure.

 

 Jonction toiture-pignon

La jonction de la toiture avec un mur de maçonnerie sur le pignon s’effectue en enduisant le pare-vapeur dans la finition intérieure.

Schéma noeuds constructifs - Jonction toiture-pignon.

  1. Isolation
  2. Chevron ou fermette
  3. Isolation ou bloc isolant
  4. Mortier de scellement
  5. Sous-toiture
  6. Contre-latte
  7. Latte
  8. Rejet d’eau
  9. Tuile de rive
  10. Isolant entre chevrons
  11. Pare-vapeur
  12. Finition intérieure

La continuité de la barrière d’étanchéité à l’air peu aussi être réalisée par le collage au moyen de colle ou de ruban adhésif du pare-vapeur de la toiture sur l’enduit sec et propre du dépassement. Dans ce cas une finition intérieur supplémentaire devra être envisagée si les combles sont destinés à l’occupation.

Dans les deux cas, il convient de laisser suffisamment de souplesse au pare-vapeur pour éviter tous risques de déchirure dus aux contraintes qui peuvent apparaître. Un joint souple sera en plus prévu entre l’enduit de la maçonnerie et la finition intérieure de la toiture.

Jonction toiture-châssis

La plupart des châssis à intégrer dans la pente de toiture sont fournis avec un cadre isolant pour permettre la raccord avec l’isolation de la toiture. De même, un pourtour est préfixé au châssis pour faciliter sont intégration et réaliser la jonction avec le pare-vapeur de la toiture inclinée.

Schéma noeuds constructifs - Jonction toiture-châssis.Schéma noeuds constructifs - Jonction toiture-châssis.

  1. Contre latte.
  2. latte.
  3. Tuiles.
  4. Solin au-dessus des tuiles à la base du châssis.
  5. Raccord de la sous-toiture au châssis.
  6. Partie mobile de la fenêtre.
  7. Vitrage isolant.
  8. Étanchéité en plomb ou chéneau encastré.
  9. Raccord sous-toiture châssis.
  10. Chéneau en amont de la fenêtre.
  11. Isolation thermique.
  12. Étanchéité à l’air et à la vapeur.
  13. Volige de pied.
  14. Partie fixe de la fenêtre.
  15. Sous-toiture.
  16. Chevron.
  17. Finition intérieure devant espace technique.
  18. Cadre isolant.

Toitures plates

La réalisation de la continuité de l’étanchéité à l’air au raccord entre une toiture plate et le mur de façade se fait de manière similaire à une jonction entre la façade et un plancher :

  • dans le cas d’une structure lourde par dalle coulée sur place, la continuité de la maçonnerie et de l’enduit de finition intérieur garantit l’étanchéité à l’air;

Schéma noeuds constructifs - toiture plate.

Exemple de continuité de l’enduit dans le cas d’une continuité mur-toiture plate

  • dans le cas d’une structure lourde par hourdis, le béton de seconde phase sera utile pour effectuer le raccord de la barrière à l’air;
  • dans le cas d’une structure légère avec le plancher ancré, un lé en attente fera la liaison avec le pare-vapeur de la toiture;
  • dans le cas d’une structure légère avec le plancher posé sur le mur, le lé en attente fera le contour du plancher et dépassera suffisamment de chaque côté pour être relié au pare-vapeur du mur d’un côté et à celui de la toiture de l’autre.

Dans tous les cas, un joint souple entre les finitions intérieures du mur et du plafond permettra d’éviter l’apparition de fissures pouvant entraîner des fuites d’air.

Concevoir l’étanchéité à l’air



L’étanchéité à l’air : Daniel De Vroey vous conseille from Bruxelles Env. on Vimeo.
L’étanchéité à l’air est méconnue des professionnels car on ne la perçoit pas. Il est pourtant essentiel d’y penser, et ce à toutes les étapes de son projet.

L’étanchéité à l’air : Daniel De Vroey vous conseille from Bruxelles Env. on Vimeo.

L’étanchéité à l’air est méconnue des professionnels car on ne la perçoit pas. Il est pourtant essentiel d’y penser, et ce à toutes les étapes de son projet. Daniel De Vroey vous partage ses astuces.


Points d’attention

Avec l’isolation de plus en plus performante de nos bâtiments, leur étanchéité à l’air devient un point important pour contrôler les infiltrations et exfiltrations d’air et avec elles, certaines pertes d’énergie. La tendance actuelle est donc à une étanchéification la plus complète afin de pouvoir contrôler au mieux ces fuites d’air et de pouvoir assurer d’une ventilation efficace des locaux.

Les enduits intérieurs, les bétons coulés sur place et les membranes pare-vapeur sont des éléments intrinsèquement étanche à l’air. L’étanchéité complète de l’enveloppe doit donc être conçue en faisant très attention aux jonctions de ces éléments entre eux et avec les autres éléments de la construction.

Pour cela la mise en œuvre de l’étanchéité à l’air doit faire l’objet de certains points d’attention dès la conception mais aussi sur chantier.

On considère que l’étanchéité à l’air de l’enveloppe extérieur est assurée si :

Ainsi, il conviendra particulièrement de faire attention aux points suivants :

Les procédés de conception de l’étanchéité à l’air d’un bâtiment décrits et expliqués ci-après sont en grande partie basés sur les détails et conseils techniques donnés par le CSTC dans ses diverses publications.


Niveaux de référence

Étanchéité globale

En Wallonie, il n’existe pas de recommandations concernant l’étanchéité à l’air globale d’un bâtiment.

Par contre, la norme européenne EN 13779 recommande un taux de renouvellement d’air maximum à 50 Pa(n50) :

  • de 1/h pour les bâtiments hauts (> 3 étages);
  • de 2/h pour les bâtiments bas.

On peut également se référer à la norme NBN D 50-001 qui recommande :

  • n50 < 3/h si ventilation mécanique,
  • n50 < 1/h si récupérateur de chaleur.

À titre de comparaison, la région de Bruxelles-Capitale imposera en 2018 un niveau d’étanchéité à l’air n50 < 0.6/h (label passif) pour toute construction neuve, et n50 < 0.72/h pour les rénovations assimilées à de la construction neuve.

Étanchéité des fenêtres

En Belgique, les bâtiments des services publics doivent satisfaire aux exigences d’étanchéité suivantes :

Hauteur du bâtiment (h en [m])

Φ50 [m³/h.m]

h < 10

< 3,8

10 < h < 18

< 1,9

h > 18

< 1,3

Source : STS 52 – Menuiseries extérieures en bois. Fenêtres, porte-fenêtres et façades légères. Institut national du logement – Bruxelles – 1973.

Ces exigences sont relativement sévères par rapport aux autres pays (seuls les pays scandinaves ont des exigences plus sévères).

La figure ci-dessous donne un aperçu des valeurs d’étanchéité à l’air des menuiseries imposées par un certain nombre de pays occidentaux.

Schéma valeurs d'étanchéité à l'air des menuiseries.

Aperçu des exigences d’étanchéité à l’air des menuiseries dans différents pays occidentaux.


Les parties courantes

Volume à étanchéifier et position de la barrière d’étanchéité

Le volume du bâtiment à rendre étanche à l’air est le volume à isoler thermiquement. Ainsi l’écran étanche à l’air doit être placé au plus près de la barrière d’isolation, pour éviter au maximum les circulations d’air entre les deux écrans, du côté chaud de l’isolant, c’est-à-dire du côté intérieur pour un mur extérieur.

Tout comme l’isolation thermique, la position de l’enveloppe étanche à l’air du logement doit être choisie pour éviter le plus de percements de celle-ci et donc éviter des points faibles et des raccords difficiles à mettre en œuvre.

Matériaux de l’étanchéité à l’air

Chaque système constructif présente ses particularités d’un point de vue structurelle, ainsi la conception de l’étanchéité à l’air variera selon le mode de construction choisi : maçonnerie, ossature lourde, ossature bois, structure légère, etc.

Il est admis qu’un matériau est étanche à l’air quand sa perméabilité à l’air est inférieure à 0,1 m³/h.m² sous une différence de pression de 50 Pa.

Ainsi pour les constructions lourdes ou de maçonneries, l’étanchéité à l’air est réalisée au moyen des enduits intérieurs. Dans le cas des constructions légères, telles les ossatures bois, l’étanchéité à l’air peut-être atteinte grâce aux panneaux de bois et au pare-vapeur. Les bétons coulés et les chapes de béton font aussi office d’écran étanche à l’air.

Au contraire, des matériaux comme les maçonneries ou les lambris ne sont pas suffisamment imperméables à l’air et ne peuvent pas être utilisés pour mettre en œuvre la barrière d’étanchéité à l’air du bâtiment !

Remarque : les isolants souples avec feuille étanche à l’air (ex. aluminium) ou les isolants rigides étanches à l’air ne devraient pas non plus être utilisés comme écran à l’air. En effet, les techniques de mise en œuvre d’un isolant souple nécessitent généralement l’ajout d’une structure secondaire ou une installation entre chevrons. Dans ce cas-là, un pare-air supplémentaire sera toujours nécessaire pour assurer l’étanchéité des joints et jonctions. C’est également le cas pour les isolants rigides même si leur performance d’étanchéité à l’air est élevée.

L’enduit intérieur

Les enduits intérieurs n’ont pas qu’une qualité esthétique ! Ils ont une performance d’étanchéité à l’air élevée pour autant que l’épaisseur soit suffisante et que l’enduit ne se fissure pas (les fissurations peuvent être une source de fuites d’air). C’est pourquoi, on privilégie une couche minimale de 6 mm d’épaisseur lors de sa pose.

Lors de la conception et la pose du plafonnage ou de l’enduit, il convient de faire particulièrement attention aux endroits cachés : derrière une plinthe, un encadrement de porte ou de fenêtre, derrière une gaine, un mur de brique apparent, … Il faut veiller à la continuité de l’étanchéité à l’air même en ces endroits-là.

Schéma continuité de l'étanchéité à l'air.

L’enduit intérieur fait office de barrière d’étanchéité à l’air lors de la conception d’un mur creux dont les éléments (briques, blocs de béton,…) sont très peu étanches à l’air dû aux cavités présentes dans la matière.

Remarque : les plaques de plâtres sont étanches à l’air en elles-mêmes, mais la réalisation de joints est difficile et les apparitions de fissures à ces endroits sont fréquentes.

Le pare-vapeur ou pare-air

Pour les structures bois et plus généralement pour les structures légères, ce sont les membranes films souples les plus utilisées comme écran à l’air. Dans ce cas-là, la membrane combine les fonctions de pare-vapeur et d’étanchéité à l’air.

Dès lors comme pour les pares-vapeurs, les points d’attention se situeront principalement aux joints de raccord entre les lés de deux parties courantes. De même, les jonctions entre le pare-air et les autres éléments de la construction sont importantes pour garantir l’étanchéité complète du bâtiment.

Les panneaux de bois

Pour une construction en ossature bois ou en panneaux de bois pleins, il n’est pas rare que des panneaux de bois servent à rigidifier la structure. Ces panneaux sont composés de fibres de bois ou de fibres de bois et ciment. Certains ont une perméabilité à l’air inférieur à 0,1 m³/h.m² sous 50 Pa. Ainsi comme les enduits intérieurs n’ont pas qu’une fonction esthétique, ces panneaux de bois n’ont pas qu’une fonction structurelle et peuvent faire office de barrière étanche à l’air.

Dans ce cas, la mise en œuvre devra particulièrement faire attention à ce que les joints entre les panneaux soient rendus étanches à l’air également !

Le béton coulé

Comme les enduits, le béton coulé in situ présente des performances d’étanchéité à l’air importantes. Il convient également de porter une attention particulière aux joints et au jonctions périphériques.


Les jonctions

Pour concevoir efficacement l’étanchéité à l’air d’un bâtiment, il faut correctement réaliser les jonctions et joints entre les parties courantes. Les matériaux utiles à la mise en œuvre de l’étanchéité à l’air sont de type : enduits, films ou panneaux.

On distingue ainsi trois types de jonctions possibles à mettre en place :

  • la jonction sec-sec, par exemple entre deux panneaux de bois;
  • la jonction sec-humide, par exemple entre un film et un enduit;
  • et la jonction humide-humide, par exemple entre deux enduits de façades.

La jonction sec-sec

Ce type de jonction est réalisé au moyen de colle, mastic, bande adhésive ou avec un élément de compression mécanique.

La jonction sec-sec peut être réalisée entre :

  • deux lés de pare-air par un ruban adhésif simple ou double face, par une latte de serrage support par un collage ou par agrafe sur support.
  • un lé de pare-air et une surface d’enduit sec par collage ou ruban adhésif.
  • deux panneaux de bois par joint souple ou ruban adhésif.
  • deux surfaces d’enduit sec par un joint souple.

Dans le cas du raccord entre deux bandes de membranes pare-air, il convient de :

  • vérifier la propreté des parties à coller, souder ou compresser;
  • assurer un chevauchement suffisant des parties. Le ruban adhésif ou la colle ne sont que des moyens de jonction et ne peuvent pas être considérées comme des membranes étanches à l’air même si elles le sont;
  • si la structure est en bois, les membranes peuvent être agrafées mais celle-ci devront être recouvertes de ruban adhésif;
  • éviter de tendre la membrane d’étanchéité, afin de ne pas lui imposer des contraintes qui pourraient mener à des déchirures.

Ruban adhésif

Latte de serrage

Remarque : dans le cas ou les lés sont perpendiculaires à la structure, la jonction doit s’effectuer sur un support généralement souple comme de l’isolant. Un assemblage soit par chevauchement soit par joint debout et collage ou moyen de colle ou ruban adhésif double face avec une grande précision doit être réalisé.

La jonction sec-humide

Une jonction entre un film pare-air ou un panneau de bois et le mur enduit peut devoir être réalisée entre les menuiseries et la façade ou par exemple entre la toiture et le mur de pignon.

La membrane, partie sèche, doit être « noyée » dans l’enduit, partie humide, pour garantir la continuité de la barrière d’étanchéité à l’air. Il est donc nécessaire de prévoir un raccord suffisamment long, en attente, lors de la pose de la membrane pare-air en toiture ou au châssis pour effectuer le raccord.

La partie sèche doit pouvoir être enduite sans perdre ses caractéristiques physiques sans lui induire des contraintes qui pourraient la déchirée. Si ce n’est pas le cas, des bandes noyées existent et permettent de faire le raccords avec la membrane pare-air.

Exemple de jonction sec-humide de la toiture avec le mur de pignon : la membrane du pare-air a été laissée suffisamment longue pour ensuite être « noyée » dans l’enduit lors de la pose de celui-ci

  1. Isolation
  2. Chevron ou fermette
  3. Isolation ou bloc isolant
  4. Mortier de scellement
  5. Sous-toiture
  6. Contre-latte
  7. Latte
  8. Rejet d’eau
  9. Tuile de rive
  10. Isolant entre chevrons
  11. Pare-vapeur
  12. Finition intérieure

La jonction humide-humide

La jonction entre deux faces d’enduits, par exemple dans le coin d’une pièce est théoriquement la plus facile à réalisée, dans les règles de l’art du plafonneur.

Toutefois, le bâtiment doit pouvoir vivre et dans certains cas pour éviter l’apparition de fissures, deux parois doivent être désolidarisées, c’est particulièrement le cas à la jonction mur-plafond. L’enduit n’étant plus continu, on placera un joint souple afin de garantir la continuité de l’étanchéité à l’air.

Choisir un système de déshumidification

Choisir un système de déshumidification


Préalable : le besoin de déshumidification

En Belgique, l’humidité absolue extérieure dépasse rarement les 15 gr d’eau par kilo d’air, ce qui, pour des températures de l’ordre de 25° correspond à 70% d’humidité relative.

 

Température et humidité extérieure pour un mois de juillet moyen à Uccle.

Un tel niveau est confortable, et cela correspond à l’intuition : il est rare que l’on ait, en été, une sensation d’humidité exagérée, comme on le ressent sous les tropiques.

Trois cas de figure vont néanmoins justifier l’installation d’un système de deshumidification.

Le respect d’une consigne stricte

Théoriquement, un inconfort thermique lié à une trop grande humidité n’apparaît pas à moins de 70% d’humidité relative. Des exigences plus strictes peuvent cependant être énoncées par l’occupant, par exemple en référence à la norme NBN EN 15251. Tout comme pour l’humidification, des spécifications rigides dans un cahier des charges tel que « maintien des locaux à 21°C et 50 % HR » vont entraîner des gaspillages énergétiques. Au minimum, des seuils minimum et maximum doivent être exprimés, et pourquoi pas des périodes de dépassement autorisées (5… 10% du temps).

Quelque soit le niveau maximal d’humidité toléré, celui-ci ne pourra pas être maintenu à tout moment à l’intérieur d’un bâtiment sans recours à une installation de deshumidification. Il suffit en effet d’une météo orageuse pour que le niveau d’humidité de l’air extérieur devienne inconfortable.

L’acceptabilité de dépassements ponctuels du seuil d’humidité est comparable à l’acceptabilité de températures élevées dans un bâtiment. Elle dépendra de la capacité d’action de l’occupant (créer un courant d’air?… les moyens d’action contre une humidité trop élevée sont limités), de sa compréhension de l’origine de l’inconfort et de sa durée prévisible (« Ca va tomber ce soir! »), etc.

Enfin, il faut garder à l’esprit que la mesure dans la reprise d’air est souvent faussée, par l’échauffement de l’air au niveau des luminaires, notamment. Il n’est donc technologiquement pas simple de garantir un strict respect d’une consigne d’humidité.

La production d’humidité à l’intérieur

La présence d’occupants et de certaines activités dans un bâtiment dégagent de l’humidité : on parle de 70 à 100 gr d’eau par heure et par personne pour un travailleur de bureau. Cette humidité est diluée dans l’air neuf, et représente en conséquence une charge non négligeable de 1.9 à 2.8 gr d’eau par kilo d’air, sur base d’un débit d’air neuf de 30 m³/(h.personne).

Ajouté à l’humidité extérieure estivale, cette charge justifie le système de déshumidification. Existe-t-il une alternative? Oui : si le bâtiment est conçu pour fonctionner selon un mode « free cooling » lors des journées d’été, le taux d’air neuf sera beaucoup plus important, typiquement plus de 100 m³/(h.personne) dans le cas d’une ventilation naturelle. La charge d’humidité liée à l’occupation représente dès lors moins de 1 gr d’eau par kilo d’air, et les périodes de temps où cette charge, ajoutée à l’humidité extérieure, provoque un inconfort est limité.

Le risque de condensations surfaciques

Si dans le local se trouve un émetteur de refroidissement qui n’autorise pas de condensations surfaciques, tel qu’un plafond rayonnant ou une dalle active, il peut être nécessaire de contrôler le taux d’humidité de l’ambiance. Ces systèmes sont normalement conçus pour limiter le risque de condensation : ils sont alimentés avec une température d’eau la plus élevée possible, de façon à être au-dessus du point de rosée de l’ambiance.

Par exemple, avec un régime de température d’eau de 17°-20° dans un plafond rayonnant, un simple refroidissement de l’air à 16° est suffisant pour éviter les condensations. La température de rosée est donnée dans le tableau ci-dessous pour différentes combinaisons de température et d’humidité:

Température de l’ambiance Humidité relative de l’ambiance Température de rosée
21 50 10,19
60 12,95
70 15,33
23 50 12,03
60 14,82
70 17,24
25 50 13,86
60 16,70
70 19,15

La déshumidification concrètement

En pratique, la déshumidification d’une ambiance se fait par pulsion d’un air « asséchant », c’est à dire dont l’humidité absolue est inférieure à celle de l’ambiance. Pour produire cet air relativement sec, le principe couramment utilisé est la condensation : mis en contact avec une batterie d’eau glacée dans une centrale de traitement d’air, l’air se refroidit au-delà de son point de rosée et l’humidité excédentaire condense. Mais l’air sec obtenu est trop froid pour être amené tel quel dans un local. Il provoquerait un courant d’air inconfortable, voir une condensation malvenue de l’air du local à la sortie de la bouche du pulsion. Une postchauffe est donc généralement prévue au moyen d’une batterie alimentée en eau chaude ou d’une résistance électrique.

C’est le principe expliqué sur le diagramme de l’air humide ci-dessous :

  • On dispose au départ d’un air extérieur à 28°C et 17 greau/kgair (70.7%HR – point E) dont la température de rosée est de 22°C.
  • Le passage par la batterie d’eau glacée amène à 10.5°C et 8 greau/kgair (100%HR – point X). L’air a perdu environ 9 greau/kgair.
  • La postchauffe ramène à une température de soufflage confortable de 16°C pour 8 greau/kgair (70%HR – 36kJ/kg – point S).
  • Les conditions d’ambiance qui seront créées grâce à la pulsion de cet air dépendent du débit, de la production d’humidité par l’occupation, etc. Si l’on se base sur un dégagement intérieur dilué dans l’air neuf de 3 greau/kgair on arrive à 8+3=11 greau/kgair, ce qui, à 25°C, correspond à une humidité relative d’un peu plus de 50%.

Puisque la déshumidification se fait par condensation de l’humidité de l’air sur une batterie de refroidissement, la plupart des systèmes de production de froid traditionnels peuvent être utilisés. La seule condition est de disposer d’une batterie d’eau glacée, pour pouvoir amener l’air à une température suffisamment basse.

Oui mais… dans les pages sur la climatisation, il est dit qu’il faut choisir des systèmes de refroidissement à haute température, pour mieux valoriser la fraîcheur de l’environnement. Alors quoi ?

Il y a là en effet un conflit. L’expression d’un besoin de déshumidifier peut disqualifier des techniques intéressantes pour le refroidissement telles que les systèmes de geocooling ou de refroidissement adiabatiques. Ces techniques sont-elles donc à l’arrivé moins intéressantes qu’escompté? Pas nécessairement, car:

  • Le système de production de froid qui assure la déshumidification de l’air et celui qui est chargé du contrôle de la température des locaux ne sont pas forcément les mêmes. Les systèmes d’air conditionné des années 70 et 80, dans lesquelles des grands débits d’air froid assuraient le contrôle simultané de la température et de l’humidité n’ont plus autant la cote aujourd’hui. Le contrôle thermique des locaux se fait de plus en plus par boucle d’eau et plafonds rayonnants ou poutres froides, tandis que le traitement de l’humidité reste assuré par la pulsion de l’air hygiénique. Si les distributions sont différentes, les modes de production pourraient l’être aussi.

 

Combinaison d’un top cooling alimenté par une machine frigorifique à compression et de plafond rayonnants alimentés par un geocooling.

  • Le besoin de contrôle de l’humidité en été n’est sans doute pas aussi impérieux que celui de contrôle de température. Si l’approche de la conception du bâtiment et des systèmes est de limiter la consommation d’énergie en été par un contrôle des charges thermiques et un système de refroidissement à « haute température », peut-être n’est-il pas nécessaire de déshumidifier? Des inconforts ponctuels peuvent parfois être acceptés par les occupants. En outre, des températures intérieures légèrement plus élevées modifient sensiblement l’humidité relative : par exemple, pour une même humidité absolue de 13 greau/kgair, tolérer un glissement de température de 24 vers 26°C fait passer l’humidité relative de 70% à un petit peu plus de 60%.

Et puis, il existe une alternative à la déshumidification par batterie d’eau glacée : la roue dessicante, qui permet de refroidir et déshumidifier l’air pulsé au moyen… d’une source de chaleur. C’est donc une piste intéressante lorsque le bâtiment n’est pas équipé d’une machine de refroidissement traditionnelle.

 

Eléments d’une roue dessicante.

Enfin, pour la postchauffe, la question n’est pas différente de celle du choix d’une batterie de préchauffage de l’air neuf.


La consommation énergétique de la déshumidification

Le calcul de la consommation d’énergie pour la déshumidification est fonction de la chaleur de vaporisation de l’eau (0,694 Wh/gramme) et de la somme des écarts entre l’humidité extérieure et l’humidité de l’ambiance.

Puisque la déshumidification va systématiquement de pair avec le refroidissement, il est utile de s’intéresser au coût du mètre cube d’air traité en été. Celui-ci est de l’ordre de 55 kJ/md’air, en ce compris la postchauffe, pour un point de soufflage à 16°C et 70%HR. S’il n’avait pas été nécessaire d’abaisser la température sensiblement plus bas que le point de soufflage à des fins de déshumidification, pour de réaliser une post chauffe, le coût énergétique n’aurait été que de 35 kJ/m³. On le voit, le traitement de l’humidité augmente considérablement le coût du traitement de l’air.

Pour réaliser vos propres bilans annuels, des outils de calcul des grammes-heure de déshumidification sont disponibles.

Enfin, une étude de cas détaillée de la consommation d’énergie liée à la déshumidification dans une salle d’opération montre le potentiel de réduction de cette consommation par le choix des consignes : une consigne flottante offre près de 80% d’économie par rapport à une consigne fixe. 

Organiser la ventilation

Organiser la ventilation

Organiser la ventilation

Une ventilation hygiénique de base est nécessaire pour assurer la bonne qualité de l’air des bâtiments et garantir la santé des occupants. Pour évacuer efficacement les polluants (CO2, fumée de tabac, humidité, …) présents dans l’air intérieur, il faut assurer un renouvellement de l’air du local suffisant. Ce renouvellement de l’air recommandé ne pourra se faire que :

Concevoir

Pour concevoir la ventilation.

Créer un déplacement de l’air

L’air intérieur peut se renouveler naturellement (infiltration, ventilation naturelle,…) ou mécaniquement (via un ventilateur). Dans les deux cas, la ventilation des locaux n’est possible que grâce à un moteur (naturel ou mécanique) de déplacement d’air :

Favoriser un moteur naturel

Les masses d’air se déplace naturellement dû à des différences de pressions ou de températures : l’air se déplace de la haute pression vers la basse pression, l’air chaud, plus léger, s’élève et l’air froid, plus lourd, descend. Ces déplacements naturels de masse d’air peuvent être utiliser au sein d’un bâtiment pour organiser le renouvellement de son air.

  • Soit un tirage par cheminée verticale. L’air extérieur entre par des ouvertures en façade, se réchauffe au contact de l’air intérieur, monte naturellement et est évacuer grâce à une cheminée ou un conduit vertical. À noter que ceci peut créer des contraintes de conception suite aux critères de protection incendie qui exigent eux de compartimenter les étages, ce qui implique soit que les transferts d’air entre étages soit obturables automatiquement (portes coupe-feu à fermeture automatique, si on utilise la cage d’escalier comme conduit d’extraction intensive, clapets coupe-feu), soit que chaque étage dispose de sa propre évacuation vers la toiture.. En rénovation également, cette solution demande des aménagements importants de la structure du bâtiment (perçage de chaque plancher, …).

En façade Sud, l’effet de tirage thermique des cheminées est renforcé
par des blocs de verre chauffés au soleil.

  • Soit un tirage par ventilation transversale, d’une façade à l’autre. Suite à la différence de pression (due au vent ou à l’ensoleillement) entre deux façades du bâtiment, l’air extérieur entre dans le bâtiment par une en surpression, se réchauffe au contact de l’air intérieur et est aspirer à l’extérieur sur une façade en dépression. Toutefois, l’ouverture des portes intérieures peut créer des problèmes acoustiques et des courants d’air inconfortables. Des ouvertures par grilles ou impostes au-dessus des portes sont aussi possibles.

L’air se déplace principalement grâce aux pressions
et dépressions exercées sur les façades par le vent.

Ici, à côté de chaque fenêtre du couloir, un panneau de bois peut être ouvert pour créer une circulation d’air transversale (vues intérieures et extérieures du bâtiment).

  • Soit un une combinaison des deux : dans chaque local, des fenêtres (une en partie haute et une en partie basse) munies de grilles peuvent s’ouvrir, en fonction de l’écart entre la température intérieure et extérieure. Un refroidissement naturel de chaque local est possible, sans extraction par une cheminée commune. Mais les débits de refroidissement restent limités.

L’air chaud migrant vers l’extérieur en partie haute des ouvertures
et l’air frais pénétrant en partie basse (débits d’air limités par cette méthode).

 

Ouverture des fenêtres en partie inférieure et supérieure, pour favoriser une circulation d’air dans le local (les colorations jaunes et oranges ne sont dues qu’au reflet des stores du bâtiment en face…).

Concevoir

Pour choisir les amenées d’air naturelles.

Concevoir

Pour choisir l’emplacement des rejets d’air extérieurs.

Mettre en place un moteur mécanique

Le renouvellement de l’air intérieur peut aussi être « forcé ». Quand les moteurs naturels sont trop faible pour assurer les débits voulus, il devient nécessaire de placer un ou des ventilateur(s) : on parle alors de déplacement motorisé de l’air. Mettre l’air en déplacement via un ventilateur permet de gérer le temps, la durée et l’intensité de la ventilation et des débits d’air voulus.

Ventilateur centrifuge

Concevoir

Pour choisir un ventilateur.

Favoriser le déplacement de l’air

Une fois que l’air est mis en mouvement, il faut lui permettre de circuler au sein du bâtiment afin de balayer les différents locaux et d’assurer dans chacun d’entre eux le juste renouvellement de l’air. À noter que les principes de transferts d’air d’un local à un autre vont se différencier suivant le type de programme (bureaux, hôpitaux, salles de sports, …).

De manière générale, il convient de transférer l’air des locaux secs vers les locaux humides ou encore des locaux les moins pollués au locaux les plus pollués. Pour ce faire des ouvertures de transferts (portes ouvertes, fentes sous les portes, grilles murales ou dans les portes, impostes, conduits …) doivent être prévues et disponible d’un local à un autre.

           

Transfert d’air au travers d’une porte ou par détalonnage.

Concevoir

Pour choisir les ouvertures de transferts.

Réguler ce déplacement d’air

Finalement, si l’air est mis en mouvement et son déplacement s’effectue correctement, il devient très utile de pouvoir agir sur les débits afin d’assurer les renouvellements d’air recommandés par les normes.

En pratique, il est plus qu’utile d’adapter le fonctionnement de la ventilation en fonction de la période d’occupation et de paramètres intérieurs : nombre de personnes présentes, température, CO2 ou encore humidité.

Il existe différentes stratégies de régulation. Les possibilités vont varier entre la ventilation naturelle :

et la ventilation mécanique :

En pratique, la gestion de la ventilation agit sur la modulation des débits en modifiant la vitesse du ou des ventilateurs et/ou en modifiant l’ouverture de clapets au sein des conduits ou directement au droit d’une grille de pulsion ou d’extraction ou encore des amenées ou évacuations d’air naturelle.

Gérer

Pour réguler les débits d’air dans le systèmes.

Concevoir

Pour choisir le mode de gestion des débits.

Gérer

Pour réguler les débits d’air dans le systèmes.

Ventilation hybride

© Architecture et climat 2023.

Une alternance entre soit la ventilation naturelle, soit la ventilation mécanique :

  1. Ventilation naturelle
  2. Ventilation mécanique (double flux ici)

Principe

On parle de ventilation hybride, ou de ventilation naturelle hybride, lorsque au sein d’un même bâtiment un système de ventilation naturelle et un système de ventilation mécanique sont disponibles et combinés. Il s’agit donc de favoriser et d’optimiser l’utilisation des forces motrices naturelles par une assistance mécanique à basse pression (ΔP ≤ 50 Pa).

Généralement un système de gestion intelligente sur base d’une horloge, d’une sonde (température extérieure, CO2, humidité, …) ou de capteurs permet le passage d’un mode à l’autre au moment voulu afin de procurer le renouvellement d’air nécessaire à une bonne qualité de l’air intérieur.

Plus précisément on distingue trois types de ventilation hybride :

  • La ventilation naturelle assistée : des ventilateurs basse pression se mettent en marche lorsque les forces motrices naturelles (vent et tirage thermique) ne sont plus suffisantes pour permettre la circulation de l’air et les débits requis.
  • La ventilation mécanique assistée : qui correspond en réalité à un système de ventilation mécanique comportant des ventilateurs basse pression.
  • Une alternance entre la ventilation naturelle et mécanique : ce qui suppose que les deux systèmes sont totalement dissociés et que lorsque l’un fonctionne l’autre est à l’arrêt et inversement (voir illustration ci-dessus).


Avantages

La ventilation hybride permet d’utiliser au maximum les forces motrices de la nature pour la circulation de l’air et donc de réduire au minimum les consommations électriques des ventilateurs et auxiliaires associés.

Elle couple à la fois les avantages de la ventilation naturelle et mécanique :

  • Les éléments de ventilation naturelle demandent généralement très peu d’entretien et ne comprennent pas de ventilateurs bruyants.
  • La ventilation hybride est simple, et peu coûteuse à l’exploitation.
  • Elle demande peu de place utile dans les locaux techniques.
  • Les débits d’air extraits sont en partie contrôlés.

Inconvénients

La ventilation hybride semble un bon compromis entre la ventilation naturelle très économe en énergie et la ventilation mécanique qui permet de s’assurer les débits d’air recommandés. Toutefois, la ventilation hybride reste liée aux phénomènes naturels de mouvement de l’air, la qualité de l’air risque de ne pas être garantie dans tous les locaux. Le renouvellement d’air peut être fortement perturbé par le vent, par l’ouverture de fenêtres, … Il est donc nécessaire de trouver le juste milieu entre débits recommandés et économies d’énergie d’où l’importance de sa régulation !

En outre, comme pour la ventilation simple flux (extraction mécanique) :

  • L’air neuf n’est pas filtré et les grilles d’amenée d’air peuvent laisser filtrer les bruits extérieurs, ce qui peut être délicat en site urbain ou fortement pollué.
  • Les grilles d’ouvertures peuvent engendrer un inconfort, par exemple en plein hiver, sauf si la grille d’ouverture est placée à une hauteur supérieure à 1,80 m par rapport au sol ou derrière un corps de chauffe.

  • Les ouvertures entre locaux, favorisent le passage de bruits pouvant être très gênants. Un traitement acoustique des grilles doit alors être prévu. Mais en pratique, la présence d’absorbeur acoustique dans une ouverture augmente son épaisseur et sous-entend généralement que la grille doit être placée dans l’épaisseur du mur (et non dans le vitrage ou dans la porte).
  • Enfin, les ouvertures dans les façades ne sont pas toujours du goût des architectes !

Régulation

Par définition, la ventilation hybride suppose au minimum d’une régulation intelligente pour le passage d’un mode à un autre.

Mais, il est également plus qu’utile d’adapter le fonctionnement du ventilateur basse pression en période de ventilation mécanique pour s’approcher au plus proche des débits recommandés et donc de réduire la consommation d’électricité.

Finalement en mode naturelle, il existe plusieurs possibilités de réguler la ventilation hybride : bouches réglables, grilles hygroréglables, grilles commandées électriquement par exemple en fonction d’un horaire.

Techniques de régulation

Techniques de régulation


Pourquoi réguler les débits de ventilation ?

Il est plus qu’utile d’adapter le fonctionnement de la ventilation en fonction de la période d’occupation et de paramètres intérieurs : nombre de personnes présentes, température, CO2 ou encore humidité. La régulation de la ventilation hygiénique a un réelle intérêt puisqu’elle permet de s’approcher au mieux des débits recommandés et necessaires en fonction de l’activité du local ou du bâtiment.

Elle permet :

  • de favoriser le confort des occupants grâce à une bonne qualité de l’air;
  • de s’assurer la salubrité du local et plus largement du bâtiment;
  • et de réaliser des économies d’énergie substantielles en limitant les débits et donc les consommations électriques.

Il existe différentes stratégies de régulation. Les possibilités vont varier entre la ventilation naturelle :

et la ventilation mécanique :

En pratique, la gestion de la ventilation agit sur la modulation des débits en modifiant la vitesse du ou des ventilateurs et/ou en modifiant l’ouverture de clapets au sein des conduits ou directement au droit d’une grille de pulsion ou d’extraction ou encore des amenées ou évacuations d’air naturelle.


Aucune régulation

Si aucune régulation n’est mise en place cela signifie que le système de ventilation hygiénique fonction constamment aux débits de conception maximum soit pour couvrir le débit minimum exigé par les normes. Cependant durant certaines période le local ou le bâtiment est en partie voir totalement inutilisé, c’est le cas de la nuit ou du weekend, les débits pourraient être adaptés ce qui permettrait des économies d’énergie importantes !

Cette stratégie de régulation n’est pas recommandées et doit être proscrite !


La régulation manuelle

Une gestion manuelle des débits de ventilation peut se faire de deux manières : soit en agissant directement sur le ventilateur et en variant sa vitesse soit en modifiant l’ouverture des amenées et évacuations d’air naturelles.

Pour les ouvertures naturelles

Les débits d’air sont régulés par la modification de l’ouverture des grilles soit par la modification de la section de passage d’air.

Les grilles d’amenées et d’évacuation d’air peuvent être réglées manuellement depuis une position complètement fermée jusqu’à une position complètement ouverte. Les positions intermédiaires doivent au minimum est au nombre de 3 mais peuvent aller jusqu’à un réglage en continu.

Pour les systèmes mécaniques

Dans ce cas-ci, un commutateur permet d’agir directement sur la vitesse du ventilateur, soit de moduler le débit à la base du système au sein du groupe de ventilation.
Trois positions minimales sont présentes:

  • fermé : position éteinte ou avec un débit minimale pour assurer une ventilation de base même en période d’inoccupation
  • vitesse moyenne : position intermédiaire pour une activité limitée.
  • vitesse maximale : position correspondante aux normes pour les périodes de grandes activités ou de forte pollution.

Les débits correspondant devront être correctement définis et le système correctement dimensionné pour garantir un fonctionnement correct.

La régulation manuelle est tributaire du comportement des occupants. Ce type de stratégie de régulation est interdit par les normes et législations dans les immeubles non-résidentiels !


La régulation par horloge

Cette stratégie de régulation permet d’automatiser le changement des positions du systèmes de ventilation et donc les débits en fonction d’un horaire, par exemple heure par heure. une horloge est placée sur le circuit électrique de la ventilation et est programmée afin d’adapter les débits de ventilation selon les temps d’activité supposés. Elle permet donc de faire la différence entre la nuit et de la journée, la semaine et du weekend et les différentes intensités d’activité en période d’utilisation du local.

Fonctionnement continu à grande vitesse.

Fonctionnement intermittent avec horloge.

Son principal désavantage est de fonctionner suivant un horaire d’activité supposé qui peut parfois être très éloigné de l’utilisation réelle du bâtiment.

Certains systèmes de régulation permettent de passer en manuelle pour pouvoir faire face à des cas de pollutions ou d’activité exceptionnel ou non prévu dans le schéma de base d’activité du bâtiment. Après un certain temps défini, le système se replace en régulation automatique.


La régulation par l’occupation

Une régulation par l’occupation permet d’activer le système de ventilation en tout ou rien suivant l’occupation ou non du local, mais sans différencier le nombre de personnes présentes !

Un détecteur de mouvement, de présence/absence ou un détecteur infrarouge peut être utilisé. L’enclenchement de la ventilation peut également être assujettit par l’interrupteur des luminaires.


La régulation par sonde ou capteur

La ventilation hygiénique doit permettre une bonne qualité de l’air des espaces intérieurs en évacuant les polluants présents dans l’air et en alimentant le local en air frais. C’est pourquoi il est utile de réguler les débits en fonction d’un ou plusieurs polluants. Le choix de la sonde ou du capteur se fait donc en fonction de l’utilisation du local :

  • Les détecteurs infrarouges permettent de réguler les débits en fonction de l’occupation du local.
  • Les sondes CO2 permettent de rendre compte de l’activité humaine.
  • Les sondes COV rendent compte de la pollution de l’air.
  • Les capteurs d’humidité sont particulièrement adapter dans les espaces humides où une trop grande quantité d’humidité doit être évacuée.
  • La sonde de température peut également être utilisée et régule les débits en fonction de la température intérieur du local ou de la température de l’air extrait, cela peut être le cas dans les cuisines collectives par exemple.
  • De nombreux capteurs sont possibles et permettent de réguler les débits de ventilation.
  • Une combinaison de plusieurs types de sondes ou un multi-capteur (CO2, température et humidité, principalement) au sein d’un bâtiment ou d’un même local permet de caractériser au mieux l’activité et la pollution et donc d’assurer un renouvellement suffisant de l’air pour garantir le confort.

Ce type de régulation permet d’adapter directement les débits en fonction de l’activité du local, on parle de ventilation à la demande. Cette stratégie de gestion permet de faire coïncider au mieux les débits réels aux débits prescrits et donc de ventiler efficacement énergétiquement.

Réduction des débits de ventilation à l’aide d’une régulation à la demande.

Détecteur de mouvement et de présence/absence [Ventilation]

Détecteur de mouvement et de présence/absence [Ventilation]


Utilisation

Les détecteurs de présence, associés ou pas à des boutons poussoirs, permettent d’aider les gestionnaires de bâtiments dans leur « quête » à l’économie d’énergie. Ces dernières années, leur domaine d’applications s’est considérablement étendu. En effet, outre la commande de la ventilation, ils sont actuellement utilisés pour la commande d’automatismes tels que :

  • la gestion de l’éclairage intérieur et extérieur ;
  • la régulation des installations de chauffage et de climatisation ;
  • le déclenchement de l’alarme, puisque ce même principe est utilisé pour la détection d’intrusion ;
  • jusqu’au déclenchement de la chasse des toilettes, … pour utiliser l’eau de ville à bon escient, bien sûr,… et non pour enregistrer la fréquence et la durée des utilisateurs !

À noter, toutefois, qu’un détecteur a sa consommation propre. S’il est de bonne qualité, cette consommation est réduite (< 1W).

Ce type de détecteur est peu pratique pour la gestion de la ventilation hygiénique puisqu’elle ne permet de régler que en tout ou rien ou suivant 2 positions prédéfinies, par exemple ventilation de base et ventilation maximale en occupation du local. Ils ne permettent pas d’adapter la régulation aux nombres de personnes présentes dans la pièce !


Principe de fonctionnement

Dans le jargon des professionnels, un détecteur de mouvements se différencie d’un détecteur de présence par sa grande sensibilité.

Différentes technologies existent sur le marché. La technologie à infrarouge (IR) est la plus répandue. Cependant, quelques applications de gestion, comme dans les sanitaires par exemple, font appel aux technologies ultrasoniques (US), combinées IR et US ou encore sonore.

En général, l’électronique des détecteurs permet de développer des logiques de gestion en détection de présence ou d’absence. En d’autres termes :

  • Pour une gestion de présence, le détecteur peut travailler seul. Dès qu’une personne entre dans la zone de détection, la ventilation est allumé sur une position/vitesse définie. Ce principe est applicable dans les locaux où les détections sont fréquentes, mais de courte durée.
  • Pour une gestion d’absence, le détecteur doit être combiné avec un système de commande volontaire (type bouton-poussoir). Une personne entrant dans un local peut choisir d’allumer ou pas la ventilation en fonction de son ressenti de la qualité de l’air : ce qui n’est pas du tout pratique ! Si elle choisit d’allumer, le détecteur ne coupera ou diminuera la ventilation qu’après un délai réglable d’absence de la personne. Ce principe permet, en général, de responsabiliser les occupant.
  • Ces détecteurs permettent en réalité  d’imaginer toute sorte de fonctionnement.

Technologies des détecteurs

Détecteur  à infrarouge (IR)

Schéma détecteur  à infrarouge.

Ils détectent le mouvement du corps humain par la mesure du rayonnement infrarouge (= chaleur) émis par le corps humain.

Ils sont dits « passifs » car ils n’émettent aucune radiation, contrairement aux détecteurs à infrarouge actif de type « barrière ». Ils mesurent le rayonnement infrarouge émis par les surfaces chaudes.

Ils fournissent une indication de changement d’occupation d’un lieu : absence ou présence. Ils ne permettent pas de connaître le taux d’occupation d’un local ou le nombre d’occupants.

Photo détecteur  à infrarouge.

Plus précisément, les détecteurs de mouvement à infrarouge comportent un certain nombre de facettes sensibles. Leur rayon d’action est ainsi découpé en une série de segments. C’est le passage d’un corps (et donc de chaleur) du rayon de vision d’une facette vers celui d’une autre facette qui permet de détecter le mouvement.

La sensibilité d’un détecteur dépend donc du nombre de segments sensibles. Par exemple, un détecteur dont le rayon de détection est découpé en peu de segments risque de ne pas détecter une personne se dirigeant vers lui.

Pour certains modèles perfectionnés, cette sensibilité est réglable. Le réglage sera différent selon le type de local : dans un bureau où les mouvements sont parfois minimes (travail sur ordinateur, par exemple) on le réglera sur une forte sensibilité, tandis que dans un local sujet à des courants d’air, on le réglera sur une sensibilité plus faible.

La limite d’utilisation des détecteurs IR réside dans son incapacité à effectuer une détection au travers d’une paroi par exemple. C’est le cas dans les sanitaires ou les bureaux paysagers aménagés avec des cloisons antibruit ou des armoires hautes.

Détecteurs ultrasoniques (US)

Schéma détecteurs ultrasoniques.

Les détecteurs US sont de type émetteur/récepteur et fonctionne sur le principe de l’effet Doppler. Toute onde ultrasonique (32 kHz à 45 kHz) émise par le détecteur qui rencontre un objet sur son parcours, « rebondit » en direction inverse avec une fréquence différente. Le détecteur est capable de mesurer l’écart de fréquence et de générer ainsi un signal de présence. Les détecteurs US ont une portée limitée mais peuvent détecter des mouvements mineurs et ce même autour de certains obstacles.

Détecteurs à double technologie

Schéma détecteurs à double technologie.

Les détecteurs de présence à infrarouges risquent de ne pas détecter les mouvements légers. Par contre des détecteurs à ultrasons peuvent être trop sensibles et risquent de déclencher l’allumage de l’éclairage lors du passage « d’une mouche ». Pour éviter cet inconvénient tout en gardant une sensibilité importante, certains détecteurs, appelés « détecteurs à double technologie » combinent ultrasons et infrarouge.
Cette combinaison permet d’augmenter la fiabilité des détecteurs et élimine les détections indésirables.

Détecteurs sonores

Comme son nom l’indique les détecteurs sonores réagissent au bruit. Cette technologie pourra être utilisée dans les sanitaires par exemple. Pratiquement, on n’utilisera qu’un seul détecteur de ce type dans les communs des sanitaires sans être obligé d’en placer un dans chaque WC. Le moindre bruit émis au travers des parois des WC permettrait de pouvoir prolonger la lecture de son journal en toute quiétude (« pour les amateurs de sieste au WC, dorénavant s’abstenir ! »).

Détecteurs « intelligents »

Ce type de détecteur à double technologie enregistre pendant plusieurs mois le mode d’occupation du local et adapte automatiquement sa sensibilité.


Caractéristiques générales des détecteurs infrarouges (IR)

Un détecteur placé sur une paroi verticale est caractérisé par :

  • un angle de détection horizontal,
  • une portée latérale,
  • une portée frontale.

Un détecteur placé au plafond est caractérisé par :

  • un rayon d’action de 360°,
  • un diamètre de détection maximal (ou couverture maximale (en m²)) pour une hauteur maximale.

Lorsqu’on diminue la hauteur d’installation, la zone de couverture diminue, mais la sensibilité augmente.
Par contre, au-delà de la hauteur maximale, la sensibilité n’est plus suffisante.

Attention : le détecteur ne traverse aucune cloison, pas même en verre !

Si plusieurs détecteurs sont placés dans un même lieu, il est intéressant de prendre un modèle de détecteur avec un mécanisme « maître » (ou « master ») et un ou plusieurs avec mécanisme « esclave » (ou « slave »). Un détecteur avec mécanisme « maître » est plus cher, mais les mécanismes « esclave » sont beaucoup moins chers, ce qui rend l’ensemble intéressant économiquement.

Y a-t-il des différences entre détecteurs pour la gestion de l’éclairage et détecteurs pour la gestion de la ventilation ?

Les sondes utilisées dans un but de gestion de l’éclairage ne possèdent pas de temporisation à l’enclenchement/déclenchement. Le détecteur possède une temporisation après le dernier mouvement. Pour certains modèles, cette temporisation est réglable  (de 5 secondes à 5 minutes par exemple). La temporisation peut aller jusqu’à 30′ pour les modèles perfectionnés.

De plus, elles intègrent souvent un détecteur de luminosité : en général, le détecteur comporte un interrupteur crépusculaire dont le seuil de luminosité peut être réglé (de 5 à 1 000 lux par exemple).

En éclairage, il existe deux types de mécanismes :

  • Un mécanisme avec triac qui ne permet de commander que des lampes à incandescence ou halogène 230 V.
  • Un mécanisme avec relais qui permet de commander également des lampes fluorescentes.

Si les sondes destinées à la régulation de la ventilation sont d’un principe identique, elles intègrent par contre des temporisations à l’enclenchement et au déclenchement nécessaires pour éviter des sollicitations trop fréquentes du système de ventilation.

Ces temporisations sont généralement réglables de quelques minutes à une dizaine de minutes.

À noter qu’il existe des bouches de soufflage qui intègrent une sonde de présence directement :

Photo bouches de soufflage avec détecteur.


Emplacement

L’espace couvert par un détecteur détermine l’emplacement des détecteurs.

Les détecteurs doivent être placés de manière à couvrir tout l’espace à détecter.

Le choix de l’emplacement du détecteur a une grande importance sur son bon fonctionnement. Il ne faut pas que le détecteur soit influencé par un mouvement en-dehors de la zone commandée (ouverture de porte, …).

Sonde d’humidité

Sonde d'humidité


Domaine d’application

Il s’agit d’une sonde permettant de mesurer l’humidité relative ou absolue et, donc, de réguler la ventilation en fonction de l’humidité de l’air.

Elle est particulièrement adaptée dans les locaux humides (sanitaires, cuisines, …) là où l’air est extrait.


Fonctionnement

Les sondes d’humidité utilisées en ventilation et climatisation sont des hygromètres permettant la mesure continue de l’humidité de l’air de la pièce, au contraire des psychomètres qui sont utilisés pour une mesure instantanée.

Il existe plusieurs technologies d’hygromètres électroniques :

à cellule hygroscopique pour la mesure de l’humidité absolue

Le plus connu est l’hygromètre à cellule hygroscopique au chlorure de lithium. Le chlorure de lithium est une solution saline (LiCl). Ses propriétés hygroscopiques lui font absorber constamment de la vapeur d’eau contenue dans l’air.

L’appareil comprend deux électrodes entourant une couche de fibre de verre imbibée de LiCl Le tout est monté sur un capteur de température.

Lorsque les électrodes sont sous tension, le courant circulant au travers du tissu imbibé de LiCl produit de la chaleur qui évapore une partie de l’eau. Par évaporation, la résistance électrique du tissu augmente (la conductivité du tissu diminue), la puissance calorifique diminue, donc aussi la température sur la sonde intérieure. Une température d’équilibre s’établit finalement sur la sonde.

Cette température est utilisée pour mesurer la pression partielle de vapeur d’eau de l’air et de là le niveau d’humidité absolue de l’air.

Cette technique réclame un entretien important, la solution de chlorure de lithium devant être régénérée régulièrement.

à variation de capacité pour la mesure de l’humidité relative

Les hygromètres électroniques à cellule capacitive sont basés sur la modification de la valeur d’un condensateur en fonction de l’humidité. Plus précisément, c’est le diélectrique du condensateur qui est sensible à l’humidité relative de l’air ambiant.

La variation de la capacité (et donc de son impédance) entraîne une variation d’un signal de tension.

L’appareil est fiable et ne demande un étalonnage que tous les 2 ans. La précision est de 3 %. Le temps de réponse est court (de l’ordre de la dizaine de secondes). Et la plage de mesure est large. Que demander de plus ?!

Si, ils ont un petit défaut : être sensible aux polluants chimiques ! On sera dès lors attentif à ne pas les nettoyer avec des solvants organiques (chlore,…).

Leur durée de vie est estimée à une dizaine d’années.


Plage de mesure et fiabilité

Les hygrostats utilisés en climatisation sont des régulateurs tout ou rien, utilisant des hygromètres électroniques à cellule hygroscopique (mesure de ) ou à cellule capacitive (mesure de l’humidité relative). Le différentiel enclenchement – déclenchement est de l’ordre de 3 à 5 % d’humidité relative.

De la précision de la mesure d’humidité dépend la qualité de la régulation et le montant de la facture énergétique, puisque l’influence du taux d’humidité sur la consommation de l’installation est non négligeable ! À ce titre, on privilégiera les sondes à mesure continue par rapport aux sondes à dépassement de seuil (basées sur l’allongement d’un fil synthétique), dont l’hystérésis peut être important (près de 15 %).


Emplacement

Il est préférable de choisir une sonde à placer en conduit aéraulique et de l’installer dans le conduit de reprise d’air. Ainsi, la mesure est plus représentative de l’humidité de l’air moyenne du local et la sonde est moins soumise aux perturbations locales et à l’empoussièrement.

Quelques recommandations pour une mesure de qualité en conduit :

  • Une distance minimale entre l’humidificateur et la sonde, d’une part pour s’assurer que toutes les gouttelettes sont bien évaporées (les gouttelettes ne sont pas prises en considération dans la mesure !), mais d’autre part parce que ces gouttelettes mènent à la destruction de la sonde, tout particulièrement celles au chlorure de lithium. On se renseignera auprès du constructeur.
  • Une distance minimale entre les batteries chaudes ou froides et la sonde : même si, faute de place, il n’est pas toujours facile de respecter la distance théorique, il y a lieu d’éloigner les sondes des batteries pour éviter l’effet de stratification (l’air humide a tendance à s’élever). Distance théorique minimale = 5 à 10 D, où D est . De plus, on placera les sondes à mi-hauteur du conduit aéraulique, et au centre de l’écoulement.
  • Une protection de l’élément sensible, soit par une grille si air propre, soit par un filtre en métal fritté si air avec poussières.
  • Une ouverture dans la gaine, à proximité de la sonde, pour pouvoir faire périodiquement une mesure de contrôle avec un appareil indépendant de l’indication de la sonde de régulation.
  • Une mesure dans la gaine de reprise située, si possible, en aval du ventilateur d’extraction si un risque de stratification de l’humidité est présent.
  • Un câble de raccordement électrique de la sonde suffisamment long pour permettre un entretien aisé.

Dans le cas où la sonde est placée dans le local, on sera attentif à

  • les éloigner des portes et fenêtres (pour éviter l’influence de l’air extérieur),
  • éviter les coins (mauvaise circulation de l’air).

Pour effectuer une mesure correcte, il faut que l’air soit en contact réel avec le capteur : il faut donc garantir un libre écoulement vers l’organe de mesure. Toutes les précautions de placement applicables aux sondes de température sont valables ici (température et humidité sont parfois dans le même boîtier). Elles ne devront pas être situées à proximité des climatiseurs, par exemple.


Output

Les sondes délivrent généralement un signal analogique standard : 0-10 V ou 4 – 20 mA. Elles sont alimentées par une tension continue de l’ordre de 24 V.


Maintenance

Principales mesures d’entretien

  • Dépoussiérage de l’élément sensible au pinceau doux, si l’air est chargé en poussières.
  • Remplacement des filtres en métal fritté.
  • Pas de nettoyage des sondes à capacité par un solvant organique, du type chloré par exemple.
  • Régénération des sondes à chlorure de lithium, par l’utilisateur.
  • Étalonnage des éléments sensibles tous les ans (ou tous les deux ans si la sensibilité à la variation de la consigne est faible). Un tel étalonnage peut être fait facilement grâce à l’existence de cartouches contenant des solutions salines. L’humidité relative au-dessus de la solution est pratiquement indépendante de la température.

Exemple.

Solution de chlorure de sodium (76 % HR), ou de carbonate de potassium (44 % HR).

Il est donc facile de recalibrer l’appareil (consulter le fournisseur pour connaître les solutions salines adéquates, certaines étant agressives pour les éléments sensibles)

Une autre possibilité d’étalonnage consiste à comparer la mesure à celle d’un autre appareil plus précis (de la l’intérêt de prévoir une petite ouverture dans la gaine, à proximité de la sonde).

Combiner la ventilation aux besoins hygrothermiques

Combiner la ventilation aux besoins hygrothermiques

Lorsqu’un système de ventilation avec pulsion et extraction mécanique est choisit, il est possible de compléter la centrale de traitement d’air d’élément de pré-traitement thermique. Dans certains cas, il peut être pertinent de l’utiliser pour assurer tout ou partie des besoins thermiques des locaux.

Différentes questions se posent donc :


Faut-il préchauffer l’air neuf en hiver ?

Il est évident que l’amenée d’air à basse température dans un local peut provoquer, dans certains cas, des situations inconfortables. Quelque soit la température de l’air, des recommandations existent pour limiter ce risque, telles que placer les grilles à plus de 1,8 m de haut et au-dessus des émetteurs de chaleur.

Dans les cas où le débit d’air neuf demandé est relativement bas, ces recommandations peuvent suffire à éviter les inconforts assez bas, même dans le cas d’une ventilation avec amenée d’air naturelle. Au contraire, dans les locaux à forte densité d’occupation (salle de réunion, de séminaire, …), l’importance des débits d’air neuf demandés risque de provoquer un certain inconfort thermique lorsque la température extérieure est basse.

Ainsi, dans tous les cas, pour éviter la sensation de courant d’air froid, l’idéal est de pouvoir amener l’air neuf à une température minimum (12 .. 16°C, température à régler en fonction des apports de chaleur gratuits) avant son arrivée dans le local. Dans le cas d’une pulsion mécanique, le préchauffage de l’air neuf a également pour but d’éviter de faire circuler de l’air trop froid dans les conduits, ce qui peut provoquer des condensations.

Différentes solutions existent pour réaliser le préchauffage de l’air. La solution évidente pour réaliser cet échauffement est le recours à un récupérateur de chaleur. Attention toutefois à choisir un mode de gestion du dégivrage du récupérateur qui permette de maintenir une température de pulsion suffisamment élevée à tout moment.  Un puits canadien peut également être envisagé pour préchauffer l’air neuf, mais la température atteinte ne sera pas aussi élevée qu’avec un récupérateur de chaleur. En dernier recours, le chauffage de l’air neuf pourra se faire avec une batterie de chauffage.

Concevoir

 Pour choisir le mode de préchauffage

Faut-il « neutraliser » l’air neuf ?

Lorsque le système de pulsion d’air neuf n’est pas intégré à la climatisation au travers d’une solution « tout air« , il est parfois conseillé de prétraiter l’air neuf. À défaut, il risque de créer de l’inconfort (courants d’air) menant parfois à l’obturation des bouches d’amenée d’air par les occupants.

Le développement des récupérateurs de chaleur limite ce risque, mais certaines pratique ont la vie dure. Qu’en est-il donc de cette pratique de « neutralisation de l’air neuf », qui consiste à s’assurer que l’air soit amené au local dans des conditions similaires à celles visées dans le local lui-même. Autrement dit, si vous souhaitez chauffer à 21°C, l’air sera amené à 21°C, à charge pour le radiateur de compenser les pertes par les parois.

Tout l’enjeu consiste à combiner le contrôle de la température des locaux et le contrôle de la température de l’air neuf hygiénique de manière à :

  • ne pas créer de courants d’air (on considère souvent qu’une température de 16°C minimum est nécessaire);
  • ne pas « casser l’énergie », c’est-à-dire ne pas chauffer l’air neuf et refroidir simultanément le local avec le ventilo-convecteur, ou inversement.

A priori, on pourrait penser que la température de pulsion de l’air neuf doit être « neutre » dans le bilan thermique du local et ne pas interférer avec la régulation des ventilos. On rencontre ainsi souvent une pulsion proche des 21°C toute l’année.

Effectivement, au niveau du bilan thermique du local le bilan est neutre, puisqu’il n’apporte ni chaud, ni froid.

En réalité, ce choix implique souvent qu’en mi-saison de l’énergie soit « cassée ». en effet, dans les immeubles de bureaux isolés, à partir d’une température extérieure de 12 à 14°C, il y a beaucoup de chances que le bâtiment soit en régime « refroidissement ». on va dès lors chauffer l’air neuf de 14 à 21°C, et simultanément évacuer l’énergie excédentaire du local avec le ventilo-convecteur. Cela représente une consommation énergétique importante comme le montre l’étude d’un bâtiment type. Il aurait mieux valu pulser directement cet air à 14°C dans le local.

Mais 14°C est une température de pulsion qui risque d’être trop faible et de créer de l’inconfort pour les occupants ?

Essayons dès lors de définir la régulation la plus adéquate :

On peut imaginer qu’en plein hiver, on pulse de l’air à 21°C et qu’à partir d’une température extérieure de 14°C, par exemple, la consigne de température de pulsion de l’air soit abaissée à 16°C.

Remarquons que dans la pratique, le basculement comprend un hystérésis de manière à stabiliser le fonctionnement des équipements au changement de saison. Par exemple, l’installation passe du chaud au froid à 14°, et du froid au chaud à 12°.

Toute la difficulté consiste pour le gestionnaire du bâtiment à définir le plus précisément possible la température extérieure de basculement entre le régime « été » et le régime « hiver ». En effet si celle-ci est trop élevée (par exemple, 18°C), une période de « casse d’énergie » subsiste puisque l’on chauffe l’air de ventilation pour le refroidir ensuite avec les ventilo-convecteurs.

Le problème est compliqué par le fait que tous les locaux ne sont pas soumis aux mêmes conditions d’équilibre.

Pour réduire ce risque, on peut dès lors imaginer de maintenir une température de pulsion minimum durant toute l’année. Choisissons une température de pulsion minimale de 16°C dans les locaux : si la température extérieure est inférieure à cette valeur, on préchauffe l’air et on le prérefroidit dans le cas contraire.

C’est une stratégie de régulation que l’on peut d’office utiliser dans les locaux que l’on refroidit toute l’année comme les zones intérieures d’un bâtiment (zones nullement influencées par les conditions atmosphériques).

Mais cette solution risque de créer de l’inconfort si les bouches de distribution ne sont pas prévues à haute induction.

Remarque : jusqu’à présent, on a toujours parlé en terme de température d’air neuf dans le local. Étant donné que l’air s’échauffe d’environ 1°C lors de son passage dans les conduits, on peut dire que fixer une consigne de température de 16°C sur l’air neuf équivaut à maintenir une température de 15°C à la sortie du groupe de traitement d’air.

Reste une difficulté : dans le local inoccupé dont l’occupant a arrêté le ventilo en quittant le local, c’est le débit d’air de ventilation qui va assurer la température de base durant son absence. Et au retour de l’occupant, le local sera fort froid… Cela ne paraît cependant pas remettre en question le principe d’une pulsion à 16°C car l’occupant a le loisir de remettre son local en température très rapidement dès son retour grâce à l’absence d’inertie du ventilo-convecteur (transfert rapide par l’air) et à la possibilité de positionner le ventilo en grande vitesse. Et si l’occupant n’apprécie pas la petite période d’inconfort qui en résulte, il y a beaucoup de chances qu’il ne soit pas du genre à arrêter son ventilo en quittant le local !

De plus, en période de relance, avant l’arrivée des occupants, la régulation centrale peut faire fonctionner le bâtiment en circuit fermé, sans apport d’air neuf.

Conclusions 

En l’absence de préchauffe de l’air par récupération de chaleur, il n’y a pas de solution idéale à ce problème. Il faut chercher une réponse pour un bâtiment donné, sur base de ses températures d’équilibre. Notez que le récupérateur de chaleur peut lui aussi provoquer une surconsommation d’énergie en mi-saison, s’il n’est pas équipé d’un bypass qui permet de ne pas réchauffer l’air lorsque le local est de demande de froid.

Il est clair que de prévoir des est une garantie de pouvoir pulser l’air à basse température sans créer de courants d’air, et donc de ne pas détruire de l’énergie.

L’impact énergétique est énorme. Dans un bâtiment-type de bureau,

nous avons simulé 2 situations :

  • Une pulsion d’air neuf à une température permanente de 21°C en hiver et de 16°C lorsque la température extérieure dépasse 16°C : référence 100
  • une pulsion à une température permanente de 16°C, été comme hiver :
    • – 37 % sur la consommation du traitement d’air,
    • + 19 % de consommation de chauffage des locaux,
    • – 13 % sur la consommation de froid des locaux,
    • et finalement – 10 % sur la consommation totale du bâtiment.

Qui ne serait pas tenté de diminuer de 10 % la consommation d’un bâtiment rien qu’en réglant la consigne de l’air neuf ?

Un compromis peut consister à pulser suivant une consigne qui suit une relation linéaire entre les deux points suivants : par – 10°C extérieurs, pulsion à 23°C et par + 30°C extérieurs, pulsion à 16°C.

Cette solution génère une économie de 2 % par rapport à la référence 100 du bâtiment-type.

En tous cas, ne pas adopter une pulsion constante de 21°C toute l’année ! nous ne l’avons pas chiffrée, mais la surconsommation en été doit être très importante.


La ventilation est-elle suffisante pour vaincre les surchauffes ?

Dans les anciens immeubles de bureaux, non isolés, la ventilation hygiénique permettait de résoudre en partie les problèmes de surchauffe, avec une période d’inconfort limitée à quelques jours.

L’isolation des bâtiments n’a pas augmenté la puissance nécessaire au refroidissement mais la période d’inconfort « estival » commence plus tôt dans la saison. Ceci est renforcé par :

  • l’augmentation des charges internes par l’équipement électrique des bureaux,
  • la tendance actuelle des architectes d’accroître sensiblement le pourcentage de vitrage de la façade, et donc les apports solaires peu désirables,
  • la diminution de l’inertie des parois (cloisons légères mobiles, tapis au sol, faux plafond avec absorbeur acoustique),
  • une attente accrue de confort et de productivité du personnel.

Dans certaines situations et pour autant que l’on accepte quelques journées d’inconfort, il est cependant possible d’éviter une installation de conditionnement d’air

  • En choisissant les équipements les moins énergivores.
  • En utilisant des protections solaires et des vitrages performants.
  • En exploitant au maximum le pouvoir refroidissant de l’air extérieur lorsque celui-ci à une température inférieure à la température intérieure. On parlera alors de free cooling, soit naturel, soit mécanique.

Il est important de réaliser que les débits d’air mis en jeu par la ventilation hygiénique (de l’ordre de 0.5 à 1 renouvellement horaire) et ceux impliqués par une stratégie de free cooling (à partir de 4 renouvellements horaires) ne sont pas du même ordre. On parle d’ailleurs souvent, pour le free cooling, de ventilation intensive.

Débits différents signifie a priori techniques et équipements différents. Ainsi, une ventilation intensive naturelle ne se basera pas sur des aérateurs et une cheminée telle qu’utilisée pour la ventilation hygiénique, mais bien sur l’ouverture de fenêtres en différents endroits du bâtiment. Une ventilation intensive mécanique par contre pourrait utiliser le même réseau de conduits que la ventilation hygiénique, pour autant que celui-ci soit dimensionné sur base de l’usage le plus contraignant (le débit intensif donc) et permette une régulation à la baisse lorsque cette capacité n’est pas pleinement nécessaire.

Concevoir

Pour examiner en détail l’intérêt du free cooling comme alternative à la climatisation

Concevoir

Pour en savoir plus sur les techniques de refroidissement par ventilation intensive

Études de cas

Un confort d’été correct est obtenu dans le bâtiment Probe du CSTC grâce à un free cooling nocturne. Pour plus de détails sur ce bâtiment

Faut-il humidifier ou déshumidifier l’air de ventilation ?

En hiver, sans humidification de l’air neuf, l’humidité intérieure flirte rapidement avec les limites de confort thermique.

Ceci n’est pas lié au type de ventilation (naturel ou mécanique). Pourquoi ? Parce que, en l’absence de traitement d’air, l’humidité absolue de l’air pulsé n’est pas modifiée par son passage dans un aérateur ou un réseau de ventilation. Dans les deux cas, cette humidité sera celle de l’air extérieur, qui est basse en hiver (maximum 4 gr d’eau par kilo d’air à 0°C, soit en-dessous des 6 gr qui correspondent à 40% d’humidité pour 20°C).  Le caractère asséchant de la ventilation est par contre lié au rapport entre le débit d’air neuf et le taux d’émission de vapeur dans l’ambiance, lié à l’occupation. En pratique, au plus le débit par personne sera élevé, au plus l’effet asséchant de l’air neuf sera important.

L’humidification de l’air neuf est un poste particulièrement énergivore. Il est dès lors peut-être utile de se demander si une humidification est toujours nécessaire, sachant qu’elle n’est pratiquement possible qu’en association avec un système de ventilation double flux.

Ce n’est d’ailleurs que si la pulsion de l’air est mécanique que le RGPT impose le respect d’une humidité ambiante minimum de 40%. Dans le cas d’une ventilation simple flux, le RGPT dit simplement qui si c’est possible technologiquement, un dispositif d’humidification permettant d’atteindre une humidité de 40% doit être mis en œuvre.

Évaluer

 Pour estimer la consommation liée à l’humidification de l’air neuf.
Prenons un exemple.

La température extérieure est de 0°C pour une humidité relative de 85 % (1) (conditions couramment rencontrées chez nous) :

  • Si cet air est introduit dans un bureau individuel chauffée à 20°C, à raison de 30 m³/h.pers, on peut lire sur le diagramme de l’air humide que son humidité relative chutera à 23 % (2), ce qui est trop sec pour garantir le confort thermique. Si on y rajoute l’humidité produite par un occupant, à savoir environ 50 gr d’eau par h, l’humidité relative montera jusqu’à 33 % (3), soit à la limite des conditions de confort.
  • Par contre, si la chambre est chauffée à 24°C, comme c’est souvent le cas dans les hôpitaux, on atteindra plutôt au final une humidité relative d’environ 25%, ce qui est insuffisant.

Une humidification de l’air apparaît donc nécessaire pour garantir le confort durant les périodes les plus critiques de l’année (en hiver). Étant donné que les périodes durant lesquelles il existe un risque de voir chuter l’humidité intérieure en dessous du seuil de confort sont généralement courtes, il est recommandé d’asservir le fonctionnement de l’humidificateur à la température extérieure. Sous notre climat, on peut par exemple souvent l’arrêter lorsque la température extérieure dépasse 5°C.

Notons qu’humidifier l’air implique aussi automatiquement de le préchauffer, sinon le point de saturation est atteint directement.

Concevoir

Pour choisir le mode d’humidification.

Et en été, qu’en est-il? En Belgique, l’humidité absolue extérieure dépasse rarement les 15 gr d’eau par kilogramme d’air, ce qui, pour des températures de l’ordre de 25°C correspond à 70% d’humidité relative. Un tel niveau est acceptable, et cela correspond à l’intuition : il est rare que l’on ait, en été, une sensation d’humidité exagérée, comme on le ressent sous les tropiques. Mais…

  • Cela arrive malgré tout par temps orageux. Faut-il que, ces jours là, les systèmes de ventilation soient à même de ne pas répercuter cet inconfort à l’intérieur? C’est au maître d’ouvrage de se positionner. La question se pose de la même façon pour les vagues de chaleur et le risque d’une élévation de température. Quel est le prix du confort absolu ?
  • Si à l’humidité extérieure s’ajoute un dégagement d’humidité importante à l’intérieur, cela ne nous mène-t-il pas au-delà du confort? Oui, à moins de diluer cet apport intérieur d’humidité par un taux de ventilation très élevé, tel que le permet une ventilation intensive;
  • Si dans le local se trouve un émetteur de refroidissement qui n’autorise pas de condensations surfaciques, tel qu’un plafond rayonnant ou une dalle active, ne faut-il pas garantir un contrôle de l’humidité? Oui, bien sûr, pour éviter les dégâts liés à ces condensations.

Les situations où une déshumidification est à prévoir sont donc plus nombreuses que ne le laisse supposer une simple analyse climatique. En pratique, la déshumidification ira souvent de pair avec le recours à un refroidissement actif.

Concevoir

Pour en savoir plus sur la deshumidification

Gérer

Pour en savoir plus sur la régulation de la deshumidification

Utiliser la ventilation comme émetteur thermique ?

Dans les anciens immeubles de bureaux non isolés, la puissance nécessaire au chauffage est telle que le débit de ventilation hygiénique est insuffisant si on veut assurer avec celui-ci un chauffage aéraulique. La séparation des fonctions « ventilation hygiénique » et « chauffage » s’impose d’autant plus que le bâtiment est peu isolé et que les apports internes de chaleur (machines, éclairage, …) sont faibles.

Dans ces vieux bâtiments, si on veut combiner ventilation et chauffage, un recyclage partiel de l’air doit être organisé pour augmenter les débits pulsés, ce qui surdimensionne les équipements de ventilation.

Par contre, dans les bâtiments de bureaux plus modernes, bien isolés, fortement équipés (ordinateur, imprimante personnelle), la puissance de chauffage nécessaire se réduit fortement, et avec elle, les débits d’air nécessaires pour un chauffage aéraulique. Dans ce cas, il peut être logique d’envisager la combinaison du chauffage et de la ventilation. Il n’y a plus alors d’autres sources de chauffage. C’est la logique qui prévaut souvent dans les bâtiments conçus selon le « standard passif ».

En généralisant, ce raisonnement, on pourrait envisager d’assurer également le refroidissement par la pulsion d’air neuf refroidit dans la centrale de traitement d’air.  On parlera alors de refroidissement « tout air« . Technologiquement, cela ne pose pas de problème. Mais il faut garder à l’esprit que les puissances qu’un local demande en refroidissement sont souvent plus importante qu’en chauffage. Pour un bureau, on sera souvent entre 50 et 100 W/m² de charge de refroidissement à compenser, une valeur peu influencée par l’amélioration actuelle des enveloppes. De telles puissances impliquent un surdimensionnement important du réseau de ventilation, comme le montre l’exemple ci-dessous. Une piste intéressante dans certains cas est celle du « top cooling« , où la capacité de refroidissement du réseau de ventilation hygiénique est utilisée sans surdimensionnement, en appoint d’un autre mode de refroidissement, ou comme « aide » pour franchir les périodes de canicule dans des locaux non climatisés.

Exemple.

La puissance thermique disponible sur une pulsion d’air ce calcule en multipliant le débit par la chaleur massique (0,34 [W/(m³/h)K]) et le delta de température entre l’air pulsé et l’ambiance. Considérons un local de bureau typique de 20m² occupé par deux personnes, pour lequel les règles de dimensionnement de la ventilation hygiénique recommandent 60 m³/h (RGPT). 

La température maximale de pulsion est souvent fixée à 35°C dans une ambiance à 20°C, et la température minimale à 16°C dans une ambiance à 25°C. Quelles sont les puissances disponible en fonction d’un facteur de surdimensionnement de la ventilation ?

Puissance disponible grâce à de la pulsion d’air neuf dans un local de bureau type
Débit Puissance de chauffage Puissance de refroidissement
hygiénique: 60 m³/h 15 [W/m²] 9 [W/m²]
hygiénique x 2 : 120 m³/h 31 [W/m²] 18 [W/m²]
hygiénique  x 5: 300 m³/h 77[W/m²] 46 [W/m²]

On voit que pour un bâtiment non isolé, il faut multiplier le débit d’air hygiénique par 5 si on veut atteinte l’ordre de grandeur des puissances de chauffage. Les 15W/m² disponibles « de base » devraient par contre être suffisant dans un bâtiment « passif ». Les puissances disponibles en refroidissement ne sont alors que tout juste capable de compenser la puissance des luminaires, ou celle des ordinateurs. En aucun cas les charges liées à l’ensoleillement… 

Notons au passage que lorsqu’on fait un chauffage par la ventilation,  il faut prévoir la possibilité de travailler en tout air recyclé pour optimaliser la relance matinale du système de chauffage aéraulique. L’apport d’air neuf n’étant enclenché qu’à l’arrivée des occupants.

Choisir un système de ventilation centralisé ou décentralisé

Choisir un système de ventilation centralisé ou décentralisé

Différents critères interviennent dans ce choix:


Les possibilités d’implantation

La facilité (ou difficulté) d’implantation d’un système de ventilation dépend d’abord de son type : les systèmes proposés se différencient par leur encombrement et les modifications qu’ils imposent dans un bâtiment existant, dans un bâtiment neuf, les libertés étant plus grandes.

Les systèmes naturels ou simple flux par extraction mécanique sont les plus faciles à implanter. Ils ne demandent aucun gainage de pulsion, celui d’extraction étant quant à lui généralement beaucoup plus court et facile à implanter. Le système naturelle demande cependant que cette extraction soit faite par des conduits verticaux respectant certaines prescriptions quant à leur tracé et leur débouché en toiture. Ce système peut donc être plus difficile à mettre en œuvre que l’extraction mécanique. Cette dernière devra d’ailleurs être choisie si une évacuation naturelle correcte ne peut être réalisée.

La pulsion mécanique impose, quant à elle, une distribution de l’air dans tous les locaux via un gainage. Dans les locaux aveugles, il n’est généralement pas possible de réaliser des amenées d’air naturelles correctes, ce qui impose la pulsion mécanique.

Quel que soit le mode de ventilation, l’implantation peut être facilitée si le système de ventilation se décompose en différents systèmes indépendants desservant chacun une partie du bâtiment. Ce découpage peut se faire sur base:

  • d’une logique spatiale : différentes ailes du bâtiments pourraient avoir chacune leur propre système. Dans ce cas, la séparation des systèmes permet de limiter la longueur des conduites, l’encombrement dans le bâtiment et les pertes de charges.
  • d’une logique d’occupation : des espaces présentant des profils d’occupation très différents peuvent justifier un réseau de ventilation spécifique, par exemple des salles de réunion regroupées dans un bâtiment de bureau, ou un amphithéâtre dans une école. Dans ce cas, la séparation des systèmes permet de faciliter la gestion des débits d’air : apporter exactement la bonne quantité d’air au bon endroit, au bon moment.

À l’extrême, chaque local pourrait disposer de son propre système de ventilation. Certains dispositifs de ventilation permettent d’ailleurs une pulsion et extraction mécanique avec récupération de chaleur par local.

Décentraliser peut donc dans certains cas limiter l’encombrement du réseau au sein du bâtiment. Par contre, cela implique de multiplier les groupes de ventilation qui prennent eux-aussi une place conséquente.


L’isolation acoustique entre locaux

Certaines activités de bureaux demandent une certaine confidencialité (bureau d’avocats, cabinet de médecin, …) qu’il peut être difficile d’atteindre du fait des ouvertures permanentes pratiquées pour le transfert de l’air. La question de l’isolation acoustique se pose aussi de façon pressante dans les bâtiments scolaires.

La conception d’un système de ventilation décentralisé pour ces locaux élimine le transfert d’air et la faiblesse acoustique liée au passage de l’air dans le bâtiment. Cette solution peut cependant générer une autre nuisance acoustique du fait de la présence des ventilateurs dans (ou à proximité) de ces locaux.

L’autre piste, est l’utilisation d’un réseau de ventilation centralisé, mais équipé de grilles de transfert acoustiques. Celles-ci, plus larges, se placent plus aisément dans les murs que dans les portes. Elles génèrent malheureusement plus de pertes de charge qu’une grille traditionnelle, avec un impact sur le consommation électrique des ventilateurs.

Ouverturetransfert2.gif (1351 octets)Ouverturetransfert3.gif (1519 octets)

Ouvertures de transfert acoustiques.


La protection incendie

L’A.R. du 19 décembre 97 impose que toute paroi séparant un lieu de travail d’un chemin d’évacuation (en gros les couloirs) soit classée « Rf 1/2 h ».

Cela signifie que les ouvertures de transfert prévues entre les bureaux où l’air neuf est amené et les couloirs par lesquels l’air transite vers les sanitaires doivent avoir la même résistance au feu. Cela est possible grâce à des grilles de transfert coupe-feu. Pour ce qui est du détalonnage des portes, cela peut prêter à discussion.

Plus globalement, la traversée d’une paroi, quelle qu’elle soit, par un conduit d’air ne peut pas amoindrir la résistance au feu de cette paroi : « La traversée par des conduites de fluides ou d’électricité et les joints de dilatation d’un élément de construction ne peuvent altérer le degré de résistance au feu exigé pour cet élément.  » (AR du 7 juillet 1994).

Des résistances au feu minimales sont imposées aux séparations entre compartiments incendie. Un compartiment à une superficie de maximum 2 500 m² et est limité à un étage. Les parois séparant les compartiments doivent être « Rf  min 1 h » (en fonction de la hauteur du bâtiment). Ceci implique notamment que tout transfert d’air entre deux étages est soit interdit (pas de pulsion à un étage et d’extraction à un autre), soit obturable automatiquement (porte coupe-feu automatique, clapet coupe-feu).

Cette règle s’applique donc également aux parois des trémies dans lesquelles se trouvent les conduits de ventilation des réseaux mécaniques. Ces parois doivent présenter une RF de 1h à 2h selon la hauteur du bâtiment (cas des trémies continues sur la hauteur du bâtiment).

On comprends facilement qu’une réflexion sur une décentralisation des systèmes de ventilation qui soit cohérente avec le découpage du bâtiment en compartiments incendie peut limiter le recours à ce type d’équipements et dans certains cas permettre une économie d’investissement.

Enfin, notons que pour les bâtiments d’une hauteur comprise entre 25 et 50 m, il est imposé de maintenir les cages d’escalier en surpression en cas d’incendie. À cela vient s’ajouter le désenfumage obligatoire des couloirs par pulsion et extraction pour les bâtiments de plus de 50 m de haut. Ces deux exigences se réalisent par un système de ventilation tout à fait indépendant de la ventilation hygiénique et qui met en œuvre des débits nettement plus importants, de l’ordre de 10 renouvellements d’air par heure.


L’impact énergétique

Dans le cas où un bâtiment inclut des espaces dont les besoins d’air sont variables (des locaux de même nature mais gérés différemment, ou des locaux abritant des fonctions différentes), subdiviser un système de ventilation peut favoriser les économies d’énergie électrique au niveau des ventilateurs. Pourquoi ?

La puissance électrique absorbée par un ventilateur dépend du débit d’air à mettre en mouvement et de la perte de pression à compenser. Considérons un réseau de ventilation alimentant un alignement de classes. Imaginons que les classes à l’extrémité du réseau soient utilisées en soirée pour des activités extra-scolaires, tandis que celles situées au milieu ou au début du réseau n’ont plus besoin d’air après les heures de cours.

En soirée, une gestion intelligente du débit fermera un clapet ou registre de réglage à l’entrée des premières classes. En conséquence, la pression va monter dans le réseau et le ventilateur, s’il détecte cette montée en pression, pourra moduler sa vitesse. Néanmoins, il devra toujours compenser les pertes de charge générées par la totalisé du réseau pour alimenter la classe utilisée en soirée.

Si chaque classe disposait de son propre système de ventilation, ou si cette seule classe à usage particulier disposait de son propre système, le fonctionnement en mode « soirée » n’impliquerait que cet unique groupe de ventilation, qui n’aurait pas à vaincre les pertes de charge d’une réseau collectif. Dès lors, la puissance absorbée pourrait théoriquement être moindre : même débit dans les deux situations, mais pertes de charge réduite dans le cas décentralisé.

Cette réflexion de principe est bien évidemment dépendante des choix de dimensionnement qui seraient faits dans les alternatives centralisées et décentralisée, de la finesse du mode de gestion dans le cas centralisé, des pertes de charges propres aux groupes de ventilation et de l’impact de la réduction du débit d’air sur ces pertes de charges dans le scénario centralisé, etc.

Le bénéfice énergétique de la décentralisation n’est pas nécessairement évident. C’est cependant une piste qui mérite d’être calculée en détail par les bureaux d’étude, maintenant que les consommations des ventilateurs représentent une part non négligeable du calcul PEB.

Choisir un système de ventilation naturelle ou mécanique

 

© Architecture et climat 2023.

Ventilation naturelle.    

© Architecture et climat 2023.

Ventilation mécanique.

Différents critères interviennent dans ce choix:


La garantie de résultat

L’efficacité d’une ventilation est sa capacité à évacuer réellement les polluants des locaux. Pour cela, il faut avoir la garantie que l’air neuf balaye correctement les bureaux et soit évacué après son mélange avec l’air ambiant.

La solution idéale est, mécaniquement, de pulser l’air neuf et d’évacuer l’air vicié directement dans chaque local indépendamment. Cette solution de ventilation indépendante de chaque local est cependant onéreuse et est réservée aux salles à forte affluence (salle de réunion, auditorium, …).

Le système double flux avec pulsion dans les bureaux et extraction dans les sanitaires et/ou zones de circulation garantit au minimum une amenée d’air neuf réelle dans les bureaux et une évacuation des odeurs dans les sanitaires.

Les systèmes de ventilation naturelle ou simple flux, quant à eux, ne garantissent pas toujours un renouvellement d’air correct dans tous les bureaux.

Prenons l’exemple d’une ventilation simple flux avec une simple extraction mécanique dans les sanitaires et des grilles d’amenée d’air naturel dans les châssis des bureaux :

L’air est paresseux, il préférera toujours le chemin le plus facile pour se mouvoir. Ainsi, s’il doit choisir entre les grilles placées dans les châssis des bureaux et un hall d’entrée (ou une fenêtre, …) largement ouvert vers l’extérieur, il est plus que probable que l’air extrait par les sanitaires provienne de ce dernier, plutôt que des bureaux. Ceux-ci ne seront alors pas ventilés correctement.

Schéma trajet de l'air dans un bâtiment.

Ce phénomène est aggravé :

  • en présence de couloirs maintenus ouverts vers les cages d’escalier ou hall d’entrée,
  • en présence de fenêtres et portes ouvertes dans certains bureaux,
  • en l’absence de moyens de transfert d’air au niveau des portes (grilles, détalonnage des portes).

En outre, dans des immeubles de bureaux, le compartimentage variable (location à des sociétés différentes) peut rendre encore plus difficile la coordination entre les entrées d’air et les évacuations.

De plus, les flux d’air véhiculés par les systèmes naturels ou simple flux sont dépendants des conditions atmosphériques (répartition du vent, des températures sur les façades) et donc difficilement contrôlables. Il est par exemple, possible que le flux d’air s’inverse dans une grille autoréglable si celle-ci est disposée sur une façade à l’abri des vents dominants (c’est-à-dire sur une façade en dépression). en effet, ce type de grille permet de limiter l’ouverture d’entrée d’air si elle est soumise à la pression du vent. Par contre, elle n’empêche pas un reflux d’air si elle est à l’abri du vent.

Le système de ventilation ne fonctionnera correctement que si le bâtiment est relativement étanche à l’air.

Dans son article « La ventilation et l’infiltration dans les bâtiments : la situation en Belgique » (1986), le CSTC, recommande d’améliorer l’étanchéité du bâtiment avant d’installer un système de ventilation contrôlée pour un taux de renouvellement de l’air à 50 Pa (n50) inférieur à 5/h. Les recommandations actuelles d’étanchéité à l’air des construction sont cependant plus ambitieuses encore.

Évaluer

Pour évaluer l’étanchéité du bâtiment, cliquez ici !

L’ambiance extérieure

Si l’ambiance extérieure est particulièrement polluée et/ou bruyante (site urbain, industriel, route fort fréquentée, parking avec heures de pointe), les amenées d’air neuf doivent obligatoirement comporter des filtres et une isolation acoustique.

Notons que les locaux les plus sensibles au niveau de la pollution des routes sont les locaux situés à moins de 10 m du sol.

Les amenées d’air naturelles, même équipées de systèmes d’insonorisation laissent cependant filtrer les bruits extérieurs et surtout les poussières. Des recherches sont cependant menées pour améliorer les qualités acoustiques, de filtration et d’automatisation des entrées d’air naturelles. À terme, elles devraient conduire au développement sur le marché de produits permettant une protection contre la pollution extérieure et une régulation semblable à celle possible en ventilation double flux.

Dans les sites urbains fort fréquentés et/ou pour certains locaux demandant une pureté de l’air plus importante (salles d’ordinateur, hôpitaux, …), une pulsion mécanique, équipée de filtres s’impose donc, la prise d’air extérieure devant être disposée dans l’endroit le moins exposé (à l’arrière du bâtiment ou en toiture).

Concevoir

Pour choisir l’emplacement de la prise d’air neuf, cliquez ici !

Les possibilités d’implantation

Les différents systèmes de ventilation se différencient par leur encombrement et les modifications qu’ils imposent dans un bâtiment existant, dans un bâtiment neuf, les libertés étant plus grandes.

Les systèmes naturelle ou simple flux par extraction mécanique sont les plus faciles à implanter.

Ils ne demandent que peu de gainage. Un système naturel se limite à  la création de conduits verticaux d’évacuation dans les locaux humides. Pour fonctionner efficacement, ceux-ci doivent cependant respecter certaines prescriptions quant à leur tracé et leur débouché en toiture, que l’on trouvera dans la norme (résidentielle) NBN D50-001. Ce système peut donc être plus difficile à mettre en œuvre qu’un système mécanique simple flux par extraction. Cette dernière devra d’ailleurs être choisie si une évacuation naturelle correcte ne peut être réalisée.

La pulsion mécanique impose, quant à elle, une distribution de l’air dans tous les locaux via un gainage, et parfois, à des fins d’équilibrage aéraulique, une reprise d’air qui ne se limite pas aux locaux sanitaires et prends la forme d’un second réseau de conduites.

Rappelons que dans le cas d’une pulsion mécanique, un principe de balayage peut être mis en place. L’air alimentant un local peut provenir d’un autre local, pour autant qu’il n’y ait une gradation dans la qualité de l’air: un local ne peut pas être alimenté par de l’air provenant d’un espace plus pollué que lui (voir à ce sujet la norme ISO « ventilation dans les bâtiments non-résidentiels » ). Dans les espaces résidentiels, cette possibilité est explicitement prévue par la norme NBN D50-001, qui autorise que l’air alimentant les salles de séjour provienne des chambres, des locaux d’étude et de loisir, des couloirs, des cages d’escalier, des halls. Ceci a l’avantage de diminuer les débits totaux d’air neuf à injecter dans le bâtiment et de préchauffer l’air avant son entrée dans les locaux de séjour. Dans les chambres et les locaux d’étude et de loisir, seul l’air extérieur est autorisé.

Dans les locaux aveugles, il n’est généralement pas possible de réaliser des amenées d’air naturelles correctes, ce qui impose la pulsion mécanique.


La consommation énergétique et les coûts

Il faut comparer les performances que l’on espère obtenir, l’investissement à consentir et les coûts d’exploitation du système.

Au niveau de l’investissement, plus la mécanisation est importante (du simple flux avec extraction sanitaire au double flux avec pulsion et extraction dans chaque local), plus l’investissement est important. Il en est de même pour les frais d’exploitation (consommation des ventilateurs, maintenance des réseaux). Les frais de chauffage de l’air neuf sont, quant à eux les mêmes, si on considère que tous les systèmes permettent d’assurer des débits équivalents corrects. si ce n’est qu’une ventilation double flux est généralement pourvue d’une récupération de chaleur sur l’air extrait qui modifie sensiblement le bilan énergétique et financier.

Pour situer la surconsommation électrique d’un système de ventilation entièrement mécanique par rapport à un système de ventilation entièrement naturel, on peut citer les chiffres de consommation des ventilateurs couramment rencontrés dans la littérature : pour un système de ventilation double flux, la puissance électrique absorbée par les ventilateurs dans leurs conditions nominales de fonctionnement est de l’ordre de :

2 * 0,14 (installation performante : SFP1) à 0,35 W (installation médiocre : SFP3) par m³/h d’air transporté

dont une partie se retrouvera sous forme de chaleur dans l’air pulsé.
Vous pouvez estimer la différence de consommation entre les différents principes de ventilation :

Calculs

Pour estimer la différence de consommation entre les différents types de ventilation, cliquez ici !

Par exemple, pour assurer un apport d’air neuf de 6 000 m³/h pendant 2 500 h/an, un système de ventilation mécanique double flux consommera en électricité environ :

2* (0,14 [W] .. 0,35 [W]) x 6 000 [m³/h] x 2 500 [h/an] = 4200 .. 10500 [kWh/an]

Par contre, le système double flux permet une meilleure maîtrise des débits, donc des déperditions de chaleur par ventilation. Les consommations peuvent en outre être réduites si on utilise un récupérateur de chaleur. Cette récupération de chaleur est énergétiquement très intéressante puisqu’elle permet de récupérer de 50% à 90% de l’énergie rejetée avec l’air extrait.

Le système double flux permet également une gestion automatique des débits de ventilation local par local en agissant directement au niveau des bouches de pulsion, par exemple en fonction de l’occupation des bureaux individuels. Ce niveau d’automatisation au  niveau de chaque local est théoriquement possible en ventilation naturelle et simple flux si l’on utilise comme amenée d’air des fenêtres robotisées liées à des sondes de présence ou de CO2. Mais ce type de systèmes est très peu utilisé à l’heure actuelle.

Notons également que des installations pilotes de ventilation naturelle avec récupération de chaleur ont été réalisées dans le cas du projet de recherche « NatVent » (pour plus de détail : NatVent, Overcoming barriers to natural, CD-Rom, P.Wouters, J.Demeester, CSTC, 02/655 77 11).


L’esthétique

Les grilles d’amenée d’air naturelles doivent s’intégrer dans l’esthétique des façades et demandent un travail de recherche lors de la conception. Les prises et évacuations extérieures des systèmes mécaniques peuvent souvent être disposées à des endroits moins visibles.

Photo grilles d'amenée d'air naturelles.

Amenée d’air naturelle disposée discrètement au dessus du châssis, contre la battée.

Choisir le système de ventilation : critères généraux

© Architecture et climat 2023.

La qualité d’air intérieur dépend notamment de :

  1. L’air extérieur ;
  2. le mobilier et matériel de bureau ;
  3. les produits et matériaux de construction ;
  4. la ventilation ;
  5. le comportement des usagers.

Les normes recommandent une ventilation de base permanente ayant pour but d’évacuer les odeurs, l’humidité et les éventuelles substances nocives. Pour ce faire, différents systèmes de ventilation existent.


Aperçu des normes

En région wallonne, depuis le 1er mai 2010, tous les bâtiments neufs et assimilés doivent répondre à des exigences particulières. Les bâtiments non résidentiels (hors habitation et appartement) doivent respecter l’Annexe C3 de la PEB (elle-même basée sur la norme européenne EN 13 779 (Ventilation dans les bâtiments non résidentiels – Spécifications des performances pour les systèmes de ventilation et de climatisation).  Celle-ci impose une qualité d’air au moins égale à la catégorie INT 3 (débit minimum de 22 m³ par heure et par personne).

De plus, elle impose un taux d’occupation minimum (m² par personne) à prendre en compte pour le dimensionnement en fonction de l’usage de la pièce.

Pour déterminer le débit d’air neuf minimal à assurer dans chaque local, il faut donc multiplier le taux d’occupation (de conception ou minimum imposé) par le débit de ventilation (INT 3 minimum).

De plus, il faut respecter un débit de conception minimal pour les sanitaires : 25m³/h par WC ou urinoir ou 15m²/h par m² de surface si le nombre de WC n’est pas connu lors du dimensionnement.

Pour les hôpitaux, selon la norme NF S90-351, dans les zones à risques 1, c’est-à-dire concrètement sans risque d’aérobiocontamination (hospitalisation sans risque d’infection, certaines consultations, radiologie, ergothérapie, …), la ventilation se traite, en principe, sans exigence particulière en terme de filtration et de pression.

Dans les autres locaux (médico-techniques par exemple), la ventilation est organisée dans le même local où l’on retrouve à la fois des bouches de pulsion et d’extraction.


Typologie des systèmes de ventilation

Différentes dénominations sont utilisées pour caractériser des systèmes de ventilation.

Relativement au flux d’air, on distingue ventilation hygiénique et intensive sur base du débit:

  • Ventilation hygiénique, ou « de base » : il s’agit de la ventilation minimale nécessaire pour garantir une qualité de l’air suffisante, pour réduire la concentration des odeurs et de l’humidité. Elle requiert des débits d’air limités, appliqués de manière permanente. Ordre de grandeur : <1 renouvellement horaire de l’air.
  • Ventilation intensive : ventilation temporaire à grand débit (ordre de grandeur : >4 renouvellements horaires de l’air) nécessaire uniquement dans des circonstances plus ou moins exceptionnelles, comme lors d’activités générant une production élevée de substances nocives ou d’humidité (travaux de peinture, de nettoyage, certains loisirs,…), lors de chaleur persistante ou d’ensoleillement intensif qui provoque une surchauffe, ou lors d’une occupation extraordinaire, par exemple une fête, un nombre de fumeurs élevé, …

On distingue également infiltrations et ventilation sur base du caractère volontaire ou fortuit du mouvement d’air :

  • Infiltration : mouvement d’air involontaire et incontrôlé au travers des faiblesses de l’enveloppe d’un bâtiment
  • Ventilation : mouvement d’air volontaire et partiellement ou totalement contrôlé au travers de dispositifs spécifiques

Dans le logement, la norme NBN D50-001 parle de systèmes A, B, C ou D selon que l’amenée et/ou l’évacuation d’air est naturelle ou mécanique. Bien qu’exclusivement réservée aux logement, ces appellations sont parfois généralisées aux systèmes mis en œuvre dans les bâtiments tertiaires. Nous parlerons ici plus largement de :

Les ventilations double flux peuvent ou non intégrer une récupération de chaleur sur l’air extrait.

Enfin, on parlera de ventilation hybride lorsqu’elle recours aux principe de la ventilation naturelle mais prévoit ponctuellement le support de ventilateurs et d’éléments réseaux de ventilation mécanique. Typiquement, il s’agit d’une ventilation naturelle dans laquelle un ventilateur d’appoint vient renforcer le tirage lorsque les forces naturelles font défaut.

Le premier choix à réaliser est donc, pour faire simple, entre une ventilation naturelle ou mécanique simple ou double flux. en conception neuve ou rénovation, c’est très souvent une ventilation mécanique qui sera choisie. Se posent alors deux autres questions :

  • faut-il créer un réseau de ventilation unique desservant tout le bâtiment (système de ventilation centralisé) ou distinguer les équipements de chaque local ou groupe de locaux (système de ventilation décentralisé) ?
  • A-t-on intérêt à utiliser ce système de ventilation pour traiter l’air neuf et/ou climatiser le local?

Concevoir

Pour départager les ventilation naturelles et mécaniques, cliquez ici !

Concevoir

Pour départager les systèmes de ventilation centralisés ou décentralisés, cliquez ici!

Concevoir

Pour examiner l’intérêt d’une combinaison de la ventilation avec le traitement thermique des locaux, cliquez ici

Repérer les fuites de fluides frigorigènes

Repérer les fuites de fluides frigorigènes

Les fluides frigorigènes ont un impact non négligeable sur l’environnement. Les réglementations outre le fait d’interdire l’utilisation de certains fluides imposent le contrôle de l’étanchéité des installations.

Pour le repérage des fuites, on retrouve principalement deux méthodes :

  • la méthode directe ;
  • la méthode indirecte.

Méthode directe

Détecteur de fuite.

Détecteur de fuite R22, R134A… Cette méthode consiste en l’utilisation d’un détecteur de fuite manuel placé devant chaque source potentielle de fuite. Dans les installations existantes, une fuite est souvent difficile à détecter :

  • En détente directe (le fluide frigorigène alimente directement les évaporateurs des meubles frigorifiques, des chambres froides, des ateliers de boucherie, …), les conduites passent régulièrement dans des faux-plafonds, des gaines techniques, … difficiles d’accès.
  • Pour les installations à boucle secondaire par fluide caloporteur (le fluide frigorigène alimente les évaporateurs « utiles » via un fluide caloporteur comme l’eau glycolée, le CO2, …), les fuites potentielles sont circonscrites au local technique; ce qui en soi, simplifie la détection d’une fuite éventuelle.

L’idéal est de faire appel dans n’importe quel cas à des frigoristes spécialisés.

Méthode indirecte

Cette méthode se base sur une estimation des pertes relatives annuelles. Elle peut être mise en œuvre par le maître d’ouvrage ou par la société de maintenance sur base de relevés effectués sur le circuit frigorifique par du personnel qualifié (prise de pression, monitoring permanent, …).

En fonction des impositions réglementaires, il est nécessaire, suivant la charge frigorifique, de comptabiliser les relevés intermédiaires imposés.

Fluides frigorigènes [Chauffage – PAC]

Fluides frigorigènes [Chauffage - PAC]


L’impact environnemental

Depuis quelques décennies, l’impact des fluides frigorigènes sur l’environnement est devenu un enjeu majeur. En effet, de par la présence de fuites au niveau du circuit frigorifique, la responsabilité de ces fluides dans la destruction de la couche d’ozone et l’augmentation de l’effet de serre n’est plus à démontrer.

Trou d’ozone au pôle sud.

Que ce soit en conception, en rénovation ou même en maintenance, les fuites de fluides sont donc à éviter. Elles dépendent essentiellement de la qualité :

  • du choix et de la mise en œuvre des équipements (soudures et connexions des conduites de distribution par exemple);
  • de l’optimisation du cycle frigorifique;
  • de la maintenance;

En France, en 1997, une étude a montré que le taux de fuites annuelles pouvait atteindre 30 % de la quantité totale en poids (ou en masse) de fluides frigorigènes présent dans les installations frigorifiques des grandes surfaces (Réf.: Zéro fuite – Limitation des émissions de fluides frigorigènes, D. Clodic, Pyc Éditions, 1997).

Depuis lors, les réglementations se sont attaquées à ces problèmes :

  • Suite au protocole de Montréal (1987) les fluides frigorigènes CFC (chlorofluorocarbures, principaux responsables de la destruction de la couche d’ozone) ont été définitivement abandonnés et remplacés progressivement par les HCFC.
  • Les réglementations européennes 2037/2000, 842/2006 et 517/2014 ont notamment imposé :
    •  l’interdiction d’utilisation des HCFC à fort impact sur l’effet de serre (GWP ou global Warming Potential);
    • le remplacement progressif des HFC à haut GWP;
    • le confinement des installations frigorifiques permettant de réduire la quantité de fluide frigorigène;
    • des contrôles réguliers d’étanchéité des installations;
    •  …

Indices d’impact

Pour établir l’impact des fluides frigorigènes sur la couche d’ozone et l’effet de serre, trois indices principaux ont été définis :

  • ODP : Ozone Depletion Potential;
  • GWP : Global Warning Potential;
  • TEWI : Total Equivalent Warning Impact.

ODP (Ozone Depletion Potential)

C’est un indice qui caractérise la participation de la molécule à l’appauvrissement de la couche d’ozone. On calcule la valeur de cet indice par rapport à une molécule de référence, à savoir soit R11 ou R12 qui ont un ODP = 1.

GWP (Global Warning Potential)

C’est un indice qui caractérise la participation de la molécule à l’effet de serre. On calcul la valeur de cet indice par rapport à une molécule de référence, à savoir le CO2, et pour des durées bien déterminées (20, 100, 500 ans). Le CO2 à un GWP = 1.

TEWI (Total Equivalent Warning Impact)

Le TEWI est un concept permettant de valoriser le réchauffement planétaire (global warming) durant la vie opérationnelle d’un système de réfrigération par exemple, utilisant un fluide frigorigène déterminé en tenant compte de l’effet direct dû aux émissions de fluide frigorigène et à l’effet indirect dû à l’énergie requise pour faire fonctionner le système.

À titre indicatif, il est donné par la formule :

TEWI = (GWP x L x n) + (GWP x m[1-C]) + n x E x β

Où :

  • GWP : global warming potential;
  • L : émissions annuelles de fluide en kg;
  • n : durée de vie du système en années;
  • m : charge en fluide frigorigène en kg;
  • C : facteur de récupération / recyclage compris entre 0 et 1;
  • E : consommation annuelle d’énergie en kWh;
  • β : émission de CO2 en kg / kWh.

Voici, pour chaque fluide frigorigène, le Ozone Depletion Potential (potentiel de destruction de la couche d’ozone) et le Global Warming Potential (potentiel de participation au réchauffement climatique) sur 100 ans :

ODP GWP100
R717 Amoniac 0 0
R744 CO2 0 1
R290 Propane 0 20
R32 HFC, fluide pur 0 675
R134a HFC, fluide pur 0 1 430
R407C HFC, mélange 0 1 800
R22 HCFC 0,05 1 810
R410A HFC, mélange 0 2 100
R427A HFC, mélange 0 2 100
R417A HFC, mélange 0 2 300
R422D HFC, mélange 0 2 700
R125 HFC, fluide pur 0 3 500
R404A HFC, mélange 0 3 900
R12 CFC 0,82 10 900

Source : 4ème rapport de l’IPCC (Intergovernmental Panel on Climate Change).


Les fluides frigorigènes fluorés

Fluides frigorigènes fluorés

Les fluides frigorigènes fluorés sont en grande partie responsables de la destruction de la couche d’ozone et contribuent à augmenter l’effet de serre. Les interactions entre les deux phénomènes sont réelles mais d’une grande complexité.

On en distingue plusieurs types :

  • CFC;
  • HCFC;
  • HFC.

CFC (chlorofluorocarbures) (interdits de production depuis janvier 1995)

Ce sont des molécules composées de carbone, de chlore et de fluor. Elles sont stables; ce qui leur permet d’atteindre la stratosphère sans trop de problèmes. À ce stade, en se transformant elles contribuent à la destruction de la couche d’ozone.

R-11 Groupes centrifuges « basse pression ».
R-12 Essentiellement froid domestique et climatisation automobile, mais aussi dans les groupes refroidisseurs d’eau centrifuges.
R-13 Rares utilisations en froid très basse température.
R-14 Rares utilisations en froid très basse température.
R-113 Abandonné avant son interdiction.
R-114 Pompes à chaleur et climatisation de sous-marin.
R-115 Fluide pas utilisé seul, mais dans le R-502, mélange azéotropique très utilisé en froid commercial basse température.

HCFC (hydrochlorofluorocarbures) (utilisation interdite au Ier Janvier 2015)

Ce sont des molécules composées de carbone, de chlore, de fluor et d’hydrogène. Elles sont moins stables que les CFC et détruisent l’ozone dans une moindre mesure. Elles sont appelées substances de transition.

R-22 Fluide frigorigène le plus souvent utilisé, aussi bien en froid industriel qu’en climatisation.
R-123 Remplace le R-11 dans les groupes centrifuges.
R-124 Essentiellement utilisé dans certains mélanges.

HFC (hydrofluorocarbures) (utilisation réduite progressivement jusqu’en 2030)

Ce sont des molécules composées de carbone, de fluor et d’hydrogène. Elles ne contiennent pas de chlore et donc ne participent pas à la destruction de la couche d’ozone. Par contre, les HFC présentent un Global Warming Potential (contribution à l’effet de serre) sur 100 ans élevé.

R-134a

(Solkane)

Fluide frigorigène qui a remplacé le R-12 en froid domestique et en climatisation automobile.

En application « chauffage », il présente l’avantage de faire fonctionner les pompes à chaleur à haute température (généralement jusqu’à 65 °C) et à relativement basse pression. Son utilisation est compatible avec une production d’eau chaude pour radiateurs en lieu et place d’une chaudière.

C’est également un composant majeur de la plupart des mélanges de remplacement.

R-125 N’est jamais utilisé pur en raison de sa pression critique trop faible (66°C). Il entre dans la composition de nombreux mélanges compte tenu de son pouvoir « extincteur ».
R-32,
R-152a
R-143a
Inflammables et donc utilisés uniquement en mélange avec d’autres composants qui « neutralisent » leur inflammabilité.

Mélange de fluides frigorigènes

On peut les classer en fonction du type de composants fluorés qu’ils contiennent.
Ils se distinguent également par le fait que certains mélanges sont :

  • Zéotropes : au cours d’un changement d’état (condensation, évaporation), leur température varie.
  • Azéotropes : ils se comportent comme des corps purs, sans variation de température lors du changement d’état.

Il va de soi que les frigoristes apprécient cette propriété d’azéotropie pour le fonctionnement de la machine frigorifique.

Le R407C (R134a : 52 % + R125 : 25 % + R32 : 23 %)

Le R407C est un fluide non azéotrope (il est composé de plusieurs fluides) afin d’obtenir sa température de changement d’état.

Ce fluide frigorigène présente les particularités suivantes :

  • Il est ininflammable.
  • Lors des changements de phase, la température « glisse » d’environ 5 K car les températures d’évaporation et de condensation des fluides frigorigènes qui le constituent sont différentes. Ceci rend les réglages plus difficiles et impose des échangeurs à contre-courant pour tirer le meilleur parti de ce fluide.
  • En cas de micro-fuite, le composé ayant les molécules les plus volatiles s’échappe préférentiellement. Il en résulte un fluide frigorigène déséquilibré. Il est dès lors nécessaire de vider entièrement l’installation avant de la recharger, le gaz retiré étant recyclé.
  • Les pressions sont moindres avec ce fluide frigorigène.
  • Il est moins performant que le R410A …
Le R410A (R32 : 50 % + R125 : 50 %)

Le R410A présente de meilleures qualités thermodynamiques que le R407C et le R22. D’autre part, l’étanchéité des installations est plus élevée avec le R410A, les pertes de pression sont donc faibles et les vitesses de fonctionnement peuvent être élevées. Les composants sont dès lors plus compacts.

Le R410A est cependant toxique ! De plus, il se comporte comme un réfrigérant mono-moléculaire lorsqu’il change de phase : le passage d’un état à un autre se produit à température quasiment constante (le glissement de température est négligeable). On ne doit donc pas vider complètement l’installation avant de la recharger.Pour terminer, les pressions de fonctionnement sont 60 % plus élevées que dans le cas du R22. Ceci limite donc son utilisation aux températures de condensation moyennes : maximum 45 °C.

Le R404A (R143a : 52 % + R125 : 44 % + R134a : 4 %)

Le R404A présente des caractéristiques communes avec le R410A (il se comporte aussi comme un fluide quasi-azéotropique) mais sa pression de fonctionnement est plus basse. Sa particularité est de ne pas beaucoup s’échauffer pendant la compression. La température des vapeurs surchauffées en sortie de compresseur reste donc modérée, ce qui convient parfaitement à la mise en œuvre des PAC fluide/fluide.


Les fluides à bas « effet de serre »

Ils sont considérés comme moins inquiétants pour l’environnement, car à la fois sans action sur l’ozone stratosphérique et d’un faible impact sur l’effet de serre.

Ils présentent tous des inconvénients, soit au niveau sécurité, soit au niveau thermodynamique.

L’ammoniac (NH3) ou R-717

L’ammoniac présente de nombreux avantages en tant que fluide frigorigène :

  • Impact environnemental nul (ODP et GWP100 nuls);
  • très bon coefficient de transfert de chaleur;
  • efficacité énergétique élevée (au moins aussi bonne que le R22, meilleure dans certaines conditions);
  • le gaz ammoniac est plus léger que l’air;
  • faibles pertes de charge;
  • fuites aisément détectables;
  • faible prix de revient et faibles frais d’entretien des installations;
  • très difficilement inflammable, limite d’explosion élevée et petits champs d’explosion;
  • chimiquement stable;
  • aisément absorbable dans l’eau;
  • pas très sensible à l’humidité dans le circuit;
  • naturel donc biodégradable;
  • grâce à sa haute température critique, il permet de réaliser des températures de condensation très élevées et de concevoir des PAC à haute température.

Les COP obtenus avec ce fluide frigorigène peuvent être équivalents à ceux obtenus avec des HFC.

L’ammoniac est par contre toxique (mais pas cumulativement dans le temps) et irritable. Il peut être explosif dans des cas exceptionnels (les limites inférieure et supérieure d’inflammabilité doivent être très proches l’une de l’autre). Il sera également explosif dans des locaux non aérés où il se crée un mélange d’air, d’azote et d’ammoniac. Les locaux doivent donc absolument être ventilés et le passage de l’air doit également être totalement libre. De plus, le NH3 corrode facilement le cuivre et ses alliages ainsi que le zinc. Les installateurs sont donc obligés d’utiliser de l’acier. Pour terminer, l’ammoniac n’étant pas miscible et soluble dans les huiles minérales, il faut prévoir un séparateur d’huile après le compresseur.

Les installations à l’ammoniac l’utilisent liquide et sa quantité est réduite : la quantité de gaz perdu par fuites est donc faible.

Il est à l’heure actuelle principalement utilisé dans le froid industriel.

Les hydrocarbures (HC) comme R-290 R-600a

Il s’agit essentiellement du propane (R-290), du butane (R-600) et de l’isobutane (R-600a).

Ces fluides organiques présentent de bonnes propriétés thermodynamiques, mais sont dangereux par leur inflammabilité. Le monde du froid s’est toujours méfié de ces fluides, même s’ils sont réapparus récemment dans des réfrigérateurs et des mousses isolantes. Leur utilisation future paraît peu probable en climatisation, vu le coût de la mise en sécurité aussi bien mécanique qu’électrique. En PAC, on l’utilise donc dans des quantités les plus faibles possible (maximum 3 kg pour les applications résidentielles), de préférence à l’extérieur des bâtiments.

Le dioxyde de carbone (CO2) ou R-744

Fluide inorganique, non toxique, non inflammable, mais moins performant au niveau thermodynamique. Son usage implique des pressions élevées et des compresseurs spéciaux.

Il possède cependant de bonnes qualités en application PAC pour le chauffage ou l’eau chaude sanitaire. Il est peu coûteux, et sa récupération et son recyclage sont simples à mettre en œuvre.

Actuellement, les spécialistes s’y intéressent à nouveau de par :

  • son faible impact sur l’environnement (ODP = 0, GWP = 1);
  • son faible volume massique entraînant des installations à faible volume (fuites réduites);

Il a la particularité de posséder une température critique basse à 31 °C  pour une pression de 73,6 bar.

À noter que l’utilisation de ce type de réfrigérant entraîne aussi des contraintes non négligeables telles que la nécessité de travailler :

  • à des pressions élevées (80 voire plus de 100 bar);
  • en transcritique qui demande une maîtrise de la condensation en phase gazeuse (gaz cooler);

L’eau (H2O)

Fluide inorganique, bien entendu sans toxicité. Même si sa grande enthalpie de vaporisation est intéressante, il ne se prête pas à la production de froid sous 0°C. Il est peu adapté au cycle à compression et ses applications sont rares.

Synthèse

Frigorigène Fluide naturel ODP3 GWP (100ans) valeurs IPCC 3 GWP (100ans) valeurs WMO 4 Temp. critique (°C) Pression critique (MPa) Inflammabilité Toxicité Coût relatif Puissance volumétrique
R290

(HC) CH3CH2CH3

Oui 0 20 20 96,7 4,25 Oui Non 0,3 1,4
R717 (Ammoniac NH3) Oui 0 <1 <1 132,3 11,27 Oui Oui 0,2 1,6
R 744 (CO2) Oui 0 1 1 31,1 7,38 Non Non 0,1 8,4
R718 (H2O) Oui 0 0

Caractéristiques environnementales des fluides frigorigènes naturels.


Nomenclature

Les fluides frigorigènes sont soumis à une nomenclature qui se veut internationale. L’ASHRAE, une des plus utilisées, désigne les fluides frigorigènes par la lettre R associée à 2,3 ou 4 chiffre + une lettre (R134a par exemple).

Le tableau ci-dessous montre la méthode de désignation des fluides réfrigérants :

R-WXYZ§

Nomenclature

Appellation courante

R12

R134a

R1270

Appellation pour la détermination de la formule

R-0012

R-0134a

R-1270

CFC

W = Nombre d’insaturation

Carbone = Carbone (C=C)

C=C (double liaison)

0

0

1

X = nombre de Carbone -1

nombre d’atomes de Carbone C = X + 1

1

2

3

Y = nombre de Hydrogène +1

nombre d’atomes d’Hydrogène H = Y – 1

0

2

6

Z = nombre de Fluor

nombre d’atomes de Fluor F = Z

2

4

0

R401A

nombre d’atomes de Chlore Cl*

2

0

0

Formule chimique

C Cl2F2

C2H2F4

CH3 CH=CH2

Si § = A-E => symétrie

Si § = a-b => asymétrie (avec a moins asymétrique que b)

symétrie de la molécule

symétrique

asymétrique

symétrique

Calcul du nombre d’atomes de chlore : Pour les molécules saturées (w = 0), Le nombre d’atomes de chlore s’obtient à partir de la formule suivante : Cl = 2.(C = 1) – H – F.

Comparer les performances des fluides frigorigènes

Comparer les performances des fluides frigorigènes


Principes

Les différents fluides frigorigènes ne sont pas égaux devant le froid. Certains ont une meilleure efficacité frigorifique que d’autres; c’est pourquoi il est important d’évaluer leurs différences.

Coefficient de performance instantané COP

Cycle frigorifique classique.

L’effet frigorifique ou COP est défini par la relation suivante :

COP = Puissance frigorifique / Puissance électrique absorbée

Où :

  • Puissance frigorifique : puissance utile à l’évaporateur [kWf];
  • Puissance électrique absorbée : puissance électrique par le compresseur [kWe].

Production frigorifique spécifique

Le type de fluide frigorigène influence le COP. La recherche d’un fluide frigorigène à forte production frigorifique par volume de gaz aspiré au niveau du compresseur est primordiale. Un fluide frigorigène est d’autant plus performant que sa chaleur latente d’ébullition (ou d’évaporation) à l’évaporateur et un faible volume spécifique des vapeurs à l’aspiration.

La production par m³ de fluide aspiré sous forme de gaz au compresseur est donnée par la relation suivante :

Production frigorifique spécifique = Chaleur latente d’ébullition / Volume spécifique des vapeurs à l’aspiration

[kJ/m³]

Où :

  • La chaleur latente d’ébullition est exprimée en kJ/kg ;
  • Et le volume spécifique des vapeurs en m³/kg.

Cette production frigorique par m³ de gaz aspiré est donc inversement proportionnelle à la cylindrée des compresseurs et donc de leurs coûts. Il en résulte que les quantités de fluides frigorigènes, pour une même puissance frigorifique, peuvent être plus importantes d’un type à l’autre de fluide.


Comparaison

L’exercice consiste à comparer plusieurs fluides frigorigènes entre eux afin de déterminer leur production frigorifique spécifique et leur COP.

Pour ce faire, on se propose d’étudier, à travers d’un exemple et succinctement, les fluides suivants :

  • Le R22 ou fluide pur HCFC encore présent dans beaucoup d’installations existantes à faible ODP (ODP = 0,055) mais à GWP important (GWP = 1700) ;
  • Le R404A ou mélange de HCFC majoritairement utilisé dans les nouvelles installations de froid commercial sans impact sur la couche d’ozone (ODP = 0) mais à GWP important (GWP = 3260) ;
  • Le R507 ou autre mélange de HFC utilisé régulièrement dans les nouvelles installations.

Hypothèses :

  • Puissance frigorifique utile nécessaire : Pfrigorifique = 100 kW;
  • Température de condensation = 40°C;
  • Température d’évaporation ou d’ébullition -10°C;
  • Sous-refroidissement = 5°C;
  • Surchauffe = 5°C;
  • rendement du compresseur ηcomp = 0,85;
  • rendement du moteur électrique ηmoteur_élec = 0,85;
  • pas de pertes de charge ni d’échange thermique au niveau des conduites;

Cycle théorique :

R22

En fonction des hypothèses prises, on peut établir le graphique suivant qui permet de déterminer les valeurs :

  • d’enthalpie au niveau de l’évaporateur : soit Δhévaporateur = 405 – 244 = 161 kJ/kg;
  • énergie théorique de compression : soit Δhcompression = 443 – 405 = 38 kJ/kg;
  • de volume massique à l’aspiration : soit Vmassique_aspiration = 0,067 m³/kg.

Calculs :

  • Pour une puissance frigorifique demandée de 100 kW, le débit massique de R22 est de :

débitmassique = Pfr / hévaporateur [kg/s]

débitmassique = 100 [kJ/kg] / 161 [kW] = 0,62 kg/s ou 2 236 kg/h

  • Le volume réel à aspirer par le compresseur est de :

Volumeréel = débitmassique * volumemassique_aspiration

Volumeréel  = 0,62  [kg/s] / 0,067  [m³/kg] = 0,04 m³/s

soit en une heure un volume aspiré au niveau du compresseur de 0,04 x 3 600 = 150 m³/h

  • Le rendement volumétrique du compresseur est de :

ηVolume = 1 – (0,05 x τ)

Où :

τ  = HP / BP (en pression absolue)

ηVolume  = 1 – (0,05 x HP / BP)

ηVolume  = 1 – (0,05 x 15,3 / 3,55) = 0,78

  • Le débit théorique nécessaire est de :

Débitcompresseur = Volumeréel / ηVolume

Débitcompresseur = 150 / 0,78

Débitcompresseur = 190 m³/h

  • La puissance électrique du moteur du compresseur est de :

Pelectr_absorbée = débitmassiqueΔhcompression x (1 /  ( ηcomp x ηmoteur_elec x ηVolume))

Pelectr_absorbée = 0,62 x 38 x (1 / (0,85 x 0,85 x 0,785))

Pelectr_absorbée = 41 kW

  • Enfin, la performance énergétique (ou effet frigorifique) de la machine est de :

COP = Pfrigorifique / Pelectr_absorbée

COP = 100 / 41 = 2,4

R404A

Comme pour le R22, avec les mêmes hypothèses, on effectue les calculs amenant à déterminer le COP de l’installation. Le tout est consigné dans le tableau de synthèse ci-dessous.

R507

Comme pour le R22, avec les mêmes hypothèses, on effectue les calculs amenant à déterminer le COP de l’installation. Le tout est consigné dans le tableau de synthèse ci-dessous.

Synthèse

Pour les 3 fluides étudiés ci-dessus, on établit un tableau synthétique qui nous permet une comparaison des principales caractéristiques et performances des fluides réfrigérants :

Caractéristiques et performances des fluides frigorigènes

R22

R404A

R507

Haute pression [bar]

15

18,2

18,8

Basse pression [bar]

3,6

4,3

4,5

Taux de compression (τ = HP / BP)

4,3

4,2

4,2

Rendement volumétrique ηVolume

0,78

0,79

0,79

Température de fin de compression [°C]

70

50

53

Volume spécifique à l’aspiration du compresseur [m³/kg]

0,067

0,048

0,046

Débit massique du fluide réfrigérant [kg/s]

0,62

0,85

0,88

Volume réellement aspiré [m³/s]

0,04

0,04

0,04

Volume théorique [m³/h]

191

185,3

185,5

Puissance électrique [kW]

41

39

50

COP

2,4

2,6

2

Diminution des performances

– 8 %

– 23 %

Conclusion

Les fluides frigorigènes étudiés présentent beaucoup de similitudes. On voit néanmoins que le COP du R404A est meilleur; ce qui signifie que dans des conditions idéales et identiques (en régime permanent et stable par exemple), pour une période de temps identique, la consommation d’une machine :

  • au R22 est 8 % plus élevée;
  • au R507 est 23 % plus élevée.

Caractéristiques thermiques des sols

Caractéristiques thermiques des sols

Type de roche

Conductivité thermique
λ (W/mK)

Capacité thermique volumétrique
ρC (MJ/m³K)

min

valeur typique

max

Roches magmatiques

Basalte

1.3

1.7

2.3

2.3 – 2.6

Diorite

2.0

2.6

2.9

2.9

Gabbro

1.7

1.9

2.5

2.6

Granit

2.1

3.4

4.1

2.1 – 3.0

Péridotite

3.8

4.0

5.3

2.7

Rhyolithe

3.1

3.3

3.4

2.1

Roches métamorphiques

Gneiss

1.9

2.9

4.0

1.8 – 2.4

Marbre

1.3

2.1

3.1

2.0

Métaquartzite

env. 5.8

2.1

Mécaschistes

1.5

2.0

3.1

2.2

Schistes argileux

1.5

2.1

2.1

2.2 – 2.5

Roches sédimentaires

Calcaire

2.5

2.8

4.0

2.1 – 2.4

Marne

1.5

2.1

3.5

2.2 – 2.3

Quartzite

3.6

6.0

6.6

2.1 – 2.2

Sel

5.3

5.4

6.4

1.2

Grès

1.3

2.3

5.1

1.6 – 2.8

Roches argileuses limoneuses

1.1

2.2

3.5

2.1 – 2.4

Roches non consolidées

Gravier sec

0.4

0.4

0.5

1.4 – 1.6

Gravier saturé d’eau

env. 1.8

env. 2.4

Moraine

1.0

2.0

2.5

1.5 – 2.5

Sable sec

0.3

0.4

0.8

1.3 – 1.6

Sable saturé d’eau

1.7

2.4

5.0

2.2 – 2.9

Argile/limon sec

0.4

0.5

1.0

1.5 – 1.6

Argile/limon saturé d’eau

0.9

1.7

2.3

1.6 – 3.4

Tourbe

0.2

0.4

0.7

0.5 – 3.8

Autres substances

Bentonite

0.5

0.6

0.8

env. 3.9

Béton

0.9

1.6

2.0

env. 1.8

Glace (-10°C)

2.32

1.87

Plastique (PE)

0.39

Air (0-20°C, sec)

0.02

0.0012

Acier

60

3.12

Eau (+10°C)

0.58

4.19

Choisir le CO2 comme fluide réfrigérant ou caloporteur

Image par défaut pour la partie Concevoir

Le grand retour du CO2 ?

Le CO2 (R 744) revient à la charge ses derniers temps comme fluide frigorigène. Autrefois remplacé par les CFC, HCFC, HFC, il doit son retour :

  • À son faible impact sur l’environnement (ODP = 0, GWP = 1) par rapport aux autres fluides frigorigènes utilisés actuellement (jusqu’à 3 800 fois moins d’impact sur l’environnement que les HFC).
  • À  l’avancée des technologies dans le domaine de la réfrigération et de la climatisation. En effet, le problème du confinement des gaz sous haute pression semble partiellement résolu grâce, et c’est paradoxal, à la maîtrise de la climatisation dans les véhicules avec la nécessité de trouver :
    • un fluide réfrigérant propre;
    • un faible volume massique permettant des installations compactes (faible poids des équipements et volume réduit de fluide frigorigène);

Les avantages et inconvénients de l’utilisation du CO2 comme fluide frigorigène sont les suivants :

Avantages

Inconvénients

  • pas d’action sur l’ozone (ODP = 0);
  • peu d’impact direct sur l’effet de serre (GWP = 1) sachant par exemple que le R404A a un GWP de 3 800;
  • fluide naturel et largement disponible;
  • ininflammable (utilisation comme gaz dans les extincteurs);
  • non corrosif, compatible avec tous les matériaux;
  • non toxique;
  • alimentaire (notamment nos voisins hollandais l’utilise dans la conservation des repas dans les hôpitaux);
  • production frigorifique volumétrique élevée, permettant à l’heure actuelle des compresseurs de faible cylindrée et des circuits à faible quantité de fluide;
  • miscible à l’huile des compresseurs;
  • peu descendre jusqu’à -54°C;
  • taux de compression faible par rapport aux autres réfrigérants (COP intéressant);
  • il forme des acides avec l’eau et du carbonate d’ammonium (corrosif) avec l’ammoniac;
  • les pressions de service sont très importantes (80, 100 bar voire plus);
  • les équipements des circuits et de sécurité, dus à la pression, doivent être performants (coûts importants);
  • la mise en œuvre de tels circuits n’est pas encore bien maîtrisée;
  • à la mise en route, la déshydratation des circuits doit être encore plus poussée.
  • en cas d’arrêt prolongé, des dégazages à l’atmosphère doivent être opérés, nécessitant une recharge ultérieure;


Utilisation du CO2 comme fluide frigorigène : Cas pratique

Actuellement, un supermarché GB à Aywaille teste un système de réfrigération-chauffage combiné où :

  • les sources froides sont :
    • les meubles frigorifiques;
    • échangeur air/CO2 (« évaporateur de toiture);
    • échangeur eau nappe souterraine/CO2;
  • et les sources chaudes sont :
    • échangeur CO2/air (« gaz cooler »de toiture);
    • les circuits à basse température tels que le chauffage au sol, la centrale de traitement d’air et les rideaux d’air;
    • les circuits à haute température pour l’eau chaude sanitaire.

L’intérêt de ce système est de combiner des besoins :

  • de froid au niveau des meubles frigorifiques. En effet, le nombre impressionnant de meubles frigorifiques ouverts et fermés pour ce type de supermarché nécessite une puissance frigorifique de 300 kW (positif) et 40 kW (négatif);
  • de chaud classiques d’une puissance de l’ordre de 540 kW.

avec une seule machine, à savoir une pompe à chaleur.

Les résultats du monitoring ne sont pas encore connus mais devraient permettre d’y voir plus clair sur une technologie qui a le vent en poupe.


Comparaison  CO2 – R134a  

À titre d’exemple, on compare les performances théoriques de deux fluides réfrigérants comme le CO2 et le R134a.

Les hypothèses de travail sont les suivantes :

  • la phase de refroidissement du CO2 est dans la zone « transcritique » (refroidissement au dessus du point critique : 31°C, 73,6 bar);
  • la température d’évaporation est de -10°C dans les deux cas (application classique de froid positif);
  • la température de condensation pour le R134a est de 30°C (la température ou pression de condensation est flottante en fonction du climat externe);
  • la température de fin de refroidissement pour le « gaz cooler » est de 30°C aussi.

Dans le diagramme (log p, h), on superpose les deux cycles frigorifiques :

Les avantages et inconvénients du cycle CO2 au niveau thermodynamique sont :

Avantages

Inconvénients

  • L’efficacité énergétique en production de froid est relativement bonne si on maîtrise la phase de refroidissement (au « gaz cooler ») au niveau de la température. Pour une température de condensation flottante atteignant les 30°C, l’EFF du compresseur est de l’ordre de h1/h2 = 3,8;
  • Les températures à l’entrée du « gaz cooler » ou  d’un échangeur quelconque, peuvent atteindre des valeurs de l’ordre de 80°C, ce qui est intéressant pour des applications classiques de chauffage par pompe à chaleur;
  • L’efficacité énergétique en production de chaleur peut être très bonne dans la mesure où l’installation puisse tenir des pressions importantes (de l’ordre de 90 bar), ce qui représente quand même une prouesse technologique, mais accessible actuellement. Le COP pourrait atteindre des valeurs de h3/h2= 5;
  • Que ce soit en chaud comme en froid, les valeurs de EFF et COP restent en dessous des valeurs obtenues pour le R134A dans les mêmes conditions, soit une EFF h4/h5 de 5 et un COP h6/h5 de 6.

Les avantages et inconvénients du cycle R134a au niveau thermodynamique sont :

Avantages

Inconvénients

  • pour une installation bien régulée (détendeur électronique, variateur de vitesse des compresseurs, …, les performances des compresseurs tant en chaud qu’en froid sont meilleures que celles pour le cycle CO2 (COP = 6, EFF = 5).
  • Les températures de condensation sont plus faibles que celle du cycle CO2. Ce qui signifie que ce type de fluide ne peut être utilité pour des applications de chauffage haute température combiné au froid alimentaire.


Intérêt du CO2 ?

L’intérêt de l’utilisation du CO2 comme fluide réfrigérant, est avant tout lié à un choix par rapport à l’environnement. En effet, on pointera principalement :

  • le faible impact sur la couche d’ozone et l’effet de serre de part sa composition:
  • la plus faible quantité de fluide utilisé de part son volume massique faible (en cas de fuite, la quantité rejetée est faible);
  • la disponibilité de ce fluide dans la nature (piège à CO2 réalisable);

De plus, dans le cas où l’on considère qu’il faut combiner le besoin de chaleur à haute température (80-90°C) avec celui de froid et ce afin d’éviter de choisir une chaudière et un groupe de réfrigération pour la partie froid alimentaire, une installation de pompe à chaleur au CO2 peut être intéressante.

Toutefois en conception, pour autant que :

  • l’enveloppe soit bien isolée;
  • la ventilation hygiénique soit régulée en fonction de l’occupation;
  • les entrées soit bien étudiées afin de réduire les pertes énergétiques aux accès (courant d’air par exemple);
  • la quantité de meubles frigorifiques dans les commerces ouverts soit limitée;

Il n’y a pas de raison valable d’investir dans une installation coûteuse telle que celle au CO2 car la nécessité d’atteindre des températures d’eau chaude de 80-90°C n’est plus nécessaire. Autant alors investir dans une pompe à chaleur classique dont le condenseur fonctionne à des températures avoisinant les 45°C.


Conclusion

L’utilisation du CO2 comme fluide frigorigène est probablement une piste à suivre de très près.

Il est important, en conception, avant de choisir le réfrigérant qui va naturellement conditionner tout le choix des équipements, de déterminer si le projet s’inscrit dans une démarche énergétique et durable globale. Auquel cas, il faut limiter au maximum :

  • Les déperditions de l’enveloppe par l’isolation thermique des parois, la limitation des pertes par ventilation et infiltration, …
  • Les apports internes positifs ou négatifs tels que l’éclairage intensif, les meubles frigorifiques ouverts, …, par le choix  de luminaires performants, de meubles frigorifiques fermés, apport de lumière naturelle contrôlé (sheds par exemple), …
  • Les apports externes tels que les apports solaires par l’orientation du bâtiment, les ombrages, …

En fonction de l’objectif fixé au niveau de l’esquisse du bâtiment, lors du projet on pourra déterminer l’intérêt ou pas d’investir dans un fluide réfrigérant tel que le CO2.

Grandes familles de systèmes de refroidissement

Grandes familles de systèmes de refroidissement


Présentation des grandes familles

Souvent on distingue 3 grandes familles de systèmes de climatisation en fonction du mode de transport de l’énergie frigorifique. Le rafraîchissement des locaux peut se faire :

  1. Par l’intermédiaire d’un réseau d’air,
  2. par l’intermédiaire d’un réseau d’eau froide ou d’eau glacée,
  3. par contact direct entre l’air à refroidir et l’évaporateur de la machine frigorifique (« détente directe »).

Famille 1 : les installations centralisées « tout air »

Puisque de l’air hygiénique doit de toute façon être apporté aux occupants, la première idée consiste à profiter du réseau de distribution d’air pour fournir la chaleur ou le froid demandés par les locaux.

Mais pour un bureau le débit d’air hygiénique entraîne un renouvellement du volume d’air du local :

Exemple.

1 personne demande 30 m³/h d’apport d’air neuf. Il occupe 10 m², sur une hauteur de 3 m, soit 30 m³. Le ratio « débit/volume occupé » est de 1 [1/h].

Par contre le transport de la chaleur et du froid entraîne des débits d’air nettement plus importants : on atteint des débits correspondant à 4 … 10 renouvellements du local, chaque heure, …

Exemple.

Les apports internes et les apports solaires génèrent une puissance de 100 W/m². Pour les 10 m² de l’occupant, cela crée un besoin frigorifique de 1 000 W. Supposons que l’ambiance est à 24 °C et l’air frais apporté à 14 °C, l’écart de soufflage sera de 24 – 14 = 10 K.
Le débit nécessaire sera de : 1 000 W / (0,34 Wh/m³.K x 10 K) = 294 m³/h
C’est un débit d’air 10 x plus élevé que le débit hygiénique !

Le réseau d’air devient alors fort encombrant !

Aussi, la consommation électrique des ventilateurs peut devenir très élevée : dans les anciennes installations (installées il y a 30 ans), le coût de l’énergie électrique des ventilateurs peut atteindre 50 % du coût total de l’énergie consommée par le conditionnement d’air de tout l’immeuble !

De plus, en « tout air neuf », le coût de fonctionnement de l’installation est très élevé puisque le chauffage est assuré, en plein hiver, par de l’air extérieur qu’il faut réchauffer à grands frais.

Exemple.

Pour apporter 1,5 kW de chaleur au local, un apport de 3,5 kW est demandé au caisson de traitement d’air : 2 kW pour porter l’air de 6° à 22 °C, puis 1,5 kW pour l’amener à 40 °C.

La température de 6 °C correspond à la température moyenne de l’air extérieur.

Pour diminuer les coûts d’exploitation d’une installation « tout air », une bonne partie de cet air doit être recyclé.

Exemple.

60 m³/h sont conservés pour l’apport d’air hygiénique et 210 m³/h extraits des bureaux à 22 °C sont recyclés. La puissance de chauffe redescend à 1,9 kW :

Cette solution est plus économique, mais on reproche alors au système les risques de contamination que peut entraîner ce recyclage, … qui mélange l’air provenant de tous les locaux !

Pour limiter les coûts énergétiques sans risque de contamination, on place alors un récupérateur de chaleur sur l’air extrait.

Exemple.

Autrefois à la mode à toutes les sauces, on réserve généralement les centrales « tout air » aux locaux où les besoins en air neuf sont très importants, c’est à dire des locaux à grande densité d’occupation : des salles de réunion, des salles de conférences, … Un autre cas de figure est celui des bâtiments où les besoins de refroidissement sont faibles et bien maitrisés (par des superficies vitrées réduites, des protections solaires extérieures,…)

Dans ces cas, le débit de ventilation hygiénique se rapproche du débit thermique nécessaire …

De plus, la technique du « débit d’air variable » permet aujourd’hui de limiter le coût du transport de l’air et surtout d’adapter le débit en fonction des besoins de chaud ou de froid nécessaire.

Gros avantage du « tout air » sur le plan énergétique : pour les locaux qui doivent être refroidis en mi-saison et éventuellement même en hiver, de l’air frais extérieur gratuit est disponible. On parle alors de « free cooling mécanique ».

Famille  2 : les installations décentralisées « sur boucles d’eau »

Ici, les fonctions sont séparées :

  • L’air neuf hygiénique est traité en centrale, puis apporté dans les locaux au moyen d’un réseau de conduits.
  • La chaleur et le froid sont apportés vers des unités de traitement terminales situées dans les locaux, via une boucle d’eau chaude et une boucle d’eau froide ou d’eau glacée.

Comme unités terminales, on retrouve les ventilo-convecteurs, les pompes à chaleur sur boucle d’eau, les plafonds rafraîchissants, …
Trois problèmes sont résolus

  1. Seul de l’air neuf est véhiculé, limitant ainsi le risque hygiénique lié au recyclage partiel de l’air vicié (en quelque sorte, il s’agit d’une ventilation « double flux », améliorée par un traitement central en température et humidité).
  2. L’encombrement est limité puisque l’eau transporte de la chaleur (ou du froid) avec 3 000 fois moins de volume que l’air. De simples tuyauteries suffisent. En rénovation de bâtiments, on évite ainsi le percement des parois pour insérer des gainages d’air de grandes dimensions…
  3. Le transport de la puissance frigorifique ou calorifique se fait par l’eau, au moyen d’une pompe dont la consommation sera nettement moins consommatrice que le ventilateur correspondant au système « tout air ».

Cette séparation entre la ventilation et l’apport thermique au local est de plus un gage de bonne régulation.

Le mode de régulation de la température peut se faire local par local et est très accessible à l’utilisateur, ce qui est un confort apprécié. Une liaison par bus de communication des différentes unités terminales est possible, ce qui permet une régulation et une gestion globale de qualité par la GTC (Gestion Technique Centralisée).

Famille 3 : les appareils travaillant en « détente directe »

On retrouve dans cette famille les climatiseurs, armoires de climatisation, roof-top,… mais ces appareils ne peuvent résoudre qu’un problème de climatisation limité à un ou quelques locaux : la climatisation d’une salle informatique, d’une cafétéria, d’un hall d’atelier, … par exemple. On les retrouve dans des bâtiments qui ne sont pas munis de production centrale de froid, dans des ajouts de locaux ou dans les cas où il faut assurer en secours du froid pour une fonction vitale (ex : central téléphonique).

La consommation spécifique de ces appareils est plus élevée que dans une unité terminale d’une installation centralisée (ventilo-convecteurs, par exemple), suite au fait qu’ils travaillent avec une température d’évaporation très basse, entraînant une consommation parasite par déshumidification exagérée de l’air. Par contre, ils ne demandent pas le maintien de réseaux d’eau froide durant tout l’été et la mi-saison, ce qui est appréciable.

Un seul type de système peut climatiser l’ensemble d’un immeuble de bureaux, c’est le système dit « à Débit Réfrigérant Variable » (ou DRV). Il est souvent connu par les appellations VRV ou VRF, selon les constructeurs. Sa particularité est de véhiculer du fluide frigorigène dans les différents locaux et d’alimenter directement des échangeurs situés en allège ou en faux plafond. Suivant les besoins du local, l’échangeur peut fonctionner en mode froid (il est l’évaporateur de la machine frigorifique) ou en mode chaud (il est le condenseur de celle-ci). À noter le faible encombrement qu’il entraîne, puisqu’aucune chaufferie n’est ici nécessaire.

Il n’utilise aucun fluide intermédiaire (air ou eau). De là, le terme d’appareil à « détente directe » : l’échangeur « froid » est parcouru directement par le fluide frigorigène. Cette caractéristique est performante au niveau énergétique puisque le coût du transport de l’énergie frigorifique est évité. De plus, les systèmes à fluide réfrigérant variable permettent de récupérer la chaleur entre les zones chaudes et les zones froides du bâtiment.

Comme dans les systèmes air-eau, le mode de régulation de la température se fait local par local et est très accessible à l’utilisateur (généralement une télécommande).

Le problème du traitement de l’air hygiénique subsiste : il n’existe pas de chaudière ou de groupe frigorifique disponibles en centrale pour préparer l’air hygiénique. Des solutions décentralisées sont possibles avec un moindre confort.

Concevoir

Pour plus de détails, on peut consulter le choix d’un système à débit de réfrigérant variable.

Les solutions les plus courantes

La solution « standard » : le ventilo-convecteur

Photo ventilo-convecteur.

  • Partons du système le plus utilisé pour un immeuble de bureaux : le ventilo-convecteur sur une boucle d’eau froide et une boucle d’eau chaude (système appelé « ventilo-4 tubes »).Il a pour avantages :
    • une très grande souplesse de réaction face aux variations de charges,
    • un faible encombrement,
    • une possibilité d’accepter des charges différentes d’un local par rapport à un autre,
    • une séparation entre l’apport d’air frais hygiénique et l’apport thermique, ce qui supprime tout recyclage de l’air hors du local,
    • un prix d’investissement limité grâce à un équipement fabriqué en grande série.On sera attentif à la qualité lors de sélection du matériel et lors de la réalisation de la distribution d’air neuf (confort thermique et acoustique).
  • Si le bâtiment est très homogène dans ses besoins (« quand c’est l’hiver, c’est l’hiver pour tous les locaux ») on se contentera d’un « système à 2 tubes », moins coûteux : un seul réseau de tuyauterie véhicule alternativement de l’eau chaude en hiver et de l’eau froide en été. Mais cette solution devient de plus en plus difficile à appliquer : l’enveloppe du bâtiment étant de mieux en mieux isolée, certains locaux plus chargés en apports internes seront demandeurs de froid, même en hiver.
  • En rénovation, pour vaincre des charges d’équipements devenues inconfortables, on peut greffer une installation 2 tubes froids (« Hydrosplit »), sur la production de chauffage existante.

Le plafond froid

Photo plafond froid.

  • La technique des plafonds froids apporte un confort thermique et acoustique inégalé (moyennant un éventuel supplément de prix) : le froid est apporté par rayonnement au-dessus de la tête des occupants et aucun ventilateur ne vient perturber l’ambiance. Mais la puissance de refroidissement des plafonds est limitée. Cette technique ne s’appliquera dès lors qu’avec des bâtiments dont la conception limite les apports solaires : bâtiments avec ombre portée, stores extérieurs, stores intérieurs combinés à des vitrages performants,…
  • Le plafond froid sera d’ailleurs facilement intégré lors de la rénovation d’un bâtiment existant dont les charges sont légères et qui dispose déjà d’une installation de chauffage.
  • On pourra utiliser des poutres froides complémentaires si la puissance frigorifique souhaitée n’est pas atteinte, mais au détriment du confort aéraulique comme souvent dans les solutions dynamiques (risque de courants d’air froid).
  • Reste le problème de l’apport de chaleur en hiver. En construction nouvelle, si le bâtiment est bien isolé, la demande de chaleur en hiver est limitée.
    Il est envisageable d’apporter cette chaleur :

    • soit en alimentant en eau chaude les plafonds situés près des façades (près des baies vitrées),
    • soit via un circuit de radiateurs complémentaire,
    • soit grâce à des batteries terminales placées sur le conduit de ventilation hygiénique (si le débit de celui-ci est suffisant).

La solution spécifique pour les locaux à forte occupation : la centrale « tout air » à débit variable (VAV)

Photo centrale "tout air" à débit variable (VAV).

Le problème se pose tout autrement si une présence humaine nombreuse est prévue. Alors que l’on prévoit 12 m² par personne dans un bureau individuel ou 8 m²/pers dans un bureau paysager, ce ratio descend à 2 à 4 m²/pers dans une salle de réunion, voire 1 à 2 m²/pers dans une salle de conférence. Puisque chaque personne nécessite 30 m³/h, un réseau d’air neuf important sera nécessaire. On pense dès lors à profiter de ce réseau pour apporter les calories et frigories requises.
Un bilan s’impose :

  • Si le bâtiment présente des besoins limités (bien isolé du froid extérieur et bien protégé des apports solaires), le débit d’air hygiénique élevé pourra apporter les besoins thermiques. On parle d’un système « tout air ».
Exemple.
Soit un local de réunion assez dense : 2 m²/pers.
Réalisons le bilan des apports :
éclairage : 12 W/m²
personnes : 80 W pour 2 m² = 40 W/m²
total : 52 W/m²
Réalisons le bilan du refroidissement par le débit d’air hygiénique : débit : 30 m³/h/pers pour 2 m² = 15 m³/h/m²
puissance de refroidissement : 15 m³/h/m² x 0,34 Wh/m³K x 8 K = 41 W/m²
On voit qu’en poussant un peu le débit d’air, on peut facilement vaincre les 52 W/m² de chaleur.
  • Dans le cas où le local est soumis à des apports solaires supplémentaires, les débits nécessaires pour les besoins thermiques dépasseront de loin le débit d’air hygiénique, l’encombrement sera très important, un recyclage de l’air devra être organisé… Le système « tout air » devient inadapté.

Vu le coût d’exploitation du transport par air (coût de fonctionnement des ventilateurs), un système d’adaptation du débit d’air aux besoins réels sera prévu (système VAV, Volume d’Air Variable). Le débit maximal ne sera pulsé que dans les situations extrêmes. Mais ce système est coûteux et la mise au point de sa régulation est plus délicate.

Un grand avantage pourtant de ce système « tout air » est de pouvoir profiter d’un refroidissement gratuit par de l’air extérieur en mi-saison (free cooling diurne).

Un outsider possible pour certains bâtiments : le DRV, Débit de Réfrigérant Variable

Photo DRV, Débit de Réfrigérant Variable.

Quelques réflexions peuvent se faire :

  • Le souci de modularité dans la construction des bâtiments nouveaux entraîne faux plafond, cloisons légères, … Cette caractéristique de construction sans inertie, alliée à la présence généralisée de moquette au sol, entraîne une très grande variabilité des besoins dans le temps : il faut réchauffer le bâtiment au matin, mais le fonctionnement de la bureautique et le premier rayon de soleil entraîne un besoin de refroidissement à midi !
  • Les bâtiments nouveaux sont parfois confrontés à des besoins simultanés de chaud et de froid :
    • exemple 1 : en hiver, chauffage des locaux en périphérie et refroidissement du cœur du bâtiment,
    • exemple 2 : en mi-saison, au matin, chauffage des locaux à l’Ouest et refroidissement des locaux à l’Est déjà soumis au rayonnement solaire,
    • exemple 3 : chauffage de l’air hygiénique et refroidissement des locaux.
      Il est dommage de voir simultanément des chaudières fonctionner, ne fut-ce que pour préchauffer l’air hygiénique, et des condenseurs évacuer dans l’air extérieur la chaleur excédentaire des locaux refroidis…
  • Pourquoi passer par un fluide intermédiaire (eau ou air) et ne pas travailler directement avec le fluide frigorigène qui peut apporter chaleur ou refroidissement par simple inversion du cycle ?

Par ailleurs, la technique du « fluide réfrigérant variable » semble performante pour des locaux dont les besoins sont très variables entre eux et dans le temps. Par exemple, en hiver, un échangeur dans le faux plafond devient évaporateur lorsqu’il est placé dans un local central et condenseur lorsqu’il est dans un local en façade. Et ce même échangeur bascule en évaporateur en été.

Reste le problème d’apport de l’air neuf hygiénique et le contrôle du taux d’humidité en hiver. Ce système ne le prévoit pas.
Il faut alors :

  • Soit prévoir un caisson de préparation de l’air indépendant, mais on ne dispose pas de source de chaleur puisque pas de chaudière…
  • Soit intégrer l’air neuf dans les échangeurs intérieurs et laisser à l’unité terminale le soin de préparer la température adéquate, mais on ne gère pas le problème de l’humidité de l’air des locaux.

Un avantage de ce type d’installation : c’est une solution « tout électrique », ce qui simplifie et accélère la construction. On veillera cependant à en limiter la puissance électrique (gestion de la pointe de puissance par délestage ou par stockage de froid la nuit).

Quel que soit le système choisi…

C’est très souvent la qualité du projet qui fait la différence :

  • dimensionnement correct (absence de courant d’air, limitation du bruit,…),
  • finesse de la régulation des équipements,
  • performance des moyens de gestion qui pilotent le tout.

Ce sont les 10 % de budget supplémentaire qui feront souvent la performance globale…

Choisir l’emplacement des émetteurs de refroidissement

Le confort lié à la distribution de l’air et de la chaleur

L’emplacement de l’unité intérieure conditionne fortement le confort des occupants. La difficulté est renforcée par le fait que le confort doit être assuré autant en mode « chauffage » qu’en mode « refroidissement ». Les mouvements de l’air dans les locaux sont conditionnés par la disposition des bouches de soufflage et de reprise par rapport à l’emplacement des occupants. Notons que certaines cassettes plafonnières régulent automatiquement la direction du flux suivant le mode fonctionnement chaud ou froid.

Le dimensionnement doit alors faire apparaître que la zone d’occupation du local n’est pas perturbée par le jet d’air.

La zone d’occupation du local est limitée dans les recommandations EUROVENT.

En pratique, la vitesse résiduelle du jet d’air dans la zone d’occupation devrait se situer entre 0,15 et 0,2 m/s. Si elle atteint 0,25 m/s, il y aura inconfort des occupants.

Disposition en allège

Si l’emplacement est en allège, la stratification de la température de l’air est limitée et le rayonnement froid du vitrage en hiver est diminué.

climatiser_local_35.gif (6397 octets)

Cette disposition impose qu’en mode « refroidissement », personne ne se trouve à proximité immédiate de la bouche de soufflage.

On rencontre deux cas de figure : soit l’échangeur est placé « complet » avec son habillage, soit il est « nu » et intégré dans un caisson en allège. La première solution apporte beaucoup de garanties de qualité, car le fabricant a testé son matériel et peut en garantir les performances. Mais l’architecte préfère de loin la deuxième formule, pour l’esthétique globale du local et pour la possibilité de dissimuler câbles et tuyauteries dans l’allège ! Les problèmes qui se posent alors sont liés à l’interface entre l’échangeur et la grille du caisson : des remous modifient les jets d’air et créent un inconfort acoustique. Il est donc important soit de remonter l’échangeur pour qu’il affleure la grille, soit de prévoir un manchon de raccord entre ventilo et grille.

De même, on évitera les tablettes, rideaux, … qui peuvent entraver une diffusion correcte de l’air.

Exemple de ventilo-convecteur en allège.

Disposition en faux plafond

Paradoxalement, c’est lorsque soufflage et reprise sont proches l’un de l’autre que le brassage de l’air du local est le meilleur. Mais cette distribution horizontale de l’air peut poser beaucoup de difficultés, surtout si l’on souhaite faire varier le débit d’air. Le choix de la grille sera déterminant. On adopte généralement des grilles linéaires ou des grilles à rouleaux dont on recherche l‘effet Coanda le long du plafond. Mais à faible vitesse, la veine d’air risque de se décoller du plafond et de faire retomber un air trop froid sur les occupants.

En faux plafond, il est sans doute préférable d’imposer une vitesse constante (en l’imposant à la régulation centrale). Ce qui n’est acoustiquement et énergétiquement pas optimal. Permettre à l’occupant de modifier la vitesse de distribution de l’air sous-entend de reporter la commande sur une paroi du local, ce qui est coûteux à l’investissement.

Certains appareils modifient le jet en fonction de la température de l’air soufflé.
À noter enfin que lorsque l’échangeur est placé en faux plafond, on aura tendance a insérer l’apport d’air neuf dans le plénum constitué par ce faux plafond. L’échangeur aspire un mélange d’air du local et d’air neuf. Or, l’air neuf devant être pulsé en permanence, il faudra toujours maintenir une vitesse minimale à l’échangeur.

Disposition en faux plafond avec gainages de distribution

C’est un appareil dont le raccordement est prévu via des gaines de distribution vers différentes grilles de pulsion. Cela améliore le confort (meilleure diffusion de l’air, diminution du bruit, …).

Mais les pertes de charge sont plus élevées et la consommation électrique du ventilateur augmente, tout particulièrement si les gaines de distribution d’air sont longues et terminées par des bouches linéaires.

Disposition au plafond, en apparent ou en imposte

Ce n’est pas idéal au niveau confort thermique. En mode « froid » et à basse vitesse, le jet risque de tomber et de provoquer une sensation d’inconfort désagréable. Ce risque est renforcé si la température de la boucle d’eau glacée est choisie très basse lors du dimensionnement (régime 7° – 12°C, par exemple, plutôt que 12° – 17°C). On peut diminuer cet effet, lors du dimensionnement de l’équipement, en calculant le ventilo sur base de la vitesse moyenne et en recherchant à valoriser à ce moment l‘effet Coanda.

Disposition en faux plancher

La distribution et l’émission peut également être disposée dans le faux plancher.

Disposition dans un local technique indépendant

Pour l’organisation de la maintenance, il peut être plus aisé de disposer toutes les unités terminales dans un local technique, et de les relier chacune à son local par une gaine spécifique.

On parle alors de Module de traitement d’air, qui peut être vu comme un ventilo-convecteur délocalisé.

Coupe à l’intérieur du module de traitement d’air.

En aval, ils sont alimentés en air neuf prétraité, en eau glacée et éventuellement en eau chaude.

En amont, ces caissons sont prolongés par des gaines pour alimenter les diffuseurs d’air dans les locaux (ces diffuseurs assurent aussi bien la pulsion que la reprise).

Le principe de fonctionnement est donc fort proche de celui des ventilo-convecteurs. Mais en plus, il apporte une flexibilité totale s’adaptant très bien aux bâtiments modulaires dont on voudrait pouvoir modifier les cloisons ultérieurement.

Le coût d’installation fort élevé entraîne le besoin d’une évaluation de la rentabilité de ce système sur le long terme.

Un module de traitement d’air traite un local.

Vue du local technique où sont rassemblés les MTA d’un étage, par exemple.


L’évacuation des condensats

La température d’évaporation (en mode froid) d’un système DRV ou d’un climatiseur est inférieure à la température de rosée de l’eau contenue dans l’air, il y a alors condensation sur les ailettes. Des condensats apparaissent également sur les échangeurs à eau glacée des ventilo-convecteurs ou poutres froides.

Ces condensats doivent être évacués. En fonction de l’emplacement de l’appareil, ceci pourra s’effectuer par écoulement naturel ou au moyen d’une pompe de relevage. Celle-ci, si elles ne sont pas intégrées dans la cassette peuvent engendrer du bruit. Dans la mesure du possible, il faut essayer de ne pas sacrifier le confort pour faciliter l’évacuation.

A priori, l’évacuation pour un appareil en plafond dispose de plus de pentes qu’en allège, mais la présence de poutres perpendiculaires au chemin probable d’évacuation peut rendre les choses plus difficiles…

Exemple du DRV : Les condensats sont extraits de l’air ambiant lors du fonctionnement de l’échangeur en mode « froid ». Ainsi, lorsque l’appareil détecte une humidité trop importante dans le local, il descend la température du fluide frigorigène sous le point de rosée de l’ambiance. La distance entre ailettes étant de 2 mm, le bypass factor est très faible. L’air du local condense et ressort à 95… 98 % d’humidité relative.

D’après un constructeur :

  • la consommation de l’appareil est de 85 % en chaleur sensible en mode refroidissement (et donc 15 % pour la déshumidification),
  • elle descend à 50 % en chaleur sensible lors d’un fonctionnement en mode déshumidification.

La technique de la température variable fait qu’il est possible de faire varier la proportion entre chaleur sensible et latente dans le traitement de l’air en mode froid.


La facilité de maintenance

Il ne faut pas non plus oublier que le ventilo doit s’intégrer dans l’esthétique générale du local et que sa facilité d’accès déterminera en partie son coût d’entretien et le coût du service après-vente.

Il est certain que les appareils en allège sont de ce point de vue nettement préférable à ceux en faux plafond.

On sera attentif à ce que les appareils en faux plafond disposent d’une ouverture prévue par le dessous (point surtout critique pour les appareils gainables). Certains appareils sont pourvus de filtres autonettoyants facilitant ainsi l’entretien.

Synthèse

Avantages

Configurations

 Inconvénients

  • distribution optimale de l’air,
  • bruit réduit,
  • faux plafond mis à profit,
  • multiplicité des combinaisons.

  • risque de court-circuit de l’air pulsé et repris,
  • difficulté de respecter le confort à vitesse réduite.

  • distribution optimale de l’air,
  • bruit réduit,
  • faux plafond mis à profit.

  • difficulté d’évacuation des condensats (nécessité d’une pente),
  • difficulté de respecter le confort à vitesse réduite.

  • fonctionnement correct en chauffage et refroidissement.

  • risque de court-circuit si vitesse de soufflage trop faible,
  • encombrement au sol,
  • difficulté d’évacuation des condensats (nécessité d’une pente).

  • fonctionnement correct en chauffage et refroidissement.

  • risque de court-circuit si vitesse de soufflage trop faible
  • esthétique
  • difficulté d’évacuation des condensats (nécessité d’une pente).

Pour en savoir plus :

Techniques

Le ventilo-convecteur

Techniques 

L’éjecto-convecteur

Techniques 

La poutre froide

Techniques 

Le climatiseur de local

Techniques 

Le système DRV

Choisir une production de froid « alternative » (freechilling, refroidissement adiabatique, géothermie, climatisation solaire)

Choisir une production de froid "alternative" (freechilling, refroidissement adiabatique, géothermie, climatisation solaire)


Quand opter pour un freechilling ?

Le free-chilling consiste à refroidir l’eau glacée de l’installation frigorifique par « contact » avec l’air extérieur lorsque la température de celui-ci est suffisamment basse.

Qu’est-ce qu’une installation adaptée au free-chilling ?

Au départ, il faut que des besoins de froid soient prévus en hiver.
L’intérêt est augmenté si les échangeurs des unités terminales qui seront choisis travaillent à « haute » température : ce sera le cas de plafonds froids (régime 15-17 °C), de poutres froides ou de ventilos-convecteurs surdimensionnés pour travailler au régime 12-17 °C ou 14-19 °C,… À noter qu’un tel dimensionnement diminue les pertes du réseau et la consommation liées à la condensation de la vapeur d’eau contenue dans l’air des ambiances, ce qui amplifie l’économie d’énergie.

Si l’installation demande une puissance de refroidissement faible en mi-saison ou en hiver (de l’ordre de 50 W/m²), on pourrait faire travailler les plafonds froids au régime 17 ° – 19 °C, ce qui permet un refroidissement par l’air extérieur tant que la température de l’air est inférieure à 14 °C. On peut alors imaginer une modulation de la température de consigne de l’eau des plafonds froids en fonction de la température extérieure.

Enfin, le projet se présente très favorablement si un condenseur à eau est prévu : on pourra utiliser la tour de refroidissement pour refroidir l’eau glacée directement par l’air extérieur. Dans la tour, grâce à l’évaporation partielle de l’eau, la température de l’air extérieur sera encore diminuée. Ainsi, de l’air à 15 °C et 70 % HR permet de créer de l’eau de refroidissement à 12 ° (limite basse théorique appelée température « bulbe humide »). Malheureusement, un échangeur sera nécessaire entre le circuit de la tour (eau glycolée) et le circuit d’eau glacée du bâtiment. Une partie de l’avantage est donc perdu…

Le problème du gel…

De l’eau glacée refroidie par l’air extérieur pose le problème du gel dans la tour. La solution la plus courante est l’addition de glycol, mais :

  • le glycol coûte cher,
  • le glycol diminue les capacités d’échange thermique et augmente la densité du liquide, ce qui entraîne une augmentation de puissance des pompes,
  • en général, on limite le circuit glycol au dernier tronçon en contact avec l’extérieur (l’eau de la boucle d’eau glacée n’est pas glycolée car, en cas de vidange, c’est l’entièreté du circuit qui est à remplacer),
  • un échangeur supplémentaire doit alors être prévu, entraînant une consommation électrique liée à sa perte de charge et un écart de température qui diminue la période de fonctionnement du free-chilling…
  • Attention lorsque l’on rajoute de l’eau ultérieurement…

Il est aussi possible de placer des cordons chauffants (mais peut-on protéger totalement ainsi une tour ?) ou de prévoir un circuit de chauffage spécifique qui se met en place en période de gel, mais on risque de manger le bénéfice !

 Le free-chilling : une solution miracle pour toutes les installations ?

Certainement pas. De nombreuses contraintes apparaissent.

Quelques exemples :

  • Lorsque l’installation travaille à charge partielle, il y a intérêt à ce que la température moyenne de l’eau « glacée » soit la plus élevée possible pour favoriser l’échange avec l’air extérieur. On appliquera donc une régulation des échangeurs par débit variable pour augmenter l’écart de température entre départ et retour.
  • Une tour de 300 kW pèse 3 à 4 tonnes et une tour de 1 000 kW pèse 9 à 12 tonnes, ce qui génère parfois des frais d’adaptation du génie civil.
  •  …

Adapter cette technique nécessite donc toujours une étude particulière (cadastre des énergies de froids prévues avec leur niveau de température, répartition été/hiver, …) pour apprécier la rentabilité.

Mais il est en tous cas impératif d’y penser lors d’une nouvelle installation !


Quand opter pour un refroidissement adiabatique

Le refroidissement adiabatique permet de rafraîchir de l’air en centrale par humidification. Cet air humide et frais est ensuite utilisé directement dans l’ambiance ou indirectement par un échangeur de chaleur.

Ce système basé sur des équipements existants (groupe de ventilation, tour de refroidissement) apporte un rafraichissement naturel bienvenu lorsque des techniques plus « lourdes » (fenêtres motorisées, etc.) ne peuvent être mises en œuvre. Il peut également servir d’appoint à ces techniques passives lorsque celles-ci ne suffisent plus à assurer le confort.

Le refroidissement adiabatique a cependant une efficacité limitée à trois niveaux,

  • comme tout système de transfert thermique basé sur l’air, la faible capacité calorifique de l’air bride la puissance disponible. Des débits d’air importants sont nécessaires pour que le refroidissement soit réellement sensible.
  • La température minimale à laquelle l’air peut être abaissé est la température de bulbe humide, qui correspond à la saturation. Cette température est plus élevée que celle obtenue par une machine frigorifique « classique ».
  • Le système ne fonctionne que lorsque l’air que l’on souhaite humidifier est suffisamment sec que pour présenter un potentiel de rafraichissement intéressant. Si c’est de l’air intérieur, le refroidissement adiabatique sera plus pertinent dans des locaux faiblement occupés (moins de dégagement d’humidité dans l’ambiance). Si c’est de l’air extérieur, le système ne sera pas très efficace les jours chauds et humides.

La figure ci-dessous montre, heure par heure, les conditions climatiques d’Uccle, et la zone de conditions T° et Humidité favorable à un système évaporatif direct. A l’évidence, notre climat humide n’est pas le plus favorable pour cette technique.

Elle n’est pas pour autant à dédaigner complètement. Considérons par exemple un air extérieur à 22 °c et 60 % d’humidité relative, une condition qui n’a rien d’exceptionnel en été. Pour peu qu’il y ait un peu de soleil, beaucoup de bâtiments seront en demande de refroidissement. Par humidification, cet air peut être  abaissé jusqu’à environ 17 °C. Ce gain de 5 °C, sur un débit d’air hygiénique d’environ 3 m³/(hm²) dans des bureaux représente 5 W/m² de puissance frigorifique. C’est presque équivalent à la chaleur dégagée par les occupants (70 W/personne, 10 à 15 m²/personne). C’est peu, mais non négligeable.

Quand donc opter pour ce type de système ?

Dans notre climat, un refroidissement adiabatique direct est limité par l’humidité extérieure, et surtout d’une efficacité très variable en fonction de la météo.  On évitera donc de se fier uniquement sur eux pour traiter une ambiance. Par contre, sa simplicité fait qu’il trouvera presque toujours une place en complément de stratégies de refroidissement sur boucle d’eau.

Les systèmes indirects, basés sur l’humidification de l’air extrait, seront pertinents lorsque l’air extrait peut être fortement refroidi. Pour cela, il faut qu’il ne soit ni trop chaud, ni trop humide. La condition « pas trop chaud » fait penser à des locaux disposant déjà d’un système de refroidissement  par boucle d’eau. On est alors sur de plafonner à 24-25 °C. La condition « pas trop humide » se rencontre lorsque la surchauffe du local est liée à des gains solaires et internes sans dégagement d’humidité. Autrement dit dans les locaux dont l’occupation humaine est relativement limitée. Problème : dans ces cas-là, le débit d’air a tendance à l’être aussi, ce qui limite la puissance disponible. Faut-il surdimensionner le réseau de ventilation ? C’est un calcul économique à réaliser au cas par cas.

En conclusion, le refroidissement adiabatique apparait chez nous comme un appoint intéressant à d’autres systèmes plus que comme une technique autonome de refroidissement.

Et si on reformulait les objectifs de la conception des bâtiments de façon à atteindre un niveau de maîtrise des charges thermiques au point de rendre cet appoint suffisant ?

Techniques

Pour en savoir plus sur le refroidissement adiabatique, cliquez ici !

Concevoir

Pour en savoir plus sur la façon de valoriser la physique de l’air humide, cliquez ici !

Quand opter pour une climatisation solaire ?

La climatisation solaire est une technique basée sur l’utilisation de machines frigorifiques à ab/adsorption  ou de roues dessicantes. L’énergie solaire sert alors de source de chaleur pour régénérer le sorbant.

Dans le cas des machines frigorifiques à adsorbtion, la possibilité d’utiliser le soleil pour cet usage est limité par la demande d’une température d’eau minimale qui se situe entre 70 et 95°C en fonction du couple solvant-réfigérant. Dans les roues dessicante, cette température est également supérieure à 70°C. Pour atteindre cette température, l’emploi de capteurs performants est indispensable (sélectifs, sous vide, à faible concentration), ce qui induit un coût d’investissement assez important.

Il faut aussi tenir compte de ce que, en l’absence de soleil, si les besoins de froid sont toujours présents, une autre source de chaleur doit prendre le relais. L’intérêt de la machine frigorifique à absorption couplée avec des capteurs solaires doit donc être évalué sur base d’une moyenne annuelle, en tenant compte des heures d’ensoleillement exploitables. Cette évaluation dépend de nombreuses valeurs à estimer :

  • rendement de la chaudière ;
  • rendement de la machine frigorifique à absorption ou des différents échangeurs de la roue dessicante ;
  • proportion de la demande de froid qu’on peut produire avec l’énergie solaire (X) qui dépend du nombre d’heures d’ensoleillement exploitables ;
  • rendement moyen de la production électrique en centrale ;
  • COP de la machine frigorifique à compression.

Avec les hypothèses prises dans le schéma ci-dessus, le bilan au niveau de la consommation d’énergie primaire est favorable au système de refroidissement solaire si au moins 51 % de la demande de froid peut être satisfaite par l’énergie solaire. Pour évaluer la rentabilité économique du système, il faudrait tenir compte des prix de l’énergie et des coûts d’investissement.

Est-il envisageable d’atteindre ce ratio ? A priori non : dans notre climat peu ensoleillé, les surchauffes sont en grande partie liées aux dégagements intérieurs de chaleur. Encore plus si le bâtiment est équipé de protections solaires.

Faisons l’exercice inverse : pour que la climatisation solaire soit pertinente, il faudrait que :

  • Les locaux soient peu sujets à des gains internes : des grands espaces peu occupés.
  • Les locaux soient sujets à une surchauffe au moment où le soleil brille : donc des espaces qui présentent une faible inertie thermique.
  • Les locaux disposent d’une stratégie alternative lorsque cette surchauffe apparait pour un ensoleillement moyen (en mi-saison, quand la température dans le capteur ne sera pas suffisante) : locaux que l’on peut ventiler intensivement en été.

Cela pourrait nous faire penser à des espaces d’exposition, pour autant que l’éclairage artificiel n’y représente pas une charge trop importante, ou à des atriums. On le voit, la climatisation solaire doit, chez nous, être considérée comme un produit de ‘niche’, pour lequel une étude technico-économique détaillée est indispensable.

Techniques

Pour en savoir plus sur les machines frigorifiques à ad/absorption

Techniques

Pour en savoir plus sur les roues dessicantes

Quand opter pour un geocooling ?

Le geocooling est une technique de valorisation de la fraicheur du sol grâce à un réseau véhiculant un fluide caloporteur. En principe, le champ d’application du geocooling est large. Tout bâtiment qui présente un besoin de froid pourrait théoriquement en bénéficier, quitte à compléter cette source d’un appoint par une machine frigorifique plus traditionnelle.
Les limites d’utilisation du geocooling seront :

  • Réglementaires : les forages doivent faire l’objet d’une demande de permis unique en Région Wallonne, pour laquelle il faut fournir notamment une coupe géologique probable du puits avec profondeur estimée de la nappe aquifère, la description des méthodes de forage et les équipements du puits avec coupe technique, un rapport technique sur la nature de la nappe aquifère éventuelle et un plan de situation des puits. Le sens de cette demande de permis est bien évidemment d’éviter tout risque de pollution d’une nappe aquifère, ce qui peut limiter le développement de cette technologie dans certaines zones sensibles.
  • Technologiques : Décharger d’année en année une quantité d’énergie dans le sol mène à son échauffement progressif. Il en découle une perte de performance liée à des moindres écarts de température entre le sol, la boucle d’eau et le bâtiment. On privilégiera donc le geocooling dans les situations où le sol est également utilisé comme source de chaleur en hiver (géothermie), t en particulier lorsque les besoins de chauffage et de refroidissement du bâtiment sont dans une certaine proportion. Puisqu’en géothermie l’énergie utile (la demande de chaud) = l’énergie extraite du sol + l’énergie consommée au compresseur de la pompe à chaleur, alors qu’en geocooling, l’énergie utile (la demande de froid) = l’énergie injectée dans le sol, on déduit que le geocooling sera particulièrement pertinent lorsque la demande de froid = la demande de chaud / (1-(1/COPpac)). Autrement dit, si on considère qu’une pompe à chaleur à un COP de l’ordre de 4, il faut que les besoins de froid soient environ 133 % des besoins de chaleur.

Schéma évolution de la température du sol sur 20 ans.

Simulation de la température d’un sol dont on retire du froid chaque été. Après 240 mois (20 ans), la température moyenne a grimpé de 3°C, rendant difficile la production d’eau froide à destination du système de climatisation du bâtiment.

  • Économiques : La pertinence économie qu’un geocooling dépend de la nature du sol et de l’équilibre entre besoins de chaleur et de froid. Pour ce qui est de la nature du sol, il est évident qu’un forage dans une roche demandera un investissement plus important qu’un forage dans du sable. Certains sols offrent également une plus grande diffusivité thermique, ce qui améliore leur rôle de tampon thermique. Un test de réponse thermique (TRT) permet de chiffrer la qualité d’un sol relativement à des applications thermiques. L’équilibre chaud-froid dans les proportions discutées au point précédent permet de limiter le recours à des technologies d’appoint (chaudière ou machine frigorifique à compression) pour valoriser au maximum l’investissement fait au niveau du forage.

Pour illustrer tout cela, voici un exemple de bilan réalisé pour un bâtiment de bureaux (source : MATRIciel sa). Il s’agit de la comparaison entre la géothermie/geocooling et des installations de production traditionnelles, pour plusieurs combinaisons d’enveloppe (coefficient de déperdition des murs de 0,2 à 0,4 W/m²K et facteur solaire des vitrages de 22 à 39 %). Certaines combinaisons ne sont pas possibles si on désire installer une géothermie, car elles entraînent un trop grand déséquilibre entre les besoins de chauffage et de refroidissement et donc une mauvaise dynamique du sol d’une saison à l’autre. Dans ces cas, la stabilité de la température du sol à long terme n’est pas garantie. Globalement, lorsqu’elle est possible, la valorisation du sol permet une division par 2 des émissions de CO2 et une économie d’un tiers de l’énergie primaire liée au chauffage et refroidissement. Mais, on constate que la combinaison qui minimise la consommation d’énergie primaire pour des techniques traditionnelles ne permettait pas, pour ce cas-là, d’opter pour le geocooling ! Même si cela peut paraître paradoxal, il est alors préférable d’aller un peu moins loin dans la réduction des besoins (de froid dans ce cas-ci) pour rendre possible l’investissement dans une technique qui minimisera l’impact global du bâtiment.

Schéma comparaison entre la géothermie/geocooling et des installations de production traditionnelles.

Schéma comparaison entre la géothermie/geocooling et des installations de production traditionnelles.

Techniques

Pour en savoir plus sur les techniques de geocooling, cliquez ici !

Influence du régime de température

Le régime de température d’un système de climatisation influence directement la quantité d’énergie produite en valorisant la fraicheur de l’environnement. À titre d’exemple, le tableau suivant reprend les gains énergétiques potentiels par free-chilling et par géocooling qui ont été simulés en fonction du régime de température, pour un bâtiment de bureaux nécessitant 302 MWh de besoin en froid.

  Géocooling
Régime 09°C-14°C 15°C-17°C 17°C-19°C
Gain énergétique potentiel 33% 66% 75%

Free-chilling

Régime 09°C-14°C 15°C-17°C 17°C-19°C
Gain énergétique potentiel 0.5% 8.6% 15.5%

Le géocooling consiste à refroidir directement l’eau avec le sol, la température du sol  doit donc être inférieure à la température de départ de l’eau. Dans cette exemple, le choix d’un régime 17-19 °C au lieu de 9 °C – 14 °C permet bénéficier de 2 fois plus d’énergie gratuite et d’ainsi couvrir 75 % des besoins en froid du bâtiment !

Pour un régime de température de 9 °C – 14 °C, l’utilisation d’énergie gratuite de l’air est quasi nulle (0.5 % de la consommation annuelle).  Dans cet exemple, l’augmentation du régime de température de 2 °C (17-19 au lieu de 15-17) permet d’utiliser 1.8 fois plus d’énergie gratuite.

En outre, un régime plus élevé diminue fortement le risque de condensation et peut permettre de se passer de la déshumidification de l’air. Il est dès lors possible d’utiliser des émetteurs de types plafond froid.

Géothermie et géocooling [Climatisation]

Géothermie et géocooling


Principe

À l’état naturel, le sous-sol garde une température constante de l’ordre de 10 … 12 °C à partir d’une profondeur d’une dizaine de m.

graphe principe géothermie.

On peut donc logiquement imaginer que celui-ci puisse servir de source naturelle de froid. Il suffirait qu’un réseau véhiculant un fluide caloporteur le parcoure pour produire de l’eau à température adéquate pour refroidir un bâtiment.

On appelle cela du « géocooling ».

De même, une température de 10 .. 12 °C plus élevée et plus stable que la température extérieure hivernale est une température intéressante pour servir de source froide à une pompe à chaleur, en l’occurrence sol/eau, pour chauffer le bâtiment en hiver.

On parle alors de « géothermie ».

Refroidissement en été et chauffage en hiver vont d’ailleurs souvent de pair. En effet, si en été on extrait du « froid » du sol, ce dernier se réchauffe progressivement. Si cette opération se répète d’année en année, sans autre perturbation, le sol verra sa température moyenne augmenter jusqu’à ne plus être exploitable.

Dès lors pour éviter ce phénomène, il s’agit de régénérer le sol chaque hiver en extrayant la chaleur accumulée en été grâce à une pompe à chaleur.

On parle alors de « STOCKAGE GEOTHERMIQUE » : la chaleur du bâtiment est transférée dans le sol en été quand elle est gênante pour être utilisée en hiver quand elle est nécessaire.


Technologie des sondes géothermiques

Les systèmes fermés et ouverts

On parle de système fermé si un fluide caloporteur circule dans le sol dans un circuit fermé.

On retrouve principalement 3 types de systèmes fermés : les forages ou sondes géothermiques, les pieux géothermiques et les nappes horizontales.


3 types d’échangeur géothermique : les pieux, les sondes et les nappes.

Source : Rehau.

On parle de système ouvert lorsque c’est l’eau de la nappe phréatique ou du lit d’une rivière qui est pompée pour échanger sa chaleur avec le bâtiment et réintroduite en aval du sens d’écoulement souterrain.

Forages géothermiques

Dans ce cas les « échangeurs géothermiques » ou « sondes géothermiques » sont pour la plupart constitués de forages verticaux (diam 150 mm) d’une profondeur de 50 à 400 m (souvent 100 .. 150 m). Chaque forage contient des conduites, le plus souvent en polyéthylène (DN 32) disposées en double U et enrobées d’un coulis de ciment/bentonite (le « grout ») assurant la protection mécanique tout en permettant une certaine souplesse indispensable pour résister aux mouvements de sol.

Source : REHAU.

L’ensemble des forages forme ainsi un champ de sondes espacées entre elles de 6 à 10 m, pour limiter les interférences thermiques. Les sondes sont raccordées entre elles via des collecteurs, en série ou en parallèle ou un mix des deux.

Le champ de sondes peut être disposé à côté du bâtiment ou même sous le bâtiment (par exemple en ville).

Variantes : Sondes coaxiales en acier

Les forages géothermiques présentent une série de contraintes comme :

  • la nécessité d’espace pour effectuer les forages;
  • la gestion du forage au travers de couches de sous-sol parfois hétérogènes;
  • la nécessité de maximiser l’échange de chaleur tout en garantissant la tenue mécanique des sondes,
  •  …

Cela conduit les fabricants à proposer des alternatives aux sondes traditionnelles en « double U ».

Il existe ainsi des sondes coaxiales : l’eau en provenance du bâtiment circule dans la périphérie de la sonde et revient par le cœur pour délivrer son énergie au bâtiment.

Exemple de sonde coaxiale en PE : le fabricant annonce que les performances d’une sonde de dimension 63 mm / 40 mm
correspondent à une sonde géothermique double U de dia. 32 mm.

Source : www.hakagerodur.ch

Pour encore augmenter l’échange thermique avec le sol les sondes peuvent être réalisées en acier (avec protection cathodique) ou en inox, sans enrobage : le tube périphérique est en métal et le tube intérieur en PE.

L’augmentation du transfert de chaleur, permet alors réduire le nombre de forages et la longueur des sondes. Ainsi des tests de réponse thermique montrent qu’en moyenne, les sondes coaxiales en inox ont une résistance thermique 2 fois moindre qu’une sonde avec doubles U en PE. Cela permettrait une puissance d’extraction de 10 à 20 % supérieure.

Exemple de sondes en acier, à visser (longueur de 3 m).

Source : Thermo-pieux.

Exemple de sonde en inox introduite par forage ou « vibro-fonçage ».  La profondeur peut atteindre une centaine de mètres.

Source : geo-green.

La technologie des sondes coaxiales ouvre la porte à des installations avec des forages en étoile au départ d’un point d’entrée unique dans des lieux où l’accès pour des forages parallèles espacés n’est pas possible (par exemple, une cour intérieure dans un site existant).

 

Forages en « étoile » : on parle dans la littérature de « racines géothermiques ».

Pieux géothermiques

Une alternative aux forages consiste à intégrer les échangeurs géothermiques aux pieux de structure d’un bâtiment. Cela se justifie parce que ceux-ci sont souvent nécessaires dans des sous-sols humides, sous-sols favorables aussi à la géothermie.

On justifie cette technique par un souci de rationaliser les techniques en les combinant. Cependant, la pratique ne prouve pas que les coûts soient inférieurs par rapport à des installations distinctes. La mise en œuvre des pieux se complique également. La gestion de l’installation doit également interdire que les pieux de fondation ne gèlent en mode de chauffage hivernal.

 

Exemples de réalisation : La crèche de l’île aux oiseaux, ville de Mons : 16 pieux géothermiques de 10 m.

La crèche de l’ile aux oiseaux de Mons.

Aéroport de Zurich : 350 pieux géothermiques de 30 m de profondeur.

Nappes horizontales

La géothermie se décline également sous la forme de nappes de tuyaux déployés horizontalement à faible profondeur (0,6 à 1,2 m).

Le système est peu applicable dans le secteur tertiaire. En effet,

  • Il demande une surface de terrain très importante : de 28 à 100 m²/kW de puissance de chauffage nécessaire.
  • En hiver, elle peut conduire à un refroidissement excessif du sol préjudiciable à la végétation.
  • L’utilisation en refroidissement n’est guère possible, la température du sol étant fortement soumise à l’environnement extérieur.

Alternative pour les bâtiments de taille réduite : les sondes de faible profondeur.

Pour les petits projets, pour lesquels un forage n’est pas autorisé et où les systèmes horizontaux ne disposent pas de surface suffisante, certains fabricants proposent des sondes de petite taille constituées d’un échangeur spiralé. Ce système permet notamment de limiter l’influence que peut avoir la géothermie sur la couche de sol où se développe la végétation.

Source : SANA FONDATIONS sprl.

Cas particulier : le puits canadien

Le puits canadien ou puits provençal constitue une forme de géothermie puisque l’air neuf de ventilation est prétraité (chauffé ou refroidi) par son passage dans le sol.

Techniques

 Pour en savoir plus sur le puits canadien.

Schémas de principe

Traditionnellement, on retrouve 2 types de schéma de principe, selon que le froid est produit par échange direct avec le sol soit par la pompe à chaleur réversible utilisant le sol comme source chaude. Une troisième configuration se retrouve lorsqu’on puise directement l’eau de la nappe phréatique.

Free cooling direct

En été : le froid est produit par échange direct avec le sol et distribué via un échangeur vers les unités terminales. Le géocooling est ainsi mis en œuvre moyennant uniquement la consommation de pompes. Si on compare cette consommation à l’énergie frigorifique produite, on calcule un ESEER équivalent du système de l’ordre de …12…, voire plus en fonction des dimensionnements des équipements. Souvent une machine de production de froid vient en appoint pour satisfaire les demandes de pointes ou pour alimenter des utilisateurs demandant des températures d’eau plus basses (comme les groupes de traitement d’air).

En hiver, le sol sert de source froide à une pompe à chaleur sol/eau. Le coefficient de performance saisonnier obtenu varie entre 4,5 et 5,5. Une chaudière est utilisée en appoint pour couvrir les pointes de puissance par grands froids. Généralement, le système est dimensionné pour que la PAC couvre environ 70 % du besoin de chaud grâce à environ 30 % de la puissance totale nécessaire.

Recharge du sol par pompe à chaleur réversible

La pompe à chaleur sol/eau est réversible. En été, elle fonctionne comme un groupe de production d’eau glacée en utilisant le sol pour évacuer la chaleur de son condenseur régénérant ainsi ce dernier.

L’avantage d’un tel système est de mieux gérer la recharge du sol et peut-être de pouvoir se passer d’un groupe de froid d’appoint et d’un échangeur intermédiaire. L’investissement est donc moindre.

En contrepartie, alors que l’on peut toujours parler de stockage géothermique, il ne s’agit plus réellement de géocooling naturel puisqu’il est nécessaire de faire fonctionner une machine thermodynamique pour extraire le « froid » du sol. Le bilan énergétique global est donc moins favorable.

Systèmes ouverts

Si la nappe phréatique se situe près de la surface du sol, on peut envisager de puiser directement l’eau dans cette dernière plutôt que de la parcourir avec un échangeur et un fluide caloporteur. On parle de système ouvert. Dans ce cas, l’eau de la nappe sert par l’intermédiaire d’un échangeur :

  • En mode chauffage, de source froide à une pompe à chaleur.
  • En mode refroidissement, de source de froid directe pour une boucle d’eau.

L’eau puisée est ensuite réinjectée dans la nappe à une certaine distance créant ainsi 2 zones dans la nappe phréatique à températures différentes, l’eau passant de l’une à l’autre en fonction de la saison :

  • En hiver une zone se refroidit par l’eau réinjectée après échange avec la pompe à chaleur.
  • En été l’eau est pompée en sens inverse de cette zone et réinjectée plus chaude dans la zone de puisage hivernal.

Étant donné les mouvements dans les nappes phréatiques et en fonction de la distance entre les zones chaude et froide, l’influence d’un éventuel déséquilibre entre les besoins de chauffage et de refroidissement est nettement moindre dans le cas d’un système ouvert par rapport à un système fermé.

En outre, il est également possible de produire du chaud et du froid en même temps dans le bâtiment. En effet, si nécessaire, l’eau pompée de la nappe peut être dirigée à la fois vers la pompe à chaleur et vers l’échangeur de géocooling ou vers un échangeur commun entre les productions de chaud et de froid.

Exemples d’installations

Le schéma ci-dessous est proposé par un constructeur allemand. Il permet le chauffage par pompe à chaleur, le refroidissement libre par un échangeur vers les sondes géothermiques, éventuellement assisté par le fonctionnement réversible de la pompe à chaleur.

Le schéma ci-après, plus complet, permet un fonctionnement mixte en mi-saison : une chaudière alimente la zone périphérique en chaleur, alors que simultanément, la zone centrale est refroidie par l’échangeur dans le sol via la pompe à chaleur. Attention cependant à la destruction d’énergie qui pénalise l’intérêt énergétique de ce système.


Unités terminales associées

Les performances de la pompe à chaleur et du géocooling sont fortement dépendantes du régime de température des unités terminales :

Plus la température de l’eau de distribution est basse en saison de chauffe (température max de l’ordre 50 .. 55 °C), meilleur sera le rendement de la PAC et plus elle est élevée en été (température min de l’ordre de 15 .. 17 °C) plus grande sera la quantité d’énergie extractible directement du sol.

On doit donc choisir des unités terminales compatibles avec ces températures :

  • Plafonds refroidissants ou ilots rayonnants
    • avantages : peu d’inertie thermique et donc rendement de régulation élevé, contrôle facile de la température ambiante, réversible chaud/froid;
    • inconvénients : puissance plus limitée (plafonds).

Exemple d’îlot rayonnant.

(Source : Interalu).

  • Dalles actives
    • avantages : stockage de nuit et donc limitation de la puissance à installer;
    • inconvénients : inertie thermique importante et donc contrôle difficile de la température et rendement de régulation dégradé. Peu de flexibilité spatiale et difficulté d’utilisation en chauffage (nécessité d’un second système). Absence de faux plafond (gestion des techniques et de l’acoustique).

Étude d’un projet de géothermie

Un projet de géothermie consiste à mettre en corrélation le comportement thermique du bâtiment et celui du sous-sol. Tout cela se passe de façon dynamique : les besoins varient, le sol se charge, se décharge, échange avec son voisinage tout cela sur une échelle de temps quotidienne, mais aussi saisonnière. Cela justifie l’utilisation d’outils de simulation thermique dynamique prenant en compte la variabilité des besoins, des échanges et l’inertie du système.

Étapes de l’étude d’un projet de géothermie :

  • Définir les besoins par simulations dynamiques en évaluant différentes variantes de manière à trouver le bon équilibre entre le besoin de chaud et de refroidissement du bâtiment (niveau d’isolation, type de vitrage, protections solaires, …).

Besoins simulés de chauffage et de refroidissement d’un bâtiment, h par h ou 1/4h par 1/4 h.

  • Connaître la nature du sol par études géologique et hydrogéologique pour préévaluer les caractéristiques physiques et thermiques du sous-sol et pour évaluer les éventuels risques liés aux forages (présence de nappes phréatiques, de couche argileuse,  de quartzites, …). Cela permet de prédéfinir la pertinence et la configuration des forages (par exemple, leur longueur minimale et maximale en fonction des couches de sous-sol susceptibles d’être rencontrées).

Pour exemple, voici quelques données moyennes :

Caractéristiques du sol Puissance spécifique d »extraction
Sur 1 800 heures de fonctionnement Sur 2 400 heures de fonctionnement
Valeurs indicatives générales
Sous-sol de mauvaise qualité (sédiment sec) (λ < 1,5 W/m²K) 25 W/m 20 W/m
Sous-sol rocheux normal  et sédiment  saturé en eau (λ < 1,5 – 3.0 W/m²K) 60 W/m 50 W/m
Roche compacte à conductibilité  thermique élevée (λ < 3,0 W/m²K) 84 W/m84 W/m 70 W/m
Minéraux respectif
Gravier et sable secs < 25 W/m <20 W/m
Gravier et sable aquifères 65 – 80 55 – 65 W/m W/m
Dans le cas de fort courant des eaux souterraines dans le gravier ou le sable et d’installations uniques 80 – 100 80 – 100 W/m
Argile et glaise humides 35 – 50 W/m W/m 30 – 40 W/m
Calcaire (massif) 55 – 70 W/m 45 – 60 W/m
Grès 65 – 80 W/m 55 – 65 W/m
Roche magmatique acide (par ex. granit) 65 – 85 W/m 55 – 70 W/m
Roche magmatique basique (par ex. basalte) 40 – 65 W/m 35 – 55 W/m
Gneiss 70 – 85 W/m 60 – 70 W/m

Puissances traditionnelles extractibles.

Source Rehau.

  • Effectuer un test de réponse thermique (« TRT »). Il s’agit de réaliser un forage en taille réelle et de le soumettre à une sollicitation thermique pour pouvoir calculer la conductibilité et la capacité thermique du sol et la résistance thermique des sondes, en moyenne sur toute la longueur de la sonde. Cette sonde test pourra ensuite être valorisée dans le champ de sondes final.

Source : Group Verbeke.

  • Dimensionner le champ de sondes au moyen d’un logiciel de simulation dynamique du sous-sol : simulation du comportement du sol compte tenu des besoins du bâtiment (heure par heure) et des caractéristiques  thermiques des sondes prévues et du sol (définies par le TRT) ; optimalisation de la puissance de la PAC, du nombre et de la profondeur des sondes en s’assurant de l’équilibre à long terme de la température du sol.

Dimensionnement de l’échangeur de sol

Pour le dimensionnement des collecteurs de sol, des réfrigérateurs de plaques de fond ou de réservoirs de fondations, il est possible de consulter la DIN ISO EN 13370 « Transmission de chaleur par le procédé de calcul terrestre ».

L’objet de cette norme est l’examen du transfert de la chaleur en tenant compte des paramètres (tuyaux, isolation, masse géométrique du bâtiment, etc.) et de la conduite d’exploitation. La ligne directrice VDI 4640 « Utilisation thermique du sous-sol » convient pour l’évaluation du rendement (puissance) d’un chauffage. De plus, elle fournit des indices de planification concernant les permissions et les conditions additionnelles liées à l’environnement, mais (à notre connaissance en octobre 2003) elle n’aurait pas encore été adaptée sous l’aspect « été » du réfrigérateur.

D’après la norme DIN ISO EN 13370 (traduction non officielle !), les tableaux suivants donnent une vue d’ensemble sur les capacités d’extraction des collecteurs de chaleur et des sondes géothermiques (capacité des pompes de chaleur jusqu’à max. 30 kW) :

>  S’il s’agit de collecteurs situés à côté du bâtiment (en W/m²) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sol sec, non cohérent 10 8
Humide, cohérent 20…30 16…24
Sable, gravier, imbibés d’eau 40 32

>  S’il s’agit de sondes géothermiques (en W/m courant) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sédiments secs et peu conducteurs (Lambda < 1,5 W/m.K) 25 20
Roche, sédiments imbibés d’eau
(Lambda > 1,5 … 3 W/m.K)
60 50
Roche dure très conductrice
(Lambda > 3 W/m.K)
84 70

L’adaptation des calculs détaillés est de plus indiquée dans les cas suivants :

  • Modification des heures de services des pompes à chaleur par rapport aux hypothèses de base;
  • plus grande nécessité de chaleur pour la préparation d’eau chaude;
  • effet régénérateur du sol suite à un apport de chaleur par réfrigération de locaux ou à un rechargement thermique solaire;
  • grande influence des eaux souterraines (nappe phréatique).

Les valeurs de référence pour les capacités d’extraction de chaleur en hiver ne sont pas directement applicables à l’activité en été. Différentes causes sont à la base des écarts entre les capacités d’extraction et d’incorporation :

  • Lors du fonctionnement en hiver, une couche de glace se forme autour de la sonde ou des tuyaux, et influence favorablement la transmission thermique par conduction. En été, le sol peut au contraire sécher davantage, ce qui est défavorable.
  • Les couches terrestres proches du sol sont soumises à de si fortes influences climatiques qu’il faudrait parler non pas d’éléments de construction thermiques, mais plutôt d’éléments de construction solaires thermiques dans le cas de collecteurs de terre classiques non bâtis.

Pour l’évaluation de la capacité de sondes géothermiques et de pieux d’énergie dans le processus de réfrigération, un constructeur conseille :

  • Vu les raisons énoncées précédemment, de mettre les capacités d’incorporation (été) égales à 70 % des capacités d’extraction de chaleur énoncées dans la VDI 4640.
  • De valoriser si possible l’existence d’une nappe souterraine, qui suite à l’humidification des couches terrestres en dessous des fondations, améliore la conductibilité thermique. Il en résultera également des capacités de réfrigération plus constantes.
  • Une distance de pose entre les tuyaux ne dépassant pas 15 cm.
  • Des phases de régénération (suite à l’arrêt du système en journée ou suite à une réduction de la nécessité de froid (journées fraîches d’été)) qui améliorent la capacité de rendement.

Aspect réglementaire lié à la réalisation du projet

(Rédaction : 2014)

En région wallonne

En Wallonie, tout projet de réalisation de puits destiné à la géothermie doit faire l’objet d’un permis unique : Permis d’environnement (installations classées, conditions intégrales et sectorielles) + Permis d’urbanisme.

Selon l’Arrêté du Gouvernement wallon du 4/7/2002, annexe I, les systèmes géothermiques fermés sont classés dans la rubrique 45.12.01 : « Forage et équipement de puits destinés au stockage des déchets nucléaires ou destinés à recevoir des sondes géothermiques », classe de permis 2.

D’autres rubriques existent pour classer les systèmes ouverts en fonction des techniques de puisage et de rejet d’eau souterraine utilisé.

Les forages d’essais (TRT) et de l’installation définitive doivent faire l’objet d’une demande de permis propre comprenant :

  • Le formulaire général de demande de permis d’environnement et de permis unique – Annexe I.
  • Le formulaire relatif aux forages – Annexe XVIII (rubrique 45.12.01) ou le formulaire relatif aux prises d’eau – Annexe III (rubrique 41.00.03.02).

Le formulaire XVIII doit notamment comprendre :

  • Une coupe géologique probable du puits avec profondeur estimée de la nappe aquifère;
  • la description des méthodes de forage et les équipements du puits avec coupe technique;
  • un rapport technique sur la nature de la nappe aquifère éventuelle;
  • un plan de situation des puits.

Chronologiquement, étant donné les délais d’obtention, il est souvent difficile d’attendre les résultats du TRT et le dimensionnement final du champ de sondes avant l’introduction de la demande de permis pour ce dernier. De même, étant donné que le choix de l’enveloppe du bâtiment et l’équilibre géothermique sont intimement liés, il apparaît difficile de dissocier chronologiquement les demandes de permis pour le bâtiment neuf, le TRT et le champ de sondes. Dans ces différents cas, la pratique veut que les permis soient introduits en parallèle en mentionnant les hypothèses de prédimensionnement effectués.

En région bruxelloise

Il n’existe actuellement pas de législation spécifique à la géothermie en RBC. Les systèmes géothermiques sont néanmoins presque toujours composés d’installations classées soumises à déclaration ou à permis d’environnement.

Dans le cas de systèmes géothermiques fermés, les installations classées concernées sont les suivantes :

  • Pompe à chaleur < 10 kWelec  et < 3 kg de substance appauvrissant la couche d’ozone : Installation non classé et donc non soumise à autorisation (rubrique 132).
  • Pompe à chaleur > 10 kWelec mais < 100 kWelec  ou > 3  kg de substance appauvrissant la couche d’ozone : Installation classée de classe 3 et donc soumise à déclaration (rubrique 132).
  • Pompe à chaleur > 100 kWelec : Installation classée de classe 2 et donc soumise à Permis d’Environnement (rubrique 132).
  • Pompes électriques > à 100 kVA (rubrique 55).

Les forages ne sont, eux, pas classés.

Dans le cas de systèmes géothermiques ouverts, les captages d’eau souterraine sont des installations classées de classe 2 ou de classe 1B (rubrique 62) et sont donc soumis à Permis d’Environnement. En plus comme pour les captages d’eau « classiques », les systèmes géothermiques ouverts sont soumis à une « autorisation de pompage » de la part de l’IBGE.

De plus la réglementation urbanistique (COBAT) stipule que les forages géothermiques sont soumis à rapport d’incidence. Il semblerait donc que les systèmes géothermiques sont soumis à Permis d’Urbanisme (PU). Dans la pratique, il semblerait néanmoins que les systèmes géothermiques ne fassent pas l’objet d’une demande de PU à part entière. Il est donc conseillé de se renseigner auprès du service urbanisme de la commune concernée pour savoir si un PU est nécessaire.

La demande de permis d’environnement doit comprendre une série de renseignements.

Pour les systèmes géothermiques fermés (sondes verticales) :

  • Le cadre du projet de géothermique (industrie, tertiaire, logements collectifs, privés, ….
  • Le profil géologique et hydrogéologique de la zone où sont prévus les forages (et plus particulièrement déterminer les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.

Il y a lieu de motiver la profondeur des sondes envisagée sur base de ce profil.

  • La technique de forage prévue pour le placement des sondes.
  • La description technique de l’installation géothermique :
    • puissance électrique de la pompe à chaleur (PAC) et rendement;
    • nombre de puits ou forage prévus + nombre de sondes verticales prévues;
    • profondeur des sondes;
    • type de sondes (simple boucle en U, double boucle en U, coaxiale, autre);
    • type de matériaux utilisés pour les sondes et les différentes connexions;
    • systèmes prévus pour isoler les sondes (ou les groupes de sondes) en cas de fuite (vannes d’isolement, …);
    • fluide caloporteur prévu dans les sondes;
    • surface prévue pour l’implantation des sondes (et surface disponible si différente);
    • matériaux de remplissage sont prévus pour le scellement des trous de forages (espace interstitiel).
    •  …
  • Le plan reprenant de manière claire l’emplacement des installations (PAC et champ de sondes).
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • L’évaluation des besoins énergétiques :
    • la demande en chaud du bâtiment (kWh/an);
    • la demande en froid du bâtiment (kWh/an);
    • la puissance de pointe en chaud du bâtiment (kW);
    • la puissance de pointe en froid du bâtiment (kW);
    • l’énergie (chaud) soutirée au sol (kWh/an);
    • l’énergie (froid) soutirée au sol (kWh/an);
    • % de la demande en chaud couvert par la géothermie;
    • % de la demande en froid couvert par la géothermie.

Dans la mesure du possible, un (des) graphique(s) (histogramme) reprenant les besoins mensuels du bâtiment en froid et en chaud sur un an et distinguant la part produite par la géothermie de la part produite par les systèmes complémentaires (système de production de chaud et froid classiques) sera fourni.

  • Dans le cas ou un test de réponse thermique (TRT) a été réalisé : les conclusions du test.
  • La comparaison du gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation (réduction d’énergie primaire (%)).
  • L’évaluation du déséquilibre thermique du sous-sol et l’évolution de la performance de la PAC sur 20 ans en tenant compte de ce déséquilibre thermique.
  • Quant au rapport d’incidences, il doit également évaluer les nuisances et impacts environnementaux liés au système géothermique ainsi que les mesures prises pour éviter, supprimer ou réduire les nuisances répertoriées.  (Ex : test de mise sous pression des bouclages, mise en place d’un système de détection de fuites, étanchéité des puits,…).

Pour les systèmes géothermiques ouverts :

  • Le type de système géothermique prévu : captage/réinjection réversible (stockage chaud froid) ou captage réinjection non réversible.
  • La description technique de l’installation géothermique :
    • nombre de puits de pompage et de réinjection prévus ;
    • profondeur des puits (+ facteurs ayant servi à la détermination de la profondeur) ;
    • zone de filtre (crépine) ;
    • distance séparant les puits de captage et de réinjection ;
    • type de compteurs et nombre de compteurs prévus (+ emplacement) ;
    • puissance électrique de la pompe à chaleur (PAC) et son rendement ;
    • liquide utilisé dans le circuit secondaire ;
    • type d’échangeur – circuit primaire / circuit secondaire (double parois, simple paroi, …) ;
    • Éventuel système de détection de fuite dans le circuit secondaire.
    • plan reprenant l’emplacement de la PAC, des différents puits de captage et de réinjection.
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • Le profil géologique et hydrogéologique des zones de captage et de réinjection (et plus particulièrement déterminer l’aquifère ou les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.
  • Le débit maximum capté (m³/h, m³/j), le volume total capté par an ou par saison (m³) et si la totalité de l’eau captée est réinjectée dans la nappe. Si l’eau souterraine est utilisée à d’autres fins que la géothermie, il y a également lieu de préciser les utilisations alternatives et le débit capté (m³/j).
  • La température de réinjection maximale prévue.
  • Le dossier doit comporter une évaluation de :
    • la demande en chaud du bâtiment (kWh/an);
    • (la demande en froid du bâtiment (kWh/an)), si utilisation des puits pour refroidir;
    • la puissance de pointe en chaud du bâtiment (kW);
    • (la puissance de pointe en froid du bâtiment (kW)) → Si utilisation des puits pour refroidir;
    • l’énergie (chaud) soutirée de la nappe (kWh/an);
    • (l’énergie (froid) soutirée de la nappe (kWh/an)), si utilisation des puits pour refroidir;
    • % de la demande en chaud couvert par la géothermie;
    • (% de la demande en froid couvert par la géothermie), si utilisation des puits pour refroidir.
  • Le gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation  (réduction d’énergie primaire (%)) doit également être évalué.
  • Le rapport d’incidence doit évaluer le déséquilibre thermique de l’aquifère  et l’évolution de la performance de la PAC sur 20 ans en tenant compte du déséquilibre thermique.
  • Le rapport d’incidence doit évaluer la possibilité technique de mettre en place le système géothermique sur le site.
  • Le rapport d’incidence doit enfin évaluer l’impact et les nuisances du système géothermique et notamment :
    • l’impact éventuel du projet sur des captages voisins (impact hydraulique);
    • l’impact éventuel du projet sur la stabilité des constructions voisine;
    • le risque d’inondation au niveau des puits de réinjection et des constructions voisine;
    • l’impact thermique éventuel du système sur les eaux souterraines.
  • Ainsi que les mesures particulières de protection du sol et des eaux souterraines prévues (Rehaussement du puits, étanchéité des puits de forages, mesures prévues pour éviter la connexion éventuelle d’aquifères différents, mesures prévues pour éviter une contamination de l’eau pompée et réinjectée dans la nappe (type d’échangeur utilisé, système de détection de fuite, surpression du circuit secondaire (eau pompée) par rapport au circuit primaire (de la PAC), …)).