Impacts environnementaux : focus sur les fenêtres

Dans cette page, nous proposons une comparaison des impacts environnementaux des parois reprises dans la bibliothèque de TOTEM durant l’été 2023, afin d’identifier de bonnes pratiques en termes de choix constructifs. En particulier, nous nous intéressons aux toitures.

Recommandations avant comparaison:

 

Ca change vite

Les bibliothèques TOTEM s’enrichissent régulièrement, les EPD (déclaration environnementale de produit)  se multiplient… L’exercice fait ici est donc vrai pour en un temps t, et l’analyse peut changer rapidement. Cependant, puisqu’il ne s’agit pas de trouver un « meilleur élève », mais d’identifier des tendances, l’exercice vaut la peine.

Travailler à l’échelle de l’élément

Totem préconise la comparaison à partir du niveau hiérarchique correspondant aux éléments, de façon à considérer matériaux mis en œuvre ! En effet, si l’on comparait par exemple deux matériaux non mis en œuvre (deux isolants par exemple), on négligerait l’impact des matériaux additionnels nécessaires à celle-ci (fixation, mortier éventuel,…), et l’on pourrait mal estimer la durée de vie des matériaux, qui elle aussi peut dépendre des conditions de mise en œuvre .

Nous travaillons donc ici sur base des bibliothèques d’éléments prédéfinis dans TOTEM (planchers, murs, toitures,…). Il s’agit donc de bien de discuter de complexes multicouches, et non de matériaux individuellement.

Peut-on comparer des éléments n’ayant pas la même valeur U ?

L’impact environnemental de l’énergie consommée durant la phase d’utilisation de l’élément est pris en compte dans le score environnemental global. Une telle comparaison est donc possible, pour autant que l’on s’en tienne à une comparaison de l’impact sur l’ensemble des étapes du cycle de vie. Cela n’aurait évidemment aucun sens de comparer uniquement la phase de fabrication de parois n’ayant pas la même performance thermique.

Précisons cependant que la méthode de calcul utilisée pour l’évaluation de l’énergie consommée « in use » est discutable car relativement simpliste (méthode des degrés jours), et que l’impact de cette énergie n’est pas le même selon le type de système énergétique considérée (chauffage gaz ? pompe à chaleur ?). Les comparaisons qui sont faite sont donc à nuancer et contextualiser.

Peut-on comparer des éléments n’ayant pas la même durée de vie ?

Si l’on travaille à l’échelle des éléments, TOTEM uniformise les durées de vie à 60 ans, en intégrant un rythme de remplacement des éléments qui ne vivraient pas autant. La comparaison est donc possible.

Si vous voulez en savoir plus sur les hypothèses de calcul de TOTEM, dont la durée de vie, nous vous recommandons la video ci-dessous :

Peut-on comparer des élément n’ayant pas le même statut (Neuf ><Réno) ?

Oui et non. Il est intéressant de regrouper ces deux type d’éléments, pour mettre en évidence l’intérêt relative de la conservation d’éléments ou de composants existants. Mais une fois cela établi, c’est la comparaison d’éléments similaires qui a le plus d’intérêt pratique.


Vue générale sur les fenêtres

Le graphique ci-dessous représente l’ensemble des fenêtres répertoriés dans la bibliothèque TOTEM. En abscisse sont reprises les valeurs U (W/m2K) et en ordonnée le score agrégé de performance environnementale en millipoints par unité fonctionnelle.

Notons d’abord que plusieurs de ces fenêtres ne respectent pas l’exigence minimale U=< 1.5 W/m²K. Si l’on se concentre sur les autres, on remarque ne assez grande variabilité de score environnemental, puisque celui-ci varie entre 43 et 74 mPt/UF.

Comparaison d’éléments : les fenêtres prédéfinies de la bibliothèque TOTEM

Quelles tendances identifier ?

  • Premièrement, les fenêtres avec châssis bois présentent le meilleur score environnemental, que ce soit en simple ou, encore mieux, en triple vitrage. Le bois-alu arrive deuxième, et le PVC troisième. Le châssis aluminium ferme la marche.
  • Deuxièmement, le passage au triple vitrage permet systématiquement d’améliorer le score environnemental global, à matériau de châssis équivalent. L’ordre de grandeur de ce bénéfice est cependant inférieur à celui d’un changement de matériau de châssis. Par exemple, passer d’un châssis aluminium double vitrage à un aluminium triple vitrage vous fera gagner une dizaine de millipoints, alors que le passage vers un châssis bois double vitrage vous en fait gagner près de 20.

Attention cependant, ce chapitre de la bibliothèque TOTEM ne contient que peu de points. L’analyse sera donc à refaire lorsque cette bibliothèque se sera enrichie.


Vers une trop grande complexité de vitrages ?

Pour compléter l’analyse générale ci-dessous, nous pouvons nous trouver vers les recherche du dr. Jean Souviron((Jean Souviron. Glazing Beyond Energy Efficiency: An Environmental Analysis of the Socio-Technical Trajectory of Architectural Glass. Architecture, space management. Université Libre de Bruxelles (U.L.B.), Belgium, 2022. English.)), dont la thèse de doctorat porte sur l’analyse de cycle de vie des vitrages. En particulier, il analyse la tendance à la complexification des technologies de vitrages ces dernières décennies (doublement puis triplement des feuilles de verre, ajout de couches basses émissivité, remplissages gazeux, etc.) et s’interroge sur le bilan environnemental de ces vitrages dans un scénario de rénovation énergétique de bureaux : est-ce que les bénéfices des ces technologies lors de l’utilisation du bâtiment surpassent le coût environnemental d’une production plus complexe ? Ceci en se basant sur une analyse détaillée des cycles de production et des potentiels de récupérations et recyclage des vitrages.

Pour vous la faire courte, voici ses principales conclusions :

  • le meilleur vitrage est … celui qu’on ne produit pas. avant de se questionner sur quel vitrage pour remplacer ceux en fin de vie, il convient de se pencher sur la nécessité de ces vitrages, dnas une logique de réduction globale des quantités de matières utilisées. A noter cependant qu’il centre sont travail sur la rénovation des murs rideaux, pour lesquels effectivement la quantité de verre peut être mise en question. La situation est différente pour une architecture de fenêtres.

The most significant (impact) would be to minimise the production of flat glass due to the energy-intensive nature of float plants and their dependence on fossil fuels.

  • l’impact environnemental des vitrages est grevé par une grande difficulté à recycler les produits développés aujourd’hui, principalement du fait des difficultés à dissocier les composants des complexes de vitrage.

This means that the design of insulating glass units itself should be revised so that they provide sufficient acoustic and thermal insulation, while the materials from which they are made can be easily separated.

  • Sur la valeur ajoutée des vitrages « complexes », il pointe l’énorme incertitude qui entoure les analyses de cycle de vie actuelles, dans un contexte climatique changeant, un mix énergétique en transition, une variété d’hypothèses d’utilisation et de gains internes ou de systèmes HVAC et, potentiellement, une remise en question des ambiances intérieures à maintenir dans les bâtiments à l’avenir.

If the hypotheses and the definition of the life cycle scenarios can significantly change the conclusions of an LCA, how can the uncertainties related to the socio-technical trajectory of buildings be better taken into account?

  • Pour en venir au choix des complexes de vitrage dans une situation donnée, ses résultats indiquent une … équivalence de consommations énergétique globale pour les simples (sg), double (dg) et triples vitrages (tg). Signe que les vraies pistes de réduction d’impact ne sont peut-être pas dans un choix de technologie.
Figure 4.29 de la thèse du dr. Jean Souviron, montrant la consommation d’énergie totale sur le cycle de vie de différentes solutions de vitrages simple (sg), double (dg) ou triple (tg), pour une application de bureau et différentes solutions d’ombrage

Incohérent avec ce qui précède ? Non, nous ne le pensons pas. L’incertitude des analyses de cycle de vie est aujourd’hui encore grande, tout le monde le reconnais. Des résultats non convergents sont donc « attendus ». A ce stade des connaissances, les ACV peuvent donner des indications, pas des certitudes. Et dans le cas présent, concluons qu’aucune tendance claire en fonction de l’une ou l’autre technologie ne se dégage au niveau des vitrages « classiques » (résultats du dr. Souviron) et qu’au niveau des châssis, le bois semble tirer son épingle du jeu (résultats TOTEM).

Cet article a été révisé pour la dernière fois en été 2023. Les données et analyses présentées reflètent l’état des connaissances et des ressources disponibles à ce moment-là. Le domaine de la construction et de l’évaluation environnementale évoluant rapidement, nous encourageons nos lecteurs à vérifier si des mises à jour ou des compléments d’information ont été publiés depuis.

Impacts environnementaux : focus sur les toitures

Dans cette page, nous proposons une comparaison des impacts environnementaux des parois reprises dans la bibliothèque de TOTEM durant l’été 2023, afin d’identifier de bonnes pratiques en termes de choix constructifs. En particulier, nous nous intéressons aux toitures.

Recommandations avant comparaison

Ca change vite

Les bibliothèques TOTEM s’enrichissent régulièrement, les EPD (déclaration environnementale de produit)  se multiplient… L’exercice fait ici est donc vrai pour en un temps t, et l’analyse peut changer rapidement. Cependant, puisqu’il ne s’agit pas de trouver un « meilleur élève », mais d’identifier des tendances, l’exercice vaut la peine.

Travailler à l’échelle de l’élément

Totem préconise la comparaison à partir du niveau hiérarchique correspondant aux éléments, de façon à considérer matériaux mis en œuvre ! En effet, si l’on comparait par exemple deux matériaux non mis en œuvre (deux isolants par exemple), on négligerait l’impact des matériaux additionnels nécessaires à celle-ci (fixation, mortier éventuel,…), et l’on pourrait mal estimer la durée de vie des matériaux, qui elle aussi peut dépendre des conditions de mise en œuvre .

Nous travaillons donc ici sur base des bibliothèques d’éléments prédéfinis dans TOTEM (planchers, murs, toitures,…). Il s’agit donc de bien de discuter de complexes multicouches, et non de matériaux individuellement.

Peut-on comparer des éléments n’ayant pas la même valeur U ?

L’impact environnemental de l’énergie consommée durant la phase d’utilisation de l’élément est pris en compte dans le score environnemental global. Une telle comparaison est donc possible, pour autant que l’on s’en tienne à une comparaison de l’impact sur l’ensemble des étapes du cycle de vie. Cela n’aurait évidemment aucun sens de comparer uniquement la phase de fabrication de parois n’ayant pas la même performance thermique.

Précisons cependant que la méthode de calcul utilisée pour l’évaluation de l’énergie consommée « in use » est discutable car relativement simpliste (méthode des degrés jours), et que l’impact de cette énergie n’est pas le même selon le type de système énergétique considérée (chauffage gaz ? pompe à chaleur ?). Les comparaisons qui sont faite sont donc à nuancer et contextualiser.

Peut-on comparer des éléments n’ayant pas la même durée de vie ?

Si l’on travaille à l’échelle des éléments, TOTEM uniformise les durées de vie à 60 ans, en intégrant un rythme de remplacement des éléments qui ne vivraient pas autant. La comparaison est donc possible.

Si vous voulez en savoir plus sur les hypothèses de calcul de TOTEM, dont la durée de vie, nous vous recommandons la video ci-dessous :

Peut-on comparer des élément n’ayant pas le même statut (Neuf ><Réno) ?

Oui et non. Il est intéressant de regrouper ces deux type d’éléments, pour mettre en évidence l’intérêt relative de la conservation d’éléments ou de composants existants. Mais une fois cela établi, c’est la comparaison d’éléments similaires qui a le plus d’intérêt pratique.


Vue générale sur les toitures plates

Le graphique ci-dessous représente l’ensemble des toitures plates répertoriés dans la bibliothèque TOTEM. En abscisse sont reprises les valeurs U (W/m2K) et en ordonnée le score agrégé de performance environnementale en millipoints par unité fonctionnelle de chaque complexe de paroi.

Avant de commencer, pointons qu’un élément en béton cellulaire affichant un score dépassant les 250 mPt/UF a été supprimé du graphique. Alors que tous les autres éléments restent sous la barre des 100 mPt / UF, celui-là venait écraser les résultat et complexifier la lecture.

Cet élément (ID ET969) a été fortement impacté par une récente mise à jour, qui l’a fait passer 13,95 mPt/UF à 256,84 mPt/UF. Il est donc passé du « podium » à « l’élimination ».

Comparaison d’éléments : les toitures plates prédéfinies de la bibliothèque TOTEM

Qu’observons nous ?

  • Les éléments de charpente en bois scorent généralement mieux que les charpente en acier ou en béton. Sachant que le bois a cette capacité de stocker du CO2 pendant une partie de son cycle de vie, ce meilleur score par rapport à d’autre éléments structurels en maçonnerie ou métallique était attendu. On ne voit pas ici les nuances qu’il a fallu apporter dans l’analyse des murs extérieures à ossature bois.
  • Indépendamment du cas exceptionnel pointé plus haut, les éléments préfabriqués en béton (Dalle TT ou poutres en béton précontraint) affichent des scores variables dont certains voisins de bons profilés de charpente en bois. Par exemple, l’élément ET270 « TP_Dalle TT_Béton précontraint_BIB_Neuf_01 » affiche un score respectable de 15,4 mPt/UF, très proche de l’élément ET286 « TP_Solives et arbalétriers_Bois résineux_BIB_Neuf_04 » pour un même U= 0.23 W/m²K.

Podium des toitures plates

Voici les trois compositions de paroi présentant le meilleur score environnemental parmi les toitures plates :

  • Une toiture avec profilés FIJ et flocons de cellulose (référence TOTEM : TP_Profilés FJI 350_Bois lamellé_BIB_Neuf_01, ID  ET275) : U=0.13 W/m²K pour 9,9 mPt/UF et 28cm
C1 : Feuille d’étanchéité en EPDM ; C2 : Panneau de laine de roche (60 mm) ; C3 : Feuille d’étanchéité PP – LDPE ; C4 : Panneau OSB vissé ; C5 : Profilés en bois résineux ; C6 : couche composée : Profilés FJI 350 en bois lamellé – OSB (5%), combiné à des flocons de cellulose (95%) (240 mm) ; C7 : Lattes en bois résineux ; C8 : Panneau en plâtre ; C9 : Peinture acrylique
  • Une toiture avec solives en bois résineux et flocons de cellulose (référence TOTEM TP_Solives bois résineux_BIB_Neuf_02, (ID  ET273) : U=0.17 W/m² K pour 11,42 mPt/UF et 39 cm
C1 : Feuille d’étanchéité en EPDM ; C2 : Panneau de laine de roche (60 mm) ; C3 : Feuille d’étanchéité PP – LDPE ; C4 : Panneau OSB vissé ; C5 : Profilés en bois résineux ; C6 : couche composée : solives en bois résineux (22%), combiné à flocons de cellulose (78%) (225 mm) ; C7 : Lattes en Bois résineux ; C8 : Panneau en plâtre ; C9 : Peinture acrylique
  • Une variante de la précédente avec isolation en laine de roche uniquement par au-dessus (référence TOTEM TP_Solives bois résineux_BIB_Neuf_04, ID  ET286) : U=0.23 W/m²K pour 14,09 mPt/UF et 46cm

 

C1 : Feuille d’étanchéité EPDM ; C2 : Panneau de laine de roche (130 mm) ; C3 : Feuille d’étanchéité PP – LDPE ; C4 : Panneau OSB vissé ; C5 : Profilés en bois résineux ; C6 : Solives en bois résineux ; C7 : Lattes en bois résineux ; C8 : Panneau en fibre-gypse ; C9 : Papier peint

 

Le trio de tête est donc constitué de parois bois, et deux d’entre elles proposent une isolation en flocons de cellulose. Mais il nous semble nécessaire de mentionner que le 4ème meilleur score est atteint par une paroi béton (Référence TOTEM : TP_Dalle TT_béton précontraint_BIB_Neuf_01,  ID  ET273) : U=0.24 W/m²K pour 15,4 mPt/UF et 53cm:

C1 : Feuille d’étanchéité EPDM ; C2 : Panneau PUR (100 mm) ; C3 : Feuille d’étanchéité en bitume ; C4 : Enduit épais en béton maigre ; C5 : Béton coulé sur site ; C6 : Dalle TT en béton précontraint ; C7 : Enduit épais en plâtre ; C8 : Peinture acrylique

 


Vue générale sur les toitures en pente

Comparaison d’éléments : les toitures en pente prédéfinies de la bibliothèque TOTEM

On retrouve ici des éléments d’analyse similaires à ceux des murs extérieurs :

  • Il n’y a pas de corrélation évidente entre niveau U et score environnemental. Si les toitures « passives » (U<0,15W/m2K) ont de bons résultats environnementaux, on trouve également des parois à U=0,15W/m2K dont le score est très haut.
  • Les ossatures métalliques sont globalement à exclure.
  • Les ossatures bois présentent une grande variété de scores, signe que le mode constructif ne fait pas tout.
  • Plus spécifique aux toitures : les fermes semblent plus intéressantes que les fermettes.

Podium des toitures en pente

Voici les trois compositions de paroi présentant le meilleur score environnemental parmi les toitures inclinées :

  • Une toiture « passive » avec profilés FJI et laine de roche (référence TOTEM TI_Fermes en forme de A_Bois résineux_BIB_Neuf_02, ID  ET298) : U=0.11 W/m²K pour 8.54 mPt/UF et 68cm
C1 : Tuiles céramique non émaillée ; C2 et C3 : Lattes en bois résineux ; C4 : Panneau en fibre de bois ; C5 : Couche composée : profilés FJI en bois lamellé (5%), combiné à un matelas de laine de roche (95%) (360 mm) ; C6 : Poutres en bois résineux ; C7 : Feuille d’étanchéité PP – LPDE ; C8 : Lattes en bois résineux ; C9 : Panneau en plâtre ; C10 : Peinture acrylique
  • Une toiture avec profilés FJI et flocons de cellulose (référence TOTEM TI_Fermes en forme de A_Bois résineux_BIB_Neuf_03, ID  ET299) : U=0.17 W/m²K pour 9.23 mPt/UF et 56 cm
C1 : Tuiles céramique non émaillée ; C2 et C3 : Lattes en bois résineux ; C4 : Panneau en fibre de bois ; C5 : Couche composée : profilés FJI en bois lamellé (5%), combiné à un matelas de laine de roche (95%) (240 mm) ; C6 : Poutres en bois résineux ; C7 : Feuille d’étanchéité PP – LPDE ; C8 : Lattes en bois résineux ; C9 : Panneau en plâtre ; C10 : Peinture acrylique
  • Une toiture avec profilés FJI et laine de verre (référence TOTEM TI_Pannes bois résineux_BIB_Neuf_15, ID  ET323) : U=0.24 W/m²K pour 10.24 mPt/UF et 48 cm
C1 : Tuiles céramique non émaillée ; C2: Lattes en bois résineux ; C3 : Feuille d’étanchéité PE ; C4 : Panneau de toiture ouvert : 12mm particules + 170mm laine de verre ; C5 : Papier peint ; C6 : Poutres en bois résineux

Ces parois sont assez proches dans leur nature, la principale différence étant le choix du matériau isolant, avec le matelas de laine de roche (360mm) en pole position, devant la cellulose (240mm) et la laine de verre (170mm). Notons que les valeurs U atteintes ne sont pas identiques, la meilleur paroi étant aussi la plus isolante (U=0,11 W/m2K).

Cet article a été révisé pour la dernière fois en été 2023. Les données et analyses présentées reflètent l’état des connaissances et des ressources disponibles à ce moment-là. Le domaine de la construction et de l’évaluation environnementale évoluant rapidement, nous encourageons nos lecteurs à vérifier si des mises à jour ou des compléments d’information ont été publiés depuis.

Impacts environnementaux : focus sur les murs extérieurs

Dans cette page, nous proposons une comparaison des impacts environnementaux des parois reprises dans la bibliothèque de TOTEM durant l’été 2023, afin d’identifier de bonnes pratiques en termes de choix constructifs. En particulier, nous nous intéressons aux murs extérieurs.

Recommandations avant comparaison

Ca change vite

Les bibliothèques TOTEM s’enrichissent régulièrement, les EPD (déclaration environnementale de produit) se multiplient… L’exercice fait ici est donc vrai pour en un temps t, et l’analyse peut changer rapidement. Cependant, puisqu’il ne s’agit pas de trouver un « meilleur élève », mais d’identifier des tendances, l’exercice vaut la peine.

Travailler à l’échelle de l’élément

Totem préconise la comparaison à partir du niveau hiérarchique correspondant aux éléments, de façon à considérer matériaux mis en œuvre ! En effet, si l’on comparait par exemple deux matériaux non mis en œuvre (deux isolants par exemple), on négligerait l’impact des matériaux additionnels nécessaires à celle-ci (fixation, mortier éventuel,…), et l’on pourrait mal estimer la durée de vie des matériaux, qui elle aussi peut dépendre des conditions de mise en œuvre .

Nous travaillons donc ici sur base des bibliothèques d’éléments prédéfinis dans TOTEM (planchers, murs, toitures,…). Il s’agit donc de bien de discuter de complexes multicouches, et non de matériaux individuellement.

Peut-on comparer des éléments n’ayant pas la même valeur U ?

L’impact environnemental de l’énergie consommée durant la phase d’utilisation de l’élément est pris en compte dans le score environnemental global. Une telle comparaison est donc possible, pour autant que l’on s’en tienne à une comparaison de l’impact sur l’ensemble des étapes du cycle de vie. Cela n’aurait évidemment aucun sens de comparer uniquement la phase de fabrication de parois n’ayant pas la même performance thermique.

Précisons cependant que la méthode de calcul utilisée pour l’évaluation de l’énergie consommée « in use » est discutable car relativement simpliste (méthode des degrés jours), et que l’impact de cette énergie n’est pas le même selon le type de système énergétique considérée (chauffage gaz ? pompe à chaleur ?). Les comparaisons qui sont faite sont donc à nuancer et contextualiser.

Peut-on comparer des éléments n’ayant pas la même durée de vie ?

Si l’on travaille à l’échelle des éléments, TOTEM uniformise les durées de vie à 60 ans, en intégrant un rythme de remplacement des éléments qui ne vivraient pas autant. La comparaison est donc possible.

Si vous voulez en savoir plus sur les hypothèses de calcul de TOTEM, dont la durée de vie, nous vous recommandons la video ci-dessous :

Peut-on comparer des élément n’ayant pas le même statut (Neuf ><Réno) ?

Oui et non. Il est intéressant de regrouper ces deux type d’éléments, pour mettre en évidence l’intérêt relative de la conservation d’éléments ou de composants existants. Mais une fois cela établi, c’est la comparaison d’éléments similaires qui a le plus d’intérêt pratique.


Vue générale

Le graphique ci-dessous représente l’ensemble des murs extérieures (79) répertoriés dans la bibliothèque TOTEM. En abscisse sont reprises les valeurs U (W/m2K) et en ordonnée le score agrégé de performance environnementale en millipoints par unité fonctionnelle de chaque complexe de paroi.

Les différents types de murs extérieurs sont regroupés selon le matériau de l’élément porteur du mur. Par exemple, on retrouve un groupe (vert) d’ossatures bois, un groupe (rouge) de mur en maçonnerie composé de briques isolantes, un groupe (bleu) de mur dont l’ossature est de l’acier, … Les points violets – de plus petite taille que les autres points colorés – représentent les complexes de parois de type RENO. Il s’agit dans ce cas-ci de murs extérieurs en briques.

Comparaison d’éléments : les 79 murs extérieurs prédéfinis de la bibliothèque TOTEM

Que peut-on observer en première lecture ?

  • Presque tous les murs issus de la bibliothèque TOTEM ont des valeurs U réglementaires ou améliorées. La bibliothèque est donc composée d’éléments prédéfinis représentatifs de parois neuves ou lourdement rénovées mais non représentatives du bâti « à rénover ». Pour le devenir, ces éléments prédéfinis sont modifiables par l’utilisateur lorsque ceux-ci sont mobilisés au sein d’un projet. En consultation (en lecture seule), il ne sont pas modifiables. La volonté de Totem est d’étoffer des éléments prédéfinis « reno » présents dans la bibliothèque, mais à l’heure actuelle ces éléments sont encore marginaux.
  • Les scores environnementaux sont assez dispersées mais on pressent l’émergence de certains clusters. Les éléments en ossature acier (points bleus) apparaissent d’emblée comme les « moins bons élèves » tandis que les points représentant des éléments en lamellé-collé, des éléments en briques, des éléments en ossature bois, des éléments de maçonnerie constitués de blocs creux s’agglutinent dans le « bon peloton ». Ce peloton correspond aux points qui tendent à rejoindre le bas du graphique, entre 10 et 20 mPt/UF.
  • Les éléments situés vers le coin inférieur gauche du graphique conjuguent un faible impact environnemental (score bas en mPt) ainsi qu’une petite valeur U (bonne isolation). On voit que les parois les plus isolées ne sont pas nécessairement les moins impactantes, sans pour autant moins bien « performer » que les autres, signe que la question de l’impact environnemental ne se limite pas à une question d’isolation : les autres éléments de la paroi ont un rôle important dans la discussion.

Il ne faut néanmoins pas aller trop vite sur l’idée de clusters. Si certains groupes de parois semblent se distinguer par des impacts relativement faibles (lamellé-collé, briques), on voit bien que tous les éléments d’une même sous-catégorie ne scorent pas de façon homogène. Comme l’atteste par exemple cet élément en lamellé-collé qui se détache du « bon peloton » et affiche un score plus impactant.


Zoom sur les parois PEB conformes

Intéressons-nous maintenant aux éléments présentant une bonne valeur U proche de la réglementation actuelle ( < ou égal 0,24 W/m²K).

Le graphique ci-dessous présente un zoom sur quelques « brochettes » d’éléments tirées de la figure précédente, constituées d’empilements d’éléments autour des valeurs U suivantes: 0.22 W/m²K, 0.23 W/m²K et 0.24 W/m²K.

Comparaison de murs extérieurs présentant un U proche de la réglementation en vigueur.

On constate d’emblée un empilement hétérogène des valeurs qui ne permet pas de tirer de grandes généralité. Des supposés « bons élèves » peuvent présenter un score très haut. On s’attendrais par exemple à ce que toutes les parois « bois » aient un score en mPt/UF bas, mais ce n’est pas le cas.

Il faut regarder en détail afin d’identifier dans leur groupe respectif les parois qui se distinguent de façon trop impactantes. Par exemple, dans le groupe des éléments en ossature bois, celles qui ont un score haut le doivent à chaque fois à une des couches du complexe de paroi (une isolation en laine de mouton, un bardage plastique ou des profilés alu pour plaques de revêtement en céramique émaillée). Une première conclusion s’impose: il ne suffit pas de définir l’élément structurel de la paroi pour atteindre un faible score, mais de bien réfléchir le complexe de paroi dans son ensemble.

Ceci dit, les ossatures d’acier se distinguent assez nettement dans le haut de la pile (allant de 28 à 71 mPt/UF), du fait de l’impact très lourd de la production de l’acier…


Podium

Le meilleur élément de la figure est ce point mauve apparaissant à la base de la « brochette » 0.22 W/m²K). Il s’agit d’une paroi de briques pleines en terre cuite « Reno ». Cela veut dire que certains composants de cet élément n’ont pas le même statut que celui de la majorité des éléments prédéfinis : les phases de production et chantier ne sont pas considérées pour ceux-ci. C’est donc une situation particulière.

En dehors de ce cas particulier, les éléments sur le podium sont :

  • une structure en lamellé-collé isolée en cellulose et avec un enduit extérieur posé sur un panneau de fibre de bois (référence TOTEM : ME_Profilés FJI 250_Bois lamellé_BIB_Neuf_02, ID ET44) : U=0.17 W/m²K pour 9,68 mPt/UF et 32 cm
C1 : Enduit épais : enduit traditionnel; C2 : Panneau de fibre de bois (18 mm); C3 : Couche composée : Profilés FJI 250 (5%), combinés à des flocons de cellulose insufflé sur site (95%) (240 mm); C4 : Panneau OSB vissé; C5 : Feuille d’étanchéité PP – PE; C6 : Lattes en bois résineux; C7 : Panneau en plâtre; C8 : Peinture acrylique
  • La paroi « biosourcée » type : Une ossature bois isolée par ballots de paille, avec enduits d’argile intérieures et extérieures (référence TOTEM : ME_Ossature_Bois résineux_BIB_Neuf_01, ID  ET103) : U=0.14 W/m² K pour 9,98 mPt / UF et 53 cm
C1 : Enduit épais : Mortier de chaux-trass ; C2 : Couche composée : Ossature en bois résineux (11%), combinés à des ballots de paille (89%) (480 mm) ; C3 : Enduit à l’argile
  • Une paroi maçonnée avec isolé collé EPS et revêtement en plaquette (référence TOTEM : ME_Briques isolantes_terre cuite_BIB_Neuf_09, ID  ET77) : U=0.22 W/m²K pour 11,17 mPt / UF et 33 cm
C1 : Plaquettes de terre cuite ; C2 : Enduit épais ; C3 : Panneau EPS (150 mm) ; C4 : Briques isolantes en terre cuite ; C5 : Enduit plâtre ; C6 : Papier peint

 


Maçonnerie ou ossature bois ?

La présence d’une paroi en maçonnerie dans notre podium invite à s’intéresser plus largement au nuage de points rouges. Celui-ci performe plutôt bien, chacun de ces points étant situés à la base de chaque « brochette ». La construction en maçonnerie n’est pas antinomique avec réduction d’impact environnemental global.

Le graphique suivant reprend l’ensemble des parois en maçonnerie de briques isolantes et des parois ossature bois, pour comparaison.

Comparaison d’éléments à base briques isolantes ou d’ossature bois

Difficile de tirer une généralité, mais nous voyons que certains éléments en ossature-bois affichent des scores intéressants, à la fois en terme de performance environnementale et de performance énergétique. Ceux-là présentent des isolations en paille, laine de roche ou cellulose). Mais d’autres sont bien moins intéressant. Le point isolé (44mPt/UF) présente une isolation en granulés de liège expansé, mais ne nous y laissons pas prendre : ce n’est nullement la couche isolante qui est impactante dans cet élément, mais bien la couche de revêtement intérieure en céramique ! Le graphique affichant le détail par composant est très instructif en la matière lorsqu’il s’agit de se rendre compte de ce qui est impactant au sein de l’élément.

Nous constatons également que le nuage de points des parois en briques isolantes est relativement homogène avec un score qui s’échelonne entre 11 mPt/UF pour celle isolée avec de l’EPS (polystyrène expansé) et 16 mPt /UF pour celle isolée en XPS (polystyrène extrudé). Cette famille a donc l’avantage d’une relative prévisibilité des performances. Par contre, elle présente un moindre potentiel de réemploi des composants, vu l’emploi fréquent de colles pour les isolants et revêtements.

Chauffage de proximité

Principe:

Les systèmes de chauffage de proximité sont un ensemble d’équipements de chauffage permettant un apport d’énergie thermique de façon très précise dans l’espace et le temps. En particulier, il s’agit de dispositifs mobiliers permettant de chauffer directement le corps, par conduction (contact) ou rayonnement infra-rouge. Ils s’utilisent en complément du système de chauffage central pour assurer le confort individuel, en particulier dans une approche de slowheating.


Palette de solutions

Crédit Denis De Grave

On peut considérer un grand nombre d’équipements mobilier ou vestimentaires comme des chauffages de proximité. C’est pourquoi le projet de recherche Slowheat en propose une classification pour les espaces de logement sur base de leur sobriété énergétique. Cette classification, adaptée ici pour des usage de (télé)travail, les présente comme prioritaires sur le chauffage central :

Classe Puissance Familles de solutions Exemples

Classe A, le bon sens non-énergétique

0 watts Habillement, cloisonnement, acclimatation, adéquation de l’activité Mettre un pull, fermer une porte, alterner des périodes statiques et des périodes de mouvement…

Classe B, le chauffage de proximité basse puissance des corps [Par conduction]

± 50 W/corps Accessoires vestimentaires et/ou du mobilier chauffants en contact avec le corps. Chaise chauffante, gilet chauffant, sous-clavier chauffant…

Classe C, le chauffage de proximité moyenne puissance de l’environnement proche des corps [Principalement par rayonnement]

± 300 W/corps Par des éléments radiants et/ou du mobilier chauffant à proximité directe des bénéficiaires. Panneau radiant, table chauffante…

Classe D, le chauffage centralisé d’une pièce entière [Principalement par convection]

± 1 500 W/pièce Les vannes thermostatiques, le(s) radiateur(s) en place, un thermostat adapté. Chauffer une pièce à 15-17° quand on y est pour que les solutions ABC restent suffisantes.

Classe E, le chauffage centralisé du bâtiment entier

±5 000 W/logement Le chauffage central Garder le chauffage central en alerte pour maintenir le bâtiment hors gel (8 °C) ou à une température « de passage”, par exemple 12-15 °C.

Outre les accessoires mobiliers, des éléments de chauffage plus classiques pourraient être considérées comme des systèmes de chauffage de proximité. On pense notamment aux plafonds chauffants. Il faut cependant pour cela qu’ils répondent à trois exigences :

  • Etre pensés à une petite échelle : il ne s’agit pas ici d’élément chauffant uniformément un grand espace.
  • Pouvoir se réguler directement par l’occupant, en fonction de son ressenti, et non sur base d’une consigne d’ambiance.
  • Avoir une grande réactivité : pas plus de quelques minutes entre la demande de chaleur et le ressenti par l’occupant.

Efficacité énergétique

La littérature scientifique exprime souvent l’impact de ces système de chauffage en « degrés équivalents ». L’idée est la suivante : on mesurer le confort d’une cohorte d’individus dans une ambiance de référence, sans équipement de chauffage de proximité, puis le confort d’une autre cohorte dans une ambiance plus fraiche mais avec la possibilité d’utiliser de tels équipement. En multipliant les expériences pour différentes températures d’ambiance, on peut identifier celle qui mène à une satisfaction moyenne équivalent à la situation de référence. L’écart entre cette température et celle de référence donne une idée de l’impact des équipements testés.

Parallèlement, la consommation d’énergie liée à ces dispositifs peut être monitorée, et exprimée en watt par degré d’ambiance compensé.

De façon plus synthétique, un « review » de la littérature publié en 2022 a identifiée 20 études rigoureuses impliquant des systèmes de chauffage individuels, de 5 types différents((Thermal comfort and energy performance of personal comfort systems (PCS): A systematic review and meta-analysis, Song, Z. Zhang, Z. Chen, F. Wang and B. Yang, Energy and Buildings 2022 Vol. 256, DOI: 10.1016/j.enbuild.2021.111747)) : chaises chauffantes, chauffes pieds, tapis de sol chauffant, souffleur d’air chaud de table ou une combinaison de solutions. Leur analyse est résumée par la figure suivante, qui met en regard la température d’ambiance de confort pouvant être atteinte et la consommation d’énergie de compensation par le système de chauffage individuel :

Efficacité de différents dispositifs de chauffage de proximité, mesurée par la puissance nécessaire par degré de réduction d’ambiance pour un confort équivalent. Inspiré de Song et al, 2022.

On voit un potentiel de réduction des températures très importante, mais aussi très variable selon les études, signe d’une grande diversité de potentiel selon les dispositifs testés. Ce qui semble clair par contre c’est la très faible puissance nécessaire pour assurer le confort dans ces températures basses : de l’ordre de l’une ou l’autre dizaine de watt par degré (et par personne). En effet, parmi les dispositifs testés, les chaises chauffantes semble avoir la meilleure efficacité énergétique (moins de watt par degré de réduction d’ambiance). A l’opposé, des tapis de pied chauffants seraient les moins efficaces au niveau énergie.


Parties du corps à viser

Concernant les zones du corps à viser en priorité, un autre review indique que dans un environnement froid, c’est l’apport de chaleur au niveau de l’abdomen qui serait perçu comme le plus confortable((Effectiveness of personal comfort systems on whole-body thermal comfort – A systematic review on which body segments to target, W. Luo, R. Kramer, Y. de Kort and W. van Marken Lichtenbelt, Energy and Buildings 2022 Vol. 256, DOI: 10.1016/j.enbuild.2021.111766)). Par contre, l’apport de chaleur au niveau de la tête n’aurait que très peu d’impact.

Quant aux extrémités (mains et pieds), zones sensibles au froid, elles seraient positivement affectées par une apport de chaleur indirect au niveau du torse et du bas du dos, signe que des apports de chaleur locaux peuvent avoir des impacts plus larges sur le corps. Mais avec des limites : la perception de chaleur au niveau de la tête étant par exemple très peu impactée par un apport de chaleur sur d’autres parties du corps.

L’un dans l’autre, il semble que c’est la combinaison d’un apport de chaleur au niveau du torse (grande surface de contact) pour le confort général et au niveau des extrémité (zone sensible) pour la résolution d’inconforts localisés qui soit le plus efficace…. Si nous sommes relativement peu vêtus. Si l’on multiplie les couches vestimentaires, en particulier au niveau du torse, c’est l’apport de chaleur a niveau des extrémités qui devient crucial.

« The current knowledge indicates that, in an office context, in mild excursions outside the thermal comfort zone, hands and feet are the sources of thermal discomfort in the cold and the head is the source of thermal discomfort in the warmth. A novel Personnel Comfort System scheme, which targets only the extremities and head, is suggested. This scheme may eliminate the local thermal discomfort of the extremities and head while maintaining the thermal excitation to the torso in mild cold/warm conditions, thus providing a solution for creating a healthy and comfortable indoor environment. »((id.))

 

Dispositif de confor de proximité idéal : le torse correctement couvert mais laissé en interaction avec l’ambiance (1 et 3), tandis que les extrémités reçoivent des apports spécifique, de chaleur en hiver sur les pieds et les mains (2) et de faicheur sur la tête en été (4). D’après Luo et al, 2022.

Retours d’expériences

Différentes expériences de mise en œuvre des principes du slowheating, incluant le recours à des systèmes de chauffage de proximité sont racontées dans nos études de cas (dans une école, dans un bureau, dans une administration). De celles-ci, nous pouvons tirer les enseignements suivants :

  • Il est important que la puissance puisse être modulée. Jouez sur l’intensité ou sur des cycles marche-arrêt.
  • Tout le monde n’apprécie pas les mêmes apports de chaleur. Les sous-claviers chauffants semblent récolter une quasi-unanimité. Mais les apports de chaleur sur le dos et, surtout, les cuisses, ne plaisent pas à tout le monde. Il est donc important de prévoir différents dispositifs et de laisser chacun expérimenter.
  • Les expériences de partage de dispositifs dont nous avons eu vent ne semblent pas concluantes. A priori, à chacun son matériel. Surtout s’il s’agit d’élément en contact avec le corps.
  • Les études de cas montrent beaucoup de frustration. La qualité et durabilité des éléments actuellement présents sur le marché pose question.

Passerelles réseau

Passerelles réseau


La passerelle est un élément du réseau de communication qui permet de lier des branches utilisant des protocoles différents. Ces éléments sont extrêmement importants dans la réalisation d’un Smartbuilding car ils permettent à différents écosystèmes de fonctionner ensemble en assurant la traduction d’un protocole vers l’autre.

En plus d’assurer la continuité du réseau, la passerelle analyse l’ensemble des données qui transitent. Tout d’abord pour pouvoir les traduire mais également pour les filtrer. Si une requête ne rentre pas dans le cadre fixé par l’intégrateur, cet évènement sera filtré et n’aura pas lieu mais sera tout de même consigné dans un historique. Les passerelles assurent donc un niveau supplémentaire de sécurité au réseau.

electrolyse de l'eau

Stockage Power-To-Fuel : l’électrolyse

Stockage Power-To-Fuel : l'électrolyse


Le principal représentant de ce type de stockage est l’électrolyse de l’eau qui permet de produire de l’hydrogène.

Contrairement au stockage thermique ou en accumulateurs, ce type de système permet une conservation plus longue, inter-saisonnière, de l’énergie sous forme d’hydrogène.

31. LE STOCKAGE POWER-TO-FUEL : L’ÉLECTROLYSE

L’hydrogène comme carburant peut ensuite être valorisé de différentes manières :

  • Comme carburant combustible directement via le réseau de gaz,
  • Soit dans une centrale à gaz adaptée. Dans ce cas, in fine, de l’électricité sera reproduite à partir du carburant.
  • Par production de méthane : en faisant réagir 4 molécules de H2 avec du CO2 du méthane et de l’eau sont produits.
  • Via une pile à combustible qui fera réagir 2 molécules de H2 avec une molécule de dioxygène pour produire de l’électricité avec un rendement de ±60% et rejeter de l’eau. Ce rendement sera meilleur si la pile à combustible est utilisée en cogénération pour valoriser le dégagement de chaleur.
STOCKAGE ÉLECTROCHIMIQUE : LES BATTERIES

Stockage Power-To-Power

Stockage Power-To-Power


Le stockage électrochimique : les batteries

Les batteries ou accumulateurs électrochimiques sont les moyens de stockage les plus connus. Nous en avons dans nos smartphones, nos appareils photos et de plus en plus souvent dans nos bâtiments.

Les accumulateurs de ce type profitent des propriétés électrochimiques de certains matériaux, notamment des couples oxydant-réducteur comme le Nickel et le Cadmium.

Lors de la phase de charge, l’électricité induit un flux d’électron entre les bornes qui va polariser les électrodes. La borne négative va alors attirer les protons (+) d’un côté de la membrane. Ces protons vont s’accumuler et l’électrolyte qui était initialement neutre et homogène va se polariser: un côté va se charger positivement et l’autre, orphelin de ses protons(+), négativement.

Lorsque tous les protons (+) ont migré d’un côté, l’accumulateur est chargé à 100%.

Schéma stockage électrochimique : les batteries.

Dans la phase de décharge (utilisation de l’énergie stockée), cette différence de polarité est utilisée pour mettre des électrons en mouvement dans le sens inverse et produire de l’électricité. Cette circulation en sens inverse des protons va progressivement rétablir l’équilibre de polarité entre les parties chargées positivement et négativement. À partir d’un moment, la tension électrique induite deviendra trop faible et l’accumulateur sera considéré comme « vide ».

Plusieurs matériaux sont utilisables pour réaliser ce principe. En fonction du type d’anode, de cathode et d’électrolyte la densité énergétique, la vitesse de charge, le coût et la stabilité seront variables.

Parmi les technologies les plus courantes, les densités énergétiques sont les suivantes :

Parmi les technologies les plus courantes, les densités énergétiques sont les suivantes

Les autres caractéristiques principales de différentes technologies:

  Vitesse de charge Vitesse de décharge naturelle Nombre de cycles EFFET mémoire* Recyclabilité Coût Commentaire
Plomb-acide Moyenne ±500 Extrêmement faible Très bonne faible Supporte mal les cycles trop amples
Ni-Cd ± rapide ±2000 Oui Toxique
NiMH ± rapide ±1000 Oui mais faible Peu polluant
Li-Ion ++ négligeable ±750 Extrêmement faible Mauvaise, coûteuse
Ni-Zn + rapide ±300 Oui mais faible correcte Moyen
Li-po ++ négligeable ±300

L’effet mémoire est un phénomène physique et chimique qui se manifeste dans certaines technologies d’accumulateurs plus que dans d’autres. S’il se manifeste, ces derniers doivent être déchargés complètement avant d’être rechargés sous peine d’observer une réduction de la capacité de la batterie difficilement récupérable.


Le stockage thermique

Le stockage d’électricité sous forme de chaleur est généralement utilisé tel quel sous forme d’énergie thermique pour l’eau chaude sanitaire ou le chauffage mais peut également être reconvertie et restituée sous forme d’électricité par l’intermédiaire d’une turbine.

Le principe général consiste à chauffer un matériau à haute densité calorifique (de l’eau, de la pierre réfractaire, un matériau à changement de phase, …) dans un milieu clos fortement isolé thermiquement. Le chauffage de la masse à lieu lorsqu’il y a surplus d’électricité.

Schéma stockage thermique.

À l’inverse lorsque l’électricité vient à manquer, la chaleur est libérée et va produire de la vapeur qui continuera son chemin dans une turbine haute température, comme dans une centrale TGV. La turbine va alors se mettre en mouvement et alimenter un alternateur qui pourra injecter du courant alternatif sur le réseau ou dans le bâtiment une fois qu’il sera passé par le transformateur adéquat.


Le stockage En « STEP »

Il s’agit probablement du système de stockage à grand échelle le plus connu. La STEP (Station de transfert d’énergie par pompage) fonctionne par pompage-turbinage. Lorsque le réseau ou le bâtiment est en état de surproduction, pour ne pas gaspiller cette précieuse énergie, une pompe sera actionnée. La pompe élevera alors de l’eau pour la stocker dans un bassin en hauteur (sur la toiture, en haut d’une coline, …).

Cette eau située en hauteur réprésente une énergie potentielle considérable. Ensuite, le fonctionnement est le même que pour un barrage hydroélectrique : au moment opportun, l’eau sera libérée et turbinée pour produire de l’électricité avant de rejoindre le bassin inférieur.

L’énergie disponible est alors égale à :

[La masse] x [la gravité] x [la hauteur de la masse]

Soit, pour un bassin de 1000 m³ (un cube de 10 mètres de côté) situé sur terre (g=9,81 m/s²) à une hauteur moyenne de 20 m par rapport au bassin bas :

1.000.000 kg   x   9,81 m/s²   x   20 m  =  196.200.000 Joules

Soit 54 kWh

Schéma stockage En « STEP ».


Autres systèmes de stockage

Le stockage d’électricité est probablement le Graal du XXIème siècle. C’est pourquoi les ingénieurs rivalisent de créativité pour inventer la solution la plus abordable, verte et performante.

Parmi les solutions que nous rencontrons aujourd’hui, citons le stockage par air comprimé.

Le principe est simple : on profite d’une cavité étanche existante ou on en crée une. Cette cavité sert alors d’espace de stockage pour notre air comprimé. Lorsqu’il y a surproduction, l’électricité va actionner un compresseur, ce dernier va alors faire monter la pression dans notre cavité. Si celle-ci est parfaitement étanche, l’énergie potentielle contenue dans la haute pression peut être conservée très longtemps. Seule la chaleur produite lors de la compression sera perdue en cours de route.

Schéma autres systèmes de stockage.

Ensuite, lorsque le bâtiment ou le réseau a besoin d’électricité, cette pression sera libérée et turbinée afin de produire de l’électricité.

Ce système est à la fois relativement simple et compact (l’essentiel se passant en sous-sol) mais nécessite la présence d’une cavité suffisamment grande, étanche, solide et profonde pour résister aux fortes pressions sans se déformer de manière sensible, ce qui provoquerait des désordres à l’installation et son environnement.

Un autre système qui a de beaux jours devant lui dans le secteur des transports et des énergies renouvelables notamment est celui du stockage d’électricité par volant d’inertie. Ici, le système est encore plus simple. L’électricité OU un mouvement rotatif (roue de voiture, éolienne, …) entraine à la rotation un cylindre extrêmement lourd. Ce surplus d’énergie va accélérer la rotation du cylindre à des vitesses pouvant atteindre les 10.000 tours par minute ! Afin de limiter les frottements et donc l’auto-décharge, ce cylindre est monté sur des roulements performants et confiné sous vide.

Ensuite, lorsque le réseau aura besoin d’énergie, le moteur va se transformer en générateur (une dynamo) et produire de l’électricité en freinant électromagnétiquement le volant d’inertie.

Ce type de système est notamment utilisé dans les autobus et certaines voitures hybrides afin de récupérer l’énergie de freinage. Plutôt que de freiner les roues par frottement, les roues sont embrayées progressivement au volant d’inertie. L’inertie du bus en mouvement est alors transmise au volant d’inertie qui prend de la vitesse et ralenti le bus jusqu’à son arrêt complet. À ce moment, le volant est débrayé et le cylindre tourne à vive allure avec peu de frottement. Lorsque les passagers sont tous à bord, le volant d’inertie va être progressivement ré-embrayé au système de traction du bus et lui restituer la quasi-totalité de son énergie de freinage mais sous forme d’accélération cette fois-ci.

Dans le cadre des énergies renouvelables, ce type de système est envisagé comme stockage tampon entre le dispositif de production renouvelable et le bâtiment afin d’éviter que, nous n’ayons à rebasculer sur le réseau au moindre nuage ou manque de vent.

Types de stockage

Types de stockage


Les différents types

Il existe 5 vecteurs principaux pour le stockage d’énergie :

  • Electrochimique (Batteries) ;
  • Thermique (Ballons d’eau chaude, inertie du bâtiment) ;
  • Cinétique (Volant moteur) ;
  • Gravitaire, potentielle (Station de pompage turbinage) ;
  • Chimique (électrolyse > hydrogène).

En fonction de la nature de l’énergie restituée par le système de stockage, on parlera plutôt tantôt de :

  • « Power to power » : La production électrique est convertie en énergie intermédiaire puis restituée sous forme d’électricité.
  • « Power to fuel » : La production électrique est convertie en combustible.
Bornes de recharge pour véhicules électriques (VES)

Bornes de recharge pour véhicules électriques (VES)

Bornes de recharge pour véhicules électriques (VES)

Dans les années à venir, la densité de bornes de recharge pour les VEs devrait drastiquement augmenter sous la pression de l’Europe via la directive EPBD 2018/884. En 2025, les nouvelles constructions et les rénovations lourdes (non-résidentielles) dont le parking fait plus de 10 emplacements devront être équipé d’une borne de recharge et 1 emplacement sur 5 pré-câblée pour pouvoir accueillir une borne dans le futur. Pour les bâtiments existants, la Belgique est invitée par l’Europe à fixer un nombre minimal de points de recharge pour les parkings non résidentiels de plus de 20 emplacements.


Les différentes puissances disponibles

D’un point de vue technique, les bornes de recharge et prises murales les plus courantes des constructeurs sont disponibles en : monophasé et en triphasé, en 16A, 32A et 64 Ampères pour des puissances allant jusqu’à 43 kW pour les bornes rapides.

Les puissances généralement disponibles sont donc les suivantes :

Type de borne Monophasé Triphasé
10A (prise classique) 2.3 kW   [pour dépanner]
16A 3.7 kW   [très lent : +15 à 25 km/hcharge] 11 kW
32A 7.4 kW   [Lent : +30 à 45 km/hcharge] 22 kW  [Moyen : +60 à 80 km/hcharge]
62A 43 kW   [Rapide : +100 à 140 km/hcharge]
Remarque 1 : certaines voitures ont une limite de vitesse de chargement

Remarque 2 : en hiver, la charge peut être ralentie si la batterie est froide

Des « superchargers » voient également le jour sur les aires d’autoroutes. Dans ce cas, les puissances dépassent déjà les 100 kW !

Pour avoir un ordre de grandeur, un véhicule électrique consomme autour de 20 kWh/100 km et leurs batteries ont une capacité allant de ± 20 kWh pour les micro-citadines à 40 kWh pour les petites citadines et jusqu’à 100 kWh pour les plus grosses berlines. Ces « super-chargeurs » sont donc capables de prolonger l’autonomie des VEs compatibles de plus de 200 km en moins de 20 minutes, soit le temps d’une pause-café !

Il est également bon de savoir que les derniers 20-30 % de la charge d’un VE s’effectuent jusqu’à 2 fois plus lentement.

Comme le coût de l’installation d’une borne est proportionnel à sa puissance, le choix de la puissance devra être judicieux. La décision d’opter pour une borne plutôt qu’une autre dépendra du temps de charge disponible et de l’autonomie attendue après recharge (dans les limites de la capacité de la batterie).

EXEMPLE : Quelle puissance mettre en place dans le cas de bornes à destination des employés d’une grande entreprise dont la durée du chargement sera étalée sur 8 heures (de 9 h à 17 h) ?

Comme les employés de cette entreprise travaillent à moins de 100 km de leur domicile mais que tous n’ont pas la possibilité de charger leur véhicule au domicile, une autonomie de 200 km peut, par exemple, être prévue pour assurer le retour au domicile le soir mais également le trajet vers le bureau le lendemain matin. Dans ce cas, les bornes lentes de 7,4 kW sont déjà largement suffisantes. Néanmoins, un électricien avisé pourrait favoriser le triphasé pour des puissances si importantes afin de réduire le courant pour une puissance similaire en augmentant la tension (de 230 v à 400 v). Le choix de la borne triphasé de 11 kW est donc également un bon choix.

Si l’entreprise emploie des consultants devant réaliser une série d’aller-retours sur la journée, quelques bornes rapides de 43 kW pourront s’avérer nécessaire mais uniquement pour cette flotte de véhicules-là !


Les types de connecteurs côté point de charge

Pour raccorder le véhicule à la borne, plusieurs types de fiches de raccordement existent. Pour les recharges lentes et normales (≤ 43 kW), côté borne, ce sont les fiches domestiques et les fiches de « type 2 » qui sont présentes. Tandis que pour les charges rapides (> 50 kW), celle-ci s’effectuent en courant continu avec prises spécifiques.

Les fiches et prises domestique permettent une puissance de 2,3 kW, ce sont celles que nous retrouvons couramment dans nos bâtiments :

Prise domestique. Source : Zeplug.com

Prise domestique. <

Source : Zeplug.com

Dans ce cas-là, pas besoin de borne en tant que tel mais attention tout de même, pour utiliser ce type de prise murale pour le chargement il est impératif d’avoir une installation pouvant supporter 16 ampères au moins sur ce circuit. Il ne faudra également pas utiliser des rallonges en cascade ou un câble trop long ou de section faible sous peine de courir un dangereux risque d’échauffement.

Les fiches de types 2 correspondent au standard Européen et sont les plus courantes. Elles sont utilisées pour les puissances courantes de 3,7 kW à 43 kW, en mono et triphasé, elles se présentent comme ceci :

Prise type 2. Source : Zeplug.com

Prise type 2.
Source : Zeplug.com

En ce qui concerne les bornes rapides, il existe trois autres types de connecteurs.

À partir de 2025, les bornes rapides devront être équipées de connecteurs CCS Combo (pour fonctionner avec les voitures européennes) et CHAdeMO (pour les voitures asiatiques et TESLA avec un adaptateur)

Bornes de recharge pour véhicules électriques (VES)

Prise et connecteur CCS Combo.
Source : engie-electrabel.be

 

Bornes de recharge pour véhicules électriques (VES)

Prise et connecteur CHAdeMO.
Source : engie-electrabel.be

 

Enfin, en dehors des standards Européens, il existe également la prise propriétaire TESLA SuperCharger

Bornes de recharge pour véhicules électriques (VES)

Prise et borne TESLA SUPERCHARGER.
Source : engie-electrabel.be

SmartBuilding : programmation des plages horaires

SmartBuilding : programmation des plages horaires


La programmation de plage horaire permet principalement de couper les appareils et systèmes aux moments où ceux-ci sont inutiles. C’est de cette manière et avec peu d’efforts que des économies peuvent être réalisées. Mais cela, une GTC classique peut également s’en charger.

Un Smartbuilding va plus loin, des consignes beaucoup plus précises peuvent être attribuées pour chaque tranche horaire (éclairage à 100% pendant les cours, éclairage à 80% pendant les pauses, …). Mais, surtout, la programmation « de base » s’auto-adapte en fonction de l’information remontée par les capteurs :

  • Déduction de l’absence/présence par :
    • Géolocalisation des smartphones des utilisateurs,
    • État du système d’alarme,
    • Détection de présence,
    • Activation d’équipements

Généralement le système de gestion permet la mise en place d’un planning différent pour chaque jour de la semaine, peut tenir compte des vacances et, éventuellement, d’évènements ponctuels (portes-ouvertes le weekend, réception le soir, …). Pratiquement, l’utilisateur définit une série de journées types (couramment de 5 à 7), comme sur l’exemple ci-dessous. Il décide des horaires et des régimes pour chaque sous-système pilotable par le centre de gestion.

Schéma planning

Dans un second temps, il spécifie quel jour de la semaine correspond à quel planning journalier type. Plusieurs « semaines types » peuvent ainsi être paramétrées.

Schéma planning journalier.

Une fois que la semaine type est planifiée, la gestion dite « calendrier » permet ensuite de corriger manuellement pour les exceptions (vacances, évènements, …).

calendrier de programmation

Mais, comme l’humain est imprévisible, il arrive que les heures s’allongent ou qu’un samedi puisse servir pour rattraper un cours ou son retard dans la remise d’un dossier. Pour éviter de se retrouver dans des locaux froids, sans éclairage et avec un pc qui refuse de s’allumer (et oui, toutes les charges sur les prises et appareils en veille sont chassées !), il existe généralement une fonction permettant d’introduire une exception pour une certaine période grâce à laquelle il n’est pas nécessaire de modifier le réglage normal et risquer d’oublier de le rétablir.


La programmation des consignes et des niveaux

Jouer avec les consignes de température ou les niveaux d’éclairement (pour ne citer qu’eux) pour réaliser des économies d’énergie est souvent un énorme défi si l’on ne veut pas affecter le confort des occupants. Dans un bâtiment classique mono-zone ou insuffisamment zoné, disposant de peu de points de mesure et d’une seule température de consigne générale, la marge de manœuvre pour réaliser des économies d’énergie est très faible si l’on veut éviter les plaintes.

Heureusement, dans un smartbuilding, le nombre de zones peut être très élevé, évolutif et leur dimension réduite permettant une détermination plus adaptée des niveaux et une gestion plus fine de la régulation.

Grâce à cela ainsi qu’à la multitude de capteurs et au centre de gestion, les consignes pourront évoluer et dépendre, entre autres, du :

  1. Moment de la journée (voir « programmation des plages horaires »),
  2. La présence et le nombre d’occupant dans une zone,
  3. L’activité des occupants (mesurée ou planifiée),
  4. L’humidité,
  5. La dimension de la zone,
  6. L’exposition solaire de la zone,
  7. L’inertie et la latence à la relance spécifique de la zone,
  8. Les charges internes de la zone…
  9. D’un éventuel contrôleur local d’ajustement pour chaque zone (par exemple, pour déroger de ±2°C à la température prévue par le système)

Grâce à ces nouvelles possibilités, la régulation pourra s’adapter afin que chaque occupant de chaque espace soit dans une situation de confort adaptée à son activité et sa localisation dans le bâtiment. Par ailleurs, l’inoccupation sera planifiée ou détectée et les consignes seront adaptées (extinction de la lumière, réduction du taux de renouvellement horaire de la ventilation hygiénique, …)

Schéma programmation des plages horaires

Dans certains bâtiments, les plus intelligents, l’historique des mesures et des actions est conservé et analysé par le centre de gestion pour s’ajuster continuellement. Ainsi, si les occupants d’un local diminuent systématiquement la température de leur zone dans certaines conditions (une plage horaire, un type d’ensoleillement, un certain jour de la semaine, …), le centre de gestion, s’il est suffisamment « smart », s’auto-adaptera progressivement en diminuant la température de consigne lorsque ces conditions sont réunies ou, encore mieux, lorsqu’elles sont sur le point d’être réunies.

Cliquez Ici pour avoir plus d’information sur les principes de régulation


Les alarmes

Les alarmes sont un des aspects les plus importants concernant les fonctionnalités des smartbuilding. Une alarme dans le monde de la domotique, du smart building ou objets connectés n’est pas à comprendre uniquement comme l’expression un problème mais dans un sens plus large comme un « évènement » pouvant déclencher une ou des actions.

Les alarmes sont des dérogations automatisées (préprogrammées) qui vont temporairement produire des exceptions autonomes dans le déroulement planifié des choses en fonction d’évènements.

Bien sûr il s’agit aussi de reporter les suspicions d’avarie d’un système (coupure, baisse de rendement, …), les capteurs défaillants, les ruptures de communication/connexion entre appareils …

Mais une avarie reste un évènement au sens large avec des actions conséquentes, par exemple :

  1. Compte tenu des conditions climatiques et de la puissance demandée à la chaufferie, le système détecte que la température des locaux monte anormalement lentement pendant plus d’une heure. Il y a donc un problème, l’alarme X est déclenchée.
  2. L’Alarme X déclenche des actions :
    1. Action Y1 : coupure de protection des organes de chauffe
    2. Action Y2 : notification au gestionnaire
    3. Action Y3 : affichage du message d’erreur adéquat
    4. Action Y4 : activation d’un système de dépannage si présent

Cet aspect est fondamental et c’est par ce système d’alarme que des systèmes différents peuvent avoir des relations du type « si X alors Y ». Ceci pouvant être agrémenté de conditions de manière quasiment illimitée.

Par exemple, une alarme peut être programmée de la manière suivante : si le taux de CO2 excède 1500ppm dans une pièce, alors, lors du déclenchement de cette alarme, l’ordre est donné à la ventilation de doubler le débit d’air. Une seconde alarme pourra être programmée : Si le niveau de CO2 repasse sous les 1000ppm, alors, le débit peut retrouver son niveau normal. Lorsque le système est plus perfectionné, plutôt que de fonctionner par paliers, celui-ci aura la possibilité de moduler le débit en continu.

Pour enrichir notre chaîne, nous pourrions, en cas de dépassement de 2000ppm, demander au système de l’inscrire dans un registre accompagné de l’heure, du lieu et de la durée, par exemple. Nous pourrions également paramétrer le système pour qu’il envoie une notification au gestionnaire du bâtiment lors du dépassement de ce seuil pendant une durée supérieure à 2 heures.

Ce type de logique peut s’appliquer à pratiquement toutes les sondes et tous les systèmes. Ce n’est plus qu’une affaire d’imagination.

Pour conclure et résumer, le flux d’informations traitées par le centre de gestion ne peut être suivi par le gestionnaire du bâtiment ou son responsable énergie. Comme il ne peut pas être partout, il lui est très pratique de placer des alarmes pour une série de conditions (valeur(s) supérieures à, statut(s) de certains appareils, …). De cette manière, le système n’attire son attention qu’en cas de situation anormale ou le notifie d’une dérogation automatique.


Les sécurités

Les sécurités sont des actions déclenchées automatiquement conséquemment à des alarmes pour protéger les équipements, les appareils, le bâtiment ou les occupants.


Monitoring et analyse des tendances

Pour assurer leur bon fonctionnement et fournir une information suffisante à la mise en place d’automatisme et d’alarmes, les smartbuildings sont dotés d’un grand nombre de sondes diverses. En analysant leur tendance et la manière dont les données évoluent en fonction des actions, le centre de gestion peut vérifier le fonctionnement des équipements et les performances de ceux-ci.

Idéalement, les informations suivantes sont mesurées et enregistrées :

  • Températures (de l’air dans chaque zone, des circuits d’eau, de l’extérieur, …),
  • Pression (par exemple, des circuits d’eau),
  • La position de certaines équipements (clapet ou valve ouverte/fermée, interrupteurs, …)
  • Statut allumé/éteint
  • Statut des alarmes

Et, plus rarement car ces sondes sont plus chères :

  • Débits,
  • La consommation,
  • La puissance,
  • Le nombre de tours par minute (ventilateur, moteur, compresseur, …)

Avec ces données, il y a deux solutions pour l’enregistrement :

  • Soit, systématiquement, chaque paramètre sera enregistré à une fréquence définie (utile pour les températures de l’air, par exemple),
  • Soit ce sont les variations entre la donnée mesurée et la donnée mesurée à l’intervalle de temps précédent qui sont calculées. Dans ce cas, nous pourrons choisir de n’enregistrer que les variations excédant un seuil défini. Ces évènements seront également accompagnés d’un horodatage. Ce type d’enregistrement est notamment pratique pour des mesures comme le taux de CO2 ou la pression atmosphérique car elle permet, par exemple, de détecter indirectement l’ouverture d’une fenêtre.

Toutes ces données peuvent servir à conserver une mémoire du bâtiment mais également, régulièrement, elles pourront être affichées sous forme de graphique et analysées par le gestionnaire pour détecter d’éventuelles anomalies évitables ou consommations anormales.


La modulation de la demande

Un smartbuilding peut parfois se résumer à des consignes, des plages horaires, des paramètres et des séquences d’actions qui vont déterminer le succès ou non de l’ensemble pour améliorer le confort, la santé, la sécurité et l’efficacité énergétique.

Mais, dans un smartbuilding, tout n’est pas ON/OFF, tout ou rien … Le système est également capable de moduler la puissance demandée (chauffage, refroidissement, ventilation) de la manière la plus adaptée et économe en énergie possible.

Un tel système sera capable d’optimiser les cas suivants :

La coupure (ou réduction) nocturne ou du weekend

Trouver le bon équilibre entre d’une part, une réduction forte de la température de consigne la nuit ou le weekend pour économiser de l’énergie et d’autre part, le besoin de ne pas trop la baisser pour éviter une relance difficile et consommatrice d’énergie le matin

La relance

Matinale

Cette relance sera optimisée en tenant compte de la température intérieure de chaque zone et la température extérieure. Le but sera alors d’atteindre la température de consigne à l’heure prévue avec le moins d’énergie possible. Ceci est rendu possible en évitant le dépassement de la consigne dû à une mauvaise modulation (les chaudières se coupent quand la température est atteinte mais malgré tout l’eau reste chaude dans les canalisations et les chauffages continuent à chauffer l’espace.

Schéma programmation relance matinale.

Pour encore améliorer les performances à la relance, pendant que le bâtiment n’est pas encore occupé, le système de gestion peut fermer les clapets de ventilation entre l’intérieur et l’extérieur et activer une circulation de l’air à l’intérieur du bâtiment (mode air recyclé) de manière à ne pas perdre d’énergie par la ventilation hygiénique (inutile, car les occupants ne sont pas encore là) tout en faisant circuler l’air et la chaleur dans l’ensemble du bâtiment !

La coupure (ou réduction) en soirée

Le système de gestion détermine le moment optimal (le plus précoce) pour couper ou baisser le régime des systèmes et tirer profit de l’inertie du bâtiment pour conserver un niveau de confort acceptable.

Schéma coupure (ou réduction) en soirée.

Ceci concerne dans une moindre mesure les systèmes de ventilation qui ne disposent pas d’autant d’inertie. En effet, si l’air est maintenu à un taux confortable de 800ppm de CO2 durant la journée et qu’on estime que le taux acceptable maximal est de 1000 ppm, alors, en fonction du taux d’occupation lors de la coupure des systèmes de ventilation, il faudra parfois moins de 10 minutes pour que la concentration en CO2 passe de 800ppm à 1000ppm dans les locaux ! Il en va de même, et c’est évident, avec l’éclairage.

coupure (ou réduction) en soirée

Adaptation en continu

En fonction des informations fournies par les différents capteurs et systèmes, le centre de gestion peut adapter la puissance des systèmes. Par exemple, si le taux de CO2 est bas, on peut supposer que l’occupation est plus faible (ou nulle) ou encore que des fenêtres ont été ouvertes (des capteurs pouvant éventuellement le confirmer).

Quelle qu’en soit la raison, le débit de la ventilation hygiénique pourra alors être réduit. Rien ne sert en effet de climatiser de l’air neuf et de le pulser dans un local si l’air de celui-ci est déjà sain, à bonne température et ne se dégrade pas.

Découvrez cet exemple de pilotage des installations au Centre Hospitalier de Mouscron.

SmartBuilding : champ d’application

SmartBuilding : champ d'application

Bien qu’il n’existe pas réellement de règle pour déterminer où commence le smartbuilding (une simple ampoule avec détection de présence suffirait-elle à rendre une pièce ou un bâtiment « smart » ?) et où finit son champ d’application, une série de fonctions de « base » sont presque universelles et concernent presque tous les systèmes connectés du bâtiment intelligent :

  1. Programmation des plages horaires,
  2. Programmation des consignes,
  3. Définition des alarmes,
  4. Mise en place de sécurités,
  5. Monitoring et analyse des tendances,
  6. Contrôle et optimisation des énergies et de la demande,
  7. Affichage des données et interface utilisateur

Stockage d’électricité – généralité

Stockage d'électricité - généralité


Définition

Un système de stockage électrique est un dispositif technique permettant de convertir une production électrique sous une forme stockable (électrochimique, chimique, mécanique, thermique, …), de l’accumuler puis de la restituer, sous forme d’électricité ou d’une autre énergie finale utile (thermique, chimique, …).

L’électricité ne peut pas être stockée en tant que telle, elle doit nécessairement être convertie.

Dans un monde où la part de la production électrique intermittente, saisonnière et imprévisible croît et augmente le risque de désynchronisation avec les consommations, le stockage permet de rendre le système plus flexible en absorbant les éventuels déphasages entre production et consommation d’énergie.

Le stockage sert principalement de buffer (tampon) et permet de faciliter la gestion et l’intégration des énergies renouvelables tant sur le réseau que dans les bâtiments en offrant une certaine autonomie lorsque le vent et le soleil sont absents.

Les dispositifs de stockage sont caractérisés par :

  • Leur capacité (exprimée en Wh, kWh, MWh, TWh, …),
  • Leur puissance de charge et de décharge (exprimée en W, kW, MW, TW, …),
  • Leur réactivité : le délai nécessaire pour fournir la puissance demandée (exprimé en secondes, minutes ou en heures),
  • Leur densité énergétique (exprimée en Wh/m³, kWh/m³, MWh/m³, TWh/m³, …),
  • Leur capacité à retenir l’énergie stockée dans le temps (autodécharge),
  • Le rendement de conversion (en %).

L’enjeu du stockage à l’échelle du réseau

Depuis le boum des énergies renouvelables en 2010, la question du stockage est sur toutes les lèvres, mais pourquoi ?

Jusqu’il y a peu, les centrales nucléaires offraient une base relativement constante et inflexible de production électrique mais la production d’un complément d’énergie par nos centrales fossiles flexibles activées et modulées au besoin permettait de « coller » à la demande et assurer l’équilibre du réseau. Dans ce paradigme, la production est totalement maitrisée et facilement synchronisable avec la demande (la consommation).

De manière schématique, le profil classique de demande (et donc de la production) au fil d’une journée type en semaine ressemble à ceci :

graphe stockage

De manière plus précise, le nucléaire puissant mais peu réactif, peu flexible assure classiquement une certaine « base constante de production » et les énergies fossiles plus réactives et plus souples s’ajustent et se modulent en continu pour équilibrer le réseau.

Dans ce principe, plus la puissance demandée est élevée, plus les énergies fossiles sont sollicitées. En priorité, ce sont les centrales récentes et performantes qui sont démarrées mais plus la demande est élevée, plus ce sont, in fine, de vieilles centrales polluantes qui devront être mises en route.

Ce sont donc principalement le pic du matin mais aussi et surtout celui du soir qui ont un bilan environnemental exponentiellement désastreux en appelant autant de puissance.

Si nous pouvions baisser la puissance maximale de ±15%, ce sont plus de 40% des émissions qui seraient épargnées !

À quantité journalière d’énergie produite égale, la pollution serait donc bien moindre si nous pouvions la produire à puissance constante.

Qui dit puissance installée réduite dit également moins de centrales et donc une possibilité d’entretien, d’évolution et d’investissement plus dense sur ces centrales restantes et ainsi un meilleur rendement.

Mais, comme la consommation finale des utilisateurs du réseau n’est pas constante, il faudrait que, pendant les creux de consommation, nous puissions stocker le surplus de production pour l’utiliser plus tard et compenser la réduction de puissance des centrales durant les pics journaliers.

graphe stockage énergie en Belgique

graphe du stockage énergie en Belgique

Par exemple, en Belgique, du stockage gravitaire (STEP) est réalisé à cette fin à Coo-Trois-ponts (5GWh mobilisables jusqu’à 6 cycles par jour).

barrage de Coo

ENGIE –ELECTRABEL ©

Mais, comme nous l’évoquions en introduction, une nouvelle donnée est en train de changer la donne à grande vitesse. Vous vous en doutez, il s’agit des énergies renouvelables !

Les énergies renouvelables comme l’éolien et le solaire ont la particularité d’être des énergies peu prédictibles à long terme et intermittentes, cela implique que le gestionnaire du réseau est dépendant de la variabilité de l’ensoleillement et du vent dans son offre d’électricité alors même qu’il doit assurer le parfait équilibre du réseau. Ceci a pour conséquence d’augmenter la volatilité des prix de l’électricité et nécessite de trouver de nouvelles sources de flexibilités sur le réseau.

En réalité, toutes les sources d’énergies sont stockées avant d’être utilisées pour répondre à la demande, que ce soit le bois dans votre abri, l’essence dans votre réservoir, le gaz dans vos tuyaux et même les barres d’uranium dans les centrales. Le défi avec le vent et le soleil, pour ne citer qu’eux, c’est qu’ils ne sont pas directement stockables en tant que tels aussi facilement qu’un combustible.

En Europe, tant que la portion de renouvelable intermittent dans le mix électrique est maintenue sous un seuil communément admis d’environ 30%((https://www.aps.org/policy/reports/popa-reports/upload/integratingelec.pdf))((Sandrine Selosse, Sabine Garabedian, Olivia Ricci, Nadia Maïzi. The renewable energy revolution of Reunion island. Renewable and Sustainable Energy Reviews, Elsevier, 2018, 89, pp.99-105. ff10.1016/j.rser.2018.03.013ff. ffhal-01740511f))((https://www.elia.be/~/media/files/Elia/About-Elia/Studies/20171114_ELIA_4584_AdequacyScenario.pdf)), le gestionnaire est capable d’assurer la stabilité du réseau et l’équilibre avec la demande en compensant avec le fossile. En cas de surplus d’énergies pouvant survenir vers midi quand la demande est faible et que les panneaux fournissent le maximum de leur énergie, comme les centrales nucléaires ne peuvent-être arrêtées et redémarrées d’une minute à l’autre, le gestionnaire va pouvoir trouver une issue grâce aux STEP ou en se déchargeant, par exemple, en activant l’éclairage public. Mais ceci fonctionne uniquement tant que la part de renouvelable est contenue (<30%).

Or, pour 2018, nous recensions ±19% d’énergie renouvelable sur le réseau électrique belge ! Et, heureusement, ce chiffre va croissant. Ce qui devrait nous mener à dépasser le seuil des 30% à l’horizon 2030.

graphe stockage

Source : Données extraites des bilans régionaux SPW DGO4 (Wallonie), Bruxelles Environnement, VITO (Flandre), Eurostat (Belgique) pour les années passées

N’hésitez pas à consultez l’observatoire des énergies renouvelable de l’Apere pour des données mises à jour régulièrement ! Ou encore Energymap.org pour observer en temps réel l’origine de la production électrique.

Pour que le gestionnaire de réseau puisse garder la main sur l’équilibre du réseau quand la part d’énergie intermittente augmente, une des solutions consiste à utiliser des moyens de stockage pour :

  • S’assurer de récolter toute la production : ne pas la gaspiller en éclairant l’espace public de jour en cas de surplus,
  • Pouvoir profiter de cette énergie stockée les jours et les heures où le vent ou le soleil fait défaut et éviter de devoir demander plus de puissance aux centrales fossiles.
  • Augmenter l’interconnexion des réseaux au niveau de l’Europe pour amortir et lisser l’intermittence du renouvelable grâce à une échelle géographique élargie et moins dépendante de phénomènes locaux.

En complément des moyens de stockage : la flexibilité électrique accrue de la demande (par l’effacement ou le déplacement des charges) permettra de ne plus uniquement tenter d’aligner l’offre à la demande mais également d’adapter notre consommation à la quantité d’énergie disponible.


L’enjeu du stockage à l’échelle du bâtiment

La règlementation Européenne et les enjeux énergétiques, climatiques et environnementaux incitent les entreprises, les institutions et les particuliers à rejoindre l’effort et devenir eux aussi producteur d’énergie renouvelable.

Pour contribuer à l’équilibre et l’allègement du réseau, chaque bâtiment devra gagner en autonomie énergétique et autoconsommer le maximum de l’énergie qu’il produit. La Wallonie travaille d’ailleurs sur le statut de prosommateur pour inciter fiscalement à l’autoconsommation.

Or, pour maximaliser le taux d’autoconsommation dans un bâtiment, il faut soit :

  • Adapter sa consommation à la disponibilité intermittente d’énergie autoproduite. Ceci implique une refonte complète des comportements, une souplesse dans ses activités et une attention de chaque instant ce qui sera rarement possible dans un monde où l’organisation, la performance et la vitesse prime.
  • Disposer d’un système qui pourra accumuler l’énergie produite hors des heures d’utilisation dans une batterie, un ballon d’eau chaude, sous forme d’H2, … que nous pourrons ensuite mobiliser en temps utile.

protocole de communication

Principaux protocoles et leurs caractéristiques

protocole de communication


Présentation

Les protocoles les plus populaires dans le smartbuilding sont :

  • Le KNX (Multi-supports, Multi-techniques, normalisé)
  • Le BACNet (Multi-technique, normalisé)
  • Le Protocole Dali (dédié à l’éclairage, non normalisé mais DALI2 arrive)
  • Modbus (Dérivé du BACNet : HVAC & contrôle de l’éclairage)
  • MBus (Compteurs intelligents)

D’autres protocoles sont utilisés couramment dans le bâtiment, dont notamment :

  • Wi-Fi,
  • Bluetooth,
  • Zigbee,
  • Z-Wave,
  • EnOcean,
  • Thread,
  • Opentherm
  Protocole Réseau Domaine Portée (m) Consommation Interopérabilité Normalisé Commentaire
Wi-Fi 2,4Ghz ou 5Ghz Polyvalent 10-250 Très élevée Oui OUI Gros débits de données
Bluetooth 2,4Ghz Polyvalent 5-125* faible Oui Facilité de configuration
Zigbee 2,4Ghz Polyvalent 20-50* Très faible Oui Max 65000 appareils
Z-Wave 868Mhz Polyvalent 20-50* Très faible Oui Max 232 appareils, plus stable que Zigbee,
EnOcean Ondes Remote control 30-60 nulle*** Oui Zéro énergie
Thread Ondes Polyvalent 40*
KNX Câbles / CPL / Ondes / Ethernet Polyvalent 350-700 Oui Oui
BACnet Câbles et dernièrement ondes radio (BACnet over Zigbee) Polyvalent 350-700 Oui Standard international normalisé très lent mais plus rapide en version IP.
Dali Câbles Éclairage 500 Non, DALI-2 le sera
Modbus Câbles HVAC, parfois éclairage 1200 Lent, dérivé du BACnet
Opentherm Câbles ou ondes Chauffage Refroidissement /
W-Mbus Ondes (LoRa**) Compteurs Sans-fil : 1000-5000

 

Très faible Bonne
*Maillage possible permettant aux appareils de jouer le rôle de nœuds pour étendre la portée du réseau.

**Réseau sans fil étendu à longue portée.

*** Bouton piézoélectrique qui fournit l’énergie nécessaire à l’envoie de l’information.


KNX

knx dans passerelle de communication

Le KNX, également appelé KONNEX, est né sur les cendres des protocoles EHS, EIB et Bâtibus avec la volonté de favoriser la standardisation et l’interopérabilité dans les Smartbuildings grâce à un protocole normé et ouvert.

Il s’agit d’un protocole de communication commun à différents équipements tant au niveau de l’éclairage comme les boutons-poussoirs, les détecteurs de présence, … qu’au niveau HVAC  comme les vannes motorisées, les moteurs de protection solaire, …

Il s’agit d’un protocole qui peut être véhiculé sur plusieurs supports : sans-fil, par bus terrain, par courant porteur en ligne ou par câble Ethernet.

Le Protocole KNX est développé en partenariat fort avec le BACNET mais veille également à l’interopérabilité de son protocole avec les autres protocoles comme le DALI ou le Modbus pour ne citer que les principaux.

En 2016, les spécifications KNX sont devenues gratuites.

Les dernières informations techniques en date peuvent être trouvées sur leur site.


Bacnet

bacnet dans passerelle de communication

Le Bacnet est un protocole de communication international et normalisé très répandu. Le Bacnet est plus lent que le KNX mais profite également d’un large champ d’application (bien qu’il soit principalement orienté HVAC).

Les dernières informations techniques en date peuvent être trouvées sur leur site.


Protocole Dali

dali dans protocole de communication

Rien à voir avec Salvador ! DALI est un protocole de communication dédié exclusivement à la gestion d’éclairage.

DALI (Digital Addressable Lighting Interface) est une interface standard développée et soutenue par différents grands constructeurs de ballasts électroniques. DALI permet de gérer, commander et réguler numériquement une installation d’éclairage par l’intermédiaire d’un bus de communication deux fils communément appelé « ligne DALI ».

Fini, en théorie, les soucis de compatibilité d’équipement !

En effet, quels que soient les composants de l’installation d’éclairage :

  • un détecteur de présence,
  • une cellule photo électrique,
  • un bouton poussoir,
  • un interrupteur gradable à mémoire,
  • un ballast électronique,

et pour autant qu’ils possèdent l’appellation DALI, toutes marques confondues, ils sont capables de communiquer entre eux via la ligne DALI.

Mais qu’apporte exactement DALI ?

> Une gestion flexible de l’éclairage par :

  • un adressage individuel des ballasts électroniques, et par conséquent des luminaires,
  • la facilité de découper les espaces en zones indépendantes,
  • la simplicité de programmation, de modification de programmation sans devoir intervenir physiquement sur l’installation.

> Un confort et une simplicité :

  • de mise à disposition de multiples scénarios de commande et de gestion pour l’utilisateur et le gestionnaire technique,
  • de mise en œuvre pour le maître d’œuvre.

Modbus

modbus dans protocole de communication

Le protocole Modbus est un protocole de communication dérivé du BACnet faisant partie du domaine public. Le protocole peut utiliser l’Ethernet ou des bus terrain comme support physique (RS232, RS485 par exemple).

Ce protocole date des années 1979 et ne permet pas à plusieurs appareils d’émettre en même temps sur une branche. Le protocole fonctionne selon le principe du maitre-esclave : l’esclave n’ayant la « parole » que lorsque l’équipement maitre le demande.

Les dernières informations techniques en date peuvent être trouvées sur leur site.


M-Bus

Le MBus est un bus de terrain pour l’acquisition de données de consommation de compteurs d’électricité, de compteurs de chaleur, de compteurs de gaz, …

 

Protocole de communication

Protocole de communication


Définition

Un protocole de communication est un ensemble de règles et de codes de langage qui définissent comment se déroule la communication entre un émetteur et un récepteur.


Rôle

Pour qu’un bâtiment intelligent puisse fonctionner, il faut que tous les sous-systèmes puissent communiquer entre eux et se comprennent. Pour se faire, il faut un réseau physique (des câbles) ou sans fil (émetteur, ondes, récepteur) pour acheminer l’information mais il faut aussi que ces informations soient émises dans un langage bien codifié pour qu’elles puissent être reçues et interprétées par les autres appareils du réseau.

Le rôle du protocole est donc de régir la manière dont l’émetteur et le récepteur vont échanger des informations et donner une signification commune aux données brutes qu’ils s’échangent.


Fonctionnement général

Les systèmes doivent donc parler un langage commun mais aussi connaitre quelques codes simples d’émission et de réception des données. C’est par l’utilisation d’un protocole que l’on cadre et définit cela. En plus d’un langage commun, le protocole fixe notamment :

  • La manière d’indiquer qu’un appareil est prêt à recevoir de l’information,
  • Le contexte de la communication (update, action à réaliser, demande d’un état, …)
  • La façon de s’assurer que le message a bien été reçu et compris,
  • Les procédures en cas d’anomalies ou de ruptures de la communication,
  • La procédure de fin de communication.

Pour expliquer le fonctionnement, l’analogie de l’appel téléphonique est souvent utilisée car là aussi, un protocole codifie la communication et permet la compréhension mutuelle :

  • Le récepteur indique qu’il est prêt à recevoir (le récepteur décroche et dit « Allô ») ;
  • L’émetteur situe la communication dans son contexte (« Je suis Sergio. Je t’appelle pour la raison suivante … ») ;
  • Par exemple, l’émetteur commande une action et identifie un éventuel destinataire final (« Peux-tu prévenir la Reine Mathilde que … ») ;
  • Le récepteur s’assure d’avoir bien compris le message (« Peux-tu me répéter le nom ? ») ;
  • Les procédures en cas d’erreur sont mises en place (« Je te rappelle si je n’arrive pas à la joindre. ») ;
  • Les parties se mettent d’accord sur la fin de la communication (« Au revoir. »).

Mais la communication ci-dessus a aussi implicitement enclenché d’autres actions avec d’autres protocoles : une autre couche de communication :

  • Quand l’interlocuteur de Sergio préviendra la Reine Mathilde, celui-ci utilisera un autre protocole de communication, adapté à sa réceptrice couronnée.
  • Aussi, avant même de dire « Allô », les téléphones ont dû communiquer entre eux (tonalité, sonnerie, …) pour ouvrir la ligne selon un protocole qui leur est propre.

Au final, ce sont autant de protocoles, parfois différents, superposés ou en chaînes qui peuvent être utilisés dans la cadre d’une simple requête.

Pour faire le lien entre deux protocoles différents, l’utilisation de ponts ou passerelles est nécessaire.


 L’enjeu de l’Interopérabilité

Pour qu’un smartbuilding fonctionne de manière optimale, l’interopérabilité des systèmes est primordiale.

L’interopérabilité des protocoles et des systèmes ne s’annonce pas être une chose facile dans la dynamique actuelle poussant à la création « d’environnements dédiés » pour chaque produit ou famille de produits pour des raisons purement économiques et de marketing.

Il faudra éviter autant que possible la fragmentation des protocoles. Mais, heureusement, la Commission électrotechnique internationale (IEC en anglais) veille à assurer la sécurité et l’interopérabilité des systèmes.

L’autre enjeu est celui de la normalisation des protocoles. Certains protocoles très courants comme le DALI n’est pas normé (heureusement, le DALI-2 devrait bientôt voir le jour et sera normé).

Il reste que les protocoles de communication les plus populaires sont encore nombreux mais bien souvent interopérables. Ouf !

Supports de communication dans le bâtiment

Supports de communication dans le bâtiment


Les « bus terrain » (les câbles)

Les bus informatiques sont des éléments câblés portant l’information dans le bâtiment. Dès les débuts de la GTC et jusqu’à aujourd’hui c’est dans la plupart des cas via ce type de support que les informations des systèmes techniques sont transportées.

support de communication

L’utilisation de câbles plutôt que d’ondes radios pour la communication possède plusieurs avantages. Le réseau :

  • Est stable, robuste, sans perte de connexion,
  • Durable dans le temps,
  • Peut traverser les murs, même épais,
  • Frais de maintenance réduits,
  • Ne peut-être infiltré à distance.
  • Généralement plus véloce que les réseaux sans-fil.
  • Aucune suspicion d’impact sur la santé, contrairement aux ondes (favorise l’acceptation).

Mais également certains désavantages :

  • Coût jusqu’à 5-15% plus cher qu’un réseau déployé par ondes radio((En 2019, dans la majorité des cas, selon les intégrateurs que nous avons pu consulter.)).
  • Complexité de mise en place, demande d’être méticuleux et organisé pour ne pas s’y perdre, notamment en cas de travaux de rénovation.
  • Peuvent prendre de la place,
  • Inesthétiques.

Par défaut, ce sont des câbles qui sont utilisés dans la majorité des cas, tandis que les ondes radios sont utilisés pour répondre à des exceptions pour lesquelles du câblage ne serait pas adapté : télécommande mobile, appel infirmier,  considérations esthétiques et techniques (par exemple : pour éviter de traverser une paroi en verre dans une salle de réunion sans espace technique), …

Dans certains cas, pour des questions de cybersécurité et de protection de données, l’utilisation de câblage est rendue obligatoire. Les systèmes anti-intrusion sont ainsi obligatoirement câblés. Dans un avenir proche, le raccordement des caméras de sécurité devra également être réalisé en filaire.

Déjà actuellement, les caméras, souvent nombreuses et de haute résolution représentent des flux de données considérables plus facilement gérable en filaire.


Les ondes radio

onde radio

 

Les ondes radios sont utilisés par des protocoles de communication comme le zigbee, le Wifi, le bluetooth. Les réseaux sans-fils présentent plusieurs avantages :

  • Celui, majeur, de permettre aux appareils d’être libres de tout fils et donc mobiles ou portables (bouton poussoir d’éclairage EnOcean, télérelevé de comptage, appel infirmier, télécommandes…)
  • Réduction de l’impact visuel et du nombre de percements.
  • Simplifier et réduire le nombre de branchements (points de contacts) lorsqu’un grand nombre d’appareils sont circonscrits dans un espace relativement restreint (portiques d’entré,…).
  • Généralement moins cher à mettre en œuvre.

Mais, également, certains désavantages :

  • le réseau est plus facilement soumis à des perturbations,
  • Le coût de maintenance est plus élevé,
  • Les suspicions d’impact des ondes sur la santé peuvent constituer un frein à l’acceptation,
  • Le réseau créé autour des points d’émissions pourrait ne pas être circonscrit à l’enceinte physique du bâtiment et, donc, mettre à mal la cybersécurité du bâtiment. Quand bien même le réseau serait borné à l’enceinte du bâtiment, il sera plus facile d’accéder de l’intérieur à un réseau sans fil diffusé dans l’espace qu’à un réseau câblé moins accessible.
  • Débit pouvant-être plus faible que les réseaux câblés.

Le courant porteur en ligne (CPL)

Dans certains cas, généralement dans le cadre domestique, le réseau électrique en place pourra servir d’infrastructure de support à la communication. Ce support a l’avantage de préexister et permet donc le déploiement d’un réseau à moindre coût.

Le principe est simple, on émet des hautes fréquences (ondes courtes) sur le réseau de courant électrique, ces ondes vont se superposer aux basses fréquences du courant alternatif. En bout de course, les récepteurs situés sur le réseau vont décoder le signal en soustrayant les fréquences liées au courant électrique alternatif de manière à retrouver le signal émis.

courant continu

Ce type de support a cependant certaines limites :

  • Le câblage électrique est conçu pour les basses fréquences à haute énergie (l’électricité circule à une fréquence de 50Hz dans nos contrées tandis que le CPL utilise des hautes fréquences à faible énergie au-delà de 9kHz). De ce fait, les gaines ne sont généralement pas blindées ce qui augmente le risque de brouillages et d’interférences.
  • Certains éléments du réseau comme les onduleurs peuvent couper les hautes fréquences,
  • Une panne de courant empêche le fonctionnement de la communication dans la plupart des cas,
  • Si l’intensité électrique du réseau varie fortement, le signal devient plus difficilement lisible et la communication s’en trouve gênée.

Internet des objets (IOT : Internet Of Things)

Internet des objets (IOT : Internet Of Things)

Si nos bâtiments, au sens de leurs systèmes techniques, deviennent intelligents, il en va de même de pratiquement tous nos objets du quotidien pour lesquels il existe en variante dite « smart » : montres connectées, ampoules, frigo, matelas, aspirateurs, tondeuses à gazon, balances, réveils, radios, télévisions, serrures, gamelles du chien, compteurs, pots de fleur, caméras, enceintes à reconnaissances vocales, etc…

internet des objets

Cette explosion récente du « smart » dans tous les domaines et l’avènement de plateformes ouvertes (applications, logiciels, …) qui rendent possibles l’interopérabilité entre un très grand nombre de ces objets ont permis de lier tous ces composants, a priori sans points communs, pour donner la possibilité aux utilisateurs de les faire interagir au sein d’un grand écosystème.

Ce n’est pas clair pour vous ? Voyez plutôt : Si vous possédez, à tout hasard, une ampoule connectée et une poubelle connectée, il est possible pour vous de paramétrer les choses suivantes en quelques clics :

Si nous sommes un jeudi ET qu’il est 19h00 ET que la poubelle n’est pas vide,

ALORS Allumer la lumière de la cuisine en rouge ET recevoir une notification sur le smartphone disant « sortir les poubelles ».

Ou encore si vous possédez une sonde de qualité de l’air (CO/CO2/Humidité), des ampoules connectées et une enceinte connectée :

Si CO supérieur à 500 ppm,

ALORS allumer toutes les lumières en rouge ET allumer les enceintes à 100 % ET faire sonner le téléphone ET envoyer un sms « help » au voisin

Les objets peuvent-être utilisés d’un grand nombre de manières que ce soit pour des économies d’énergie, plus de commodité, de confort ou encore pour sa sécurité.

C’est donc cet ensemble d’objets physiques (une poubelle, une ampoule, une enceinte, une sonde CO) ou virtuels (une horloge en ligne, la météo, …) connectés directement ou indirectement (via des passerelles de connexion) à un même réseau et pouvant interagir entre eux qu’on appelle l’internet des objets ou IOT.

L’Union internationale des télécommunications((Dans sa note de recommandation UIT-T Y.2060 URL : https://www.itu.int/rec/dologin_pub.asp?lang=e&id=T-REC-Y.2060-201206-I!!PDF-F&type=items)) en donne la définition suivante : « infrastructure mondiale pour la société de l’information, qui permet de disposer de services évolués en interconnectant des objets (physiques ou virtuels) grâce aux technologies de l’information et de la communication interopérables existantes ou en évolution ».

D’après la note de recommandation UIT-T Y.2060

Avec cette interconnexion galopante et le développement des technologies de la communication, les frontières entre l’utilisateur, les « wearables », les objets connectés et les systèmes techniques s’amenuisent et ces différentes échelles s’intègrent, s’assimilent mutuellement.

Géothermie [Le chauffage – PAC]


Principe

À l’état naturel, le sous-sol garde une température constante de l’ordre de 10 … 12 °C à partir d’une profondeur d’une dizaine de m.

On peut donc logiquement imaginer que celui-ci puisse servir de source naturelle de froid. Il suffirait qu’un réseau véhiculant un fluide caloporteur le parcoure pour produire de l’eau à température adéquate pour refroidir un bâtiment.

On appelle cela du « géocooling ».

De même, une température de 10 .. 12 °C plus élevée et plus stable que la température extérieure hivernale est une température intéressante pour servir de source froide à une pompe à chaleur, en l’occurrence sol/eau, pour chauffer le bâtiment en hiver.

On parle alors de « géothermie ».

Refroidissement en été et chauffage en hiver vont d’ailleurs souvent de pair. En effet, si en été on extrait du « froid » du sol, ce dernier se réchauffe progressivement. Si cette opération se répète d’année en année, sans autre perturbation, le sol verra sa température moyenne augmenter jusqu’à ne plus être exploitable.

Dès lors pour éviter ce phénomène, il s’agit de régénérer le sol chaque hiver en extrayant la chaleur accumulée en été grâce à une pompe à chaleur.

On parle alors de « STOCKAGE GEOTHERMIQUE » : la chaleur du bâtiment est transférée dans le sol en été quand elle est gênante pour être utilisée en hiver quand elle est nécessaire.


Technologie des sondes géothermiques

Les systèmes fermés et ouverts

On parle de système fermé si un fluide caloporteur circule dans le sol dans un circuit fermé.

On retrouve principalement 3 types de systèmes fermés : les forages ou sondes géothermiques, les pieux géothermiques et les nappes horizontales.

3 types d’échangeur géothermique : les pieux, les sondes et les nappes.

Source : Rehau.

On parle de système ouvert lorsque c’est l’eau de la nappe phréatique ou du lit d’une rivière qui est pompée pour échanger sa chaleur avec le bâtiment et réintroduite en aval du sens d’écoulement souterrain.

Forages géothermiques

Dans ce cas les « échangeurs géothermiques » ou « sondes géothermiques » sont pour la plupart constitués de forages verticaux (diam 150 mm) d’une profondeur de 50 à 400 m (souvent 100 .. 150 m). Chaque forage contient des conduites, le plus souvent en polyéthylène (DN 32) disposées en double U et enrobées d’un coulis de ciment/bentonite (le « grout ») assurant la protection mécanique tout en permettant une certaine souplesse indispensable pour résister aux mouvements de sol.

Source : REHAU.

L’ensemble des forages forme ainsi un champ de sondes espacées entre elles de 6 à 10 m, pour limiter les interférences thermiques. Les sondes sont raccordées entre elles via des collecteurs, en série ou en parallèle ou un mix des deux.

Le champ de sondes peut être disposé à côté du bâtiment ou même sous le bâtiment (par exemple en ville).

Variantes : Sondes coaxiales en acier

Les forages géothermiques présentent une série de contraintes comme :

  • la nécessité d’espace pour effectuer les forages;
  • la gestion du forage au travers de couches de sous-sol parfois hétérogènes;
  • la nécessité de maximiser l’échange de chaleur tout en garantissant la tenue mécanique des sondes,
  •  …

Cela conduit les fabricants à proposer des alternatives aux sondes traditionnelles en « double U ».

Il existe ainsi des sondes coaxiales : l’eau en provenance du bâtiment circule dans la périphérie de la sonde et revient par le cœur pour délivrer son énergie au bâtiment.

Exemple de sonde coaxiale en PE : le fabricant annonce que les performances d’une sonde de dimension 63 mm / 40 mm
correspondent à une sonde géothermique double U de dia. 32 mm.

Source : www.hakagerodur.ch

Pour encore augmenter l’échange thermique avec le sol les sondes peuvent être réalisées en acier (avec protection cathodique) ou en inox, sans enrobage : le tube périphérique est en métal et le tube intérieur en PE.

L’augmentation du transfert de chaleur, permet alors réduire le nombre de forages et la longueur des sondes. Ainsi des tests de réponse thermique montrent qu’en moyenne, les sondes coaxiales en inox ont une résistance thermique 2 fois moindre qu’une sonde avec doubles U en PE. Cela permettrait une puissance d’extraction de 10 à 20 % supérieure.

Exemple de sondes en acier, à visser (longueur de 3 m).

Source : Thermo-pieux.

Exemple de sonde en inox introduite par forage ou « vibro-fonçage ».  La profondeur peut atteindre une centaine de mètres.

Source : geo-green.

La technologie des sondes coaxiales ouvre la porte à des installations avec des forages en étoile au départ d’un point d’entrée unique dans des lieux où l’accès pour des forages parallèles espacés n’est pas possible (par exemple, une cour intérieure dans un site existant).

 

Forages en « étoile » : on parle dans la littérature de « racines géothermiques ».

Pieux géothermiques

Une alternative aux forages consiste à intégrer les échangeurs géothermiques aux pieux de structure d’un bâtiment. Cela se justifie parce que ceux-ci sont souvent nécessaires dans des sous-sols humides, sous-sols favorables aussi à la géothermie.

On justifie cette technique par un souci de rationaliser les techniques en les combinant. Cependant, la pratique ne prouve pas que les coûts soient inférieurs par rapport à des installations distinctes. La mise en œuvre des pieux se complique également. La gestion de l’installation doit également interdire que les pieux de fondation ne gèlent en mode de chauffage hivernal.

 

Exemples de réalisation : La crèche de l’île aux oiseaux, ville de Mons : 16 pieux géothermiques de 10 m.

La crèche de l’ile aux oiseaux de Mons.

Aéroport de Zurich : 350 pieux géothermiques de 30 m de profondeur.

Nappes horizontales

La géothermie se décline également sous la forme de nappes de tuyaux déployés horizontalement à faible profondeur (0,6 à 1,2 m).

Le système est peu applicable dans le secteur tertiaire. En effet,

  • Il demande une surface de terrain très importante : de 28 à 100 m²/kW de puissance de chauffage nécessaire.
  • En hiver, elle peut conduire à un refroidissement excessif du sol préjudiciable à la végétation.
  • L’utilisation en refroidissement n’est guère possible, la température du sol étant fortement soumise à l’environnement extérieur.

Alternative pour les bâtiments de taille réduite : les sondes de faible profondeur.

Pour les petits projets, pour lesquels un forage n’est pas autorisé et où les systèmes horizontaux ne disposent pas de surface suffisante, certains fabricants proposent des sondes de petite taille constituées d’un échangeur spiralé. Ce système permet notamment de limiter l’influence que peut avoir la géothermie sur la couche de sol où se développe la végétation.

Source : SANA FONDATIONS sprl.

Cas particulier : le puits canadien

Le puits canadien ou puits provençal constitue une forme de géothermie puisque l’air neuf de ventilation est prétraité (chauffé ou refroidi) par son passage dans le sol.

Techniques

 Pour en savoir plus sur le puits canadien.

Schémas de principe

Traditionnellement, on retrouve 2 types de schéma de principe, selon que le froid est produit par échange direct avec le sol soit par la pompe à chaleur réversible utilisant le sol comme source chaude. Une troisième configuration se retrouve lorsqu’on puise directement l’eau de la nappe phréatique.

Free cooling direct

En été : le froid est produit par échange direct avec le sol et distribué via un échangeur vers les unités terminales. Le géocooling est ainsi mis en œuvre moyennant uniquement la consommation de pompes. Si on compare cette consommation à l’énergie frigorifique produite, on calcule un ESEER équivalent du système de l’ordre de …12…, voire plus en fonction des dimensionnements des équipements. Souvent une machine de production de froid vient en appoint pour satisfaire les demandes de pointes ou pour alimenter des utilisateurs demandant des températures d’eau plus basses (comme les groupes de traitement d’air).

En hiver, le sol sert de source froide à une pompe à chaleur sol/eau. Le coefficient de performance saisonnier obtenu varie entre 4,5 et 5,5. Une chaudière est utilisée en appoint pour couvrir les pointes de puissance par grands froids. Généralement, le système est dimensionné pour que la PAC couvre environ 70 % du besoin de chaud grâce à environ 30 % de la puissance totale nécessaire.

Recharge du sol par pompe à chaleur réversible

La pompe à chaleur sol/eau est réversible. En été, elle fonctionne comme un groupe de production d’eau glacée en utilisant le sol pour évacuer la chaleur de son condenseur régénérant ainsi ce dernier.

L’avantage d’un tel système est de mieux gérer la recharge du sol et peut-être de pouvoir se passer d’un groupe de froid d’appoint et d’un échangeur intermédiaire. L’investissement est donc moindre.

En contrepartie, alors que l’on peut toujours parler de stockage géothermique, il ne s’agit plus réellement de géocooling naturel puisqu’il est nécessaire de faire fonctionner une machine thermodynamique pour extraire le « froid » du sol. Le bilan énergétique global est donc moins favorable.

Systèmes ouverts

Si la nappe phréatique se situe près de la surface du sol, on peut envisager de puiser directement l’eau dans cette dernière plutôt que de la parcourir avec un échangeur et un fluide caloporteur. On parle de système ouvert. Dans ce cas, l’eau de la nappe sert par l’intermédiaire d’un échangeur :

  • En mode chauffage, de source froide à une pompe à chaleur.
  • En mode refroidissement, de source de froid directe pour une boucle d’eau.

L’eau puisée est ensuite réinjectée dans la nappe à une certaine distance créant ainsi 2 zones dans la nappe phréatique à températures différentes, l’eau passant de l’une à l’autre en fonction de la saison :

  • En hiver une zone se refroidit par l’eau réinjectée après échange avec la pompe à chaleur.
  • En été l’eau est pompée en sens inverse de cette zone et réinjectée plus chaude dans la zone de puisage hivernal.

Étant donné les mouvements dans les nappes phréatiques et en fonction de la distance entre les zones chaude et froide, l’influence d’un éventuel déséquilibre entre les besoins de chauffage et de refroidissement est nettement moindre dans le cas d’un système ouvert par rapport à un système fermé.

En outre, il est également possible de produire du chaud et du froid en même temps dans le bâtiment. En effet, si nécessaire, l’eau pompée de la nappe peut être dirigée à la fois vers la pompe à chaleur et vers l’échangeur de géocooling ou vers un échangeur commun entre les productions de chaud et de froid.

Exemples d’installations

Le schéma ci-dessous est proposé par un constructeur allemand. Il permet le chauffage par pompe à chaleur, le refroidissement libre par un échangeur vers les sondes géothermiques, éventuellement assisté par le fonctionnement réversible de la pompe à chaleur.

Le schéma ci-après, plus complet, permet un fonctionnement mixte en mi-saison : une chaudière alimente la zone périphérique en chaleur, alors que simultanément, la zone centrale est refroidie par l’échangeur dans le sol via la pompe à chaleur. Attention cependant à la destruction d’énergie qui pénalise l’intérêt énergétique de ce système.


Unités terminales associées

Les performances de la pompe à chaleur et du géocooling sont fortement dépendantes du régime de température des unités terminales :

Plus la température de l’eau de distribution est basse en saison de chauffe (température max de l’ordre 50 .. 55 °C), meilleur sera le rendement de la PAC et plus elle est élevée en été (température min de l’ordre de 15 .. 17 °C) plus grande sera la quantité d’énergie extractible directement du sol.

On doit donc choisir des unités terminales compatibles avec ces températures :

  • Plafonds refroidissants ou ilots rayonnants
    • avantages : peu d’inertie thermique et donc rendement de régulation élevé, contrôle facile de la température ambiante, réversible chaud/froid;
    • inconvénients : puissance plus limitée (plafonds).

Exemple d’îlot rayonnant.

(Source : Interalu).

  • Dalles actives
    • avantages : stockage de nuit et donc limitation de la puissance à installer;
    • inconvénients : inertie thermique importante et donc contrôle difficile de la température et rendement de régulation dégradé. Peu de flexibilité spatiale et difficulté d’utilisation en chauffage (nécessité d’un second système). Absence de faux plafond (gestion des techniques et de l’acoustique).

Étude d’un projet de géothermie

Un projet de géothermie consiste à mettre en corrélation le comportement thermique du bâtiment et celui du sous-sol. Tout cela se passe de façon dynamique : les besoins varient, le sol se charge, se décharge, échange avec son voisinage tout cela sur une échelle de temps quotidienne, mais aussi saisonnière. Cela justifie l’utilisation d’outils de simulation thermique dynamique prenant en compte la variabilité des besoins, des échanges et l’inertie du système.

Étapes de l’étude d’un projet de géothermie :

  • Définir les besoins par simulations dynamiques en évaluant différentes variantes de manière à trouver le bon équilibre entre le besoin de chaud et de refroidissement du bâtiment (niveau d’isolation, type de vitrage, protections solaires, …).

Besoins simulés de chauffage et de refroidissement d’un bâtiment, h par h ou 1/4h par 1/4 h.

  • Connaître la nature du sol par études géologique et hydrogéologique pour préévaluer les caractéristiques physiques et thermiques du sous-sol et pour évaluer les éventuels risques liés aux forages (présence de nappes phréatiques, de couche argileuse,  de quartzites, …). Cela permet de prédéfinir la pertinence et la configuration des forages (par exemple, leur longueur minimale et maximale en fonction des couches de sous-sol susceptibles d’être rencontrées).

Pour exemple, voici quelques données moyennes :

Caractéristiques du sol Puissance spécifique d »extraction
Sur 1 800 heures de fonctionnement Sur 2 400 heures de fonctionnement
Valeurs indicatives générales
Sous-sol de mauvaise qualité (sédiment sec) (λ < 1,5 W/m²K) 25 W/m 20 W/m
Sous-sol rocheux normal  et sédiment  saturé en eau (λ < 1,5 – 3.0 W/m²K) 60 W/m 50 W/m
Roche compacte à conductibilité  thermique élevée (λ < 3,0 W/m²K) 84 W/m84 W/m 70 W/m
Minéraux respectif
Gravier et sable secs < 25 W/m <20 W/m
Gravier et sable aquifères 65 – 80 55 – 65 W/m W/m
Dans le cas de fort courant des eaux souterraines dans le gravier ou le sable et d’installations uniques 80 – 100 80 – 100 W/m
Argile et glaise humides 35 – 50 W/m W/m 30 – 40 W/m
Calcaire (massif) 55 – 70 W/m 45 – 60 W/m
Grès 65 – 80 W/m 55 – 65 W/m
Roche magmatique acide (par ex. granit) 65 – 85 W/m 55 – 70 W/m
Roche magmatique basique (par ex. basalte) 40 – 65 W/m 35 – 55 W/m
Gneiss 70 – 85 W/m 60 – 70 W/m

Puissances traditionnelles extractibles.

Source Rehau.

  • Effectuer un test de réponse thermique (« TRT »). Il s’agit de réaliser un forage en taille réelle et de le soumettre à une sollicitation thermique pour pouvoir calculer la conductibilité et la capacité thermique du sol et la résistance thermique des sondes, en moyenne sur toute la longueur de la sonde. Cette sonde test pourra ensuite être valorisée dans le champ de sondes final.

Source : Group Verbeke.

  • Dimensionner le champ de sondes au moyen d’un logiciel de simulation dynamique du sous-sol : simulation du comportement du sol compte tenu des besoins du bâtiment (heure par heure) et des caractéristiques  thermiques des sondes prévues et du sol (définies par le TRT) ; optimalisation de la puissance de la PAC, du nombre et de la profondeur des sondes en s’assurant de l’équilibre à long terme de la température du sol.

Dimensionnement de l’échangeur de sol

Pour le dimensionnement des collecteurs de sol, des réfrigérateurs de plaques de fond ou de réservoirs de fondations, il est possible de consulter la DIN ISO EN 13370 « Transmission de chaleur par le procédé de calcul terrestre ».

L’objet de cette norme est l’examen du transfert de la chaleur en tenant compte des paramètres (tuyaux, isolation, masse géométrique du bâtiment, etc.) et de la conduite d’exploitation. La ligne directrice VDI 4640 « Utilisation thermique du sous-sol » convient pour l’évaluation du rendement (puissance) d’un chauffage. De plus, elle fournit des indices de planification concernant les permissions et les conditions additionnelles liées à l’environnement, mais (à notre connaissance en octobre 2003) elle n’aurait pas encore été adaptée sous l’aspect « été » du réfrigérateur.

D’après la norme DIN ISO EN 13370 (traduction non officielle !), les tableaux suivants donnent une vue d’ensemble sur les capacités d’extraction des collecteurs de chaleur et des sondes géothermiques (capacité des pompes de chaleur jusqu’à max. 30 kW) :

>  S’il s’agit de collecteurs situés à côté du bâtiment (en W/m²) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sol sec, non cohérent 10 8
Humide, cohérent 20…30 16…24
Sable, gravier, imbibés d’eau 40 32

>  S’il s’agit de sondes géothermiques (en W/m courant) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sédiments secs et peu conducteurs (Lambda < 1,5 W/m.K) 25 20
Roche, sédiments imbibés d’eau
(Lambda > 1,5 … 3 W/m.K)
60 50
Roche dure très conductrice
(Lambda > 3 W/m.K)
84 70

L’adaptation des calculs détaillés est de plus indiquée dans les cas suivants :

  • Modification des heures de services des pompes à chaleur par rapport aux hypothèses de base;
  • plus grande nécessité de chaleur pour la préparation d’eau chaude;
  • effet régénérateur du sol suite à un apport de chaleur par réfrigération de locaux ou à un rechargement thermique solaire;
  • grande influence des eaux souterraines (nappe phréatique).

Les valeurs de référence pour les capacités d’extraction de chaleur en hiver ne sont pas directement applicables à l’activité en été. Différentes causes sont à la base des écarts entre les capacités d’extraction et d’incorporation :

  • Lors du fonctionnement en hiver, une couche de glace se forme autour de la sonde ou des tuyaux, et influence favorablement la transmission thermique par conduction. En été, le sol peut au contraire sécher davantage, ce qui est défavorable.
  • Les couches terrestres proches du sol sont soumises à de si fortes influences climatiques qu’il faudrait parler non pas d’éléments de construction thermiques, mais plutôt d’éléments de construction solaires thermiques dans le cas de collecteurs de terre classiques non bâtis.

Pour l’évaluation de la capacité de sondes géothermiques et de pieux d’énergie dans le processus de réfrigération, un constructeur conseille :

  • Vu les raisons énoncées précédemment, de mettre les capacités d’incorporation (été) égales à 70 % des capacités d’extraction de chaleur énoncées dans la VDI 4640.
  • De valoriser si possible l’existence d’une nappe souterraine, qui suite à l’humidification des couches terrestres en dessous des fondations, améliore la conductibilité thermique. Il en résultera également des capacités de réfrigération plus constantes.
  • Une distance de pose entre les tuyaux ne dépassant pas 15 cm.
  • Des phases de régénération (suite à l’arrêt du système en journée ou suite à une réduction de la nécessité de froid (journées fraîches d’été)) qui améliorent la capacité de rendement.

Aspect réglementaire lié à la réalisation du projet

(Rédaction : 2014)

En région wallonne

En Wallonie, tout projet de réalisation de puits destiné à la géothermie doit faire l’objet d’un permis unique : Permis d’environnement (installations classées, conditions intégrales et sectorielles) + Permis d’urbanisme.

Selon l’Arrêté du Gouvernement wallon du 4/7/2002, annexe I, les systèmes géothermiques fermés sont classés dans la rubrique 45.12.01 : « Forage et équipement de puits destinés au stockage des déchets nucléaires ou destinés à recevoir des sondes géothermiques », classe de permis 2.

D’autres rubriques existent pour classer les systèmes ouverts en fonction des techniques de puisage et de rejet d’eau souterraine utilisé.

Les forages d’essais (TRT) et de l’installation définitive doivent faire l’objet d’une demande de permis propre comprenant :

  • Le formulaire général de demande de permis d’environnement et de permis unique – Annexe I.
  • Le formulaire relatif aux forages – Annexe XVIII (rubrique 45.12.01) ou le formulaire relatif aux prises d’eau – Annexe III (rubrique 41.00.03.02).

Le formulaire XVIII doit notamment comprendre :

  • Une coupe géologique probable du puits avec profondeur estimée de la nappe aquifère;
  • la description des méthodes de forage et les équipements du puits avec coupe technique;
  • un rapport technique sur la nature de la nappe aquifère éventuelle;
  • un plan de situation des puits.

Chronologiquement, étant donné les délais d’obtention, il est souvent difficile d’attendre les résultats du TRT et le dimensionnement final du champ de sondes avant l’introduction de la demande de permis pour ce dernier. De même, étant donné que le choix de l’enveloppe du bâtiment et l’équilibre géothermique sont intimement liés, il apparaît difficile de dissocier chronologiquement les demandes de permis pour le bâtiment neuf, le TRT et le champ de sondes. Dans ces différents cas, la pratique veut que les permis soient introduits en parallèle en mentionnant les hypothèses de prédimensionnement effectués.

En région bruxelloise

Il n’existe actuellement pas de législation spécifique à la géothermie en RBC. Les systèmes géothermiques sont néanmoins presque toujours composés d’installations classées soumises à déclaration ou à permis d’environnement.

Dans le cas de systèmes géothermiques fermés, les installations classées concernées sont les suivantes :

  • Pompe à chaleur < 10 kWelec  et < 3 kg de substance appauvrissant la couche d’ozone : Installation non classé et donc non soumise à autorisation (rubrique 132).
  • Pompe à chaleur > 10 kWelec mais < 100 kWelec  ou > 3  kg de substance appauvrissant la couche d’ozone : Installation classée de classe 3 et donc soumise à déclaration (rubrique 132).
  • Pompe à chaleur > 100 kWelec : Installation classée de classe 2 et donc soumise à Permis d’Environnement (rubrique 132).
  • Pompes électriques > à 100 kVA (rubrique 55).

Les forages ne sont, eux, pas classés.

Dans le cas de systèmes géothermiques ouverts, les captages d’eau souterraine sont des installations classées de classe 2 ou de classe 1B (rubrique 62) et sont donc soumis à Permis d’Environnement. En plus comme pour les captages d’eau « classiques », les systèmes géothermiques ouverts sont soumis à une « autorisation de pompage » de la part de l’IBGE.

De plus la réglementation urbanistique (COBAT) stipule que les forages géothermiques sont soumis à rapport d’incidence. Il semblerait donc que les systèmes géothermiques sont soumis à Permis d’Urbanisme (PU). Dans la pratique, il semblerait néanmoins que les systèmes géothermiques ne fassent pas l’objet d’une demande de PU à part entière. Il est donc conseillé de se renseigner auprès du service urbanisme de la commune concernée pour savoir si un PU est nécessaire.

La demande de permis d’environnement doit comprendre une série de renseignements.

Pour les systèmes géothermiques fermés (sondes verticales) :

  • Le cadre du projet de géothermique (industrie, tertiaire, logements collectifs, privés, ….
  • Le profil géologique et hydrogéologique de la zone où sont prévus les forages (et plus particulièrement déterminer les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.

Il y a lieu de motiver la profondeur des sondes envisagée sur base de ce profil.

  • La technique de forage prévue pour le placement des sondes.
  • La description technique de l’installation géothermique :
    • puissance électrique de la pompe à chaleur (PAC) et rendement;
    • nombre de puits ou forage prévus + nombre de sondes verticales prévues;
    • profondeur des sondes;
    • type de sondes (simple boucle en U, double boucle en U, coaxiale, autre);
    • type de matériaux utilisés pour les sondes et les différentes connexions;
    • systèmes prévus pour isoler les sondes (ou les groupes de sondes) en cas de fuite (vannes d’isolement, …);
    • fluide caloporteur prévu dans les sondes;
    • surface prévue pour l’implantation des sondes (et surface disponible si différente);
    • matériaux de remplissage sont prévus pour le scellement des trous de forages (espace interstitiel).
    •  …
  • Le plan reprenant de manière claire l’emplacement des installations (PAC et champ de sondes).
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • L’évaluation des besoins énergétiques :
    • la demande en chaud du bâtiment (kWh/an);
    • la demande en froid du bâtiment (kWh/an);
    • la puissance de pointe en chaud du bâtiment (kW);
    • la puissance de pointe en froid du bâtiment (kW);
    • l’énergie (chaud) soutirée au sol (kWh/an);
    • l’énergie (froid) soutirée au sol (kWh/an);
    • % de la demande en chaud couvert par la géothermie;
    • % de la demande en froid couvert par la géothermie.

Dans la mesure du possible, un (des) graphique(s) (histogramme) reprenant les besoins mensuels du bâtiment en froid et en chaud sur un an et distinguant la part produite par la géothermie de la part produite par les systèmes complémentaires (système de production de chaud et froid classiques) sera fourni.

  • Dans le cas ou un test de réponse thermique (TRT) a été réalisé : les conclusions du test.
  • La comparaison du gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation (réduction d’énergie primaire (%)).
  • L’évaluation du déséquilibre thermique du sous-sol et l’évolution de la performance de la PAC sur 20 ans en tenant compte de ce déséquilibre thermique.
  • Quant au rapport d’incidences, il doit également évaluer les nuisances et impacts environnementaux liés au système géothermique ainsi que les mesures prises pour éviter, supprimer ou réduire les nuisances répertoriées.  (Ex : test de mise sous pression des bouclages, mise en place d’un système de détection de fuites, étanchéité des puits,…).

Pour les systèmes géothermiques ouverts :

  • Le type de système géothermique prévu : captage/réinjection réversible (stockage chaud froid) ou captage réinjection non réversible.
  • La description technique de l’installation géothermique :
    • nombre de puits de pompage et de réinjection prévus ;
    • profondeur des puits (+ facteurs ayant servi à la détermination de la profondeur) ;
    • zone de filtre (crépine) ;
    • distance séparant les puits de captage et de réinjection ;
    • type de compteurs et nombre de compteurs prévus (+ emplacement) ;
    • puissance électrique de la pompe à chaleur (PAC) et son rendement ;
    • liquide utilisé dans le circuit secondaire ;
    • type d’échangeur – circuit primaire / circuit secondaire (double parois, simple paroi, …) ;
    • Éventuel système de détection de fuite dans le circuit secondaire.
    • plan reprenant l’emplacement de la PAC, des différents puits de captage et de réinjection.
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • Le profil géologique et hydrogéologique des zones de captage et de réinjection (et plus particulièrement déterminer l’aquifère ou les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.
  • Le débit maximum capté (m³/h, m³/j), le volume total capté par an ou par saison (m³) et si la totalité de l’eau captée est réinjectée dans la nappe. Si l’eau souterraine est utilisée à d’autres fins que la géothermie, il y a également lieu de préciser les utilisations alternatives et le débit capté (m³/j).
  • La température de réinjection maximale prévue.
  • Le dossier doit comporter une évaluation de :
    • la demande en chaud du bâtiment (kWh/an);
    • (la demande en froid du bâtiment (kWh/an)), si utilisation des puits pour refroidir;
    • la puissance de pointe en chaud du bâtiment (kW);
    • (la puissance de pointe en froid du bâtiment (kW)) → Si utilisation des puits pour refroidir;
    • l’énergie (chaud) soutirée de la nappe (kWh/an);
    • (l’énergie (froid) soutirée de la nappe (kWh/an)), si utilisation des puits pour refroidir;
    • % de la demande en chaud couvert par la géothermie;
    • (% de la demande en froid couvert par la géothermie), si utilisation des puits pour refroidir.
  • Le gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation  (réduction d’énergie primaire (%)) doit également être évalué.
  • Le rapport d’incidence doit évaluer le déséquilibre thermique de l’aquifère  et l’évolution de la performance de la PAC sur 20 ans en tenant compte du déséquilibre thermique.
  • Le rapport d’incidence doit évaluer la possibilité technique de mettre en place le système géothermique sur le site.
  • Le rapport d’incidence doit enfin évaluer l’impact et les nuisances du système géothermique et notamment :
    • l’impact éventuel du projet sur des captages voisins (impact hydraulique);
    • l’impact éventuel du projet sur la stabilité des constructions voisine;
    • le risque d’inondation au niveau des puits de réinjection et des constructions voisine;
    • l’impact thermique éventuel du système sur les eaux souterraines.
  • Ainsi que les mesures particulières de protection du sol et des eaux souterraines prévues (Rehaussement du puits, étanchéité des puits de forages, mesures prévues pour éviter la connexion éventuelle d’aquifères différents, mesures prévues pour éviter une contamination de l’eau pompée et réinjectée dans la nappe (type d’échangeur utilisé, système de détection de fuite, surpression du circuit secondaire (eau pompée) par rapport au circuit primaire (de la PAC), …)).

Découvrez cet exemple de géothermie et géo-cooling dans un centre de formation.

Compteurs communicants

Pour 2034, les objectifs de la région Wallonne sont d’équiper 80 % des ménages de compteurs communiquants.

Compteurs communicants

Les compteurs électriques communicants, appelés également compteurs « intelligents » ou « Smartmeters » comptabilisent la consommation électrique en ayant la particularité de communiquer les mesures avec le consommateur ainsi que le GRD (Gestionnaire du réseau de distribution).

Cette information fournie par le compteur permet :

  • Un meilleur contrôle des consommations ;
  • Le relevé des compteurs par le GRD à distance et donc des factures sur base de la consommation réelle ;
  • La détection rapide des pannes électriques et réduction du temps d’intervention ;
  • Facilité et information pour les autoproducteurs ;-
  • Prépaiement plus simple pour les compteurs à budget ;
  • Modifications de la tarification, de l’index, fermeture du compteur… à distance.

Pour le consommateur, l’arrivée de ces compteurs permet donc une facturation et un suivi plus fin et « connecté » de sa consommation : historique de consommation, conversion en Euros…

Ces systèmes ont un rôle important dans le développement des énergies renouvelables en permettant aux auto-producteur d’obtenir en continu des informations précises sur l’énergie prélevée ou injectée sur le réseau ce qui permettra une utilisation plus rationnelle de l’énergie. Côté GRD, l’apparition de ces systèmes de compteurs connectés et décentralisés permet de mieux gérer et accorder la production à la consommation.

Malgré ces nouvelles fonctionnalités, en France [2017], où ces systèmes sont déjà installés, seul 1 ménage sur 50 a fait les démarches permettant d’avoir accès à leur courbe de charge.

Pour conclure, les compteurs communicants, en plus d’être un premier pas vers la bonne gestion des énergies renouvelables et les smartgrids, permettent à l’occupant de reprendre le contact avec sa consommation. Autrefois, l’occupant pouvait compter le nombre de seaux de charbons / de bûches de bois qu’il brûlait et contrôler sa consommation de manière très directe et tangible. Aujourd’hui, le gaz et l’électricité « coulent » dans nos tuyaux opaques et nous n’avons pas la moins information palpable pour comprendre et avoir une idée de sa consommation. L’émergence de compteurs communiquant, avec leurs éventuels prolongements sous forme d’applications de suivi ou de gestion, pourra faciliter la conscience de la consommation à chacun et favoriser une utilisation rationnelle de l’énergie plus facile notamment via la possibilité pour le compteur de parler dans des unités compréhensibles et qui intéressent le consommateur : en € et €/heure plutôt qu’en kWh et kW.

Pile à combustible

Pile à combustible


Principe

La pile à combustible part du principe de conversion de l’énergie chimique de combustion (réaction d’oxydo-réduction) en énergie électrique, en chaleur et en eau.

Les éléments de base constituant une pile à combustible sont principalement au nombre de trois, à savoir :

  1. une électrode de type anode émettrice d’électrons (oxydation);
  2. une électrode de type cathode collectrice d’électrons (réduction);
  3. un électrolyte séparant les deux électrodes.

Pour certains types de pile, l’injection continue d’un combustible au niveau de l’anode (H2 par exemple) induit, en présence de platine, la réaction d’oxydation catalytique :

H2 → 2H+ + 2e

De par ses propriétés physico-chimiques, l’électrolyte est « perméable » aux ions H+, ce qui leur permet de migrer vers l’électrode cathodique. Dans un même temps, l’électrolyte est aussi « imperméable » aux électrons et leur impose de passer par un circuit conducteur externe à la pile. D’où la création d’un courant électrique si le circuit est fermé.

L’injection continue de dioxygène de l’air (ou oxygène de l’air en simplifiant) au niveau de la cathode induit, aussi en présence de platine, la réaction suivante de réduction catalytique :

½ O2 + 2H+ + 2 e → H2O + Q (chaleur)

L’effet escompté est assuré puisque la réaction physico-chimique dans son ensemble produit de l’électricité aux bornes des électrodes et de la chaleur.

Schéma principe pile à combustible.

En première approche, cette technologie est propre vu qu’une pile alimentée avec de l’hydrogène et de l’oxygène rejette de l’eau. Le seul hic est que la production d’hydrogène, à l’heure actuelle, est très énergivore et potentiellement polluante.

Les piles à combustible sont caractérisées par la nature de l’électrolyte :

  • Un électrolyte acide induit une migration d’ions positifs (H+) de l’anode vers la cathode.
  • À l’inverse, un électrolyte basique génère la migration d’ions négatifs (OH, O2-, CO32-) de la cathode vers l’anode.

Les types de pile à combustible

Piles à combustible à électrolyte acide

  • Les PEMFC (Proton Exchange Membrane Fuel Cell). L’électrolyte est constitué d’une membrane solide polymère. Les températures de fonctionnement sont basses (20 – 100 °C).
  • Les DMFC (Direct Methanol Fuel Cell). À la place de l’hydrogène, les piles utilisent comme combustible le méthanol (CH3OH). Injecté directement sur l’anode avec de l’eau son oxydation catalytique produit des ions H+ et du gaz carbonique. Comme sur les PEMFC, une membrane solide polymère constitue l’électrolyte et permet la migration des H+ vers la cathode.
  • Les PAFC (Phosphorique Acid Fuel Cell) utilisent comme électrolyte l’acide phosphorique liquide emprisonné dans une matrice solide poreuse. Elles peuvent fonctionner jusqu’à 200 °C.

Piles à combustible à électrolyte basique

  • Les AFC à potasse liquide (Alkaline Fuel Cell) utilisent l’ion OH libéré par réduction catalytique de cette base sur la cathode.
  • Les MCFC (Molten Carbonate Fuel Cell) utilisent des carbonates de lithium et de potassium fondus pour la migration des ions CO32-.
  • Les SOFC (Solid Oxyde Fuel Cell) sont à base d’un électrolyte solide (zircone dopé aux terres rares) afin de produire des ions O2-.

Le catalyseur aux électrodes

Le rôle du catalyseur dans la réaction d’oxydo-réduction au niveau des électrodes est déterminant dans le rendement de la pile. Actuellement, on utilise du platine qui est un métal rare et coûteux. Les constructeurs et les labos de recherche tablent à moyen terme sur l’utilisation des nanotechnologies pour développer des catalyseurs.

Les enjeux énergétiques

Les piles à combustible présentent beaucoup d’atouts comme, par exemple :

  • des rendements élevés;
  • silencieuses;
  • sans pièce mobile;
  • dans une gamme de température large;
  • d’un point de vue environnemental, ne produit que de la chaleur et de l’eau.

Cependant, le défi est de taille pour produire de l’hydrogène. À 95 %, l’hydrogène est issu du « reformage » à la vapeur (ou vaporeformage) de combustibles fossiles comme le gaz de ville, le butane, le propane, … avec émission importante de CO2.

La  réaction générale s’écrit :

CnH(2n+2) + nH2O → nCO + (2n+1)H2

Exemple avec n = 1 : CH4 + H2O → CO + 3H2

Il est nécessaire de neutraliser le CO. Une réaction seconde permet d’y arriver :

CO + H2O → CO2 + H2

Du CO2 est donc émis !

En termes de rendement global théorique, des annonces de 95 % pour des piles à combustible domestique sont avancées au niveau de programme européen ene.field :  http://enefield.eu/
À prendre donc en considération, mais avec des « pincettes ».

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Turbine

Turbine


Définition et principe

Une turbine est une machine tournante qui récupère l’énergie cinétique d’un fluide pour mettre en mouvement l’arbre de transmission.

Schéma définition et principe de la turbine.

La turbine est constituée :

  • D’une partie mobile comprenant un arbre sur lequel sont fixées les roues à aubes du compresseur et de la turbine.
  • D’une partie fixe couramment appelée « carter de la turbine » et dans lequel on retrouve les chambres de combustion, les déflecteurs pour correctement diriger le fluide sur les aubes de la turbine.

La turbine montée sur l’arbre de transmission est mise en rotation par la force exercée sur le fluide (liquide, gaz) sur les aubes. Cette action engendre une diminution de la pression du fluide ou détente. Dans le cas de la cogénération, l’arbre est couplé à un alternateur pour la production d’électricité.
La turbine est une machine qui nécessite un fonctionnement idéalement en continu. Ce type d’équipement présente, entre autres comme avantage, de demander moins d’entretien que les moteurs.


La turbine à vapeur

Une turbine à vapeur utilise, comme son nom l’indique, la vapeur comme fluide de propulsion. Elle est produite, par exemple, à partir d’une chaudière ou disponible en sortie d’un processus industriel. La vapeur produite à haute pression est injectée à l’entrée de la turbine. À ce niveau, elle subit une série de détente au travers de plusieurs étages de roue à aubes, en générant l’énergie mécanique nécessaire à mettre l’arbre en rotation.

Photo turbine à vapeur.

Turbine à Vapeur (source : General Electric).

Le schéma ci-dessous montre une turbine vapeur alimentée par une chaudière. La chaleur résiduelle comprise dans la vapeur basse pression (BP) et dans les quelques pourcents de condensats non récupérés par la chaudière vapeur,  peut servir à alimenter un système de chauffage (principe de récupération de la chaleur fatale).

Schéma principe turbine à vapeur.

La turbine vapeur conviendra particulièrement bien pour des puissances pouvant aller de 10 MWé à 50 MWé.

Elle nécessite un grand débit de vapeur d’entrée.


La turbine à gaz

Photo turbine à gaz.

Turbine à gaz (source Siemens).

La turbine à gaz fonctionne sur le principe de la détente d’un fluide gazeux dans une turbine issu de la combustion d’un mélange d’air comprimé au niveau du compresseur et de gaz dans une chambre dite « de combustion ». C’est le principe du réacteur d’avion !

La partie mobile est composée d’un arbre sur lequel sont montés le compresseur et la turbine. La partie fixe, quant à elle, accueille principalement la chambre de combustion.

Les gaz en sortie de turbine possèdent un niveau d’énergie suffisant qui peut être exploité dans une chaudière de post combustion en produisant de la vapeur.

Schéma principe turbine à gaz.

La gamme de puissances électriques des turbines à gaz est large. Le rendement électrique des turbines gaz est lié à la qualité de l’alternateur. Un ordre de grandeur courant de rendement électrique est de l’ordre de 20 à 25 %.

Le rendement thermique, lui, peut être amélioré par la qualité de l’échangeur, l’exploitation des différentes sources de chaleur, la qualité de la combustion, etc. Un ordre de grandeur de rendement thermique se situe entre 55 et 70 % (avec postcombustion).


La micro-turbine à gaz

La micro-turbine à gaz est la petite sœur de la turbine à gaz. Cependant, elle délivre de plus petites puissances (à partir de 25 kWé).

Photo micro-turbine à gaz.

Microturbine 30 kWé – Capstone.

La micro-turbine est souvent pourvue d’un échangeur complémentaire pour préchauffer l’air comprimé de la chambre de combustion. Enfin, la micro-turbine domestique existe sur certains marchés.

Schéma principe micro-turbine à gaz.

Principe de la turbine.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Présentation synthétique des composants


Le cogénérateur

Fonction

Transformer le combustible en énergies électrique et thermique.

Description

Parmi les moteurs de cogénérateur, les moteurs gaz ou diesel sont les plus couramment rencontrés. Par rapport au moteur à combustion interne classique (celui de votre voiture, par exemple), le moteur de cogénérateur valorise sa chaleur au travers d’une série d’échangeurs thermiques.

Le cogénérateur est principalement composé des entités suivantes :

  • le moteur;
  • l’alternateur;
  • les échangeurs;
  • une régulation.

Les moteurs des cogénérateurs étudiés dans cet outil sont principalement des moteurs à combustion classique, couplés à des alternateurs produisant l’électricité.

Comme le montre la figure suivante, la chaleur produite par le cogénérateur peut être valorisée au travers de différents échangeurs. Le refroidissement du moteur, des gaz d’échappement, de l’huile du carter et, éventuellement, du système turbo permet de récupérer de l’ordre de 55-58 % de l’énergie incidente (combustion du gaz, diesel, huile végétale, biogaz, …). 35 % servent à produire l’électricité et le solde de 7-10 % représente les pertes par radiation du bloc moteur et les pertes dans les gaz d’échappement. Les différents échangeurs à haute et basse température sont connectés au circuit  hydraulique de chauffage.

La chaleur des gaz d’échappement à 500 °C peut être récupérée à plus de 70 % par refroidissement à 150 °C. La chaleur de l’eau de refroidissement et de l’huile du moteur à +/- 100 °C peut être entièrement récupérée, alors que la chaleur de refroidissement du turbo à 45 °C peut plus difficilement être utilisée. Ce niveau de température est en effet trop bas pour être valorisé.

Les moteurs diesel et gaz sont utilisés dans une gamme de puissance de 5 kW à plusieurs MW et s’appliquent donc particulièrement aux secteurs tertiaires, industriel et PME, ainsi qu’au logement.

La récupération de chaleur sur ce type de moteur se prête bien à des utilisations à des températures inférieures à 100 °C comme la préparation d’eau chaude sanitaire, bien qu’une petite quantité de vapeur puisse néanmoins être générée grâce à la récupération de la chaleur contenue dans les gaz d’échappement (400 .. 500 °C).

Centrale de Cogénération compacte au gaz de 400 kWé.

Principales caractéristiques d’un groupe de cogénération complet

Le moteur

  • La puissances électrique (kW), thermique (kW), et combustible (PCI).
  • Le carburant gaz ou fuel.
  • Les rendements électriques et thermiques à différentes charges.
  • Le débit d’air et le sens de circulation pour ventilation et air comburant.
  • La présence d’un pot catalytique ou non.
  • Le silencieux.
  • La modulation de puissance : plages horaires et puissances prévues.

L’alternateur

  • Synchrone ou asynchrone.
  • Le rendement électrique à différentes charges.

L’échangeur

  • La température d’entrée d’eau.
  • La température de sortie d’eau.
  • Le débit d’eau.
  • La pression d’alimentation en combustible.

Les principes de régulation

  • signaux d’enclenchement, de déclenchements, de modulation.

Packaging

Les unités de cogénération se présentent sous deux formes :

  • Un package complet standard, comprenant dans un seul caisson moteur, génératrice, récupération de chaleur, régulateur et évacuation des gaz de combustion. Les différents composants sont parfaitement dimensionnés les uns par rapport aux autres et l’ensemble présente des coûts d’investissement et de maintenance réduits.
  • Beaucoup plus rare dans la gamme de puissance visée ici, un package spécifique assemblé sur mesure, où chacun des composants est sélectionné sur le marché et dont l’ensemble est optimisé pour répondre aux spécificités d’un projet particulier. Ce type de module est étudié au cas par cas et coûte généralement plus cher.

Il est important de noter que les unités de cogénération équipées d’un moteur diesel sont directement issues de la technologie camion ou voiture. Elles bénéficient ainsi d’effets de série très importants. Leurs prix sont moins élevés que les modèles de puissance équivalente alimentés au gaz, même si cette tendance s’estompe actuellement.


Le moteur

Fonction

Transformer le combustible (gaz, biogaz, huile végétale, …) en énergies mécanique, transformée plus loin en énergie électrique par la génératrice, et thermique, récupérée dans les échangeurs de chaleur.

Description

Le moteur est le cœur du cogénérateur, la régulation agit directement sur l’injection de carburant pour atteindre le niveau de puissance attendu.

Le moteur est aussi l’élément le plus fragile et il représente de loin la plus grande partie de la maintenance du groupe de cogénération.

Techniquement, le moteur se caractérise principalement par :

  • La puissance mécanique.
  • Le combustible utilisé, gaz ou mazout.
  • Les rendements à différentes charges.
  • Les émissions de gaz de combustion et la présence d’un pot catalytique ou non.
  • Les émissions sonores et la présence d’un silencieux ou non.
  • Le débit d’air et le sens de circulation, pour assurer la ventilation et l’air comburant.
  • Le déclassement du moteur en fonction de son usage : Stand-By; Prime; Base.

La génératrice

Fonction

Transformer l’énergie mécanique du moteur en énergie électrique et l’amener sur le réseau interne du client par le raccordement électrique.

Description

Alternateur synchrone

La génératrice synchrone est constituée d’un rotor, appelé inducteur, parcouru par un courant continu. Par la rotation des pôles de l’inducteur à l’intérieur du stator (l’induit), un courant alternatif est créé aux bornes de l’induit. Le courant induit est au départ indépendant du réseau et doit absolument être synchronisé en grandeur, en fréquence et en phase à celui-ci. La génératrice synchrone nécessite donc un équipement de synchronisation (le synchroniseur). Elle est plus complexe, plus onéreuse et nécessite la mise en place de matériels coûteux. Elle permet par contre d’assurer le secours de son établissement « hôte » en cas de perte de réseau.

La machine devra, en outre, être équipée d’une série de protections électriques comme une protection de découplage, une protection de surintensité et de mise à la terre.

Génératrice asynchrone

Une génératrice asynchrone est un moteur asynchrone dont la vitesse de glissement par rapport au champ tournant (qui est constitué par le réseau électrique) a une valeur telle qu’il se produit aux bornes du stator un courant alternatif (rotor en survitesse par rapport au champ tournant du stator). La génératrice asynchrone ne nécessite pas d’équipements de synchronisation dans la mesure où elle se synchronise automatiquement au réseau. Sa constitution est plus simple, les coûts sont moins élevés. Elle ne requiert pas d’auxiliaires électriques coûteux si ce n’est une batterie de condensateurs qui devra corriger le cosinus Phi. Celui-ci sera en effet détérioré par la puissance réactive appelée par la machine asynchrone. Ceci suppose aussi que la puissance électrique du cogénérateur ne pourra pas être trop importante pour ne pas trop détériorer le cosinus Phi de l’établissement. En pratique, pour la puissance électrique du groupe de cogénération, on ne dépassera pas 25 à 30 % de la puissance appelée par l’établissement.

Ayant besoin d’une alimentation du réseau électrique pour fonctionner, cette machine ne peut donc pas assurer un secours en cas de panne du réseau.

Résumé des avantages et inconvénients

Génératrice asynchrone
[+]

  • Coût d’investissement faible.
  • Simplicité d’utilisation.

[-]

  • Pas de possibilité d’utiliser l’unité de cogénération comme groupe de secours.
  • Limitation de la puissance du groupe par rapport à la puissance de l’établissement (25 à 30 %).
  • Nécessité de placer une batterie de condensateurs.

Alternateur synchrone
[+]

  • Possibilité d’utiliser l’unité de cogénération comme groupe de secours.
  • Solution adaptée à toutes les configurations techniques.

[-]

  • Coût d’investissement élevé.
  • Obligation d’auxiliaires électriques coûteux (synchroniseur, protection).

Caractéristiques techniques

Les caractéristiques principales de la génératrice sont :

  • la puissance électrique;
  • le régime de tension;
  • la génératrice synchrone ou asynchrone;
  • son cosinus phi.

Le raccordement électrique

Fonction

Amener l’énergie électrique depuis la génératrice vers le circuit électrique, avec toutes les protections nécessaires.

Description

La cohabitation de la cogénération et du réseau électrique du distributeur sur un même circuit demande l’installation d’une série de protections.

Le raccordement électrique se compose ainsi de plusieurs éléments :

  • le câble de puissance et les protections électriques « classiques »;
  • la protection spécifique à la production d’énergie électrique en parallèle sur le réseau;
  • le dispositif de synchronisation en cas de génératrice synchrone.

Câble de puissance et protections électriques « classiques »

Le câble de puissance, un câble électrique standard, amène l’électricité générée par la cogénération à l’installation électrique du client.

Plusieurs protections interviennent sur ce circuit électrique :

  • La protection des installations contre un dysfonctionnement du cogénérateur en plus des protections contre un dysfonctionnement du réseau électrique;
  • La protection du groupe de cogénération contre un dysfonctionnement interne ou contre un dysfonctionnement du réseau électrique;
  • La protection des personnes.

Les principales caractéristiques sont :

  • La tension de raccordement.
  • Le câble de puissance : type, dimensions et mode de pose du câble.
  • Les dispositifs de protection contre les surcharges et contre les courts-circuits.
  • Le régime de neutre et protection des personnes.

Protection spécifique à la production d’énergie électrique en parallèle sur le réseau

La protection spécifique à la production d’énergie électrique en parallèle sur le réseau permet :

  • Au gestionnaire de réseau d’exploiter son réseau de manière sûre et de se prémunir des incidents éventuels.
  • À l’auto producteur de protéger son installation en cas d’incident sur le réseau de distribution :

Schéma électrique de découplage.

Génératrice SYNCHRONE
avec fonctionnement en secours.

Deux situations sont prévues :

  • Soit le cogénérateur ne peut jamais fournir d’énergie au réseau. On parle « d’autoproduction », c’est-à-dire qu’on ne produit de l’électricité que pour ses propres besoins.
  • Soit le cogénérateur peut débiter sur le réseau (par exemple, dans le cadre d’un contrat de rachat d’énergie). On parle alors de production décentralisée.

Protection de découplage ou production décentralisée

Pour les installations de production décentralisée, on parle d’une protection de découplage. Cette protection permet, au moyen d’une série de relais (relais obligatoirement agréés par le distributeur), la mise hors service des cogénérateurs lorsque leurs influences deviennent trop importantes en cas de régimes de réseaux perturbés. Des packages agréés complets existent dans le commerce reprenant toutes les fonctionnalités de protection.

Protection directionnelle ou autoproduction

Une protection directionnelle isole le cogénérateur du réseau dès que de la puissance électrique passe vers le réseau. Dans ce cas, les protections mentionnées ci-dessus ne sont pas nécessaires.

Synchronisation de la génératrice synchrone

Le synchronoscope, composé d’un double fréquence-mètre et d’un double voltmètre (points 1 et 2 sur le schéma), donne une image des différences entre les champs tournants des deux branches du réseau à coupler que sont le cogénérateur et le réseau basse tension du client : comparaison de la fréquence et de la tension en grandeur et en phase.

Synchronisation de la génératrice synchrone.

Pour un démarrage normal, lorsque l’installation est sous tension, le synchroniseur va ajuster la puissance du moteur, via l’injection, pour adapter sa vitesse et donc la fréquence. Il va aussi moduler le courant d’excitation pour ajuster la tension en grandeur.

Lorsque les tensions et fréquences sont égales en grandeur et en phase, le couplage est actionné.

Pour un recouplage après un découplage du réseau, le même principe peut être utilisé avec une comparaison entre les points 1 et 3 au lieu des points 1 et 2.

Lorsque l’installation est alimentée par le groupe, mais isolée du réseau, on dit qu’elle est en îlotage. La puissance du moteur et le courant d’excitation régulent respectivement la fréquence et la tension. Lorsque le groupe fonctionne en parallèle sur le réseau, la puissance du moteur et le courant d’excitation régulent respectivement la charge électrique délivrée par le groupe et le cos phi.

Théorie

Pour plus d’informations sur le synchronisme des générateurs synchrones.

Les échangeurs de chaleur

Fonction

Récupérer la chaleur du moteur et des fumées pour la raccorder au système de production de chaleur  existant.

Description

Les échangeurs de chaleur permettent à 2 fluides, liquide ou gaz, de se croiser et d’échanger leur énergie thermique sans se mélanger. Les échangeurs les plus souvent rencontrés sont les échangeurs à plaques et les échangeurs à tubes droits ou en « U ». Ils se distinguent essentiellement par le type de surface d’échange entre les deux fluides. Leurs comportements respectifs en découlent.

Le groupe de cogénération comprend généralement 3 échangeurs de chaleur : le premier récupère la chaleur du bloc moteur dans l’eau de refroidissement, le deuxième celle des de l’huile de lubrification et le troisième celle des fumées.

Un quatrième échangeur est parfois présent au niveau du bloc turbo. Il est couramment appelé « intercooler » et sert à refroidir.

Une faible part de l’énergie thermique n’est pas récupérable, il s’agit de la chaleur dégagée par rayonnement et convection du moteur, de la chaleur résiduelle dans les échappements et des pertes dues à un éventuel intercooler.

Les caractéristiques essentielles des échangeurs de chaleur sont :

  • La températures d’entrée et de sortie.
  • Les débits.
  • Les polluants potentiels et solutions préconisées.

À quelques rares unités près, dans le secteur tertiaire, la plupart des cogénérateurs sont de petite puissance (quelques dizaines de kW) voire de puissance moyenne (quelques centaines de kW). Le cogénérateur alors se présente souvent sous la forme d’un « kit », échangeurs compris. Ces échangeurs sont, en général, en série; ce qui signifie que le cogénérateur ne dispose hydrauliquement que de deux connexions (départ/retour) pour se raccorder sur le circuit de chauffage.

Pour des unités de puissance plus importante, les échangeurs peuvent ne pas faire partie intégrante du cogénérateur. Dans ce cas, un ensemblier peut prévoir des échangeurs « externes » pour fournir de la chaleur à des températures différentes. Le dimensionnement de ces échangeurs se fera en fonction des exigences des différents besoins en chaleur. Ce genre d’unités de cogénération se retrouve plutôt dans l’industrie.


Le raccordement hydraulique

Fonction

Amener l’énergie thermique depuis les échangeurs du groupe de cogénération jusqu’au circuit d’utilisation de la chaleur, le plus souvent un système de chauffage central.

Schéma simplifié d’une installation type.

Description

Le raccordement hydraulique connecte la cogénération au circuit d’utilisation de chaleur du client et permet, par l’intermédiaire des vannes placées sur les canalisations, de gérer l’utilisation des différentes parties du circuit hydraulique.

On distingue essentiellement deux types de raccordement avec les chaudières : en parallèle ou en série.

Raccordement en série

Le raccordement en série est indiqué dans les configurations de chaufferie où :

  • Le réseau est de grande capacité.
  • Les débits d’eau sont importants.
  • La puissance du cogénérateur est faible par rapport à la puissance de la ou les chaudières.
  • Les chaudières sont à haute température.

Raccordement en série.

Dans le raccordement en série, la prise d’eau pour le refroidissement du moteur et sa sortie sont toutes les deux raccordées en amont des chaudières, sur le retour d’eau froide du circuit d’utilisation de chaleur du client. La prise d’eau se trouve en amont de son retour.

Une pompe de circulation assure l’irrigation correcte du moteur et, selon les cas, un échangeur de chaleur sépare le circuit principal du circuit de refroidissement du moteur.

L’inconvénient majeur de cette technique sera la non-adéquation avec une chaudière à condensation en raison d’un retour chaud et les pertes à l’arrêt inhérent à ce retour chaud.

L’avantage majeur est la « simplicité » de mise en œuvre dans une chaufferie existante, en limitant les modifications hydrauliques de la chaufferie.

Raccordement en parallèle

Raccordement en parallèle avec des chaudières à condensation par exemple.

Le raccordement en parallèle est indiqué dans les configurations de chaufferie où :

  • Les chaudières sont des chaudières à condensation.
  • Les nouvelles chaufferies.

Dans le raccordement en parallèle, la prise d’eau pour le refroidissement du moteur est raccordée en amont des chaudières, sur le retour d’eau froide du circuit d’utilisation de chaleur du client, tandis que le retour est raccordé en aval des chaudières, sur le départ vers le circuit d’utilisation de la chaleur.

Une pompe de circulation assure l’irrigation correcte du moteur et, selon les cas, un échangeur de chaleur sépare le circuit principal du circuit de refroidissement du moteur.

Un by-pass (vanne 3 V sur le schéma) permet la charge partielle ou la mise à l’arrêt du cogénérateur.

Principales caractéristiques techniques du raccordement hydraulique

Techniquement, le raccordement hydraulique se caractérise principalement par :

  • Le type de raccordement (parallèle, série, présence ou non d’un volume de stockage de chaleur, d’un aéro-réfrigérant…).
  • Le régime de température du réseau et la compatibilité des températures.
  • Le dispositif pour empêcher le retour d’eau chaude en entrée du groupe.
  • L’isolation du groupe du reste du circuit.
  • La qualité de l’eau d’appoint, traitement.
  • La bouteille de mélange ou non.
  • Le principe de régulation des chaudières.
  • L’aéro-réfrigérant :
    • l’échangeur,
    • l’antigel,
    • l’antibruit,
    • la puissance.

Le stockage de chaleur

Fonction

Si le besoin en chaleur du bâtiment est plus petit que la puissance thermique développée par la cogénération, cette dernière est normalement à l’arrêt. On peut cependant imaginer stocker une partie de la chaleur produite dans un ballon tampon pour l’utiliser lorsque la demande de chaleur est plus importante, par exemple lors de la relance matinale.

L’intérêt du stockage est :

  • De satisfaire une demande électrique sans que la chaleur produite à ce moment soit perdue. Cet avantage peut être particulièrement intéressant pendant les heures de pointe où l’électricité est particulièrement chère.
  • L’écrêtage des fluctuations de température, ce qui limite la fréquence de cycles marche/arrêt et augmente les temps de fonctionnement et la durée de vie de la machine.
  • La fourniture d’une plus grande partie de la demande de chaleur ce qui permet d’installer une plus grosse machine.

Description

Le stockage peut être mis en œuvre de différentes façons :

  • Le stockage dans les chaudières existantes (en fonction du volume d’eau de celles-ci).
  • Le stockage dans le réseau de tuyauterie (pour les grands réseaux).
  • Le stockage dans un réservoir indépendant.

Les principales caractéristiques du ballon de stockage sont

  • Le volume de stockage.
  • La position du stockage dans le circuit hydraulique.
  • Les températures et débits d’entrée et de sortie.
  • L’isolation thermique du ballon.

La régulation

Fonction

Réguler l’ensemble des équipements du cogénérateur, par exemple démarrer et arrêter le groupe ou moduler sa puissance en fonction de la demande de chaleur.

Description

La régulation se constitue d’un ensemble d’automatismes qui permettent de piloter, souvent à distance, le groupe de cogénération. C’est généralement le prescripteur qui rédige le cahier des charges de conduite.

De façon non-exhaustive, nous citons ici les principaux signaux de régulation :

  • Le démarrage
    • Le début des heures pleines relatives au tarif de l’électricité.
    • La pointe de consommation électrique (pointe quart-horaire).
    • Le besoin en chaleur (température de l’eau de retour).
    • La disparition du réseau électrique.
    • Le démarrage forcé par l’utilisateur.
  • L’arrêt
    • La fin des heures pleines relatives au tarif de l’électricité.
    • Le problème de parallélisme avec le réseau ou protections électriques.
    • La disparition du besoin de chaleur.
    • Le mauvais refroidissement du moteur (température de l’eau de retour).
    • Autre défaut sur le retour d’eau.
    • Le problème d’approvisionnement en combustible (niveau de fuel ou position de vanne).
  • La modulation de charge
    • La fluctuation du besoin en chaleur (température de l’eau de retour).
    • La pointe de consommation électrique (pointe 1/4 horaire).

 

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Moteur à combustion interne

Moteur à combustion interne


Principe dans le cas d’un cogénérateur

Parmi les moteurs de cogénérateur, les moteurs gaz ou diesel sont les plus couramment rencontrés. Par rapport au moteur à combustion interne classique (celui de votre voiture, par exemple), le moteur de cogénérateur valorise sa chaleur au travers d’une série d’échangeurs thermiques.

Le moteur diesel

Ce type de moteur appartient à la technologie des moteurs à combustion interne classique et fonctionne suivant un cycle thermodynamique en 4 temps (cycle Diesel), à allumage spontané. Il peut utiliser du combustible comme le diesel naturellement, mais aussi de l’huile végétale ou encore des huiles végétales de recyclage comme l’huile de friture. Cette filière est actuellement en cours d’évaluation tant d’un point de vue de l’étude de potentiel, de la qualité et la stabilité du combustible, ou encore de son statut par rapport à la définition de déchet, de combustible de « seconde génération », …
La qualité du carburant, sa stabilité au cours du stockage, … doivent être prise en compte afin d’éviter des ennuis mécaniques comme le dépôt de cristaux sur les têtes des pistons en occasionnant  des mises à l’arrêt intempestives.

Illustration du principe d’injection de diesel dans un moteur diesel.

Avantages et inconvénients

(+) Le moteur diesel :

  • À un rendement légèrement supérieur à son équivalent gaz.
  • Il peut facilement être adapté pour être utilisé avec des huiles végétales (pour autant que toutes les spécifications techniques de l’huile utilisée correspondent aux exigences du fabricant du moteur, par exemple la viscosité doit être adéquatement gérée).
  • Son couple mécanique est important. Il pourrait travailler en îlotage et reprendre une charge électrique non négligeable.
  •  …

(-) Par contre le moteur diesel :

  • À injection directe demande un contrôle très précis du carburant injecté pour assurer l’autoallumage.
  • Est plus bruyant que son homologue « essence ».
  • À puissance égale, sera plus lourd.
  • Demande un entretien plus régulier que son homologue.

Le moteur au gaz

Quant à ce type de moteur, il fait partir aussi de la gamme des moteurs à combustion interne. Mais, en réalité, on parlera plutôt de moteur à explosion. De plus, il fonctionne aussi suivant un cycle thermodynamique en 4 temps (cycle Otto), à allumage commandé.

Principe d’injection du mélange air/gaz dans la chambre de combustion pour un moteur gaz.

Avantages et inconvénients

(+) Le moteur gaz :

  • Plus léger.
  • Utilise des carburants plus propres que le diesel, d’où son entretien plus aisé et moins coûteux et avantageux d’un point de vue des CV octroyés.
  • Plus silencieux.
  •  …

(-) Par contre le moteur gaz :

  • Possède un moins bon couple mécanique que le moteur diesel. Son utilisation en îlotage est assez délicat.
  • Son rendement est inférieur à celui du moteur diesel.

Les échangeurs du moteur

La récupération de chaleur s’effectue à plusieurs niveaux :

  • Basse température : au niveau de l’eau de refroidissement, au niveau des huiles de lubrifications du moteur.
  • Haute température : au niveau des gaz d’échappement.
  • Basse température : au niveau de l’intercooler du turbo lorsqu’il est présent.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Moteur à combustion externe

Moteur à combustion externe


Principe

Photo moteur stirling.

Source : Wikipédia.

Dans le monde de la cogénération, le moteur stirling est une technologie de moteur utilisée particulièrement pour les micros cogénérations domestiques. C’est un moteur à combustion externe de petite puissance. Le gaz interne (hélium par exemple) est soumis aux quatre phases reprises ci-dessous :

Comme pour le moteur à combustion interne, le cycle du stirling s’articule sur la composition des 4 phases séquentielles suivantes :

  1. Chauffage externe du gaz à volume constant (isochore). C’est au point mort haut que le gaz s’échauffe et atteint une pression élevée. C’est l’exemple du brûleur qui assure le chauffage.

  2. Détente du gaz à température constant (isotherme). Le piston se déplace vers le bas.
  3. Refroidissement externe à volume constant (isochore) au point mort bas. En pratique, c’est à ce niveau que le circuit de chauffage récupère la chaleur du brûleur transmise au gaz tout en le refroidissant.

  4. Compression du gaz à température constant (isotherme). Le piston remonte.

On se doute bien que la mise en œuvre pratique d’un tel système poserait des problèmes de contraintes thermiques importantes, de la gestion du chauffage et du refroidissement du système et ne donnerait pas des performances intéressantes.

Pour pallier à ce problème, l’ingéniosité des inventeurs de tous bords n’a pas de frontières. La présence d’un « déplaceur » permet de chauffer et de refroidir le système de manière continue comme le montre les figures suivantes :

  1. Détente isotherme (à température constante). Le piston du moteur (en bleu) et le piston déplaceur se déplacent vers le bas en augmentant le volume du gaz dans le cylindre.
  2. Combinaison de la fin de la détente isotherme et du début du refroidissement isochore (à volume constant). Le piston moteur continue à se déplacer vers le bas jusqu’au point mort bas tandis que le piston se déplace déjà vers le haut.
  3. Compression isotherme. Le piston moteur remonte et le piston déplaceur se déplace vers le point mort haut.
  4. Combinaison de la fin de compression isotherme et du chauffage isochore. Le piston moteur arrive au point mort haut et le piston déplaceur redescend.

Type de moteur stirling

Histoire grecque

La plupart des moteurs stirling sont à mouvement rotatif; c’est-à-dire qu’ils transforment le mouvement alternatif linéaire des pistons en mouvement rotatif via l’ensemble bielle/vilebrequin.

Différents types de moteur stirling existent sur le marché. Un autre moteur stirling assez didactique est repris dans la figure suivante :

Type alpha.

Stirling Bêta pour cogénérateur

Schéma stirling Bêta pour cogénérateur.Schéma principe stirling Bêta pour cogénérateur.

Le type stirling bêta décrit ici est un moteur linéaire. Il remporte un franc succès auprès des constructeurs de micros cogénérateurs domestiques. Contrairement au stirling alpha, le bêta est composé d’un seul cylindre qui accueille les deux pistons. La chambre chaude se situe au niveau de la partie supérieure du cylindre tandis que la chambre froide, elle, à la base du cylindre. Sous le cylindre se situe le carter dans lequel se trouve l’alternateur. C’est un alternateur rectiligne ! La production électrique s’effectue par variation de flux lorsque la partie mobile de l’alternateur (on ne peut pas parler de rotor dans ce cas-ci) se déplace selon un mouvement rectiligne alternatif.

  1. Le gaz de travail est froid et occupe un volume minimum. Le déplaceur descend et chasse le gaz  de la partie basse du cylindre (froide) vers la partie haute (chaude) soumise à la chaleur du brûleur.

  2. Le gaz chauffé au niveau du brûleur tend à occuper plus de place et pousse le déplaceur et le piston moteur vers le bas en bout de course. Le piston entraine dans sa course la bobine.  Par variation de flux dans la bobine, il y a production d’électricité.

  3. Le gaz est maintenant à son volume maximum. Le déplaceur remonte mécaniquement et fait passer le gaz de la partie haut (chaude) vers la partie basse (froide) où il est refroidi.

  4. Le gaz en refroidissant dans la partie basse tend à occuper moins de place. Le piston moteur remonte et comprime le gaz. Le piston moteur entraine dans sa course la bobine vers le haut. Par variation de flux dans la bobine, il y a production d’électricité.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Alternateur

Alternateur

Les machines tournantes

Les machines tournantes électriques se composent principalement :

  • d’un rotor, l’élément  tournant;
  • d’un stator, la partie fixe de la machine.

Aussi, elles se divisent essentiellement en deux catégories : les machines synchrone et asynchrone. La différence principale entre ces deux types de machine réside dans la conception du rotor.

En ce qui  concerne la puissance, la plupart des machines tournantes à  courant alternatif sont, au-delà de quelques kW, des machines triphasées, raison pour laquelle les bobinages au niveau du stator sont souvent au nombre de trois ou un multiple de trois.

Schéma machines tournantes.


Les machines synchrones

Pour les machines synchrones, le rotor peut être constitué :

  • d’un ou de plusieurs aimants permanents. C’est le cas pour les petites et moyennes puissances.
  • de bobinages alimentés en courant continu et d’un circuit magnétique. On parle alors d’électro-aimants. Ce type de rotor est très courant.

Alternateur synchrone

Principe de fonctionnement

Lorsque le rotor est entrainé par un moteur à combustion interne par exemple, c’est le cas d’un cogénérateur, son champ magnétique tourne à la vitesse de rotation du moteur : il est appelé « champ tournant ». Il induit dans les bobinages du stator un courant alternatif de forme sinusoïdale pour autant que les circuits du stator soient fermés sur une charge. Dans ce cas, la machine tournante est  « génératrice » ou communément appelée « alternateur ».
La vitesse du champ tournant est aussi appelée vitesse de synchronisme pour autant qu’elle soit la même que celle du champ tournant généré par le réseau sur lequel la machine synchrone sera connectée.
Les réseaux interconnectés en Europe ont une fréquence de 50 Hz. Pourquoi cette fréquence ? La fréquence est en fait liée à la vitesse du champ tournant par la relation :

ω = 2πf / p

Avec :

  • ω : vitesse angulaire du champ tournant (radian/s).
  • f : fréquence du réseau (Hz).
  • p : le nombre de paires de pôles du rotor.

Schéma alternateur synchrone.

Par exemple, une machine tournant à 3 000 tr/min avec une seule paire de pôles génère un signal sinusoïdal de fréquence de 50 Hz. Si l’on veut brancher sur le réseau un alternateur tournant à 1 500 tr/min, le rotor devra être équipé de 2 paires de pôles pour pouvoir fournir un courant alternatif de fréquence 50 Hz. C’est le cas du rotor représenté dans la figure ci-dessus.

Démarrage de l’alternateur synchrone

Dans la plupart des cas, le démarrage est assuré par le moteur d’entrainement. Le couplage de l’alternateur se réalise lorsque tous les critères de synchronisation sont respectés.

Régulation de l’alternateur

En îlotage

Lorsque la charge d’un alternateur change, les puissances actives et réactives peuvent changer. Il en est de même pour la tension et la fréquence. Comment les maintenir stables ?
Sans rentrer dans les détails :

  • Lorsque la puissance active varie, la vitesse et la fréquence de l’alternateur varient. Comme pour une voiture où la pente de la route change, il faut « jouer » avec l’accélérateur pour rétablir la bonne vitesse et, par conséquent, la bonne fréquence (accélérer pour maintenir la bonne vitesse en côte et décélérer en descente).
  • Lorsque la puissance réactive varie, la tension de l’alternateur varie. Il est nécessaire de modifier l’excitation de l’alternateur.

En réseau

Couplé sur un réseau, l’alternateur est véritablement « accroché ». Les seuls paramètres à réguler sont :

  • la puissance réactive en agissant sur le niveau d’excitation de l’induit (le rotor);
  • la puissance active en sollicitant le régulateur ou le variateur de vitesse.

Moteur synchrone

Lorsque la machine synchrone n’est pas entrainée par un moteur à combustion interne, mais connectée à un réseau électrique classique, elle se comporte en « moteur ». Attention toutefois que le moteur synchrone est particulier dans le sens où  il ne peut pas se mettre à tourner seul sans artifice de démarrage : un variateur de fréquence placé entre le réseau et le stator permet au rotor « d’accrocher » le champ tournant du stator passant progressivement d’une basse vitesse à celle de synchronisme du réseau d’alimentation.


Les machines asynchrones

Contrairement aux machines synchrones, le rotor des machines asynchrones est plus simple dans sa conception : l’aimant permanent ou d’électro-aimant est remplacé par une simple cage d’écureuil.

Schéma machines asynchrones.

Pour expliquer le fonctionnement d’une machine asynchrone, parler des moteurs permet de simplifier la démarche.

Les moteurs asynchrones

L’application reine de la machine asynchrone est le « moteur ».  En effet, ce sont des machines simples, peu couteuses et robustes.

La notion de « glissement » est très importante pour les moteurs asynchrones. En effet, le glissement étant la différence de vitesse du champ tournant du stator par rapport à la vitesse du rotor, il est nécessaire au maintien d’une variation de flux électromagnétique au niveau des conducteurs du rotor. Sans cette variation de flux ΔΦ/Δt, selon les lois de l’induction (loi de Lenz en particulier), aucun couple n’est généré au niveau du rotor.  Le glissement, en mode moteur, est de l’ordre de quelques %. Par exemple, pour un champ tournant à une vitesse de 3 000 tr/min, le rotor,  à vide, tournera à 2 995 tr/min ; ce qui engendrera un glissement de (3 000 – 2 995) / 3 000 = 1.6 %.

Auparavant, le seul inconvénient de ce type de moteur était sa pointe importante de courant au démarrage et le fait qu’il était difficile de faire varier la vitesse de rotation du moteur. À l’heure actuelle, avec l’avènement de l’électronique de puissance, les onduleurs ont permis de faire varier la vitesse de rotation dans une large plage.

Les alternateurs asynchrones

Principe de fonctionnement

Contrairement à l’alternateur synchrone, l’alternateur asynchrone ne possède pas de circuit d’excitation au niveau du rotor, raison pour laquelle il est plus simple de raisonner d’abord sur le fonctionnement du moteur asynchrone pour ensuite détailler celui de l’alternateur.

Pour faire fonctionner un moteur asynchrone en alternateur, « il suffit » qu’il tourne légèrement plus vite que le champ tournant du stator et ce au moyen d’un moteur à combustion interne comme le cogénérateur par exemple. Autrement dit, le glissement, dans ce cas, devient négatif. On parle aussi de machine « hyper-synchrone ».

Le champ tournant du rotor d’un alternateur asynchrone est produit par le … stator connecté au réseau. L’induction d’un champ tournant dans le rotor par le stator se traduit par la génération d’une composante réactive du courant dans les enroulements du stator (courant de magnétisation du rotor) et emprunté au réseau. C’est la raison pour laquelle les alternateurs asynchrones ont un mauvais cos φ qu’il faut souvent compenser par le placement de capacités.

Cependant, pour que l’alternateur débite de l’énergie sur un réseau, il est impératif que l’induction du champ tournant au stator soit synchrone avec le celui du réseau. L’électronique est donc la bienvenue !

Démarrage

Dans la plupart des cas, le démarrage est assuré par le moteur d’entrainement. Dans certains cas particuliers, l’alternateur démarre en moteur asynchrone à vide. Un artifice de démarrage (résistances électriques en série avec les enroulements inducteurs) est nécessaire.

Régulation

Lorsque l’alternateur est couplé à un réseau, le seul paramètre de régulation est la vitesse du moteur d’entrainement qui agit sur le niveau de puissance injecté sur le réseau. Pratiquement, on considère qu’une variation de 10 % du glissement de 0 à 10 % augmente la puissance électrique de 0 à 100 %.

Couplage de l’alternateur sur un réseau

Afin de pouvoir coupler un alternateur sur le réseau, il est impératif de respecter des conditions de couplage sans quoi la destruction de l’alternateur est presque inéluctable.
Les conditions sont :

  • la concordance des fréquences;
  • la concordance des tensions;
  • la concordance des phases.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Technologies alternatives

Technologies alternatives

Principe de la pirolyse.


Cogénération et biomasse

La cogénération et la biomasse, une solution éprouvée !

La biomasse, qu’elle soit d’origine ligneuse, agricole, agro-alimentaire ou résidentielle, constitue une source d’énergie renouvelable et, bien souvent aussi, un déchet difficile à gérer.

Dans ce contexte, la gazéification de produits ligneux et la biométhanisation de déchets agricoles et résidentiels alimentant une unité de cogénération peuvent apporter des réponses tant du point de vue énergétique qu’environnemental.

Les techniques de gazéification ou de biométhanisation permettent maintenant de bien maîtriser les processus de combustion et de limiter ainsi les émissions de polluants.

Ces technologies valorisent ainsi efficacement une source d’énergie renouvelable, présente abondamment en Wallonie et encore largement sous exploitée. Leur utilisation comme source d’énergie primaire permet donc d’alléger nos émissions de CO2 et de participer à l’effort de notre pays au niveau de l’accord COP 21.

À ce titre, elles sont particulièrement visées par le décret relatif à l’organisation du marché de l’électricité en Wallonie, qui incite financièrement au développement d’applications économes en énergie primaire par le principe des certificats verts. L’économie en CO2 engendrée par des cogénérations à partir de biomasse est effectivement très importante.

D’une part, s’il s’agit d’une cogénération de qualité, elle participe au même titre que toute cogénération de qualité à l’économie de CO2 et peut donc recevoir à ce titre des certificats verts en fonction de sa qualité.
Par ailleurs, les cogénérations à partir de biomasse rendent également possible la création de nouvelles filières d’activités économiques et de nouveaux pôles d’excellence technologique en Wallonie.
Enfin, elles peuvent apporter des éléments de réponse à la lancinante question du traitement des déchets. Dans certains cas et sous certaines conditions, elles présentent, en effet, une réponse intégrée à ce problème majeur de société.

Cogénération au biogaz

Une réalisation concrète : la cogénération au biogaz à la décharge d’Anton.

Installation de la décharge d’Anton – © SPAQUE.

Dans le cas de la décharge d’Anton située à proximité d’Andenne, dont la réhabilitation pour le compte de la Région wallonne est menée par la Spaque, le biogaz généré par la masse des déchets enfouis est collecté et envoyé vers un module de cogénération.

Après une première expérience dans la cogénération débutée en 1999, l’unité a été remplacée en 2013.

Une nouvelle unité de cogénération a été mise en place, adaptée au biogaz produit sur le site, à savoir un biogaz pour une richesse en méthane de 55 %.

La nouvelle installation a une Puissance électrique installée de 115 kWé pour une puissance thermique de 160 kWth. Cette installation est dimensionnée pour absorber un débit de 50 m³/h de biogaz.

La chaleur est envoyée vers les différents bâtiments de l’Institut Saint-Lambert.

En 2014, l’installation a valorisé à peu près 1 million de m³ de déchets ménagers (445 000 m³ de biogaz produit), en produisant 912 MWh d’électricité (dont 41 % auto consomme et le reste a été réinjecté sur le réseau.) et 1 054 MWh de chaleur (dont 21 % a été autoconsommé et le reste renvoyé vers l’institut St Lambert).

Les rendements d’une installation de ce type (base de comparaison : pouvoir calorifique du gaz brûlé), pour un trimestre représentatif, sont de 33,6 % comme rendement électrique et 52,6 % pour le rendement thermique; ce qui donne un rendement global de 86,2 %.

Cogénération au bois

La cogénération au bois valorise le bois en électricité et en chaleur par une technologie unique qui est la seule solution bien adaptée aux déchets de bois produits dans les scieries, menuiseries de taille moyenne ainsi que ceux qui sont mobilisables lors de la gestion des espaces verts et des forêts.

Cogénérateur à gazéification de bois (source : Coretec).

La conversion du bois en électricité et en chaleur est réalisée par la gazéification du bois dans un gazogène et par la combustion du gaz produit dans un groupe de cogénération.

Installation d’une cogénération au bois : schéma de principe (source : Coretec).

Le combustible, par exemple sous forme de plaquette de bois, alimente le gazogène dans lequel il est transformé en gaz combustible. Le gaz produit est ensuite conditionné pour être brûlé dans le moteur du groupe de cogénération. L’électricité produite peut être consommée sur place ou être envoyée sur le réseau. La chaleur peut alimenter un procédé industriel ou des installations de chauffage. L’installation est entièrement automatisée et contrôlée à distance.

Les rendements de conversions électrique et thermique sont respectivement de 23 à 25 % et 50-57 %; soit un rendement total de 75-80 %. La puissance unitaire des centrales de cogénération développées et commercialisées en Wallonie varie de l’ordre de 30-45 kWé.


Trigénération

L’ajout à l’unité de cogénération d’une unité de production de froid par absorption transforme la cogénération en tri-génération.

L’objectif est d’utiliser la chaleur du moteur en été, à l’heure où elle est généralement moins utile, pour produire du froid. Ce froid peut être utilisé pour diverses applications comme la climatisation ou la réfrigération. La cogénération peut ainsi exploiter l’énergie primaire même en été.

Une telle technologie a naturellement un coût d’investissement élevé. De plus, la rentabilité tant énergétique que financière n’est pas souvent au rendez-vous. Une étude réalisée à l’UCL montrait les limites de cette technologie (« Économie d’énergie en trigénération ; Pépin Magloire, Tchouate Heteu, Léon Bolle ; Unité de thermodynamique et turbomachines, département de mécanique, Université catholique de Louvain ; 2002 »). En voici les principales conclusions :

  • Une cogénération de froid et d’électricité ne permet pas d’économiser systématiquement de l’énergie, mais permet dans certaines conditions une économie financière.
  • Cependant, la production simultanée de froid, de chaleur et d’électricité (trigénération) permet une économie d’énergie primaire en fonction de la fraction de chaleur λ utilisée pour la production de froid :
    • Pour les cycles LiBr/H2O, si λ est de l’ordre de 0,7.
    • Pour les cycles H2O/NH3, si λ est de l’ordre de 0,5.

Sur le marché, les puissances descendent actuellement jusqu’à 80 kW pour les machines à l’ammoniac ou même 70 kW pour les machines au Lithium-Bromure.

Le dimensionnement de la machine se fait en ajoutant la consommation de chaleur relative à la production de froid à la monotone de chaleur (calcul des puissances et des plages de fonctionnement) déjà définie précédemment.

Le fonctionnement idéal des machines à absorption, qui permet des rendements très élevés, utilise un fluide chaud à une température supérieure à 100 °C. Lorsque le fluide chaud n’est « qu’à » 95 °C, la puissance frigorifique est dans un rapport 1/1,6 de la puissance en chaud.

Notons finalement qu’une telle machine nécessite une tour de refroidissement plus grande.

Techniques

Présentation synthétique du phénomène d’absorption.

Microcogénération domestique

Source : Viessmann.

La micro-cogénération est une solution adaptée pour des plus petites installations, et en l’occurrence pour l’usage domestique. Au niveau du cogénérateur proprement dit, le moteur à combustion interne fait place à un moteur à combustion externe de type « stirling ». Dans de nombreux cas, la cogénération sera directement combinée avec une chaudière gaz à condensation. Les différents acteurs du marché ont à peu près tous développé une cogénération de type gaz.

Moteur stirling.

Cette technologie a été mise sur le marché pour répondre à des consommations électriques de l’ordre de 2 500 à 3 000 kWhé/an, ce qui correspond à la consommation annuelle moyenne d’un ménage.

Les puissances développées sont de 1 kWé et 6 kWth. Le complément thermique est donné par la chaudière à condensation qui peut moduler de 6 à 20 kW.

Le module sur la cogénération à été réalisé par l’ICEDD, Institut de Conseil et d’Etudes en Développement Durable asbl – © ICEDD – icedd@icedd.be

Groupe de ventilation

Groupe de ventilation


Composition

Le groupe de ventilation correspond à un caisson permettant de centraliser, en un même endroit accessible, la plupart des composants principaux de la ventilation hygiénique suivant le projet.

Dans le cas où le système permet de traiter l’air neuf et de climatiser les locaux on parlera plus souvent de caisson de traitement d’air (CTA).

Les principaux composants que l’on peut retrouver dans le groupe de ventilation ou le caisson de traitement d’air sont les suivant :


Accessibilité et emplacement

Le groupe de ventilation ou la centrale de traitement d’air rassemble un certains nombre des composants d’un réseau de ventilation. C’est pourquoi, peu importe son emplacement, il doit impérativement rester accessible afin de permettre les contrôles, entretiens, inspections, nettoyages, réglages, remplacements, … périodiques et nécessaires.

De manière générale, le groupe de ventilation peut se trouver :

  • soit à l’extérieur du bâtiment, bien souvent en toiture,
  • soit à l’intérieur d’un local technique, situé également en haut du bâtiment pour favoriser les prises et rejets d’air.

Mais le plus important est de savoir s’il se situe à l’intérieur ou à l’extérieur du volume protégé et isolé du bâtiment.

Situation dans le volume protégé

C’est la situation la plus recommandée.

Avantages

  • Si le groupe de ventilation est proche de l’enveloppe, le nombre et la longueur des conduits à isoler sont limités.
  • Le risque de condensation est réduit dans les conduits d’évacuation.
  • Le risque de givre est réduit pour la récupération de chaleur.
  • L’alimentation électrique est interne au bâtiment : pas de percement de l’enveloppe.

Inconvénients

  • Les conduits de prise et de rejet d’air à l’extérieur perce l’enveloppe isolée et étanche du bâtiment.
  • L’air froid extérieur entre vie les conduits; les parties de conduits situées entre l’enveloppe et le groupe de ventilation ou le caisson de traitement d’air doivent isolées pour éviter tout risque de condensation ou de refroidissement de l’ambiance intérieure.
  • De même ces portions de conduits doivent être limités au maximum ce qui peut s’opposer à un emplacement central du groupe de ventilation qui est bénéfique pour la distribution de l’air neuf au sein du bâtiment et à une limitation des pertes de charges.
  • Le local technique devrait être suffisamment grand, permettre l’accessibilité et l’entretien du caisson et être correctement isolé acoustiquement pour éviter la propagation des bruits des ventilateurs dans le bâtiment.

Situation hors du volume protégé

Il s’agit d’une situation courante mais peu recommandée.

Avantages

  • Si le groupe de ventilation est proche de l’enveloppe, le nombre et la longueur des conduits à isoler sont limités.
  • Le groupe est généralement situé en toiture (plate) ce qui permet de disposer de suffisamment de place et de limiter les portion de conduit de distribution à isoler.
  • Un local technique n’est pas nécessaire mais il faudra veiller à ce que le caisson de traitement d’air soit protéger des intempéries.
  • Les conduits de prises et rejets d’air sont limités à leur maximum voir quasi inexistants.

Inconvénients

  • Les conduits de distribution perce l’enveloppe isolée et étanche du bâtiment.
  • L’air traité au sein du groupe circule dans le conduits de distribution situé à l’extérieur; les parties de conduits situées entre l’enveloppe et le groupe de ventilation ou le caisson de traitement d’air doivent isolées pour éviter de détruire le traitement de l’air effectué au sein du caisson.
  • Un endroit suffisamment grand et accessible doit être disponible, ce qui n’est pas toujours le cas.
  • L’alimentation électrique est interne au bâtiment : de percement de  l’enveloppe.
  • Le caisson de traitement d’air est parfois visible ce qui n’est pas toujours très au goût des occupants ou architectes.

Appareils de filtration de l’air vicié

Appareils de filtration de l'air vicié


Principes et techniques de filtration

L’air vicié des cuisines est chargé en graisses, odeurs et fumées, notamment.

De manière à rejeter l’air le plus propre qui soit et à ne pas salir inutilement les filtres et le système de ventilation, divers appareils de traitement de l’air aspiré peuvent être installés. On distingue plusieurs technologies :

  • La filtration mécanique : les graisses sont récoltées grâce à certains principes physiques : choc, inertie, gravité, … dans des séparateurs de graisses.
  • La filtration biologique : les graisses sont « digérées » par un brouillard d’enzymes.
  • La filtration UV : les graisses sont détruites par effet de photolyse.
  • La filtration par brumisation : les graisses sont récoltées par agglomérations dans un nuage de vapeur d’eau.
  • La filtration électrostatique : les particules de fumées et de graisses sont récoltées par ionisation.
  • La filtration à charbon actif : les particules des odeurs sont retenue par la poudre de charbon actif.

Chacune des techniques de filtrations à ses caractéristiques propres pour extraire les particules de l’air rejeté. Aucune n’est efficace pour extraire à la fois les graisses, les fumées et les odeurs. Par exemple, les séparateurs de graisses ne peuvent pas filtrer les graisses à 100% et laissent passer les fumées et les odeurs, des systèmes secondaires ont été élaborés comme la filtration par UV ou biologique.

C’est pourquoi, plusieurs systèmes de filtration différents doivent être installés en série pour purifier l’air rejeté au maximum.

Une même règle est d’application pour tous ces systèmes: l’installation et l’entretien doit se faire par des professionnels.


La filtration mécanique

Les graisses sont extraites de l’air par chocs, effet d’inertie, centrifugation et gravité. On distingue deux technologies :

  • Les filtres qui sont des outils de filtration où les graisses restent emprisonnées, par exemple : filtre à treillis, filtre à choc ou filtre à charbon actif, …
  • Les séparateurs de graisses qui sont des outils de filtration ou les graisses sont extraites de l’air et récoltées dans un bac à condensats ou une gouttière, par exemple le séparateur de graisses cyclonique ainsi que certains filtres à chocs (filtre à chocs 1 couche sans zones inaccessibles). Les séparateurs de graisses ne retenant pas ou très peu de graisses sur leurs surfaces, ils sont un atout pour la sécurité anti-incendie et pour l’hygiène (pas de souches de bactéries inaccessibles).

Les filtres

S’ils sont utilisés, ils doivent toujours être en acier inoxydable et être utilisés en combinaison avec des séparateurs de graisses. Les filtres à treillis sont interdits dans les cuisines professionnelles. Un filtre ne peut être utilisé dans une hotte en tant que seul moyen de filtration (prEN 16282) pour des raisons de sécurité anti-incendie.

Les filtres à chocs ou labyrinthe sont composés de profilés en quinconce qui interceptent les particules de graisse, principalement :

  • Par effet d’inertie : à chaque virage autour d’un profilé, les particules sont projetées en dehors du flux d’air.
  • Par condensation des particules sur les surfaces « froides ». Dès lors, le rendement s’accroît avec une diminution de la vitesse de l’air. Le filtre à choc est donc l’outil optimal pour la filtration de l’air dans des zones humides, genre laverie ou lave-casseroles.

Les filtres à treillis correspondent à des filtres plans composés d’un treillis de fils d’acier.

Illustration filtres à treillis.

Filtre à choc (vue de face et en coupe).

Photo filtre à choc.

Filtre à treillis métallique et filtre à choc.

Avantages

  • Leur faible coût.

Inconvénient

  • Une rétention importante des graisses à l’intérieur des filtres ce qui accroit le risque d’incendie s’ils ne sont pas régulièrement lavés. En outre, l’intérieur des filtres n’étant pas accessible, il faut les remplacer régulièrement.
  • Une variation de la perte de charge (et donc du débit) en fonction de l’encrassement.
  • Pour les filtres à chocs, un faible rendement de 50% sur les particules de 10µ pour les filtres à une couche (on peut monter à 60% dans le cas des 2 couches).

Le séparateur de graisses à chocs

Le séparateur de graisses à chocs se différencie des filtres à chocs classiques par le fait que les ailettes sont ouvertes aux extrémités. Ceci permet un écoulement des graisses récoltées et également le nettoyage total des surfaces du séparateur de graisses.

Ne retenant pas les graisses à l’intérieur le séparateur de graisses ne représente pas de risque en cas d’incendie au moment où les flammes l’effleurent.

Avantages

  • Une perte de charge (et donc un débit) constant(e) avec l’encrassement,
  • Un entretien facile en lave-vaisselle,
  • Faible risque de développement d’un feu de cheminée.

Inconvénients

  • Un faible rendement de 50% sur les particules de 10µ, d’autant plus que des séparateurs de graisses à 2 couches n’existent pas.

Le séparateur de graisses à effet cyclonique

Grâce à la forme des séparateurs, l’air vicié effectue continuellement une spirale dans le même sens, les particules de graisse et d’eau sont séparées par centrifugation et récupérées par gravité dans un collecteur.

Photo séparateur de graisses à effet cyclonique.   Illustration séparateur de graisses à effet cyclonique.

Avantages

  • Un rendement maximal jusqu’à 90% pour des particules de 10µ.
  • Une perte de charge (et donc un débit) constant(e) avec l’encrassement,
  • Un entretien facile en lave vaisselle
  • Faible risque de développement d’un feu de cheminée.

Inconvénients

  • Un coût plus élevé

La filtration biologique

Ce système consiste à créer un brouillard d’enzymes agissant sur les graisses et les huiles détruisant ainsi tout résidu ayant passé le premier stade de filtration. Pour ceci un réseau de tubes et de buses est placé dans les plénums d’extraction, le gainage et le groupe. Deux modes de fonctionnement existent : aspersion en continu ou aspersion unique après le service.

Fonctionnement continu

Avantages

  • Élimine toutes les graisses dans l’air extrait et donc une grande partie des odeurs.
  • Récupération d’énergie thermique possible de manière optimale.
  • Supprime totalement les risques d’incendies, plus de dépôts de graisses, ce qui permet de revoir à la baisse les coûts d’entretien et les primes d’assurances
  • Entretien aisé simultanément avec l’entretien annuel obligatoire.
  • Le matériel, récupérateur + groupe restant propres, leur durée de vie est allongée.

Inconvénients

  • Comme le produit doit être utilisé en continu la consommation en produits biologiques, pour lequel on est lié au fabriquant, s’avère rapidement très onéreuse.
  • Ne peut être utilisé en combinaison avec un filtre à charbon actif.

Aspersion en fin de service uniquement

Avantages

  • Le gainage est nettoyé chaque soir, les risques d’incendie dans le gainage sont quasi nuls, ce qui permet de revoir à la baisse les coûts d’entretien et les primes d’assurances.
  • Le matériel, récupérateur + groupe restant propres, leur durée de vie est allongée.

Inconvénients

Peu d’inconvénients, sauf qu’il ne présente pas les avantages du fonctionnement à aspersion continue, donc :

  • Pas d’élimination des odeurs
  • Pas de récupération d’énergie possible, sauf par récupérateur moins efficace à large espacement d’ailettes.

La filtration par UV

Filtration par rayon UV dans les plénums d’extraction

En installant les lampes UV dans les plénums d’extraction l’effet  de photolyse est combiné à celui de l’ozonolyse, détruisant ainsi 100% des graisses résiduelles. En éliminant toutes les graisses dans l’air d’extraction, une récupération de haute efficacité peut être installée dans le groupe d’extraction. Sans ceci, un récupérateur de chaleur se colmaterait rapidement, causant une consommation de l’ensemble du système supérieure à un système sans récupérateur de chaleur.

Avantages

  • Élimine toutes les graisses dans l’air extrait et donc une grande partie des odeurs.
  • Récupération d’énergie thermique possible de manière optimale.
  • Supprime totalement les risques d’incendies, plus de dépôts de graisses, ce qui permet de revoir à la baisse les coûts d’entretien et les primes d’assurances
  • Entretien aisé simultanément avec l’entretien annuel obligatoire.
  • Le matériel, récupérateur + groupe restant propres, leur durée de vie est allongée.

Inconvénients

  • Les rayons UV et l’ozone étant nocifs pour l’homme, des mesures pour éviter toute exposition doivent être prises.
  • Après la durée de vie des lampes UV celles-ci doivent être remplacées par le fabriquant. La durée de vie des lampes UV varient selon le fabriquant de 6000h à 13000h.

Filtration par rayon UV dans un caisson placé hors du flux d’air

L’effet est le même que les systèmes avec les lampes placés dans le flux d’air. Cependant l’effet de photolyse étant absent, l’efficacité de destruction des graisses résiduelles ne dépasse pas les 70%.

Avantages

  • Ce système peut être placé des années après l’installation des hottes de ventilation.
  • Récupération d’énergie possible. Un échangeur à large espacement (moins efficace) ou échangeur autonettoyant est alors impératif.
  • Mêmes avantages que les systèmes UV placés dans le flux d’air. Mais moins performant

Inconvénients

Idem à ceux des systèmes UV placés dans le flux d’air

Générateur d’ozone

Ce système à la même fonction que les systèmes de filtration par UV placés hors du flux d’air, sauf que la génération d’ozone se fait par un autre processus chimique.
Avantages et inconvénients idem aux systèmes de filtration par UV placés hors du flux d’air.


La filtration par brumisation


Dans le cas de cuissons à très hautes températures (par exemple pour les woks ou barbecues), les graisses sont décomposées en très fines particules et passent facilement à travers les systèmes de filtrations « classiques » (filtration mécanique, enzymatique et UV).

Ceux-ci sont donc inutiles et le système d’extraction est alors conçu avec une filtration par brumisation. Cette technique consiste à projeter un brouillard de fines gouttelettes dans le système d’extraction. Les graisses s’agglomèrent autour des gouttelettes et l’eau viciée est alors récoltée et évacuée.

Avantages

  • Un rendement élevé pour les particules les plus fines

Inconvénients

  • Un coût plus élevé
  • Le besoin de raccordement à l’eau et son évacuation
  • Un coût de consommation d’eau en cas de non-recyclage
  • L’entretien et le nettoyage du bac ainsi que la filtration de l’eau si un recyclage de l’eau est effectué (peu courant)

La filtration électrostatique

Le filtre électrostatique comporte deux zones opérationnelles : une zone d’ionisation et une zone collectrice. Par la traversée de la zone d’ionisation, toutes les particules sont chargées positivement : elles sont alors ionisées. Les lames du filtre qui constituent la zone collectrice captent la totalité des particules par un champ électrostatique (négatif) de forte puissance. Le filtre électrostatique permet donc également de capter les fumées.

Avantage

Élimination des fumées dans le flux d’air rejeté

Inconvénients

Bien que le filtre électrostatique permette également d’éliminer les graisses résiduelles, ceci est fortement à déconseiller. La graisse se colmatant dans la zone collectrice, celle-ci perds rapidement son efficacité. Un nettoyage journalier est conseillé si le filtre électrostatique est utilisé sans autre système de filtration secondaire.


La filtration à charbon actif

Le filtre à charbon actif permet d’éliminer toutes les odeurs dans le flux d’air rejeté.

Avantage

Le filtre à charbon actif est l’élément indispensable là ou un air d’extraction complètement sans odeurs est demandé.

Inconvénients

Le filtre à charbon actif est très cher à l’achat, un filtre préliminaire éliminant toutes les graisses est donc impératif. Tel que : UV dans le flux d’air, hors du flux d’air ou générateur d’ozone. Les systèmes à enzymes sont à éviter. Ainsi le filtre à charbon actif peut fonctionner sans problème jusqu’à 6 mois (UV hors du flux d’air ou générateur d’ozone) ou jusqu’à 2 ans (filtre UV dans le flux d’air).
Bien que le filtre à charbon actif permette également d’éliminer les graisses résiduelles, ceci est fortement à déconseiller. La graisse se colmatant sur les particules actives du filtre à charbon actif, celui-ci perd rapidement de son efficacité. Un remplacement mensuel est alors nécessaire ce qui rendrait le système très onéreux


Comparaison des techniques de filtration

Système Élimination des graisses Élimination des fumées Élimination des odeurs Récupération d’énergie Protection du système de ventilation Lavable en lave-vaisselle Pare flamme Coût d’installation Coût d’entretien
Filtre à treillis Non €€€
Filtre à choc Non €€
Filtre à choc double Oui €€ €€
Séparateur de graisses à choc simple Non
Séparateur de graisses cyclonique Oui €€
UV dans le flux d’air Non €€
UV hors du flux d’air Non €€
Générateur d’ozone Non €€
Enzymes en continu Non €€ €€€
Enzymes après le service Non €€
Filtre électrostatique* Non €€
Filtre à charbon actif** Non €€€

Légende :
= optimal
= utilisable
= déconseillé ou non-utilisable
 * Les valeurs pour le filtre électrostatique ne sont valables que si un système d’élimination des graisses est prévu.
** Les valeurs pour le à charbon actif ne sont valables que si un système préliminaire de filtration par UV est installé.

Ventilation hybride

© Architecture et climat 2023.

Une alternance entre soit la ventilation naturelle, soit la ventilation mécanique :

  1. Ventilation naturelle
  2. Ventilation mécanique (double flux ici)

Principe

On parle de ventilation hybride, ou de ventilation naturelle hybride, lorsque au sein d’un même bâtiment un système de ventilation naturelle et un système de ventilation mécanique sont disponibles et combinés. Il s’agit donc de favoriser et d’optimiser l’utilisation des forces motrices naturelles par une assistance mécanique à basse pression (ΔP ≤ 50 Pa).

Généralement un système de gestion intelligente sur base d’une horloge, d’une sonde (température extérieure, CO2, humidité, …) ou de capteurs permet le passage d’un mode à l’autre au moment voulu afin de procurer le renouvellement d’air nécessaire à une bonne qualité de l’air intérieur.

Plus précisément on distingue trois types de ventilation hybride :

  • La ventilation naturelle assistée : des ventilateurs basse pression se mettent en marche lorsque les forces motrices naturelles (vent et tirage thermique) ne sont plus suffisantes pour permettre la circulation de l’air et les débits requis.
  • La ventilation mécanique assistée : qui correspond en réalité à un système de ventilation mécanique comportant des ventilateurs basse pression.
  • Une alternance entre la ventilation naturelle et mécanique : ce qui suppose que les deux systèmes sont totalement dissociés et que lorsque l’un fonctionne l’autre est à l’arrêt et inversement (voir illustration ci-dessus).


Avantages

La ventilation hybride permet d’utiliser au maximum les forces motrices de la nature pour la circulation de l’air et donc de réduire au minimum les consommations électriques des ventilateurs et auxiliaires associés.

Elle couple à la fois les avantages de la ventilation naturelle et mécanique :

  • Les éléments de ventilation naturelle demandent généralement très peu d’entretien et ne comprennent pas de ventilateurs bruyants.
  • La ventilation hybride est simple, et peu coûteuse à l’exploitation.
  • Elle demande peu de place utile dans les locaux techniques.
  • Les débits d’air extraits sont en partie contrôlés.

Inconvénients

La ventilation hybride semble un bon compromis entre la ventilation naturelle très économe en énergie et la ventilation mécanique qui permet de s’assurer les débits d’air recommandés. Toutefois, la ventilation hybride reste liée aux phénomènes naturels de mouvement de l’air, la qualité de l’air risque de ne pas être garantie dans tous les locaux. Le renouvellement d’air peut être fortement perturbé par le vent, par l’ouverture de fenêtres, … Il est donc nécessaire de trouver le juste milieu entre débits recommandés et économies d’énergie d’où l’importance de sa régulation !

En outre, comme pour la ventilation simple flux (extraction mécanique) :

  • L’air neuf n’est pas filtré et les grilles d’amenée d’air peuvent laisser filtrer les bruits extérieurs, ce qui peut être délicat en site urbain ou fortement pollué.
  • Les grilles d’ouvertures peuvent engendrer un inconfort, par exemple en plein hiver, sauf si la grille d’ouverture est placée à une hauteur supérieure à 1,80 m par rapport au sol ou derrière un corps de chauffe.

  • Les ouvertures entre locaux, favorisent le passage de bruits pouvant être très gênants. Un traitement acoustique des grilles doit alors être prévu. Mais en pratique, la présence d’absorbeur acoustique dans une ouverture augmente son épaisseur et sous-entend généralement que la grille doit être placée dans l’épaisseur du mur (et non dans le vitrage ou dans la porte).
  • Enfin, les ouvertures dans les façades ne sont pas toujours du goût des architectes !

Régulation

Par définition, la ventilation hybride suppose au minimum d’une régulation intelligente pour le passage d’un mode à un autre.

Mais, il est également plus qu’utile d’adapter le fonctionnement du ventilateur basse pression en période de ventilation mécanique pour s’approcher au plus proche des débits recommandés et donc de réduire la consommation d’électricité.

Finalement en mode naturelle, il existe plusieurs possibilités de réguler la ventilation hybride : bouches réglables, grilles hygroréglables, grilles commandées électriquement par exemple en fonction d’un horaire.

Techniques de régulation

Techniques de régulation


Pourquoi réguler les débits de ventilation ?

Il est plus qu’utile d’adapter le fonctionnement de la ventilation en fonction de la période d’occupation et de paramètres intérieurs : nombre de personnes présentes, température, CO2 ou encore humidité. La régulation de la ventilation hygiénique a un réelle intérêt puisqu’elle permet de s’approcher au mieux des débits recommandés et necessaires en fonction de l’activité du local ou du bâtiment.

Elle permet :

  • de favoriser le confort des occupants grâce à une bonne qualité de l’air;
  • de s’assurer la salubrité du local et plus largement du bâtiment;
  • et de réaliser des économies d’énergie substantielles en limitant les débits et donc les consommations électriques.

Il existe différentes stratégies de régulation. Les possibilités vont varier entre la ventilation naturelle :

et la ventilation mécanique :

En pratique, la gestion de la ventilation agit sur la modulation des débits en modifiant la vitesse du ou des ventilateurs et/ou en modifiant l’ouverture de clapets au sein des conduits ou directement au droit d’une grille de pulsion ou d’extraction ou encore des amenées ou évacuations d’air naturelle.


Aucune régulation

Si aucune régulation n’est mise en place cela signifie que le système de ventilation hygiénique fonction constamment aux débits de conception maximum soit pour couvrir le débit minimum exigé par les normes. Cependant durant certaines période le local ou le bâtiment est en partie voir totalement inutilisé, c’est le cas de la nuit ou du weekend, les débits pourraient être adaptés ce qui permettrait des économies d’énergie importantes !

Cette stratégie de régulation n’est pas recommandées et doit être proscrite !


La régulation manuelle

Une gestion manuelle des débits de ventilation peut se faire de deux manières : soit en agissant directement sur le ventilateur et en variant sa vitesse soit en modifiant l’ouverture des amenées et évacuations d’air naturelles.

Pour les ouvertures naturelles

Les débits d’air sont régulés par la modification de l’ouverture des grilles soit par la modification de la section de passage d’air.

Les grilles d’amenées et d’évacuation d’air peuvent être réglées manuellement depuis une position complètement fermée jusqu’à une position complètement ouverte. Les positions intermédiaires doivent au minimum est au nombre de 3 mais peuvent aller jusqu’à un réglage en continu.

Pour les systèmes mécaniques

Dans ce cas-ci, un commutateur permet d’agir directement sur la vitesse du ventilateur, soit de moduler le débit à la base du système au sein du groupe de ventilation.
Trois positions minimales sont présentes:

  • fermé : position éteinte ou avec un débit minimale pour assurer une ventilation de base même en période d’inoccupation
  • vitesse moyenne : position intermédiaire pour une activité limitée.
  • vitesse maximale : position correspondante aux normes pour les périodes de grandes activités ou de forte pollution.

Les débits correspondant devront être correctement définis et le système correctement dimensionné pour garantir un fonctionnement correct.

La régulation manuelle est tributaire du comportement des occupants. Ce type de stratégie de régulation est interdit par les normes et législations dans les immeubles non-résidentiels !


La régulation par horloge

Cette stratégie de régulation permet d’automatiser le changement des positions du systèmes de ventilation et donc les débits en fonction d’un horaire, par exemple heure par heure. une horloge est placée sur le circuit électrique de la ventilation et est programmée afin d’adapter les débits de ventilation selon les temps d’activité supposés. Elle permet donc de faire la différence entre la nuit et de la journée, la semaine et du weekend et les différentes intensités d’activité en période d’utilisation du local.

Fonctionnement continu à grande vitesse.

Fonctionnement intermittent avec horloge.

Son principal désavantage est de fonctionner suivant un horaire d’activité supposé qui peut parfois être très éloigné de l’utilisation réelle du bâtiment.

Certains systèmes de régulation permettent de passer en manuelle pour pouvoir faire face à des cas de pollutions ou d’activité exceptionnel ou non prévu dans le schéma de base d’activité du bâtiment. Après un certain temps défini, le système se replace en régulation automatique.


La régulation par l’occupation

Une régulation par l’occupation permet d’activer le système de ventilation en tout ou rien suivant l’occupation ou non du local, mais sans différencier le nombre de personnes présentes !

Un détecteur de mouvement, de présence/absence ou un détecteur infrarouge peut être utilisé. L’enclenchement de la ventilation peut également être assujettit par l’interrupteur des luminaires.


La régulation par sonde ou capteur

La ventilation hygiénique doit permettre une bonne qualité de l’air des espaces intérieurs en évacuant les polluants présents dans l’air et en alimentant le local en air frais. C’est pourquoi il est utile de réguler les débits en fonction d’un ou plusieurs polluants. Le choix de la sonde ou du capteur se fait donc en fonction de l’utilisation du local :

  • Les détecteurs infrarouges permettent de réguler les débits en fonction de l’occupation du local.
  • Les sondes CO2 permettent de rendre compte de l’activité humaine.
  • Les sondes COV rendent compte de la pollution de l’air.
  • Les capteurs d’humidité sont particulièrement adapter dans les espaces humides où une trop grande quantité d’humidité doit être évacuée.
  • La sonde de température peut également être utilisée et régule les débits en fonction de la température intérieur du local ou de la température de l’air extrait, cela peut être le cas dans les cuisines collectives par exemple.
  • De nombreux capteurs sont possibles et permettent de réguler les débits de ventilation.
  • Une combinaison de plusieurs types de sondes ou un multi-capteur (CO2, température et humidité, principalement) au sein d’un bâtiment ou d’un même local permet de caractériser au mieux l’activité et la pollution et donc d’assurer un renouvellement suffisant de l’air pour garantir le confort.

Ce type de régulation permet d’adapter directement les débits en fonction de l’activité du local, on parle de ventilation à la demande. Cette stratégie de gestion permet de faire coïncider au mieux les débits réels aux débits prescrits et donc de ventiler efficacement énergétiquement.

Réduction des débits de ventilation à l’aide d’une régulation à la demande.

Détecteur de mouvement et de présence/absence [Ventilation]

Détecteur de mouvement et de présence/absence [Ventilation]


Utilisation

Les détecteurs de présence, associés ou pas à des boutons poussoirs, permettent d’aider les gestionnaires de bâtiments dans leur « quête » à l’économie d’énergie. Ces dernières années, leur domaine d’applications s’est considérablement étendu. En effet, outre la commande de la ventilation, ils sont actuellement utilisés pour la commande d’automatismes tels que :

  • la gestion de l’éclairage intérieur et extérieur ;
  • la régulation des installations de chauffage et de climatisation ;
  • le déclenchement de l’alarme, puisque ce même principe est utilisé pour la détection d’intrusion ;
  • jusqu’au déclenchement de la chasse des toilettes, … pour utiliser l’eau de ville à bon escient, bien sûr,… et non pour enregistrer la fréquence et la durée des utilisateurs !

À noter, toutefois, qu’un détecteur a sa consommation propre. S’il est de bonne qualité, cette consommation est réduite (< 1W).

Ce type de détecteur est peu pratique pour la gestion de la ventilation hygiénique puisqu’elle ne permet de régler que en tout ou rien ou suivant 2 positions prédéfinies, par exemple ventilation de base et ventilation maximale en occupation du local. Ils ne permettent pas d’adapter la régulation aux nombres de personnes présentes dans la pièce !


Principe de fonctionnement

Dans le jargon des professionnels, un détecteur de mouvements se différencie d’un détecteur de présence par sa grande sensibilité.

Différentes technologies existent sur le marché. La technologie à infrarouge (IR) est la plus répandue. Cependant, quelques applications de gestion, comme dans les sanitaires par exemple, font appel aux technologies ultrasoniques (US), combinées IR et US ou encore sonore.

En général, l’électronique des détecteurs permet de développer des logiques de gestion en détection de présence ou d’absence. En d’autres termes :

  • Pour une gestion de présence, le détecteur peut travailler seul. Dès qu’une personne entre dans la zone de détection, la ventilation est allumé sur une position/vitesse définie. Ce principe est applicable dans les locaux où les détections sont fréquentes, mais de courte durée.
  • Pour une gestion d’absence, le détecteur doit être combiné avec un système de commande volontaire (type bouton-poussoir). Une personne entrant dans un local peut choisir d’allumer ou pas la ventilation en fonction de son ressenti de la qualité de l’air : ce qui n’est pas du tout pratique ! Si elle choisit d’allumer, le détecteur ne coupera ou diminuera la ventilation qu’après un délai réglable d’absence de la personne. Ce principe permet, en général, de responsabiliser les occupant.
  • Ces détecteurs permettent en réalité  d’imaginer toute sorte de fonctionnement.

Technologies des détecteurs

Détecteur  à infrarouge (IR)

Schéma détecteur  à infrarouge.

Ils détectent le mouvement du corps humain par la mesure du rayonnement infrarouge (= chaleur) émis par le corps humain.

Ils sont dits « passifs » car ils n’émettent aucune radiation, contrairement aux détecteurs à infrarouge actif de type « barrière ». Ils mesurent le rayonnement infrarouge émis par les surfaces chaudes.

Ils fournissent une indication de changement d’occupation d’un lieu : absence ou présence. Ils ne permettent pas de connaître le taux d’occupation d’un local ou le nombre d’occupants.

Photo détecteur  à infrarouge.

Plus précisément, les détecteurs de mouvement à infrarouge comportent un certain nombre de facettes sensibles. Leur rayon d’action est ainsi découpé en une série de segments. C’est le passage d’un corps (et donc de chaleur) du rayon de vision d’une facette vers celui d’une autre facette qui permet de détecter le mouvement.

La sensibilité d’un détecteur dépend donc du nombre de segments sensibles. Par exemple, un détecteur dont le rayon de détection est découpé en peu de segments risque de ne pas détecter une personne se dirigeant vers lui.

Pour certains modèles perfectionnés, cette sensibilité est réglable. Le réglage sera différent selon le type de local : dans un bureau où les mouvements sont parfois minimes (travail sur ordinateur, par exemple) on le réglera sur une forte sensibilité, tandis que dans un local sujet à des courants d’air, on le réglera sur une sensibilité plus faible.

La limite d’utilisation des détecteurs IR réside dans son incapacité à effectuer une détection au travers d’une paroi par exemple. C’est le cas dans les sanitaires ou les bureaux paysagers aménagés avec des cloisons antibruit ou des armoires hautes.

Détecteurs ultrasoniques (US)

Schéma détecteurs ultrasoniques.

Les détecteurs US sont de type émetteur/récepteur et fonctionne sur le principe de l’effet Doppler. Toute onde ultrasonique (32 kHz à 45 kHz) émise par le détecteur qui rencontre un objet sur son parcours, « rebondit » en direction inverse avec une fréquence différente. Le détecteur est capable de mesurer l’écart de fréquence et de générer ainsi un signal de présence. Les détecteurs US ont une portée limitée mais peuvent détecter des mouvements mineurs et ce même autour de certains obstacles.

Détecteurs à double technologie

Schéma détecteurs à double technologie.

Les détecteurs de présence à infrarouges risquent de ne pas détecter les mouvements légers. Par contre des détecteurs à ultrasons peuvent être trop sensibles et risquent de déclencher l’allumage de l’éclairage lors du passage « d’une mouche ». Pour éviter cet inconvénient tout en gardant une sensibilité importante, certains détecteurs, appelés « détecteurs à double technologie » combinent ultrasons et infrarouge.
Cette combinaison permet d’augmenter la fiabilité des détecteurs et élimine les détections indésirables.

Détecteurs sonores

Comme son nom l’indique les détecteurs sonores réagissent au bruit. Cette technologie pourra être utilisée dans les sanitaires par exemple. Pratiquement, on n’utilisera qu’un seul détecteur de ce type dans les communs des sanitaires sans être obligé d’en placer un dans chaque WC. Le moindre bruit émis au travers des parois des WC permettrait de pouvoir prolonger la lecture de son journal en toute quiétude (« pour les amateurs de sieste au WC, dorénavant s’abstenir ! »).

Détecteurs « intelligents »

Ce type de détecteur à double technologie enregistre pendant plusieurs mois le mode d’occupation du local et adapte automatiquement sa sensibilité.


Caractéristiques générales des détecteurs infrarouges (IR)

Un détecteur placé sur une paroi verticale est caractérisé par :

  • un angle de détection horizontal,
  • une portée latérale,
  • une portée frontale.

Un détecteur placé au plafond est caractérisé par :

  • un rayon d’action de 360°,
  • un diamètre de détection maximal (ou couverture maximale (en m²)) pour une hauteur maximale.

Lorsqu’on diminue la hauteur d’installation, la zone de couverture diminue, mais la sensibilité augmente.
Par contre, au-delà de la hauteur maximale, la sensibilité n’est plus suffisante.

Attention : le détecteur ne traverse aucune cloison, pas même en verre !

Si plusieurs détecteurs sont placés dans un même lieu, il est intéressant de prendre un modèle de détecteur avec un mécanisme « maître » (ou « master ») et un ou plusieurs avec mécanisme « esclave » (ou « slave »). Un détecteur avec mécanisme « maître » est plus cher, mais les mécanismes « esclave » sont beaucoup moins chers, ce qui rend l’ensemble intéressant économiquement.

Y a-t-il des différences entre détecteurs pour la gestion de l’éclairage et détecteurs pour la gestion de la ventilation ?

Les sondes utilisées dans un but de gestion de l’éclairage ne possèdent pas de temporisation à l’enclenchement/déclenchement. Le détecteur possède une temporisation après le dernier mouvement. Pour certains modèles, cette temporisation est réglable  (de 5 secondes à 5 minutes par exemple). La temporisation peut aller jusqu’à 30′ pour les modèles perfectionnés.

De plus, elles intègrent souvent un détecteur de luminosité : en général, le détecteur comporte un interrupteur crépusculaire dont le seuil de luminosité peut être réglé (de 5 à 1 000 lux par exemple).

En éclairage, il existe deux types de mécanismes :

  • Un mécanisme avec triac qui ne permet de commander que des lampes à incandescence ou halogène 230 V.
  • Un mécanisme avec relais qui permet de commander également des lampes fluorescentes.

Si les sondes destinées à la régulation de la ventilation sont d’un principe identique, elles intègrent par contre des temporisations à l’enclenchement et au déclenchement nécessaires pour éviter des sollicitations trop fréquentes du système de ventilation.

Ces temporisations sont généralement réglables de quelques minutes à une dizaine de minutes.

À noter qu’il existe des bouches de soufflage qui intègrent une sonde de présence directement :

Photo bouches de soufflage avec détecteur.


Emplacement

L’espace couvert par un détecteur détermine l’emplacement des détecteurs.

Les détecteurs doivent être placés de manière à couvrir tout l’espace à détecter.

Le choix de l’emplacement du détecteur a une grande importance sur son bon fonctionnement. Il ne faut pas que le détecteur soit influencé par un mouvement en-dehors de la zone commandée (ouverture de porte, …).

Sonde d’humidité

Sonde d'humidité


Domaine d’application

Il s’agit d’une sonde permettant de mesurer l’humidité relative ou absolue et, donc, de réguler la ventilation en fonction de l’humidité de l’air.

Elle est particulièrement adaptée dans les locaux humides (sanitaires, cuisines, …) là où l’air est extrait.


Fonctionnement

Les sondes d’humidité utilisées en ventilation et climatisation sont des hygromètres permettant la mesure continue de l’humidité de l’air de la pièce, au contraire des psychomètres qui sont utilisés pour une mesure instantanée.

Il existe plusieurs technologies d’hygromètres électroniques :

à cellule hygroscopique pour la mesure de l’humidité absolue

Le plus connu est l’hygromètre à cellule hygroscopique au chlorure de lithium. Le chlorure de lithium est une solution saline (LiCl). Ses propriétés hygroscopiques lui font absorber constamment de la vapeur d’eau contenue dans l’air.

L’appareil comprend deux électrodes entourant une couche de fibre de verre imbibée de LiCl Le tout est monté sur un capteur de température.

Lorsque les électrodes sont sous tension, le courant circulant au travers du tissu imbibé de LiCl produit de la chaleur qui évapore une partie de l’eau. Par évaporation, la résistance électrique du tissu augmente (la conductivité du tissu diminue), la puissance calorifique diminue, donc aussi la température sur la sonde intérieure. Une température d’équilibre s’établit finalement sur la sonde.

Cette température est utilisée pour mesurer la pression partielle de vapeur d’eau de l’air et de là le niveau d’humidité absolue de l’air.

Cette technique réclame un entretien important, la solution de chlorure de lithium devant être régénérée régulièrement.

à variation de capacité pour la mesure de l’humidité relative

Les hygromètres électroniques à cellule capacitive sont basés sur la modification de la valeur d’un condensateur en fonction de l’humidité. Plus précisément, c’est le diélectrique du condensateur qui est sensible à l’humidité relative de l’air ambiant.

La variation de la capacité (et donc de son impédance) entraîne une variation d’un signal de tension.

L’appareil est fiable et ne demande un étalonnage que tous les 2 ans. La précision est de 3 %. Le temps de réponse est court (de l’ordre de la dizaine de secondes). Et la plage de mesure est large. Que demander de plus ?!

Si, ils ont un petit défaut : être sensible aux polluants chimiques ! On sera dès lors attentif à ne pas les nettoyer avec des solvants organiques (chlore,…).

Leur durée de vie est estimée à une dizaine d’années.


Plage de mesure et fiabilité

Les hygrostats utilisés en climatisation sont des régulateurs tout ou rien, utilisant des hygromètres électroniques à cellule hygroscopique (mesure de ) ou à cellule capacitive (mesure de l’humidité relative). Le différentiel enclenchement – déclenchement est de l’ordre de 3 à 5 % d’humidité relative.

De la précision de la mesure d’humidité dépend la qualité de la régulation et le montant de la facture énergétique, puisque l’influence du taux d’humidité sur la consommation de l’installation est non négligeable ! À ce titre, on privilégiera les sondes à mesure continue par rapport aux sondes à dépassement de seuil (basées sur l’allongement d’un fil synthétique), dont l’hystérésis peut être important (près de 15 %).


Emplacement

Il est préférable de choisir une sonde à placer en conduit aéraulique et de l’installer dans le conduit de reprise d’air. Ainsi, la mesure est plus représentative de l’humidité de l’air moyenne du local et la sonde est moins soumise aux perturbations locales et à l’empoussièrement.

Quelques recommandations pour une mesure de qualité en conduit :

  • Une distance minimale entre l’humidificateur et la sonde, d’une part pour s’assurer que toutes les gouttelettes sont bien évaporées (les gouttelettes ne sont pas prises en considération dans la mesure !), mais d’autre part parce que ces gouttelettes mènent à la destruction de la sonde, tout particulièrement celles au chlorure de lithium. On se renseignera auprès du constructeur.
  • Une distance minimale entre les batteries chaudes ou froides et la sonde : même si, faute de place, il n’est pas toujours facile de respecter la distance théorique, il y a lieu d’éloigner les sondes des batteries pour éviter l’effet de stratification (l’air humide a tendance à s’élever). Distance théorique minimale = 5 à 10 D, où D est . De plus, on placera les sondes à mi-hauteur du conduit aéraulique, et au centre de l’écoulement.
  • Une protection de l’élément sensible, soit par une grille si air propre, soit par un filtre en métal fritté si air avec poussières.
  • Une ouverture dans la gaine, à proximité de la sonde, pour pouvoir faire périodiquement une mesure de contrôle avec un appareil indépendant de l’indication de la sonde de régulation.
  • Une mesure dans la gaine de reprise située, si possible, en aval du ventilateur d’extraction si un risque de stratification de l’humidité est présent.
  • Un câble de raccordement électrique de la sonde suffisamment long pour permettre un entretien aisé.

Dans le cas où la sonde est placée dans le local, on sera attentif à

  • les éloigner des portes et fenêtres (pour éviter l’influence de l’air extérieur),
  • éviter les coins (mauvaise circulation de l’air).

Pour effectuer une mesure correcte, il faut que l’air soit en contact réel avec le capteur : il faut donc garantir un libre écoulement vers l’organe de mesure. Toutes les précautions de placement applicables aux sondes de température sont valables ici (température et humidité sont parfois dans le même boîtier). Elles ne devront pas être situées à proximité des climatiseurs, par exemple.


Output

Les sondes délivrent généralement un signal analogique standard : 0-10 V ou 4 – 20 mA. Elles sont alimentées par une tension continue de l’ordre de 24 V.


Maintenance

Principales mesures d’entretien

  • Dépoussiérage de l’élément sensible au pinceau doux, si l’air est chargé en poussières.
  • Remplacement des filtres en métal fritté.
  • Pas de nettoyage des sondes à capacité par un solvant organique, du type chloré par exemple.
  • Régénération des sondes à chlorure de lithium, par l’utilisateur.
  • Étalonnage des éléments sensibles tous les ans (ou tous les deux ans si la sensibilité à la variation de la consigne est faible). Un tel étalonnage peut être fait facilement grâce à l’existence de cartouches contenant des solutions salines. L’humidité relative au-dessus de la solution est pratiquement indépendante de la température.

Exemple.

Solution de chlorure de sodium (76 % HR), ou de carbonate de potassium (44 % HR).

Il est donc facile de recalibrer l’appareil (consulter le fournisseur pour connaître les solutions salines adéquates, certaines étant agressives pour les éléments sensibles)

Une autre possibilité d’étalonnage consiste à comparer la mesure à celle d’un autre appareil plus précis (de la l’intérêt de prévoir une petite ouverture dans la gaine, à proximité de la sonde).

Fluides frigorigènes [Chauffage – PAC]

Fluides frigorigènes [Chauffage - PAC]


L’impact environnemental

Depuis quelques décennies, l’impact des fluides frigorigènes sur l’environnement est devenu un enjeu majeur. En effet, de par la présence de fuites au niveau du circuit frigorifique, la responsabilité de ces fluides dans la destruction de la couche d’ozone et l’augmentation de l’effet de serre n’est plus à démontrer.

Trou d’ozone au pôle sud.

Que ce soit en conception, en rénovation ou même en maintenance, les fuites de fluides sont donc à éviter. Elles dépendent essentiellement de la qualité :

  • du choix et de la mise en œuvre des équipements (soudures et connexions des conduites de distribution par exemple);
  • de l’optimisation du cycle frigorifique;
  • de la maintenance;

En France, en 1997, une étude a montré que le taux de fuites annuelles pouvait atteindre 30 % de la quantité totale en poids (ou en masse) de fluides frigorigènes présent dans les installations frigorifiques des grandes surfaces (Réf.: Zéro fuite – Limitation des émissions de fluides frigorigènes, D. Clodic, Pyc Éditions, 1997).

Depuis lors, les réglementations se sont attaquées à ces problèmes :

  • Suite au protocole de Montréal (1987) les fluides frigorigènes CFC (chlorofluorocarbures, principaux responsables de la destruction de la couche d’ozone) ont été définitivement abandonnés et remplacés progressivement par les HCFC.
  • Les réglementations européennes 2037/2000, 842/2006 et 517/2014 ont notamment imposé :
    •  l’interdiction d’utilisation des HCFC à fort impact sur l’effet de serre (GWP ou global Warming Potential);
    • le remplacement progressif des HFC à haut GWP;
    • le confinement des installations frigorifiques permettant de réduire la quantité de fluide frigorigène;
    • des contrôles réguliers d’étanchéité des installations;
    •  …

Indices d’impact

Pour établir l’impact des fluides frigorigènes sur la couche d’ozone et l’effet de serre, trois indices principaux ont été définis :

  • ODP : Ozone Depletion Potential;
  • GWP : Global Warning Potential;
  • TEWI : Total Equivalent Warning Impact.

ODP (Ozone Depletion Potential)

C’est un indice qui caractérise la participation de la molécule à l’appauvrissement de la couche d’ozone. On calcule la valeur de cet indice par rapport à une molécule de référence, à savoir soit R11 ou R12 qui ont un ODP = 1.

GWP (Global Warning Potential)

C’est un indice qui caractérise la participation de la molécule à l’effet de serre. On calcul la valeur de cet indice par rapport à une molécule de référence, à savoir le CO2, et pour des durées bien déterminées (20, 100, 500 ans). Le CO2 à un GWP = 1.

TEWI (Total Equivalent Warning Impact)

Le TEWI est un concept permettant de valoriser le réchauffement planétaire (global warming) durant la vie opérationnelle d’un système de réfrigération par exemple, utilisant un fluide frigorigène déterminé en tenant compte de l’effet direct dû aux émissions de fluide frigorigène et à l’effet indirect dû à l’énergie requise pour faire fonctionner le système.

À titre indicatif, il est donné par la formule :

TEWI = (GWP x L x n) + (GWP x m[1-C]) + n x E x β

Où :

  • GWP : global warming potential;
  • L : émissions annuelles de fluide en kg;
  • n : durée de vie du système en années;
  • m : charge en fluide frigorigène en kg;
  • C : facteur de récupération / recyclage compris entre 0 et 1;
  • E : consommation annuelle d’énergie en kWh;
  • β : émission de CO2 en kg / kWh.

Voici, pour chaque fluide frigorigène, le Ozone Depletion Potential (potentiel de destruction de la couche d’ozone) et le Global Warming Potential (potentiel de participation au réchauffement climatique) sur 100 ans :

ODP GWP100
R717 Amoniac 0 0
R744 CO2 0 1
R290 Propane 0 20
R32 HFC, fluide pur 0 675
R134a HFC, fluide pur 0 1 430
R407C HFC, mélange 0 1 800
R22 HCFC 0,05 1 810
R410A HFC, mélange 0 2 100
R427A HFC, mélange 0 2 100
R417A HFC, mélange 0 2 300
R422D HFC, mélange 0 2 700
R125 HFC, fluide pur 0 3 500
R404A HFC, mélange 0 3 900
R12 CFC 0,82 10 900

Source : 4ème rapport de l’IPCC (Intergovernmental Panel on Climate Change).


Les fluides frigorigènes fluorés

Fluides frigorigènes fluorés

Les fluides frigorigènes fluorés sont en grande partie responsables de la destruction de la couche d’ozone et contribuent à augmenter l’effet de serre. Les interactions entre les deux phénomènes sont réelles mais d’une grande complexité.

On en distingue plusieurs types :

  • CFC;
  • HCFC;
  • HFC.

CFC (chlorofluorocarbures) (interdits de production depuis janvier 1995)

Ce sont des molécules composées de carbone, de chlore et de fluor. Elles sont stables; ce qui leur permet d’atteindre la stratosphère sans trop de problèmes. À ce stade, en se transformant elles contribuent à la destruction de la couche d’ozone.

R-11 Groupes centrifuges « basse pression ».
R-12 Essentiellement froid domestique et climatisation automobile, mais aussi dans les groupes refroidisseurs d’eau centrifuges.
R-13 Rares utilisations en froid très basse température.
R-14 Rares utilisations en froid très basse température.
R-113 Abandonné avant son interdiction.
R-114 Pompes à chaleur et climatisation de sous-marin.
R-115 Fluide pas utilisé seul, mais dans le R-502, mélange azéotropique très utilisé en froid commercial basse température.

HCFC (hydrochlorofluorocarbures) (utilisation interdite au Ier Janvier 2015)

Ce sont des molécules composées de carbone, de chlore, de fluor et d’hydrogène. Elles sont moins stables que les CFC et détruisent l’ozone dans une moindre mesure. Elles sont appelées substances de transition.

R-22 Fluide frigorigène le plus souvent utilisé, aussi bien en froid industriel qu’en climatisation.
R-123 Remplace le R-11 dans les groupes centrifuges.
R-124 Essentiellement utilisé dans certains mélanges.

HFC (hydrofluorocarbures) (utilisation réduite progressivement jusqu’en 2030)

Ce sont des molécules composées de carbone, de fluor et d’hydrogène. Elles ne contiennent pas de chlore et donc ne participent pas à la destruction de la couche d’ozone. Par contre, les HFC présentent un Global Warming Potential (contribution à l’effet de serre) sur 100 ans élevé.

R-134a

(Solkane)

Fluide frigorigène qui a remplacé le R-12 en froid domestique et en climatisation automobile.

En application « chauffage », il présente l’avantage de faire fonctionner les pompes à chaleur à haute température (généralement jusqu’à 65 °C) et à relativement basse pression. Son utilisation est compatible avec une production d’eau chaude pour radiateurs en lieu et place d’une chaudière.

C’est également un composant majeur de la plupart des mélanges de remplacement.

R-125 N’est jamais utilisé pur en raison de sa pression critique trop faible (66°C). Il entre dans la composition de nombreux mélanges compte tenu de son pouvoir « extincteur ».
R-32,
R-152a
R-143a
Inflammables et donc utilisés uniquement en mélange avec d’autres composants qui « neutralisent » leur inflammabilité.

Mélange de fluides frigorigènes

On peut les classer en fonction du type de composants fluorés qu’ils contiennent.
Ils se distinguent également par le fait que certains mélanges sont :

  • Zéotropes : au cours d’un changement d’état (condensation, évaporation), leur température varie.
  • Azéotropes : ils se comportent comme des corps purs, sans variation de température lors du changement d’état.

Il va de soi que les frigoristes apprécient cette propriété d’azéotropie pour le fonctionnement de la machine frigorifique.

Le R407C (R134a : 52 % + R125 : 25 % + R32 : 23 %)

Le R407C est un fluide non azéotrope (il est composé de plusieurs fluides) afin d’obtenir sa température de changement d’état.

Ce fluide frigorigène présente les particularités suivantes :

  • Il est ininflammable.
  • Lors des changements de phase, la température « glisse » d’environ 5 K car les températures d’évaporation et de condensation des fluides frigorigènes qui le constituent sont différentes. Ceci rend les réglages plus difficiles et impose des échangeurs à contre-courant pour tirer le meilleur parti de ce fluide.
  • En cas de micro-fuite, le composé ayant les molécules les plus volatiles s’échappe préférentiellement. Il en résulte un fluide frigorigène déséquilibré. Il est dès lors nécessaire de vider entièrement l’installation avant de la recharger, le gaz retiré étant recyclé.
  • Les pressions sont moindres avec ce fluide frigorigène.
  • Il est moins performant que le R410A …
Le R410A (R32 : 50 % + R125 : 50 %)

Le R410A présente de meilleures qualités thermodynamiques que le R407C et le R22. D’autre part, l’étanchéité des installations est plus élevée avec le R410A, les pertes de pression sont donc faibles et les vitesses de fonctionnement peuvent être élevées. Les composants sont dès lors plus compacts.

Le R410A est cependant toxique ! De plus, il se comporte comme un réfrigérant mono-moléculaire lorsqu’il change de phase : le passage d’un état à un autre se produit à température quasiment constante (le glissement de température est négligeable). On ne doit donc pas vider complètement l’installation avant de la recharger.Pour terminer, les pressions de fonctionnement sont 60 % plus élevées que dans le cas du R22. Ceci limite donc son utilisation aux températures de condensation moyennes : maximum 45 °C.

Le R404A (R143a : 52 % + R125 : 44 % + R134a : 4 %)

Le R404A présente des caractéristiques communes avec le R410A (il se comporte aussi comme un fluide quasi-azéotropique) mais sa pression de fonctionnement est plus basse. Sa particularité est de ne pas beaucoup s’échauffer pendant la compression. La température des vapeurs surchauffées en sortie de compresseur reste donc modérée, ce qui convient parfaitement à la mise en œuvre des PAC fluide/fluide.


Les fluides à bas « effet de serre »

Ils sont considérés comme moins inquiétants pour l’environnement, car à la fois sans action sur l’ozone stratosphérique et d’un faible impact sur l’effet de serre.

Ils présentent tous des inconvénients, soit au niveau sécurité, soit au niveau thermodynamique.

L’ammoniac (NH3) ou R-717

L’ammoniac présente de nombreux avantages en tant que fluide frigorigène :

  • Impact environnemental nul (ODP et GWP100 nuls);
  • très bon coefficient de transfert de chaleur;
  • efficacité énergétique élevée (au moins aussi bonne que le R22, meilleure dans certaines conditions);
  • le gaz ammoniac est plus léger que l’air;
  • faibles pertes de charge;
  • fuites aisément détectables;
  • faible prix de revient et faibles frais d’entretien des installations;
  • très difficilement inflammable, limite d’explosion élevée et petits champs d’explosion;
  • chimiquement stable;
  • aisément absorbable dans l’eau;
  • pas très sensible à l’humidité dans le circuit;
  • naturel donc biodégradable;
  • grâce à sa haute température critique, il permet de réaliser des températures de condensation très élevées et de concevoir des PAC à haute température.

Les COP obtenus avec ce fluide frigorigène peuvent être équivalents à ceux obtenus avec des HFC.

L’ammoniac est par contre toxique (mais pas cumulativement dans le temps) et irritable. Il peut être explosif dans des cas exceptionnels (les limites inférieure et supérieure d’inflammabilité doivent être très proches l’une de l’autre). Il sera également explosif dans des locaux non aérés où il se crée un mélange d’air, d’azote et d’ammoniac. Les locaux doivent donc absolument être ventilés et le passage de l’air doit également être totalement libre. De plus, le NH3 corrode facilement le cuivre et ses alliages ainsi que le zinc. Les installateurs sont donc obligés d’utiliser de l’acier. Pour terminer, l’ammoniac n’étant pas miscible et soluble dans les huiles minérales, il faut prévoir un séparateur d’huile après le compresseur.

Les installations à l’ammoniac l’utilisent liquide et sa quantité est réduite : la quantité de gaz perdu par fuites est donc faible.

Il est à l’heure actuelle principalement utilisé dans le froid industriel.

Les hydrocarbures (HC) comme R-290 R-600a

Il s’agit essentiellement du propane (R-290), du butane (R-600) et de l’isobutane (R-600a).

Ces fluides organiques présentent de bonnes propriétés thermodynamiques, mais sont dangereux par leur inflammabilité. Le monde du froid s’est toujours méfié de ces fluides, même s’ils sont réapparus récemment dans des réfrigérateurs et des mousses isolantes. Leur utilisation future paraît peu probable en climatisation, vu le coût de la mise en sécurité aussi bien mécanique qu’électrique. En PAC, on l’utilise donc dans des quantités les plus faibles possible (maximum 3 kg pour les applications résidentielles), de préférence à l’extérieur des bâtiments.

Le dioxyde de carbone (CO2) ou R-744

Fluide inorganique, non toxique, non inflammable, mais moins performant au niveau thermodynamique. Son usage implique des pressions élevées et des compresseurs spéciaux.

Il possède cependant de bonnes qualités en application PAC pour le chauffage ou l’eau chaude sanitaire. Il est peu coûteux, et sa récupération et son recyclage sont simples à mettre en œuvre.

Actuellement, les spécialistes s’y intéressent à nouveau de par :

  • son faible impact sur l’environnement (ODP = 0, GWP = 1);
  • son faible volume massique entraînant des installations à faible volume (fuites réduites);

Il a la particularité de posséder une température critique basse à 31 °C  pour une pression de 73,6 bar.

À noter que l’utilisation de ce type de réfrigérant entraîne aussi des contraintes non négligeables telles que la nécessité de travailler :

  • à des pressions élevées (80 voire plus de 100 bar);
  • en transcritique qui demande une maîtrise de la condensation en phase gazeuse (gaz cooler);

L’eau (H2O)

Fluide inorganique, bien entendu sans toxicité. Même si sa grande enthalpie de vaporisation est intéressante, il ne se prête pas à la production de froid sous 0°C. Il est peu adapté au cycle à compression et ses applications sont rares.

Synthèse

Frigorigène Fluide naturel ODP3 GWP (100ans) valeurs IPCC 3 GWP (100ans) valeurs WMO 4 Temp. critique (°C) Pression critique (MPa) Inflammabilité Toxicité Coût relatif Puissance volumétrique
R290

(HC) CH3CH2CH3

Oui 0 20 20 96,7 4,25 Oui Non 0,3 1,4
R717 (Ammoniac NH3) Oui 0 <1 <1 132,3 11,27 Oui Oui 0,2 1,6
R 744 (CO2) Oui 0 1 1 31,1 7,38 Non Non 0,1 8,4
R718 (H2O) Oui 0 0

Caractéristiques environnementales des fluides frigorigènes naturels.


Nomenclature

Les fluides frigorigènes sont soumis à une nomenclature qui se veut internationale. L’ASHRAE, une des plus utilisées, désigne les fluides frigorigènes par la lettre R associée à 2,3 ou 4 chiffre + une lettre (R134a par exemple).

Le tableau ci-dessous montre la méthode de désignation des fluides réfrigérants :

R-WXYZ§

Nomenclature

Appellation courante

R12

R134a

R1270

Appellation pour la détermination de la formule

R-0012

R-0134a

R-1270

CFC

W = Nombre d’insaturation

Carbone = Carbone (C=C)

C=C (double liaison)

0

0

1

X = nombre de Carbone -1

nombre d’atomes de Carbone C = X + 1

1

2

3

Y = nombre de Hydrogène +1

nombre d’atomes d’Hydrogène H = Y – 1

0

2

6

Z = nombre de Fluor

nombre d’atomes de Fluor F = Z

2

4

0

R401A

nombre d’atomes de Chlore Cl*

2

0

0

Formule chimique

C Cl2F2

C2H2F4

CH3 CH=CH2

Si § = A-E => symétrie

Si § = a-b => asymétrie (avec a moins asymétrique que b)

symétrie de la molécule

symétrique

asymétrique

symétrique

Calcul du nombre d’atomes de chlore : Pour les molécules saturées (w = 0), Le nombre d’atomes de chlore s’obtient à partir de la formule suivante : Cl = 2.(C = 1) – H – F.

Grandes familles de systèmes de refroidissement

Grandes familles de systèmes de refroidissement


Présentation des grandes familles

Souvent on distingue 3 grandes familles de systèmes de climatisation en fonction du mode de transport de l’énergie frigorifique. Le rafraîchissement des locaux peut se faire :

  1. Par l’intermédiaire d’un réseau d’air,
  2. par l’intermédiaire d’un réseau d’eau froide ou d’eau glacée,
  3. par contact direct entre l’air à refroidir et l’évaporateur de la machine frigorifique (« détente directe »).

Famille 1 : les installations centralisées « tout air »

Puisque de l’air hygiénique doit de toute façon être apporté aux occupants, la première idée consiste à profiter du réseau de distribution d’air pour fournir la chaleur ou le froid demandés par les locaux.

Mais pour un bureau le débit d’air hygiénique entraîne un renouvellement du volume d’air du local :

Exemple.

1 personne demande 30 m³/h d’apport d’air neuf. Il occupe 10 m², sur une hauteur de 3 m, soit 30 m³. Le ratio « débit/volume occupé » est de 1 [1/h].

Par contre le transport de la chaleur et du froid entraîne des débits d’air nettement plus importants : on atteint des débits correspondant à 4 … 10 renouvellements du local, chaque heure, …

Exemple.

Les apports internes et les apports solaires génèrent une puissance de 100 W/m². Pour les 10 m² de l’occupant, cela crée un besoin frigorifique de 1 000 W. Supposons que l’ambiance est à 24 °C et l’air frais apporté à 14 °C, l’écart de soufflage sera de 24 – 14 = 10 K.
Le débit nécessaire sera de : 1 000 W / (0,34 Wh/m³.K x 10 K) = 294 m³/h
C’est un débit d’air 10 x plus élevé que le débit hygiénique !

Le réseau d’air devient alors fort encombrant !

Aussi, la consommation électrique des ventilateurs peut devenir très élevée : dans les anciennes installations (installées il y a 30 ans), le coût de l’énergie électrique des ventilateurs peut atteindre 50 % du coût total de l’énergie consommée par le conditionnement d’air de tout l’immeuble !

De plus, en « tout air neuf », le coût de fonctionnement de l’installation est très élevé puisque le chauffage est assuré, en plein hiver, par de l’air extérieur qu’il faut réchauffer à grands frais.

Exemple.

Pour apporter 1,5 kW de chaleur au local, un apport de 3,5 kW est demandé au caisson de traitement d’air : 2 kW pour porter l’air de 6° à 22 °C, puis 1,5 kW pour l’amener à 40 °C.

La température de 6 °C correspond à la température moyenne de l’air extérieur.

Pour diminuer les coûts d’exploitation d’une installation « tout air », une bonne partie de cet air doit être recyclé.

Exemple.

60 m³/h sont conservés pour l’apport d’air hygiénique et 210 m³/h extraits des bureaux à 22 °C sont recyclés. La puissance de chauffe redescend à 1,9 kW :

Cette solution est plus économique, mais on reproche alors au système les risques de contamination que peut entraîner ce recyclage, … qui mélange l’air provenant de tous les locaux !

Pour limiter les coûts énergétiques sans risque de contamination, on place alors un récupérateur de chaleur sur l’air extrait.

Exemple.

Autrefois à la mode à toutes les sauces, on réserve généralement les centrales « tout air » aux locaux où les besoins en air neuf sont très importants, c’est à dire des locaux à grande densité d’occupation : des salles de réunion, des salles de conférences, … Un autre cas de figure est celui des bâtiments où les besoins de refroidissement sont faibles et bien maitrisés (par des superficies vitrées réduites, des protections solaires extérieures,…)

Dans ces cas, le débit de ventilation hygiénique se rapproche du débit thermique nécessaire …

De plus, la technique du « débit d’air variable » permet aujourd’hui de limiter le coût du transport de l’air et surtout d’adapter le débit en fonction des besoins de chaud ou de froid nécessaire.

Gros avantage du « tout air » sur le plan énergétique : pour les locaux qui doivent être refroidis en mi-saison et éventuellement même en hiver, de l’air frais extérieur gratuit est disponible. On parle alors de « free cooling mécanique ».

Famille  2 : les installations décentralisées « sur boucles d’eau »

Ici, les fonctions sont séparées :

  • L’air neuf hygiénique est traité en centrale, puis apporté dans les locaux au moyen d’un réseau de conduits.
  • La chaleur et le froid sont apportés vers des unités de traitement terminales situées dans les locaux, via une boucle d’eau chaude et une boucle d’eau froide ou d’eau glacée.

Comme unités terminales, on retrouve les ventilo-convecteurs, les pompes à chaleur sur boucle d’eau, les plafonds rafraîchissants, …
Trois problèmes sont résolus

  1. Seul de l’air neuf est véhiculé, limitant ainsi le risque hygiénique lié au recyclage partiel de l’air vicié (en quelque sorte, il s’agit d’une ventilation « double flux », améliorée par un traitement central en température et humidité).
  2. L’encombrement est limité puisque l’eau transporte de la chaleur (ou du froid) avec 3 000 fois moins de volume que l’air. De simples tuyauteries suffisent. En rénovation de bâtiments, on évite ainsi le percement des parois pour insérer des gainages d’air de grandes dimensions…
  3. Le transport de la puissance frigorifique ou calorifique se fait par l’eau, au moyen d’une pompe dont la consommation sera nettement moins consommatrice que le ventilateur correspondant au système « tout air ».

Cette séparation entre la ventilation et l’apport thermique au local est de plus un gage de bonne régulation.

Le mode de régulation de la température peut se faire local par local et est très accessible à l’utilisateur, ce qui est un confort apprécié. Une liaison par bus de communication des différentes unités terminales est possible, ce qui permet une régulation et une gestion globale de qualité par la GTC (Gestion Technique Centralisée).

Famille 3 : les appareils travaillant en « détente directe »

On retrouve dans cette famille les climatiseurs, armoires de climatisation, roof-top,… mais ces appareils ne peuvent résoudre qu’un problème de climatisation limité à un ou quelques locaux : la climatisation d’une salle informatique, d’une cafétéria, d’un hall d’atelier, … par exemple. On les retrouve dans des bâtiments qui ne sont pas munis de production centrale de froid, dans des ajouts de locaux ou dans les cas où il faut assurer en secours du froid pour une fonction vitale (ex : central téléphonique).

La consommation spécifique de ces appareils est plus élevée que dans une unité terminale d’une installation centralisée (ventilo-convecteurs, par exemple), suite au fait qu’ils travaillent avec une température d’évaporation très basse, entraînant une consommation parasite par déshumidification exagérée de l’air. Par contre, ils ne demandent pas le maintien de réseaux d’eau froide durant tout l’été et la mi-saison, ce qui est appréciable.

Un seul type de système peut climatiser l’ensemble d’un immeuble de bureaux, c’est le système dit « à Débit Réfrigérant Variable » (ou DRV). Il est souvent connu par les appellations VRV ou VRF, selon les constructeurs. Sa particularité est de véhiculer du fluide frigorigène dans les différents locaux et d’alimenter directement des échangeurs situés en allège ou en faux plafond. Suivant les besoins du local, l’échangeur peut fonctionner en mode froid (il est l’évaporateur de la machine frigorifique) ou en mode chaud (il est le condenseur de celle-ci). À noter le faible encombrement qu’il entraîne, puisqu’aucune chaufferie n’est ici nécessaire.

Il n’utilise aucun fluide intermédiaire (air ou eau). De là, le terme d’appareil à « détente directe » : l’échangeur « froid » est parcouru directement par le fluide frigorigène. Cette caractéristique est performante au niveau énergétique puisque le coût du transport de l’énergie frigorifique est évité. De plus, les systèmes à fluide réfrigérant variable permettent de récupérer la chaleur entre les zones chaudes et les zones froides du bâtiment.

Comme dans les systèmes air-eau, le mode de régulation de la température se fait local par local et est très accessible à l’utilisateur (généralement une télécommande).

Le problème du traitement de l’air hygiénique subsiste : il n’existe pas de chaudière ou de groupe frigorifique disponibles en centrale pour préparer l’air hygiénique. Des solutions décentralisées sont possibles avec un moindre confort.

Concevoir

Pour plus de détails, on peut consulter le choix d’un système à débit de réfrigérant variable.

Les solutions les plus courantes

La solution « standard » : le ventilo-convecteur

Photo ventilo-convecteur.

  • Partons du système le plus utilisé pour un immeuble de bureaux : le ventilo-convecteur sur une boucle d’eau froide et une boucle d’eau chaude (système appelé « ventilo-4 tubes »).Il a pour avantages :
    • une très grande souplesse de réaction face aux variations de charges,
    • un faible encombrement,
    • une possibilité d’accepter des charges différentes d’un local par rapport à un autre,
    • une séparation entre l’apport d’air frais hygiénique et l’apport thermique, ce qui supprime tout recyclage de l’air hors du local,
    • un prix d’investissement limité grâce à un équipement fabriqué en grande série.On sera attentif à la qualité lors de sélection du matériel et lors de la réalisation de la distribution d’air neuf (confort thermique et acoustique).
  • Si le bâtiment est très homogène dans ses besoins (« quand c’est l’hiver, c’est l’hiver pour tous les locaux ») on se contentera d’un « système à 2 tubes », moins coûteux : un seul réseau de tuyauterie véhicule alternativement de l’eau chaude en hiver et de l’eau froide en été. Mais cette solution devient de plus en plus difficile à appliquer : l’enveloppe du bâtiment étant de mieux en mieux isolée, certains locaux plus chargés en apports internes seront demandeurs de froid, même en hiver.
  • En rénovation, pour vaincre des charges d’équipements devenues inconfortables, on peut greffer une installation 2 tubes froids (« Hydrosplit »), sur la production de chauffage existante.

Le plafond froid

Photo plafond froid.

  • La technique des plafonds froids apporte un confort thermique et acoustique inégalé (moyennant un éventuel supplément de prix) : le froid est apporté par rayonnement au-dessus de la tête des occupants et aucun ventilateur ne vient perturber l’ambiance. Mais la puissance de refroidissement des plafonds est limitée. Cette technique ne s’appliquera dès lors qu’avec des bâtiments dont la conception limite les apports solaires : bâtiments avec ombre portée, stores extérieurs, stores intérieurs combinés à des vitrages performants,…
  • Le plafond froid sera d’ailleurs facilement intégré lors de la rénovation d’un bâtiment existant dont les charges sont légères et qui dispose déjà d’une installation de chauffage.
  • On pourra utiliser des poutres froides complémentaires si la puissance frigorifique souhaitée n’est pas atteinte, mais au détriment du confort aéraulique comme souvent dans les solutions dynamiques (risque de courants d’air froid).
  • Reste le problème de l’apport de chaleur en hiver. En construction nouvelle, si le bâtiment est bien isolé, la demande de chaleur en hiver est limitée.
    Il est envisageable d’apporter cette chaleur :

    • soit en alimentant en eau chaude les plafonds situés près des façades (près des baies vitrées),
    • soit via un circuit de radiateurs complémentaire,
    • soit grâce à des batteries terminales placées sur le conduit de ventilation hygiénique (si le débit de celui-ci est suffisant).

La solution spécifique pour les locaux à forte occupation : la centrale « tout air » à débit variable (VAV)

Photo centrale "tout air" à débit variable (VAV).

Le problème se pose tout autrement si une présence humaine nombreuse est prévue. Alors que l’on prévoit 12 m² par personne dans un bureau individuel ou 8 m²/pers dans un bureau paysager, ce ratio descend à 2 à 4 m²/pers dans une salle de réunion, voire 1 à 2 m²/pers dans une salle de conférence. Puisque chaque personne nécessite 30 m³/h, un réseau d’air neuf important sera nécessaire. On pense dès lors à profiter de ce réseau pour apporter les calories et frigories requises.
Un bilan s’impose :

  • Si le bâtiment présente des besoins limités (bien isolé du froid extérieur et bien protégé des apports solaires), le débit d’air hygiénique élevé pourra apporter les besoins thermiques. On parle d’un système « tout air ».
Exemple.
Soit un local de réunion assez dense : 2 m²/pers.
Réalisons le bilan des apports :
éclairage : 12 W/m²
personnes : 80 W pour 2 m² = 40 W/m²
total : 52 W/m²
Réalisons le bilan du refroidissement par le débit d’air hygiénique : débit : 30 m³/h/pers pour 2 m² = 15 m³/h/m²
puissance de refroidissement : 15 m³/h/m² x 0,34 Wh/m³K x 8 K = 41 W/m²

On voit qu’en poussant un peu le débit d’air, on peut facilement vaincre les 52 W/m² de chaleur.

  • Dans le cas où le local est soumis à des apports solaires supplémentaires, les débits nécessaires pour les besoins thermiques dépasseront de loin le débit d’air hygiénique, l’encombrement sera très important, un recyclage de l’air devra être organisé… Le système « tout air » devient inadapté.

Vu le coût d’exploitation du transport par air (coût de fonctionnement des ventilateurs), un système d’adaptation du débit d’air aux besoins réels sera prévu (système VAV, Volume d’Air Variable). Le débit maximal ne sera pulsé que dans les situations extrêmes. Mais ce système est coûteux et la mise au point de sa régulation est plus délicate.

Un grand avantage pourtant de ce système « tout air » est de pouvoir profiter d’un refroidissement gratuit par de l’air extérieur en mi-saison (free cooling diurne).

Un outsider possible pour certains bâtiments : le DRV, Débit de Réfrigérant Variable

Photo DRV, Débit de Réfrigérant Variable.

Quelques réflexions peuvent se faire :

  • Le souci de modularité dans la construction des bâtiments nouveaux entraîne faux plafond, cloisons légères, … Cette caractéristique de construction sans inertie, alliée à la présence généralisée de moquette au sol, entraîne une très grande variabilité des besoins dans le temps : il faut réchauffer le bâtiment au matin, mais le fonctionnement de la bureautique et le premier rayon de soleil entraîne un besoin de refroidissement à midi !
  • Les bâtiments nouveaux sont parfois confrontés à des besoins simultanés de chaud et de froid :
    • exemple 1 : en hiver, chauffage des locaux en périphérie et refroidissement du cœur du bâtiment,
    • exemple 2 : en mi-saison, au matin, chauffage des locaux à l’Ouest et refroidissement des locaux à l’Est déjà soumis au rayonnement solaire,
    • exemple 3 : chauffage de l’air hygiénique et refroidissement des locaux.
      Il est dommage de voir simultanément des chaudières fonctionner, ne fut-ce que pour préchauffer l’air hygiénique, et des condenseurs évacuer dans l’air extérieur la chaleur excédentaire des locaux refroidis…
  • Pourquoi passer par un fluide intermédiaire (eau ou air) et ne pas travailler directement avec le fluide frigorigène qui peut apporter chaleur ou refroidissement par simple inversion du cycle ?

Par ailleurs, la technique du « fluide réfrigérant variable » semble performante pour des locaux dont les besoins sont très variables entre eux et dans le temps. Par exemple, en hiver, un échangeur dans le faux plafond devient évaporateur lorsqu’il est placé dans un local central et condenseur lorsqu’il est dans un local en façade. Et ce même échangeur bascule en évaporateur en été.

Reste le problème d’apport de l’air neuf hygiénique et le contrôle du taux d’humidité en hiver. Ce système ne le prévoit pas.
Il faut alors :

  • Soit prévoir un caisson de préparation de l’air indépendant, mais on ne dispose pas de source de chaleur puisque pas de chaudière…
  • Soit intégrer l’air neuf dans les échangeurs intérieurs et laisser à l’unité terminale le soin de préparer la température adéquate, mais on ne gère pas le problème de l’humidité de l’air des locaux.

Un avantage de ce type d’installation : c’est une solution « tout électrique », ce qui simplifie et accélère la construction. On veillera cependant à en limiter la puissance électrique (gestion de la pointe de puissance par délestage ou par stockage de froid la nuit).

Quel que soit le système choisi…

C’est très souvent la qualité du projet qui fait la différence :

  • dimensionnement correct (absence de courant d’air, limitation du bruit,…),
  • finesse de la régulation des équipements,
  • performance des moyens de gestion qui pilotent le tout.

Ce sont les 10 % de budget supplémentaire qui feront souvent la performance globale…

Géothermie et géocooling [Climatisation]

Géothermie et géocooling


Principe

À l’état naturel, le sous-sol garde une température constante de l’ordre de 10 … 12 °C à partir d’une profondeur d’une dizaine de m.

graphe principe géothermie.

On peut donc logiquement imaginer que celui-ci puisse servir de source naturelle de froid. Il suffirait qu’un réseau véhiculant un fluide caloporteur le parcoure pour produire de l’eau à température adéquate pour refroidir un bâtiment.

On appelle cela du « géocooling ».

De même, une température de 10 .. 12 °C plus élevée et plus stable que la température extérieure hivernale est une température intéressante pour servir de source froide à une pompe à chaleur, en l’occurrence sol/eau, pour chauffer le bâtiment en hiver.

On parle alors de « géothermie ».

Refroidissement en été et chauffage en hiver vont d’ailleurs souvent de pair. En effet, si en été on extrait du « froid » du sol, ce dernier se réchauffe progressivement. Si cette opération se répète d’année en année, sans autre perturbation, le sol verra sa température moyenne augmenter jusqu’à ne plus être exploitable.

Dès lors pour éviter ce phénomène, il s’agit de régénérer le sol chaque hiver en extrayant la chaleur accumulée en été grâce à une pompe à chaleur.

On parle alors de « STOCKAGE GEOTHERMIQUE » : la chaleur du bâtiment est transférée dans le sol en été quand elle est gênante pour être utilisée en hiver quand elle est nécessaire.


Technologie des sondes géothermiques

Les systèmes fermés et ouverts

On parle de système fermé si un fluide caloporteur circule dans le sol dans un circuit fermé.

On retrouve principalement 3 types de systèmes fermés : les forages ou sondes géothermiques, les pieux géothermiques et les nappes horizontales.


3 types d’échangeur géothermique : les pieux, les sondes et les nappes.

Source : Rehau.

On parle de système ouvert lorsque c’est l’eau de la nappe phréatique ou du lit d’une rivière qui est pompée pour échanger sa chaleur avec le bâtiment et réintroduite en aval du sens d’écoulement souterrain.

Forages géothermiques

Dans ce cas les « échangeurs géothermiques » ou « sondes géothermiques » sont pour la plupart constitués de forages verticaux (diam 150 mm) d’une profondeur de 50 à 400 m (souvent 100 .. 150 m). Chaque forage contient des conduites, le plus souvent en polyéthylène (DN 32) disposées en double U et enrobées d’un coulis de ciment/bentonite (le « grout ») assurant la protection mécanique tout en permettant une certaine souplesse indispensable pour résister aux mouvements de sol.

Source : REHAU.

L’ensemble des forages forme ainsi un champ de sondes espacées entre elles de 6 à 10 m, pour limiter les interférences thermiques. Les sondes sont raccordées entre elles via des collecteurs, en série ou en parallèle ou un mix des deux.

Le champ de sondes peut être disposé à côté du bâtiment ou même sous le bâtiment (par exemple en ville).

Variantes : Sondes coaxiales en acier

Les forages géothermiques présentent une série de contraintes comme :

  • la nécessité d’espace pour effectuer les forages;
  • la gestion du forage au travers de couches de sous-sol parfois hétérogènes;
  • la nécessité de maximiser l’échange de chaleur tout en garantissant la tenue mécanique des sondes,
  •  …

Cela conduit les fabricants à proposer des alternatives aux sondes traditionnelles en « double U ».

Il existe ainsi des sondes coaxiales : l’eau en provenance du bâtiment circule dans la périphérie de la sonde et revient par le cœur pour délivrer son énergie au bâtiment.

Exemple de sonde coaxiale en PE : le fabricant annonce que les performances d’une sonde de dimension 63 mm / 40 mm
correspondent à une sonde géothermique double U de dia. 32 mm.

Source : www.hakagerodur.ch

Pour encore augmenter l’échange thermique avec le sol les sondes peuvent être réalisées en acier (avec protection cathodique) ou en inox, sans enrobage : le tube périphérique est en métal et le tube intérieur en PE.

L’augmentation du transfert de chaleur, permet alors réduire le nombre de forages et la longueur des sondes. Ainsi des tests de réponse thermique montrent qu’en moyenne, les sondes coaxiales en inox ont une résistance thermique 2 fois moindre qu’une sonde avec doubles U en PE. Cela permettrait une puissance d’extraction de 10 à 20 % supérieure.

Exemple de sondes en acier, à visser (longueur de 3 m).

Source : Thermo-pieux.

Exemple de sonde en inox introduite par forage ou « vibro-fonçage ».  La profondeur peut atteindre une centaine de mètres.

Source : geo-green.

La technologie des sondes coaxiales ouvre la porte à des installations avec des forages en étoile au départ d’un point d’entrée unique dans des lieux où l’accès pour des forages parallèles espacés n’est pas possible (par exemple, une cour intérieure dans un site existant).

 

Forages en « étoile » : on parle dans la littérature de « racines géothermiques ».

Pieux géothermiques

Une alternative aux forages consiste à intégrer les échangeurs géothermiques aux pieux de structure d’un bâtiment. Cela se justifie parce que ceux-ci sont souvent nécessaires dans des sous-sols humides, sous-sols favorables aussi à la géothermie.

On justifie cette technique par un souci de rationaliser les techniques en les combinant. Cependant, la pratique ne prouve pas que les coûts soient inférieurs par rapport à des installations distinctes. La mise en œuvre des pieux se complique également. La gestion de l’installation doit également interdire que les pieux de fondation ne gèlent en mode de chauffage hivernal.

 

Exemples de réalisation : La crèche de l’île aux oiseaux, ville de Mons : 16 pieux géothermiques de 10 m.

La crèche de l’ile aux oiseaux de Mons.

Aéroport de Zurich : 350 pieux géothermiques de 30 m de profondeur.

Nappes horizontales

La géothermie se décline également sous la forme de nappes de tuyaux déployés horizontalement à faible profondeur (0,6 à 1,2 m).

Le système est peu applicable dans le secteur tertiaire. En effet,

  • Il demande une surface de terrain très importante : de 28 à 100 m²/kW de puissance de chauffage nécessaire.
  • En hiver, elle peut conduire à un refroidissement excessif du sol préjudiciable à la végétation.
  • L’utilisation en refroidissement n’est guère possible, la température du sol étant fortement soumise à l’environnement extérieur.

Alternative pour les bâtiments de taille réduite : les sondes de faible profondeur.

Pour les petits projets, pour lesquels un forage n’est pas autorisé et où les systèmes horizontaux ne disposent pas de surface suffisante, certains fabricants proposent des sondes de petite taille constituées d’un échangeur spiralé. Ce système permet notamment de limiter l’influence que peut avoir la géothermie sur la couche de sol où se développe la végétation.

Source : SANA FONDATIONS sprl.

Cas particulier : le puits canadien

Le puits canadien ou puits provençal constitue une forme de géothermie puisque l’air neuf de ventilation est prétraité (chauffé ou refroidi) par son passage dans le sol.

Techniques

 Pour en savoir plus sur le puits canadien.

Schémas de principe

Traditionnellement, on retrouve 2 types de schéma de principe, selon que le froid est produit par échange direct avec le sol soit par la pompe à chaleur réversible utilisant le sol comme source chaude. Une troisième configuration se retrouve lorsqu’on puise directement l’eau de la nappe phréatique.

Free cooling direct

En été : le froid est produit par échange direct avec le sol et distribué via un échangeur vers les unités terminales. Le géocooling est ainsi mis en œuvre moyennant uniquement la consommation de pompes. Si on compare cette consommation à l’énergie frigorifique produite, on calcule un ESEER équivalent du système de l’ordre de …12…, voire plus en fonction des dimensionnements des équipements. Souvent une machine de production de froid vient en appoint pour satisfaire les demandes de pointes ou pour alimenter des utilisateurs demandant des températures d’eau plus basses (comme les groupes de traitement d’air).

En hiver, le sol sert de source froide à une pompe à chaleur sol/eau. Le coefficient de performance saisonnier obtenu varie entre 4,5 et 5,5. Une chaudière est utilisée en appoint pour couvrir les pointes de puissance par grands froids. Généralement, le système est dimensionné pour que la PAC couvre environ 70 % du besoin de chaud grâce à environ 30 % de la puissance totale nécessaire.

Recharge du sol par pompe à chaleur réversible

La pompe à chaleur sol/eau est réversible. En été, elle fonctionne comme un groupe de production d’eau glacée en utilisant le sol pour évacuer la chaleur de son condenseur régénérant ainsi ce dernier.

L’avantage d’un tel système est de mieux gérer la recharge du sol et peut-être de pouvoir se passer d’un groupe de froid d’appoint et d’un échangeur intermédiaire. L’investissement est donc moindre.

En contrepartie, alors que l’on peut toujours parler de stockage géothermique, il ne s’agit plus réellement de géocooling naturel puisqu’il est nécessaire de faire fonctionner une machine thermodynamique pour extraire le « froid » du sol. Le bilan énergétique global est donc moins favorable.

Systèmes ouverts

Si la nappe phréatique se situe près de la surface du sol, on peut envisager de puiser directement l’eau dans cette dernière plutôt que de la parcourir avec un échangeur et un fluide caloporteur. On parle de système ouvert. Dans ce cas, l’eau de la nappe sert par l’intermédiaire d’un échangeur :

  • En mode chauffage, de source froide à une pompe à chaleur.
  • En mode refroidissement, de source de froid directe pour une boucle d’eau.

L’eau puisée est ensuite réinjectée dans la nappe à une certaine distance créant ainsi 2 zones dans la nappe phréatique à températures différentes, l’eau passant de l’une à l’autre en fonction de la saison :

  • En hiver une zone se refroidit par l’eau réinjectée après échange avec la pompe à chaleur.
  • En été l’eau est pompée en sens inverse de cette zone et réinjectée plus chaude dans la zone de puisage hivernal.

Étant donné les mouvements dans les nappes phréatiques et en fonction de la distance entre les zones chaude et froide, l’influence d’un éventuel déséquilibre entre les besoins de chauffage et de refroidissement est nettement moindre dans le cas d’un système ouvert par rapport à un système fermé.

En outre, il est également possible de produire du chaud et du froid en même temps dans le bâtiment. En effet, si nécessaire, l’eau pompée de la nappe peut être dirigée à la fois vers la pompe à chaleur et vers l’échangeur de géocooling ou vers un échangeur commun entre les productions de chaud et de froid.

Exemples d’installations

Le schéma ci-dessous est proposé par un constructeur allemand. Il permet le chauffage par pompe à chaleur, le refroidissement libre par un échangeur vers les sondes géothermiques, éventuellement assisté par le fonctionnement réversible de la pompe à chaleur.

Le schéma ci-après, plus complet, permet un fonctionnement mixte en mi-saison : une chaudière alimente la zone périphérique en chaleur, alors que simultanément, la zone centrale est refroidie par l’échangeur dans le sol via la pompe à chaleur. Attention cependant à la destruction d’énergie qui pénalise l’intérêt énergétique de ce système.


Unités terminales associées

Les performances de la pompe à chaleur et du géocooling sont fortement dépendantes du régime de température des unités terminales :

Plus la température de l’eau de distribution est basse en saison de chauffe (température max de l’ordre 50 .. 55 °C), meilleur sera le rendement de la PAC et plus elle est élevée en été (température min de l’ordre de 15 .. 17 °C) plus grande sera la quantité d’énergie extractible directement du sol.

On doit donc choisir des unités terminales compatibles avec ces températures :

  • Plafonds refroidissants ou ilots rayonnants
    • avantages : peu d’inertie thermique et donc rendement de régulation élevé, contrôle facile de la température ambiante, réversible chaud/froid;
    • inconvénients : puissance plus limitée (plafonds).

Exemple d’îlot rayonnant.

(Source : Interalu).

  • Dalles actives
    • avantages : stockage de nuit et donc limitation de la puissance à installer;
    • inconvénients : inertie thermique importante et donc contrôle difficile de la température et rendement de régulation dégradé. Peu de flexibilité spatiale et difficulté d’utilisation en chauffage (nécessité d’un second système). Absence de faux plafond (gestion des techniques et de l’acoustique).

Étude d’un projet de géothermie

Un projet de géothermie consiste à mettre en corrélation le comportement thermique du bâtiment et celui du sous-sol. Tout cela se passe de façon dynamique : les besoins varient, le sol se charge, se décharge, échange avec son voisinage tout cela sur une échelle de temps quotidienne, mais aussi saisonnière. Cela justifie l’utilisation d’outils de simulation thermique dynamique prenant en compte la variabilité des besoins, des échanges et l’inertie du système.

Étapes de l’étude d’un projet de géothermie :

  • Définir les besoins par simulations dynamiques en évaluant différentes variantes de manière à trouver le bon équilibre entre le besoin de chaud et de refroidissement du bâtiment (niveau d’isolation, type de vitrage, protections solaires, …).

Besoins simulés de chauffage et de refroidissement d’un bâtiment, h par h ou 1/4h par 1/4 h.

  • Connaître la nature du sol par études géologique et hydrogéologique pour préévaluer les caractéristiques physiques et thermiques du sous-sol et pour évaluer les éventuels risques liés aux forages (présence de nappes phréatiques, de couche argileuse,  de quartzites, …). Cela permet de prédéfinir la pertinence et la configuration des forages (par exemple, leur longueur minimale et maximale en fonction des couches de sous-sol susceptibles d’être rencontrées).

Pour exemple, voici quelques données moyennes :

Caractéristiques du sol Puissance spécifique d »extraction
Sur 1 800 heures de fonctionnement Sur 2 400 heures de fonctionnement
Valeurs indicatives générales
Sous-sol de mauvaise qualité (sédiment sec) (λ < 1,5 W/m²K) 25 W/m 20 W/m
Sous-sol rocheux normal  et sédiment  saturé en eau (λ < 1,5 – 3.0 W/m²K) 60 W/m 50 W/m
Roche compacte à conductibilité  thermique élevée (λ < 3,0 W/m²K) 84 W/m84 W/m 70 W/m
Minéraux respectif
Gravier et sable secs < 25 W/m <20 W/m
Gravier et sable aquifères 65 – 80 55 – 65 W/m W/m
Dans le cas de fort courant des eaux souterraines dans le gravier ou le sable et d’installations uniques 80 – 100 80 – 100 W/m
Argile et glaise humides 35 – 50 W/m W/m 30 – 40 W/m
Calcaire (massif) 55 – 70 W/m 45 – 60 W/m
Grès 65 – 80 W/m 55 – 65 W/m
Roche magmatique acide (par ex. granit) 65 – 85 W/m 55 – 70 W/m
Roche magmatique basique (par ex. basalte) 40 – 65 W/m 35 – 55 W/m
Gneiss 70 – 85 W/m 60 – 70 W/m

Puissances traditionnelles extractibles.

Source Rehau.

  • Effectuer un test de réponse thermique (« TRT »). Il s’agit de réaliser un forage en taille réelle et de le soumettre à une sollicitation thermique pour pouvoir calculer la conductibilité et la capacité thermique du sol et la résistance thermique des sondes, en moyenne sur toute la longueur de la sonde. Cette sonde test pourra ensuite être valorisée dans le champ de sondes final.

Source : Group Verbeke.

  • Dimensionner le champ de sondes au moyen d’un logiciel de simulation dynamique du sous-sol : simulation du comportement du sol compte tenu des besoins du bâtiment (heure par heure) et des caractéristiques  thermiques des sondes prévues et du sol (définies par le TRT) ; optimalisation de la puissance de la PAC, du nombre et de la profondeur des sondes en s’assurant de l’équilibre à long terme de la température du sol.

Dimensionnement de l’échangeur de sol

Pour le dimensionnement des collecteurs de sol, des réfrigérateurs de plaques de fond ou de réservoirs de fondations, il est possible de consulter la DIN ISO EN 13370 « Transmission de chaleur par le procédé de calcul terrestre ».

L’objet de cette norme est l’examen du transfert de la chaleur en tenant compte des paramètres (tuyaux, isolation, masse géométrique du bâtiment, etc.) et de la conduite d’exploitation. La ligne directrice VDI 4640 « Utilisation thermique du sous-sol » convient pour l’évaluation du rendement (puissance) d’un chauffage. De plus, elle fournit des indices de planification concernant les permissions et les conditions additionnelles liées à l’environnement, mais (à notre connaissance en octobre 2003) elle n’aurait pas encore été adaptée sous l’aspect « été » du réfrigérateur.

D’après la norme DIN ISO EN 13370 (traduction non officielle !), les tableaux suivants donnent une vue d’ensemble sur les capacités d’extraction des collecteurs de chaleur et des sondes géothermiques (capacité des pompes de chaleur jusqu’à max. 30 kW) :

>  S’il s’agit de collecteurs situés à côté du bâtiment (en W/m²) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sol sec, non cohérent 10 8
Humide, cohérent 20…30 16…24
Sable, gravier, imbibés d’eau 40 32

>  S’il s’agit de sondes géothermiques (en W/m courant) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sédiments secs et peu conducteurs (Lambda < 1,5 W/m.K) 25 20
Roche, sédiments imbibés d’eau
(Lambda > 1,5 … 3 W/m.K)
60 50
Roche dure très conductrice
(Lambda > 3 W/m.K)
84 70

L’adaptation des calculs détaillés est de plus indiquée dans les cas suivants :

  • Modification des heures de services des pompes à chaleur par rapport aux hypothèses de base;
  • plus grande nécessité de chaleur pour la préparation d’eau chaude;
  • effet régénérateur du sol suite à un apport de chaleur par réfrigération de locaux ou à un rechargement thermique solaire;
  • grande influence des eaux souterraines (nappe phréatique).

Les valeurs de référence pour les capacités d’extraction de chaleur en hiver ne sont pas directement applicables à l’activité en été. Différentes causes sont à la base des écarts entre les capacités d’extraction et d’incorporation :

  • Lors du fonctionnement en hiver, une couche de glace se forme autour de la sonde ou des tuyaux, et influence favorablement la transmission thermique par conduction. En été, le sol peut au contraire sécher davantage, ce qui est défavorable.
  • Les couches terrestres proches du sol sont soumises à de si fortes influences climatiques qu’il faudrait parler non pas d’éléments de construction thermiques, mais plutôt d’éléments de construction solaires thermiques dans le cas de collecteurs de terre classiques non bâtis.

Pour l’évaluation de la capacité de sondes géothermiques et de pieux d’énergie dans le processus de réfrigération, un constructeur conseille :

  • Vu les raisons énoncées précédemment, de mettre les capacités d’incorporation (été) égales à 70 % des capacités d’extraction de chaleur énoncées dans la VDI 4640.
  • De valoriser si possible l’existence d’une nappe souterraine, qui suite à l’humidification des couches terrestres en dessous des fondations, améliore la conductibilité thermique. Il en résultera également des capacités de réfrigération plus constantes.
  • Une distance de pose entre les tuyaux ne dépassant pas 15 cm.
  • Des phases de régénération (suite à l’arrêt du système en journée ou suite à une réduction de la nécessité de froid (journées fraîches d’été)) qui améliorent la capacité de rendement.

Aspect réglementaire lié à la réalisation du projet

(Rédaction : 2014)

En région wallonne

En Wallonie, tout projet de réalisation de puits destiné à la géothermie doit faire l’objet d’un permis unique : Permis d’environnement (installations classées, conditions intégrales et sectorielles) + Permis d’urbanisme.

Selon l’Arrêté du Gouvernement wallon du 4/7/2002, annexe I, les systèmes géothermiques fermés sont classés dans la rubrique 45.12.01 : « Forage et équipement de puits destinés au stockage des déchets nucléaires ou destinés à recevoir des sondes géothermiques », classe de permis 2.

D’autres rubriques existent pour classer les systèmes ouverts en fonction des techniques de puisage et de rejet d’eau souterraine utilisé.

Les forages d’essais (TRT) et de l’installation définitive doivent faire l’objet d’une demande de permis propre comprenant :

  • Le formulaire général de demande de permis d’environnement et de permis unique – Annexe I.
  • Le formulaire relatif aux forages – Annexe XVIII (rubrique 45.12.01) ou le formulaire relatif aux prises d’eau – Annexe III (rubrique 41.00.03.02).

Le formulaire XVIII doit notamment comprendre :

  • Une coupe géologique probable du puits avec profondeur estimée de la nappe aquifère;
  • la description des méthodes de forage et les équipements du puits avec coupe technique;
  • un rapport technique sur la nature de la nappe aquifère éventuelle;
  • un plan de situation des puits.

Chronologiquement, étant donné les délais d’obtention, il est souvent difficile d’attendre les résultats du TRT et le dimensionnement final du champ de sondes avant l’introduction de la demande de permis pour ce dernier. De même, étant donné que le choix de l’enveloppe du bâtiment et l’équilibre géothermique sont intimement liés, il apparaît difficile de dissocier chronologiquement les demandes de permis pour le bâtiment neuf, le TRT et le champ de sondes. Dans ces différents cas, la pratique veut que les permis soient introduits en parallèle en mentionnant les hypothèses de prédimensionnement effectués.

En région bruxelloise

Il n’existe actuellement pas de législation spécifique à la géothermie en RBC. Les systèmes géothermiques sont néanmoins presque toujours composés d’installations classées soumises à déclaration ou à permis d’environnement.

Dans le cas de systèmes géothermiques fermés, les installations classées concernées sont les suivantes :

  • Pompe à chaleur < 10 kWelec  et < 3 kg de substance appauvrissant la couche d’ozone : Installation non classé et donc non soumise à autorisation (rubrique 132).
  • Pompe à chaleur > 10 kWelec mais < 100 kWelec  ou > 3  kg de substance appauvrissant la couche d’ozone : Installation classée de classe 3 et donc soumise à déclaration (rubrique 132).
  • Pompe à chaleur > 100 kWelec : Installation classée de classe 2 et donc soumise à Permis d’Environnement (rubrique 132).
  • Pompes électriques > à 100 kVA (rubrique 55).

Les forages ne sont, eux, pas classés.

Dans le cas de systèmes géothermiques ouverts, les captages d’eau souterraine sont des installations classées de classe 2 ou de classe 1B (rubrique 62) et sont donc soumis à Permis d’Environnement. En plus comme pour les captages d’eau « classiques », les systèmes géothermiques ouverts sont soumis à une « autorisation de pompage » de la part de l’IBGE.

De plus la réglementation urbanistique (COBAT) stipule que les forages géothermiques sont soumis à rapport d’incidence. Il semblerait donc que les systèmes géothermiques sont soumis à Permis d’Urbanisme (PU). Dans la pratique, il semblerait néanmoins que les systèmes géothermiques ne fassent pas l’objet d’une demande de PU à part entière. Il est donc conseillé de se renseigner auprès du service urbanisme de la commune concernée pour savoir si un PU est nécessaire.

La demande de permis d’environnement doit comprendre une série de renseignements.

Pour les systèmes géothermiques fermés (sondes verticales) :

  • Le cadre du projet de géothermique (industrie, tertiaire, logements collectifs, privés, ….
  • Le profil géologique et hydrogéologique de la zone où sont prévus les forages (et plus particulièrement déterminer les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.

Il y a lieu de motiver la profondeur des sondes envisagée sur base de ce profil.

  • La technique de forage prévue pour le placement des sondes.
  • La description technique de l’installation géothermique :
    • puissance électrique de la pompe à chaleur (PAC) et rendement;
    • nombre de puits ou forage prévus + nombre de sondes verticales prévues;
    • profondeur des sondes;
    • type de sondes (simple boucle en U, double boucle en U, coaxiale, autre);
    • type de matériaux utilisés pour les sondes et les différentes connexions;
    • systèmes prévus pour isoler les sondes (ou les groupes de sondes) en cas de fuite (vannes d’isolement, …);
    • fluide caloporteur prévu dans les sondes;
    • surface prévue pour l’implantation des sondes (et surface disponible si différente);
    • matériaux de remplissage sont prévus pour le scellement des trous de forages (espace interstitiel).
    •  …
  • Le plan reprenant de manière claire l’emplacement des installations (PAC et champ de sondes).
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • L’évaluation des besoins énergétiques :
    • la demande en chaud du bâtiment (kWh/an);
    • la demande en froid du bâtiment (kWh/an);
    • la puissance de pointe en chaud du bâtiment (kW);
    • la puissance de pointe en froid du bâtiment (kW);
    • l’énergie (chaud) soutirée au sol (kWh/an);
    • l’énergie (froid) soutirée au sol (kWh/an);
    • % de la demande en chaud couvert par la géothermie;
    • % de la demande en froid couvert par la géothermie.

Dans la mesure du possible, un (des) graphique(s) (histogramme) reprenant les besoins mensuels du bâtiment en froid et en chaud sur un an et distinguant la part produite par la géothermie de la part produite par les systèmes complémentaires (système de production de chaud et froid classiques) sera fourni.

  • Dans le cas ou un test de réponse thermique (TRT) a été réalisé : les conclusions du test.
  • La comparaison du gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation (réduction d’énergie primaire (%)).
  • L’évaluation du déséquilibre thermique du sous-sol et l’évolution de la performance de la PAC sur 20 ans en tenant compte de ce déséquilibre thermique.
  • Quant au rapport d’incidences, il doit également évaluer les nuisances et impacts environnementaux liés au système géothermique ainsi que les mesures prises pour éviter, supprimer ou réduire les nuisances répertoriées.  (Ex : test de mise sous pression des bouclages, mise en place d’un système de détection de fuites, étanchéité des puits,…).

Pour les systèmes géothermiques ouverts :

  • Le type de système géothermique prévu : captage/réinjection réversible (stockage chaud froid) ou captage réinjection non réversible.
  • La description technique de l’installation géothermique :
    • nombre de puits de pompage et de réinjection prévus ;
    • profondeur des puits (+ facteurs ayant servi à la détermination de la profondeur) ;
    • zone de filtre (crépine) ;
    • distance séparant les puits de captage et de réinjection ;
    • type de compteurs et nombre de compteurs prévus (+ emplacement) ;
    • puissance électrique de la pompe à chaleur (PAC) et son rendement ;
    • liquide utilisé dans le circuit secondaire ;
    • type d’échangeur – circuit primaire / circuit secondaire (double parois, simple paroi, …) ;
    • Éventuel système de détection de fuite dans le circuit secondaire.
    • plan reprenant l’emplacement de la PAC, des différents puits de captage et de réinjection.
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • Le profil géologique et hydrogéologique des zones de captage et de réinjection (et plus particulièrement déterminer l’aquifère ou les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.
  • Le débit maximum capté (m³/h, m³/j), le volume total capté par an ou par saison (m³) et si la totalité de l’eau captée est réinjectée dans la nappe. Si l’eau souterraine est utilisée à d’autres fins que la géothermie, il y a également lieu de préciser les utilisations alternatives et le débit capté (m³/j).
  • La température de réinjection maximale prévue.
  • Le dossier doit comporter une évaluation de :
    • la demande en chaud du bâtiment (kWh/an);
    • (la demande en froid du bâtiment (kWh/an)), si utilisation des puits pour refroidir;
    • la puissance de pointe en chaud du bâtiment (kW);
    • (la puissance de pointe en froid du bâtiment (kW)) → Si utilisation des puits pour refroidir;
    • l’énergie (chaud) soutirée de la nappe (kWh/an);
    • (l’énergie (froid) soutirée de la nappe (kWh/an)), si utilisation des puits pour refroidir;
    • % de la demande en chaud couvert par la géothermie;
    • (% de la demande en froid couvert par la géothermie), si utilisation des puits pour refroidir.
  • Le gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation  (réduction d’énergie primaire (%)) doit également être évalué.
  • Le rapport d’incidence doit évaluer le déséquilibre thermique de l’aquifère  et l’évolution de la performance de la PAC sur 20 ans en tenant compte du déséquilibre thermique.
  • Le rapport d’incidence doit évaluer la possibilité technique de mettre en place le système géothermique sur le site.
  • Le rapport d’incidence doit enfin évaluer l’impact et les nuisances du système géothermique et notamment :
    • l’impact éventuel du projet sur des captages voisins (impact hydraulique);
    • l’impact éventuel du projet sur la stabilité des constructions voisine;
    • le risque d’inondation au niveau des puits de réinjection et des constructions voisine;
    • l’impact thermique éventuel du système sur les eaux souterraines.
  • Ainsi que les mesures particulières de protection du sol et des eaux souterraines prévues (Rehaussement du puits, étanchéité des puits de forages, mesures prévues pour éviter la connexion éventuelle d’aquifères différents, mesures prévues pour éviter une contamination de l’eau pompée et réinjectée dans la nappe (type d’échangeur utilisé, système de détection de fuite, surpression du circuit secondaire (eau pompée) par rapport au circuit primaire (de la PAC), …)).

Refroidissement adiabatique

Refroidissement adiabatique


Principe de base

Le principe est le suivant : si de l’air chaud et sec traverse un filet d’eau, il en provoque l’évaporation. La chaleur nécessaire à la vaporisation d’eau étant extraite de l’air. Celui-ci se refroidit.

Schéma principe de base.

Par exemple, de l’air à 20°C, 30 % HR traversant un nuage d’eau voit sa température atteindre 12°C en se chargeant d’humidité.

Le refroidissement adiabatique peut-être

  • direct : si l’air humidifié soit directement pulsé dans l’ambiance;
  • indirect : si de l’air pulsé ou un réseau d’eau est refroidi par échange avec l’air qui aura été humidifié.

Refroidissement indirect de l’air pulsé

Il existe des échangeurs à plaques dans lequel l’air vicié est refroidi par humidification. Un tel système permet d’exploiter le « pouvoir refroidissant » de l’humidification adiabatique, tout en évitant le problème de l’humidification de l’air neuf.

Photo d’une centrale de refroidissement adiabatique.

L’air vicié et l’air neuf passent dans un double échangeur à plaques. Dans l’échangeur, l’air vicié est humidifié. On combine donc deux phénomènes dans l’échangeur : le refroidissement adiabatique de l’air vicié et le refroidissement au contact avec l’air neuf. Remarquons les volets de by-pass (sur l’air neuf et l’air vicié) permettant une régulation de la puissance échangée.

Actuellement, nous manquons de données neutres pour juger des performances et de l’intérêt énergétique d’un tel équipement. Il semblerait que si l’humidification de l’air vicié est effectuée avant l’échangeur, le refroidissement complémentaire qui en résulte ne soit pas suffisant pour augmenter significativement l’énergie récupérée en période de climatisation. C’est apparemment l’intégration de l’humidificateur dans l’échangeur, qui augmenterait les performances du système. En effet, dans ce cas, l’eau s’évapore dans l’échangeur et refroidit aussi bien celui-ci que l’air vicié. Le fabricant de ce matériel annonce, dans les meilleures conditions, un refroidissement de l’air neuf de 10 °C.

En hiver, avec l’arrêt de l’humidification, on retrouve le fonctionnement d’un groupe « traditionnel » avec échangeur à plaques.


Refroidissement indirect d’un réseau d’eau

Il existe d’autres modes de refroidissement exploitant le principe de l’évaporation de l’eau, notamment associés à des machines frigorifiques avec possibilité de free chilling via aérorefroidisseur ou tour de refroidissement.

Schéma refroidissement indirect d’un réseau d’eau.

Photo d’un refroidisseur adiabatique.

Dans ce processus, quel que soit le mode d’humidification, le principe est toujours le même : les molécules d’eau passent progressivement à l’état de vapeur, provoquant ainsi par évaporation une diminution de la température d’air.

Son efficacité sera accrue si la surface de l’eau est grande, si le débit d’air à la surface de l’eau est important et si la température de l’air est élevée.

Enfin, il est indispensable d’assurer un contrôle et une maintenance très rigoureux des équipements, car :

  • les surfaces humides présentent un terrain favorable au développement des micro-organismes;
  • l’évaporation provoque des dépôts consécutifs à la cristallisation (sels minéraux, carbonates);
  • la ventilation de l’air favorise les dépôts de poussière.

Avantages et inconvénients

  • La solution simple permettant un refroidissement naturel en exploitant des équipements existants : groupe de ventilation, tour de refroidissement, …
  • Mais le pouvoir rafraîchissant est limité.
    • Le refroidissement de l’air est d’autant plus grand que le climat est chaud et sec (un tel système est donc inutile dans les régions où le climat est tropical, c’est-à-dire que l’air chaud est déjà chargé en humidité excessive. Chez nous, on se retrouve entre les deux …
    • Le refroidissement de l’eau ne sera lui possible que pour des températures extérieures typiques de la mi-saison, voire de nuit.
  • On parle donc bien de rafraîchissement et non de climatisation au sens de la fourniture d’une puissance de froid suffisante quels que soient les besoins.
  • Le dispositif ne peut être régulé avec précision, car il dépend de l’hygrométrie extérieure. Il est d’autant plus efficace que le climat est chaud et sec.
  • La consommation en eau non négligeable, nécessite qu’elle soit de bonne qualité pour éviter l’entartrage des tuyauteries, ainsi que les problèmes de légionelles. Pour éviter ce désagrément, un traitement d‘eau est nécessaire. Évidemment, l’utilisation de l’eau de pluie réduit l’impact sur la consommation en eau potable, mais nécessite la garantie du fabricant quant à la résistance de ses équipements.

Régulation

Les éléments qui constituent l’installation : filtres, surpresseur, pressostats de sécurité, pompe, électrovanne, rampes avec buses, échangeur, vannes de purge.

La régulation du refroidissement adiabatique repose principalement sur le contrôle des débits d’air et d’eau.

La régulation pour la ventilation d’air peut être de deux types :

Régulation par étage

Des étages de ventilation s’enclenchent les uns après les autres. Lorsque 100 % de la ventilation est en fonctionnement et que la température extérieure est supérieure à la valeur de consigne d’enclenchement de la brumisation haute pression, une électrovanne s’ouvre et un surpresseur se met en route.

Régulation par variations de fréquence

La variation de vitesse régulera jusqu’à ce que 100 % du débit de ventilation soit en fonctionnement (à 50 Hz l’électrovanne de la rampe s’ouvre et le système adiabatique fonctionne).

La régulation pour le débit d’eau projeté

Un brouillard d’eau efficace offre la plus grande surface d’échange possible avec l’air.
Cette surface d’échange est d’autant plus grande que le nombre de microgouttelettes pulvérisées est important. Pour obtenir un brouillard de qualité, l’eau est donc mise sous forte pression (100 bar) et accumule ainsi, une énergie importante. Le débit d’eau de brumisation est calculé précisément afin d’apporter à l’air la juste quantité d’eau.

 

Roue dessicante


Principe de fonctionnement

Les dispositifs à dessiccation (DEC : Desiccant Evaporative Cooling) sont des systèmes de déshydratation ou de refroidissement de l’air, utilisant de l’eau et une source de chaleur.

Ce procédé repose sur le principe physique suivant : l’évaporation de la vapeur d’eau dans l’air sec réduit la température et augmente l’humidité absolue de l’air.

La dessiccation exploite un double échange de frigories et d’humidité entre les flux d’air entrant (air de process) et sortant (air de régénération) d’un bâtiment. Cette circulation d’air est généralement assurée par une centrale de traitement d’air.

Schéma de fonctionnement d’une centrale d’air à roue dessicante.

Représentation de l’évolution de l’air dans un diagramme de l’air humide.

(1>2) L’air extérieur ou air pulsé (aussi appelé « air de process ») est aspiré au travers d’un filtre, puis traverse la « roue dessicante » ou « roue à dessiccation ». Cet échangeur rotatif contient un produit de sorption solide. Ce dernier absorbe la vapeur d’eau de l’air extérieur par adsorption. L’air extérieur est ainsi déshumidifié et en contreparti, voit sa température augmenter.

(2>3) L’air extérieur est alors refroidi par échange de chaleur avec l’air intérieur extrait ou simplement l’air extrait (aussi appelé « air de régénération »). Cet échange se fait au travers d’un échangeur de chaleur rotatif (non hygroscopique).

(6>7) Pour augmenter l’échange de chaleur et donc le refroidissement de l’air pulsé, on rafraîchit au préalable l’air extrait en l’humidifiant jusqu’à saturation. On abaisse ainsi le plus possible sa température, et on bénéficie au maximum du potentiel de refroidissement dans l’échangeur.

(7>8) en passant au travers de l’échangeur de chaleur, l’air extrait se voit donc réchauffé.

(8>9) Pour pouvoir fonctionner en continu, la roue dessicante doit être régénérée c’est-à-dire que l’humidité doit être évacuée du matériau adsorbant. Pour cela la portion de roue contenant l’humidité doit croiser le flux d’air extrait qui aura été préalablement réchauffé pour atteindre une température suffisante pour vaporiser les molécules d’eau retenues dans les pores de la roue.

(9>10) Enfin l’air chaud traverse et régénère la roue dessicante pour lui permettre de poursuivre le processus continu de déshumidification. Finalement, l’air rejeté, à l’aide d’un ventilateur, sort plus haute en température et plus chargé en humidité que l’air extérieur.

(3>5) L’air pulsé peut encore être arrosé d’eau au travers d’un humidificateur. L’eau va absorber les calories restantes dans l’air avant que celui-ci soit propulsé dans le bâtiment à refroidir par un ventilateur. Cette alternative permet de refroidir l’air pulsé mais pas de le déshumidifier. Pour ce faire, il est alors nécessaire de remplacer cet humidificateur par une batterie froide.

(4>5): Ce système est dit réversible, car il peut aussi bien être utilisé en refroidissement qu’en chauffage. En hiver, cela correspond à un mode de fonctionnement normal de réchauffement par système centralisé à air, en utilisant la roue de sorption comme récupérateur de chaleur, tout en complément des apports de la chaleur solaire. La présence d’une batterie chaude permet ainsi la régulation de température de chauffe en hiver.

Résumé du comportement de l’air illustré par le diagramme de l’air humide :

En théorie, dans le diagramme de l’air humide, l’évolution de l’air dans la roue dessicante se fait selon une courbe isenthalpique pour l’air soufflé et pour l’air repris (1>2 et 9>10).
Dans l’échangeur et dans le régénérateur (batterie chaude, apports solaires, …), les transferts de chaleur se font à humidité absolue constante (2>3, 7>8 et 8>9).
Entre l’air pulsé et l’air repris par la centrale de traitement, l’air subit les apports dus au local (personnes, lampes, ordinateurs, …) et voit sa température augmenter (5>6).
La combinaison de ces différentes évolutions permet d’obtenir un point de soufflage compatible avec le rafraîchissement du bâtiment.


Aspects technologiques

La roue à dessiccation – principe d’adsorption

La sorption est un phénomène physique qui consiste à fixer les molécules d’un élément à une surface généralement granulée et poreuse. Les matériaux dessicants attirent l’eau en formant à leur surface une zone à faible pression de vapeur.
La vapeur de l’air, ayant une pression plus élevée, se déplace de l’air vers la surface du matériau ce qui garantit une déshumidification de l’air.


Photo technologie roue dessicante rotative.


Schéma d’une roue à dessiccation avec section de purge
(séparation amont/aval).

La déshumidification s’effectue soit à travers un dispositif sur lequel est posé un matériau dessicant (on parle alors de « déshydratation en phase solide »), soit dans des échangeurs dans lesquels est pulvérisée une solution dessicante (« déshydratation en phase liquide »).

La sorption peut donc prendre place entre un gaz et un solide, auquel cas on parle d’adsorption, soit entre un gaz et un liquide, il s’agit dans ce cas du phénomène d’absorption. Raison pour laquelle les roues dessicantes sont appelées également des déshydrateurs à adsorption.

Photo d’un déshydrateur à adsorption  de la marque « Ventsys » fonctionnant selon le principe de la roue dessicante.

Actuellement les sorbants les plus utilisés sont le SiO2 (Silica-gel), LiCl (Chlorure de Lithium), Al2O3 (Alumine activée) et le LiBr (Bromure de Lithium).
Ces substances sont imprégnées sur une roue rotative en céramique à structure en nids d’abeilles.
Lorsque le matériau devient saturé, la roue continue à tourner lentement et la partie exempte d’humidité est régénérée par chauffage, au départ d’une source de chaleur disponible.

L’échangeur rotatif non hygroscopique

Un échangeur non hygroscopique est une roue à rotation lente, métallique à structure en nids d’abeilles à travers laquelle passent deux flux d’air de sens opposés produisant un échange sensible entre eux (humidité absolue constante).

L’avantage de ce type d’échangeur c’est qu’il a une perte de charge faible en comparaison de son efficacité, de plus il présente peu d’encombrement.

Pour éviter les fuites de l’air entre les sections de soufflage et de retour, il est préférable d’avoir une section de purge séparant les deux sections et d’avoir les ventilateurs en aval de l’échangeur.


Intérêts du procédé

  • L’intérêt environnemental de la roue dessicante se marque si la source de chaleur utilisée est de type renouvelable. Elle peut donc fonctionner avec des capteurs solaires thermiques (on parle alors de climatisation solaire), avec un réseau de chaleur urbain alimenté en permanence en été de manière renouvelable (biomasse, géothermie profonde (> 1 500 m), etc.), ou encore en valorisant des rejets thermiques de process industriel par exemple.
    L’utilisation de capteurs solaires comme source de chaleur possède comme principal avantage de pouvoir amener le plus de froid lorsqu’il fait le plus chaud. Ce système est d’autant plus intéressant que les apports solaires sont grands, et trouve donc en toute logique son intérêt en période estivale.
    Dans ces situations et afin de garantir une utilisation prolongée, par exemple lors des périodes non ensoleillées, il est également envisageable de stocker de la chaleur emmagasinée en journée dans des ballons tampons.
    Remarque : Afin d’assurer le bon fonctionnement du processus d’adsorption, il est nécessaire que la source de chaleur puisse fournir une température suffisante à la batterie de régénération. Cette température est d’environ 70 °C quand le climat extérieur est de 25 °C et 75 % HR.
    Remarque : une autre solution, conduisant à un coût d’investissement plus faible, utilise directement l’énergie solaire de régénération par le biais de capteurs à air (et non-circulation à eau), du fait que le réfrigérant est en contact direct avec l’atmosphère.

Schéma présentant le système à roue dessiccante couplé à une installation chauffage solaire.

  • L’utilisation d’eau comme fluide réfrigérant rend ces systèmes totalement inoffensifs pour l’environnement.
  • Les humidificateurs peuvent être alimentés via l’eau de pluie ou grâce à l’eau de ville. Dans ce dernier cas, il s’agit de consommation d’eau potable dont il convient d’évaluer l’ampleur économique et environnementale.
  • La compression du fluide caloporteur est thermique, avec absence de mouvements mécaniques, ce qui augmente leur durée de vie et réduit leur bruit. Cependant une maintenance soignée est obligatoire.
  • La qualité de l’air intérieur est améliorée par l’effet bactéricide des matériaux adsorbants.
  • Ce mode de climatisation ne suffit pas pour assurer une bonne rentabilité économique, en effet le coût d’investissement pour ce genre d’installation encombrante est souvent onéreux.  Le coût spécifique [€ /(m³/h)] des centrales de traitement d’air reste trop élevé pour de petits débits. Ces systèmes tout air neuf ne sont pas adaptés pour tous les bâtiments.

Remarque : le coût spécifique va de 8 €/(m³/h) pour une centrale de traitement de 20 000 m³/h jusqu’à 16 €/(m³/h) pour une centrale de traitement de 5 000 m³/h (coût brut source fournisseur). À titre de comparaison, le coût spécifique pour une centrale de traitement d’air à roue hygroscopique va de 3.5 €/(m³/h) pour une centrale de 20 000 m³/h jusqu’à 8 €/(m³/h) pour une centrale de 5 000 m³/h.

  • Dans le cas d’utilisation de panneaux solaires comme source de chaleur, la production frigorifique varie évidemment avec les apports solaires, le dispositif ne peut fonctionner qu’en journée. Il est cependant envisageable de stocker de la chaleur emmagasinée en journée dans des ballons tampons afin d’utiliser le dispositif pendant les périodes non ensoleillées. On ne dispose donc pas d’une véritable climatisation en ce sens que la puissance de froid peut ne pas être suffisante. On parle donc plutôt de « rafraîchissement ». Si l’on souhaite réellement disposer d’une puissance de froid suffisante quels que soient les besoins, il convient de surdimensionner le système de ventilation et de recourir à une source de chaleur d’appoint bien souvent fossile ou électrique. Dans ce cas, le bilan environnemental du système peut s’effondrer.
  • La complexité d’une installation réside dans la régulation des multiples circulations de fluides avec une source thermique peut-être variable et discontinue (apports solaires). Ainsi le bon fonctionnement du système peut s’avérer délicat à garantir sur la durée. Il faut optimiser le refroidissement et la régulation, éviter les pertes thermiques et les pertes de fluides, limiter la consommation électrique, éviter la surchauffe en période estivale, se protéger contre le gel.
  • Le système est peu performant dans les climats chauds et humides.
  • En hiver, il n’est pas possible de récupérer une grande part de l’énergie latente (humidité) telle que dans le cas d’un système à roue hygroscopique. Dès lors, le besoin d’énergie pour l’humidification est plus élevé.

Bilan énergétique

Évaluation statique de l’intérêt énergétique :
Comparaison entre un système de traitement d’air à roue hygroscopique et un système de traitement d’air à roue dessicante.

Exemple en hiver

  • Air repris à une température de 20°C et une humidité absolue de 6 g/kg
  • Air extérieur à une température de 5°C et une humidité absolue de 3 g/kg
  • Air pulsé après la roue à :
    • une température de 16.25°C et une humidité absolue de 5.25 g/kg dans le cas de la roue hygroscopique. Pour l’amener à 20°C et 6 g/kg, il faut donc l’équivalent de 5 kJ/kg d’énergie (chaud) et 0.75 g/kg d’air.
    • une température de 16.25°C et une humidité absolue de 3 g/kg dans le cas de la roue dessicante. Pour l’amener à 20°C et 6 g/kg, il faut donc l’équivalent de 11 kJ/kg d’énergie (chaud) et 3 g/kg d’air.

Pour un même mode de production d’énergie, le système à roue dessicante ne peut jamais être plus intéressant que le système à roue hygroscopique.  Il nécessite plus d’eau pour humidifier l’air et plus d’énergie pour compenser le rafraichissement dû à cet apport d’eau dans l’air.

Exemple en été

  • Air repris à une température de 25°C et une humidité absolue de 13 g/kg
  • Air extérieur à une température de 23°C et une humidité absolue de 15 g/kg
  • Pour une pulsion à une température de 16°C et une humidité absolue de 11 g/kg (point de pulsion de l’air dans le cas d’une climatisation par plafonds froids en régime 17-20°C), il faut :
    • l’équivalent de 17 kJ/kg d’énergie (froid) dans le cas de la roue hygroscopique.
    • l’équivalent de 32 kJ/kg d’énergie (chaud), 2 kJ/kg d’énergie (froid) et 11.5 g/kg d’air dans le cas de la roue dessicante.

Si on considère que l’énergie de refroidissement dans le cas de la roue hygroscopique est produite avec les caractéristiques suivantes :

  • 0.781 kWh d’énergie primaire / kWh d’énergie utile
  • 0.123 kg de CO² / kWh d’énergie utile
  • 0.043 € / kWh d’énergie utile

(facteurs de conversion : ESEER machine frigo de 3,2 ; 0,395 kg CO2/kWhélectrique ; 2,5 kWhprimaire/kWhélectrique ; 0,14€/kWhélectrique).

Il faut donc que l’énergie de régénération (chaud) dans le cas de la roue dessicante ait au minimum les caractéristiques suivantes pour être intéressante en été :

  • 0.36 kWh d’énergie primaire / kWh d’énergie utile
  • 0.058 kg de CO² / kWh d’énergie utile
  • 0.021 € / kWh d’énergie utile

On peut noter qu’un réseau urbain alimenté en biomasse répond à peine à ces critères,  sans compter qu’il faudrait en plus compenser les consommations supplémentaires en hiver et la consommation d’eau des humidificateurs !

De ce fait, si on la compare à un groupe de ventilation avec roue de  récupération hygroscopique, le bilan énergétique de la roue dessicante ne semble intéressant que dans très peu de cas où l’on peut considérer que la chaleur est entièrement d’origine renouvelable ou récupérée et l’eau de l’eau de pluie.
La performance d’une installation dessicante dépend :

  • De l’efficacité de l’échangeur rotatif : choix de la roue utilisée.
  • De la température de régénération : ce paramètre est utilisé afin de modifier la puissance froide délivrée par la centrale en mode desiccant cooling.
  • Des débits de ventilation : la variation du débit engendre une variation de la puissance froide, mais également une variation du rendement d’échange dans les roues. C’est pourquoi il est nécessaire d’utiliser le système dans la plage de débit pour lequel il est dimensionné.
  • De l’efficacité de l’humidificateur: sa modification permet de contrôler la température et l’humidité de l’air de soufflage. Cela peut être utile en cas d’humidité relative intérieure inconfortable.

Domaines d’utilisation

  • Les dispositifs à dessiccation apportent une solution bien adaptée dans les régions où les apports latents sont limités et sont particulièrement efficaces en climat assez sec.
    En effet, le seul problème provient des régions trop humides, où la roue n’est pas suffisante pour déshydrater l’air ambiant, car elle nécessite une température de régénération élevée, ce qui augmente la consommation du système en énergie primaire.
  • Les systèmes à dessiccation sont utilisés pour produire directement de l’air frais (déshumidification de l’air), et non pas pour refroidir l’eau de la boucle de refroidissement comme dans le cas des machines frigorifiques classiques. Une telle installation n’est donc pas envisageable pour rechercher de grands refroidissements. Ces dispositifs peuvent souffler de l’air à une température d’environ 10°C de moins que la température extérieure (suivant les débits d’air choisis).

Photo d’une installation DEC : desiccant evaporative cooling.

  • Ce procédé est plus spécialement applicable aux bâtiments neufs ou en réhabilitation lorsqu’une source thermique à faible coût est disponible pour régénérer l’adsorbant.
  • Enfin, les systèmes dessicants peuvent être valorisés dans les bâtiments ayant un objectif de bilan « Zéro énergie » dans lesquels une déshumidification de l’air est d’office nécessaire (utilisation de plafonds froids, d’îlots rayonnants). Pour ce faire, il est nécessaire de supprimer l’humidificateur adiabatique sur le chemin de l’air neuf.

Nouvelle technologie : les Lits dessicants liquide – (LDC : Liquid dessicant cooling)

Une technique développée, toute nouvelle sur le marché, utilise pour la dessiccation de l’air un sorbant liquide : une solution eau/bromure ou chlorure de lithium.
Par rapport à un système à dessiccation utilisant un sorbant solide, ce type de système présente plusieurs avantages :

  • un plus fort taux de déshumidification pour le même niveau de température;
  • une possibilité d’un haut niveau de stockage énergétique sous la forme de solution concentrée.

Ventilation intensive mécanique d’été

Date :juin 2014

Auteur : Geoffrey

Notes : mise en page – Sylvie

Ventilation intensive mécanique d’été


Principe

La ventilation intensive d’été, souvent appelée « free cooling » consiste à refroidir un bâtiment par ventilation en utilisant l’énergie gratuite de l’air extérieur lorsque celui-ci présente une température inférieure à la température intérieure :

  • En hiver, de l’air frais extérieur peut alimenter, en journée, les zones à rafraîchir sans nécessiter l’enclenchement des groupes frigorifiques.
  • En été, une ventilation nocturne peut décharger le bâtiment de la chaleur accumulée en journée

Selon le moment de la journée, on parle de free cooling de jour ou de nuit :

  • Le free cooling diurne consiste à surventiler les locaux avec de l’air extérieur plus frais que l’air intérieur. La capacité frigorifique de l’air extérieur étant faible, de grands débits d’air sont nécessaires.
  • Le free cooling nocturne consiste à rafraîchir les bâtiments la nuit grâce à de l’air extérieur. On parle de « décharge nocturne » du bâtiment puisqu’il évacue toute la chaleur excédentaire accumulée en journée.

On distingue une ventilation intensive naturelle ou mécanique, selon que le mouvement d’air soit généré par des forces naturelles (poussée d’Archimède ou force du vent) ou par un ventilateur.
Il faut également distinguer le débit d’air neuf hygiénique, du débit d’air de rafraîchissement d’un local :

  • La ventilation hygiénique ou permanente assure la qualité de l’air. Elle vise globalement les 30 m³/h d’air neuf nécessaires par personne (RGPT). Dans un bureau, cela entraîne un renouvellement horaire de 1 x par heure, puisque chaque occupant occupe +/- 10 m² au sol, et donc un volume de 30 m³.

Grille d’apport d’air hygiénique naturel … ou réseau d’air pulsé.

  • Le refroidissement naturel d’un local (ou free cooling) sous-entend un taux de renouvellement important de l’air du local. Dans des systèmes naturels (ouverture de fenêtre), on parle de 4/heure comme base de dimensionnement, 8 renouvellements/heure sont couramment rencontrés. Dans un système mécanique par contre on se limitera à environ 2 renouvellements horaire pour éviter un surdimensionnement exagéré des réseaux de distribution de l’air.


Un refroidissement gratuit ?

La conception d’un réseau de ventilation mécanique intensive n’est pas différente de celle d’un réseau de ventilation hygiénique mécanique (double flux) ou d’un système de climatisation « tout air« .

Souvent, c’est même un système de refroidissement « tout air » qui permettra d’organiser une ventilation intensive mécanique lorsque ce système est utilisé sans recyclage, récupération de chaleur ou traitement de l’air.

Cependant, vu l’importance des débits d’air à mettre en œuvre, le concepteur sera particulièrement attentif à limiter les pertes de charges du réseau, par un dimensionnement généreux des conduites, et la limitation des pertes de charges ponctuelles (filtres, groupes, organes divers). Le choix de l’efficacité énergétique du ventilateur sera également déterminant.

Oui mais… surdimensionner un réseau de ventilation mécanique, ce n’est pas un refroidissement gratuit, puisque la consommation électrique des ventilateurs est proportionnelle au débit : brasser plus d’air coute plus cher. En effet :

Consél = (qv / 3 600) x Δp x t / ηvent

où,

  • Consél = consommation énergétique du transport de l’air [Wh/an]
  • qv = débit d’air [m³/h]
  • 3 600 = 3 600 secondes par heure [s/h]
  • Δp = perte de charge (pulsion + extraction) [pa]
  • t = durée de fonctionnement [h/an]
  • ηvent = rendement total du système de ventilation (moyenne entre pulsion et extraction).

En fait, on peut obtenir un refroidissement gratuit si le coût du grand déplacement d’air en été est compensé par une réduction de ce coût en hiver. Cette réduction est possible grâce à la modulation du débit. En période de chauffe, seul le débit hygiénique est nécessaire, et non plus la pleine capacité de l’installation. Or, une réduction du débit dans un réseau donné entraîné une réduction proportionnellement plus importante des pertes de charges. Débit d’air et perte de charge sont en effet liés par une relation de type :

p1 / p2 = (n1 / n2)² = (q1 / q2

où,

  • q = débit volume (m³/h)
  • n = vitesse de rotation (tr/min)
  • p = gain de pression (Pa)

Faire une économie sur les ventilateurs en hiver n’est possible que si le réseau de ventilation est dimensionné sur les débit d’air « maximal » souhaité en free cooling, et non sur le débit hygiénique. Mettre en œuvre une ventilation intensive mécanique ‘URE’, ce n’est donc pas forcer un grand débit d’air en augmentant la vitesse au-delà des plages de fonctionnement ‘normales’.

Illustrons cela par un exemple : Soit un immeuble de bureaux de 5000m² demandant 10000 m³/h de ventilation hygiénique.

Scénario 1 : un réseau de ventilation dimensionné sur base des besoins hygiéniques présente une perte de charge globale de 900 Pa. Il fonctionne 12 h/jour, 5 jours par semaines, 52 semaines par an, soit 3 120 heures. Si le rendement du ventilateur est de 60 %, la consommation électrique sera :

Consél = (10 000 / 3 600) x 900 x 3 120 / 0.6 =13 000 kWh ou 2.6 kWh/m²

Scénario 2 : Le réseau est dimensionné pour pouvoir assurer le double du débit d’air hygiénique avec une perte de charge inchangée de 900 Pa. Il s’agit bien d’un surdimensionnement, et non du forçage d’un réseau de moindre capacité. Lorsqu’il ne fournit que l’air hygiénique (soit 50% de sa capacité), la perte de charge est réduite à 50%^2=25% de sa valeur nominale, soit 225 Pa. En supposant que, sur les 3120 heures de fonctionnement, le groupe fonctionne X heures en mode hygiénique est 3120-X heures en mode « free cooling », la consommation d’électricité totale sur l’année sera :

Consél = (10 000 / 3 600) x 225 x X / 0.6 +(20 000 / 3 600) x 900 x (3 120-X) / 0.6

Consél = 650 kW implique que X=1 783 heures

Dans cet exemple, le dédoublement de la capacité du réseau de ventilation pour un même niveau de perte de charge permet de libérer 3120-1783=1337 heures sur l’année de free cooling réellement gratuit.

En fait, le pourcentage du temps où le free cooling est gratuit dépend uniquement du facteur de surdimensionnement entre le débit hygiénique et le débit de conception du réseau de ventilation :

Dans cette figure, le % temps FC est la fraction maximale du temps d’utilisation qui peut être utilisé en mode free cooling sans induire de surconsommation d’électricité. Le ratio de surventilation est alors le rapport entre la quantité totale d’air pulsé sur l’année et la quantité correspondant au seul débit hygiénique.

Il n’est cependant pas toujours possible de surdimensionner un réseau de ventilation. On peut alors être tenté de forcer le débit, en augmentant la vitesse dans le réseau. Il s’en suit une augmentation de la consommation du ventilateur, qui peut être comparée au coût d’une installation de refroidissement traditionnelle.

Reprenons notre exemple avec le scénario 1 :

Dans ce bâtiment, extraire un kWh avec une machine frigorifique d’une efficacité EER de 3 aurait coûté :

Consomachine frigo= 1/3 = 0.33 kWhelec = 333 Wh

Dans ce réseau, brasser de l’air au débit hygiénique nous coûte

Puisél = (1 / 3 600) x 900 x 1 / 0.6 =0.41 W/m³/h

Doubler le débit d’air dans ce réseau fait passer les pertes de charges de 900 Pa à 3 600. Le coût du kWh pulsé dans ces conditions est de

Puisél = (1 / 3 600) x 3 600 x 1 / 0.6 =1.67 W/m3/h

Or, extraire 1 kWh thermique dans un bâtiment à 25°C nécessite au minimum, si l’air extérieur est à 15 °C :

Débit = 1 000 Wh / [0.34 (Wh/m³K) * (25 °C-15 °C)] = 294 m³ d’air

On voit clairement que la surventilation par forçage du débit est, dans ce cas-ci, moins intéressante que le recours à une machine frigorifique, puisqu’il nous coutera au minimum 294 m³*1.67 W/(m³/h) = 490 Wh, là où la machine frigorifique ne demanderait que 333 Wh.

Réglementation

Pour en savoir plus sur la performance énergétique des ventilateurs, norme :  EN13779  sur la ventilation des bâtiments non résidentiels.


Pertes de charge du réseau

La ventilation intensive implique de grands débit d’air. Lorsqu’elle est mécanique, on prévoira souvent entre 1.5 et 3 renouvellements horaires. Pas plus pour limiter les surdimensionnements. Or, la consommation électrique du ventilateur doit rester sous contrôle. Ces deux exigences ne peuvent se combiner que dans des réseaux à  « basse pression ».

Puissance absorbée, débit et rendement du ventilateur sont liés par l’expression :

P [W] = qV [m³/s] * Hm

où :

  • P = puissance absorbée au moteur du ventilateur [W]
  • qV = débit nominal à travers le ventilateur en [m³.s-1]
  • Hm est la hauteur manométrique [Pa]
  • η est le rendement nominal [-]

Théorie

Pour en savoir plus, le rendement d’un système de ventilation

En considérant un rendement moyen du ventilateur de l’ordre de 60%, on peut se donner une perte de charge maximale des réseaux de ventilation :

EN13779  :

Catégorie Puissance spécifique en W/m³.s Perte de charge maximale
SFP 1 < 500 < 300 Pa
SFP 2 500 – 750 300 – 450 Pa
SFP 3 750 – 1 250 450 – 750 Pa
SFP 4 1 250 – 2 000 750 – 1 200 Pa
SFP 5 > 2 000 > 1 200 Pa

Par exemples, la recherche d’une consommation spécifique inférieure à 1 200 W/(m3/s) implique des pertes de charge inférieures à :

Hm/η  < P / qV [W.m-3.s] < 1 200

Hm  < 1 200 * 0.6 = 720 Pa

C’est là une valeur raisonnablement facile à respecter… mais mieux vaut vérifier quand même !

Types d’isolants : généralités

Types d'isolants : généralités

Un matériau est généralement considéré comme « isolant » lorsque son coefficient de conductivité thermique à l’état sec est inférieur ou égal à 0.07 W/mK.


Les grandes catégories d’isolants

Les isolants synthétiques

On regroupe sous ce nom les isolants tels que les mousses de polyuréthane et de polystyrène. Ces matériaux sont très défavorables. Issus de la chimie du chlore et du pétrole, ils sont produits à partir de matières non renouvelables et selon des procédés énergivores.

Ces isolants contiennent des substances qui appauvrissent la couche d’ozone (comme les HCFC) et libèrent des gaz toxiques et mortels en cas d’incendie. Des substituts aux CFC commencent à être utilisés et on a recours lors de la fabrication à de plus en plus de matériaux recyclés.

Dans cette catégorie, la mousse phénolique semble faire exception. Ces très bonnes caractéristiques thermiques associées à son caractère renouvelable, au faible rejet de polluant au long de sa durée de vie la rendent plus intéressante que les autres isolants synthétiques. Mais ce matériau récent ne possède pas encore réellement de filière de distribution et le retour pratique sur son utilisation et sa mise en œuvre est encore réduite.

Pour en savoir plus sur les isolants synthétiques : cliquez ici !

Les laines minérales

Ces isolants sont issus de matériaux abondants (roches volcaniques et sable) et présents en Europe. Ils sont souvent composés de matériaux recyclés. Tant que la teneur en liant reste inférieure à 5%, leur élimination se fait par mise en décharge comme matériaux inertes ou par recyclage complet (laine de roche). Leur procédé de fabrication est toutefois également très énergivore.

Pour en savoir plus sur les laines minérales.

Les isolants biosourcés

Ces isolants combinent généralement un matériau issu de sources renouvelables (végétaux, cellulose recyclée), et un mode de production peu énergivore.

Remarquons que la matière première est parfois peu abondante, ou disponible uniquement dans certaines régions (ex. liège).

En général, l’élimination des isolants « écologiques » peut se faire sans danger par compostage. Mais cela dépend du mode de fabrication. Par exemple, les isolants à base de chanvre ou de lin contiennent souvent du polyester.

Pour en savoir plus sur les isolants biosourcés.


Les formes d’isolant

Selon leur nature, les matériaux isolants présentent différentes formes, raideurs et résistances à la compression :

Formes Matériaux
Matelas semi-rigide ou souple : La laine de roche, la laine de verre, les fibres traitées organiques (chanvre, …) ou animales (laine, ….) …
Panneaux rigides : La mousse de polyuréthane, de polystyrène expansé ou extrudé, le verre cellulaire, les panneaux organiques (fibre de bois avec liant bitumineux ou caoutchouc, …), le liège …
Les flocons ou granulés : Les granulés de perlite ou de vermiculite, les granulés de polystyrène expansé, les granulés de liège, les flocons de laine minérale insufflés, les flocons de papier recyclé …

Les matériaux composites

Il existe des matériaux composites qui sont constitués de plaques juxtaposées de matériaux différents, isolants ou non.

Ces panneaux combinent les propriétés des matériaux qui les composent : résistance à la compression, imperméabilité à la vapeur, qualités thermiques, comportement au feu, comportement à l’humidité, aspect fini, etc.
Exemples :

Panneaux sandwiches autoportants avec ou sans armature de renforcement.

Panneaux de mousse PUR avec lestage ou surface circulable en béton.

Panneau complexe.

Panneaux complexes comprenant une couche d’isolant collé à une plaque de plâtre enrobé de carton avec interposition éventuelle d’un pare-vapeur entre le plâtre et l’isolant. L’isolant peut être de la mousse de polystyrène expansé ou extrudé, de la mousse de polyuréthanne, de la laine minérale.

Les isolants à pente intégrée

Les mousses synthétiques, le verre cellulaire, la laine de roche existent sous forme de panneaux dont les faces ne sont pas parallèles et forment un système permettant de faire varier l’épaisseur de l’isolant de façon continue. Des panneaux à double pente et des pièces spéciales de noues et d’arêtes sont en général également disponibles.

Isolant à pente intégrée sur une
toiture plate avant pose de l’étanchéité.

Grâce à ce système, il est possible de créer ou d’augmenter la pente de la couverture.

Les fabricants disposent généralement de services qui étudient la toiture et fournissent un plan de pose des isolants à pente intégrée.

Avantages

La réalisation ou la correction de la pente ne nécessite qu’une seule opération.

La charge sur le support est plus faible que s’il est fait usage d’un autre matériau pour réaliser la pente.

Inconvénients

L’épaisseur n’étant pas constante, l’isolation de la toiture plate le sera également. L’isolation devant être suffisante partout, une épaisseur suffisante d’isolant doit être prévue au point bas de la pente.

Pour former les pentes, une quantité importante d’isolant est donc nécessaire avec une conséquence sur le coût. À cela s’ajoutent les coûts liés aux difficultés de fabrication et d’études.


Quel isolant pour quel usage ?

Le tableau suivant présente une partie des choix envisageables pour isoler un bâtiment. Cette liste n’est bien entendue pas exhaustive. La colonne « choix traditionnel » montre ce qui est traditionnellement réalisé. Les deux autres colonnes, montre vers quelles solutions il faut se tourner lorsque l’on veut se rapprocher d’une démarche d’éco-construction.

Choix traditionnel

Choix plus écologique

Choix plus écologique

+

++

Dalle de sol

Polyuréthane

Polystyrène

Laine de roche haute densité

Verre cellulaire.

Argile expansé.

Double mur extérieur

Polyuréthane

Polystyrène

Laine minérale

Laine végétale et animale.

Chaux-chanvre (ossature bois).

Flocons de cellulose (ossature bois).

Toiture à versants

Laine minérale

Laine végétale et animale.

Chaux-chanvre (ossature bois).

Flocons de cellulose (ossature bois).

Toiture plate

Polyuréthane

Polystyrène

Laine minérale

Verre cellulaire.

Argile expansée.

Flocons de cellulose (ossature bois).

Tableau présentant les différentes solutions techniques d’isolation envisagées classiquement.


Caractéristiques principales des différents matériaux isolants

TYPE

Matériau

Masse

Conduct. therm.λi

Perm. à la vapeur µ moyen

Résist. à la compr.

Réact.
au feu

Kg/m³

W/mK

kg/cm²

 Minéral

MW

  Laine de roche

150 à 175

0.045

1.5

0.7 à 1.3 (*)

+

GW

 Laine de verre

13 à 60

0.045

1.5

0.2 (*)

+

CG

 Verre cellulaire

120 à 135

0.055

infini

7 à 16 (**)

+

EPB

 Perlite expansée

170

0.060

5 à 10

3,5 (*)

+

 Synthétique

PUR

 Polyuréthane

30

0.035

100

1.2 (*)

PIR

Polyisocyanurate

30

0.035

50

1.2 (*)

+

PF

Mousse phénolique

40

0.045***

80

1.2 (*)

+

EPS

 Polystyrène expansé

15 à 40

0.045

20 à 150

0.7 à 3.5 (*)

XPS

 Polystyrène extrudé

32 à 45

0.040

225

3 à 7 (*)

 Végétal

ICB

 Liège

100 à 120

0.050

12 à 28

+

Produits minces réfléchissants

PMR

 Multicouche composé de feuilles d’aluminium, mousses plastiques, polyéthylène, …

+ 70

0.050

12 à 28

+

(*) à 10 % de déformation (valeur moyenne)
(**) à la rupture
(***) pour les plaques en mousse résolique à cellules fermées revêtues, cette valeur est ramenée à 0,03 W/(mxK).

Remarques.

  • Les valeurs de λi sont tirées de l’annexe VII de la PEB. Elles correspondent à des matériaux non certifiés. Ces valeurs sont pessimistes.
  • Des valeurs plus favorables peuvent être considérées lorsque le matériau est connu quant à sa nature et certifié. Ces valeurs sont également données dans la NBN B 62-002/A1.
  • Lorsque les matériaux sont connus quant à leur nature, leur nom de marque et leur type et qu’ils sont certifiés, on considère leλi donné dans leurs certificats BENOR, ATG ou documents équivalents. Ces valeurs peuvent être beaucoup plus favorables que les précédentes, comme le montre le graphique ci-dessous.

Conductivité thermique maximale et minimale des isolants fournies par les spécifications techniques européennes de l’EOTA (European Organisation for Technical Approvals), les déclarations volontaires de qualité ATG (Agréments Techniques de l’UBAtc – Union Belge pour l’agrément technique dans la construction) ou les certificats Keymark du CEN (Comité Européen de Normalisation), quels que soient l’application et les autres facteurs d’influence éventuels.

Données

Pour connaitre les valeurs conductivité thermique d’autres matériaux : cliquez ici !


Coût des différents types d’isolant

Les coûts repris ci-dessous sont indicatifs des matériaux que l’on peut trouver facilement en Belgique en 2008. Il s’agit de tarifs moyens annoncés par quelques fournisseurs. En effet, les prix varient en fonction des quantités achetées.

Coût Unité Épaisseur

Polystyrène extrudé

7 à 25 € /m² hTVA 40 à 120 mm

Polystyrène expansé

5 à 15 € /m² hTVA 40 à 120 mm

Polyuréthane

6.5 à 27.5 € /m² hTVA 40 à 120 mm

Laine de verre

5 à 18 € /m² hTVA 40 à 180 mm

Laine de roche

5 à 18 € /m² hTVA 40 à 180 mm

Verre cellulaire

25 à 35 € /m² hTVA 40 à 60 mm

Perlite expansée pure

0.1 à 0.2 € /l hTVA /

Vermiculite expansée pure

0.1 à 0.2 € /l hTVA /

Argile expansé

7 à 12 € /m² hTVA 10 mm

Panneaux fibre de bois

7 à 24 € /m² hTVA 30 à 100 mm

Cellulose en vrac

0.13 € /l hTVA /

Laine de cellulose en vrac

0.25 € /l hTVA /

Laine de cellulose en panneaux

7 à 25 € /m² hTVA 40 à 160 mm

Liège en vrac

0.2 € /m² hTVA /

Liège en panneaux

5 à 12 € /kg hTVA 20 à 80 mm

Liège en rouleaux

5 à 15 € /m² hTVA 2 à 6 mm

Laine de chanvre

5 à 30 € /m² hTVA 5 à 200 mm

Feutre de jute

4.5 € /m² hTVA /

Laine de mouton

0.7 à 1.2 € /kg hTVA /


Impact sur la santé

L’impact des isolants sur la santé est encore difficilement estimable. En effet, si l’effet d’un composé est aujourd’hui connu, l’effet de la combinaison de produits toxiques est plus compliqué à analyser.  De plus pour déterminer les impacts des polluants, il y a toujours lieu de prendre en compte simultanément les trois paramètres suivants :

  • temps d’exposition
  • intensité de la pollution
  • sensibilité de la personne

En ce qui concerne les isolants synthétiques, ils dégagent tout au long de leur durée de vie des produits gazeux dangereux, mais comme ils ne sont pas en contact direct avec l’ambiance, on estime que leur impact est limité. Une chose reste sûre, ils ont le défaut de dégager des fumées très toxiques en cas d’incendie !

Les isolants fibreux ne posent pas non plus de problème une fois qu’ils ont été posés. Mais il faudra être très vigilant lors de leur mise en place, car leur structure fibreuse peut dans certains cas provoquer des problèmes pulmonaires suite à l’inhalation de particules fines. Cela dépendra du type de fibre et leur bio-persistance.  Ils ont le grand avantage d’être peu ou non combustible de par leur nature et leur structure, ou suite à un traitement au sel de bore.

Isolants minéraux

Isolants minéraux

On distingue généralement les laines minérales des isolants minéraux  à proprement dits.


Les laines d’origine minérale

La laine de roche (MW)

Photo laine de roche (MW).Photo laine de roche, détail.

Les fibres de la laine de roche sont obtenues par la fonte de la roche diabase. Elles sont liées à l’aide de résines synthétiques polymérisées pour former des rouleaux et des panneaux. Ceux-ci peuvent présenter différentes rigidités et finitions de surface. La laine de roche a une composition non uniforme (parties infibrées).

La laine de roche est totalement perméable à la vapeur d’eau, mais est non hygroscopique. Elle est non capillaire (n’absorbe pas l’eau). Elle est totalement perméable à l’air. Elle se caractérise par une bonne stabilité thermique, un bon comportement au feu. Elle est fort compressible et résiste mal au délaminage.

Les panneaux de laine de roche destinés aux toitures plates seront de densité importante (ρ= 150 à 175 kg/m³) et de fabrication particulière (sens des fibres) pour garantir une rigidité suffisante, et une résistance suffisante au délaminage. Ces panneaux sont surfacés de voile de verre et/ou de bitume.

La laine de verre (GW)

Photo laine de verre (GW).    Photo laine de verre, détail.

Les fibres de la laine de verre sont obtenues par la fonte de verre et de sable quartzeux. Elles sont traitées par un produit hydrofuge. Elles sont liées à l’aide d’un produit thermodurcissant pour former des rouleaux et des panneaux. Ceux-ci peuvent présenter différentes rigidités et finitions de surface. La laine de verre a une composition uniforme.

Tout comme la laine de roche, la laine de verre est totalement perméable à la vapeur d’eau, mais est non hygroscopique. Elle est non capillaire (n’absorbe pas l’eau). Elle est totalement perméable à l’air. Elle se caractérise par une bonne stabilité thermique, un comportement au feu légèrement moins bon que la laine de roche.

La laine de verre n’est plus utilisée pour les toitures plates à cause de sa faible résistance au délaminage et à la compression.


Les isolants minéraux

Le verre cellulaire (CG)

Photo verre cellulaire (CG).   Photo verre cellulaire, détail.

Le verre cellulaire est une mousse de verre obtenue par expansion de celui-ci lorsqu’il est en fusion. Les cellules ainsi formées contiennent un gaz inerte.

Son procédé de fabrication conduit à la production d’un isolant léger à cellules fermées. Le verre cellulaire est ainsi est complètement étanche à la vapeur d’eau, à l’eau et à l’air. Il se caractérise par une bonne stabilité thermique et un bon comportement au feu. Bien qu’incompressible, ce matériau est relativement fragile et nécessite un support régulier et rigide lorsqu’il est soumis à des contraintes mécaniques.

Disponible en panneaux ou en gros granulés, son seul défaut, en plus de son coût élevé, est d’être produit par des procédés de fabrication très énergivore.

La perlite expansée (EPB)

Photo perlite expansée (EPB).

La perlite expansée est obtenue à partir de pierre volcanique rhyolitique concassée et expansée à une température de +/- 900°C.

La perlite expansée est mélangée à des fibres cellulosiques et à un liant bitumineux pour former des panneaux mais peut aussi être utilisée en vrac.

La perlite expansée se caractérise par une grande résistance à la compression et au poinçonnement, un bon comportement au feu et une résistance limitée au pelage. Elle ne résiste pas à une humidification prolongée.

La vermiculite

Photo vermiculite.
Granule de vermiculite grossi.
(doc. Agroverm).

La vermiculite est produite à partir de mica expansé. Elle est disponible sous forme de granulés ou de panneaux. Comme la perlite, ce matériau peut être déversé en vrac ou être incorporé dans les mortiers, bétons allégés, enduits isolants et dans les blocs de constructions.

L’argile expansée

Elle est vendue en vrac, en panneaux ou incorporée dans des bétons allégés, des blocs de construction préfabriqués.

L’argile expansée présente un excellent classement au feu et offre une bonne résistance à l’humidité.

Photo argile expansée. 

Granules d’argile expansée et Granule d’argile expansée grossie et coupée (doc. TBF).

Gestion et commandes manuelles

Gestion et commandes manuelles


Les interrupteurs

Les interrupteurs constituent les organes de commande les plus simples dans une gestion d’occupation. Leur caractéristique principale est qu’ils restent en l’état ON ou OFF s’ils ne sont pas actionnés par l’occupant. Le changement d’état nécessite l’intervention de l’occupant.

L’occupant allume ou pas l’éclairage en fonction de sa sensibilité personnelle et des conditions d’ambiance du local dans lequel il se trouve. L’acte d’allumer ou d’éteindre est volontaire, ce qui devrait responsabiliser les occupants.

Différentes études ont montré que la responsabilisation de l’occupant est plus liée à l’allumage des luminaires quand il rentre dans un local qu’à leur extinction quand il le quitte. Leur perspective de perdurer dans une installation moderne qui tient compte de la gestion énergétique des consommations d’éclairage ne repose que sur la démarche volontaire d’éteindre les luminaires quand on quitte son boulot.

Schéma principe boutons interrupteurs.

Schéma principe boutons interrupteurs.

Dans les bâtiments tertiaires, on voit tout de suite la limite des interrupteurs si les occupants sont peu ou pas responsables.

On retrouve différents types d’interrupteur suivant la configuration du local : les interrupteurs simples et 2 directions existent toujours sur le marché.


Les boutons poussoir

Les boutons poussoirs, contrairement aux interrupteurs, n’ont qu’un seul état au repos : soit ON, soit OFF suivant leur type. Ils ne servent, par une simple impulsion, qu’à changer l’état d’un équipement intermédiaire de commande des luminaires comme, par exemple, les télérupteurs, les relais, les entrées digitales des automates (DI : Digital Input), …

Cette caractéristique leur permet aussi de pouvoir être couplés avec une détection d’occupation automatique.

L’idée est de combiner :

  • un allumage volontaire de l’éclairage à l’entrée de l’occupant dans son local ;
  • et une extinction manuelle ou automatique du même éclairage par détection d’absence lorsque l’occupant quitte son local (possibilité de temporisation).

Schéma principe boutons poussoir.


Les gradateurs ou « dimmer »

L’idée du contrôle du flux lumineux  est d’adapter la luminance ou, de manière plus pratique, le niveau d’éclairement du luminaire en fonction du besoin réel de « lux » dans un local. En effet, lorsque le local considéré bénéficie d’un appoint en éclairage naturel conséquent, par exemple, ou bien lorsque l’on souhaite projeter une présentation dans une salle de réunion, le maintien d’un flux lumineux à 100 %, d’une part, peut devenir une source d’inconfort visuel et, d’autre part, source de consommations énergétiques inutiles.

Schéma principe gradateurs ou "dimmer".

Grâce aux « dimmers », la tension d’alimentation peut-être réglée de 0 à 100 % en 230 V par exemple. La technique du contrôle manuel fait appel à la bonne volonté des occupants et nécessite une bonne dose de patience sachant que le climat de notre chère Belgique est très changeant, ce qui limite sérieusement son utilisation dans le contrôle du flux lumineux en fonction de la lumière naturelle de plusieurs luminaires. Il sera donc principalement utilisé dans les locaux où plusieurs tâches nécessitant des niveaux d’éclairement différents sont réalisées (salle de réunion et projection par exemple).

Variateurs de lumière (ou « dimmer »).

Techniques

 Pour en savoir plus sur les possibilités de gestion en fonction de l’apport en éclairage naturel.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Des exemples de commande et gestion pour les classes

Des exemples de commande et gestion pour les classes


Les classes à aménagement fixe

Les classes sont généralement caractérisées par un taux élevé d’éclairage naturel. Il est donc très rare que l’éclairage artificiel doive, à lui seul, assurer l’éclairage d’un espace.

La commande de l’éclairage général d’une salle de classe peut ainsi s’effectuer par zones. Le plus logique est de piloter les lignes de luminaires parallèles aux baies vitrées de manière à pouvoir éteindre la plus proche de la lumière du jour quand la luminosité extérieure le permet.


Les classes à aménagement variable

Dans une classe à aménagement variable, la mise à disposition de plusieurs allumages permet une grande souplesse d’utilisation du local. Dans le cas d’une classe maternelle, par exemple, le zonage peut être fait selon les différentes « régions » de la classe, en créant différentes ambiances : le coin « lecture », le coin « sieste », le coin découverte, le coin bricolage, … Néanmoins, il risque d’être difficile à réaliser si l’implantation même des « coins » est sujette à modifications fréquentes…


Les salles de projection

Le zonage de l’éclairage en fonction des différentes activités est primordial. Il faudra pouvoir régler le niveau d’éclairement en fonction des différents moyens de projection utilisés, soit par l’utilisation de ballasts électroniques HF dimmables (c’est-à-dire permettant un réglage en continu du flux lumineux des lampes), soit par l’emploi de veilleuses commandées séparément. Dans le cas de grands auditoires, cette commande sera placée à proximité de l’orateur.


Le tableau

L’éclairage du tableau doit pouvoir être commandé séparément. En effet, il est très fréquent que l’éclairement dû à la lumière naturelle soit suffisant sur les tables et insuffisant sur le tableau. La consommation de l’éclairage du tableau est suffisamment faible pour qu’il puisse rester allumé pendant une grande partie des heures de cours.

Le bureau du professeur

Pendant le passage de diapositives, un éclairage situé dans le voisinage du bureau de l’enseignant lui permet d’être vu pendant sa présentation et de compulser ses notes. Ceci nécessite une commande séparée pour l’éclairage du bureau du professeur.

En résumé, pour les classes à aménagement fixe

Proposition de commande de l’éclairage pour une salle de classe, à deux portes d’entrée, utilisée le jour et le soir :

Schéma classes à aménagement fixe.

L’interrupteur commandant les rangées de luminaires les plus éloignées des fenêtres doit être mis en évidence, par exemple en étant de couleur rouge. Cela incitera les utilisateurs à d’abord allumer les deux rangées côté couloir, avant d’allumer éventuellement la rangée proche des fenêtres.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Luminaires « downlight »

Downlight à LED

Downlight à fluocompacte.


Types de lampes adaptées

Lampe fluocompacte 4 broches.

Module LED.

Initialement, les luminaires « downlights » ont été développés  pour accueillir des lampes fluocompactes à broches de puissance réduite.  Actuellement, une alternative plus économique est le downlight à LED. Le luminaire complet est prévu uniquement pour y intégrer un module LED (éventuellement remplaçable).


Maitrise de la luminance

D’un point de vue de l’éblouissement direct ou indirect via les écrans d’ordinateurs, tout comme les luminaires pour les tubes fluorescents, les luminaires « downlight » suivent la norme EN 12464-1. Il existe des downlights équipés d’une optique spéciale (forme adaptée du réflecteur) pour limiter les luminances. Mais il existe également des grilles pour limiter les luminances (UGR < 19) des downlights.

Les downlights performants ont une luminance moyenne faible pour des angles ϒ supérieurs à leur angle de défilement (voir illustration ci-après). Ils sont caractérisés par des optiques en aluminium.

Pour les luminaires éclairant des postes de travail avec équipement de visualisation, la norme EN 12464-1 spécifie que pour des angles d’élévation supérieurs ou égales à 65°, la luminance moyenne des luminaires ne doit pas dépasser les valeurs reprises dans le tableau suivant et ce en fonction de la luminance moyenne propre des écrans concernés :

État de luminance élevé de l’écran Écran à haute luminance
L > 200 cd.m-2
Écran à luminance moyenne
L ≤ 200 cd.m-2
Cas A

(polarité positive et exigences normales concernant la couleur et le détail des informations affichées, comme pour les écrans utilisés dans les bureaux, pour l’éducation, etc.)

≤ 3 000 cd/m² ≤ 1 500 cd/m²
Cas B

(polarité négative et/ou exigences plus élevées concernant la couleur et le détail des  informations affichées, comme pour les écrans utilisés pour le contrôle des couleurs en conception assistée par ordinateur etc.)

≤ 1 500 cd/m² ≤ 1 000 cd/m²

 

Exemple.

Ce luminaire basse luminance répond à norme EN 12464-1 car la luminance est inférieure à 200 Cd/m² pour des angles d’élévation > 65° quel que soit le plan considéré.

L’angle de défilement dans l’axe longitudinal et l’axe transversal est de 60°.

Drivers LED


Généralités

L’équipement permettant l’alimentation de la LED est appelé couramment un « driver » de LED. L’alimentation s’effectue en courant continu dans le sens passant. La stabilité de l’alimentation de la LED dépend de la qualité du redresseur AC/DC et du filtre « lisseur » de tension. Suivant la qualité de ce dernier, la fluctuation du flux lumineux (papillotement) peut être source d’inconfort visuel sachant que la LED n’a qu’une très faible rémanence et, par conséquent, n’agit pas comme moyen de lissage supplémentaire.

« Driver » de LED.


Critère de qualité

Jusqu’il y a peu, on sous-estimait l’importance de l’alimentation par rapport à la source LED. Pourtant, les exigences principales par rapport à une bonne alimentation sont sévères :

  • La durée de vie doit être au moins la même que celle de la LED.
  • Le rendement de conversion AC/DC de l’alimentation doit être supérieur à 85 %  pour garantir une bonne efficacité énergétique (en lm/W) de l’ensemble LED/driver.
  • Le facteur de puissance (cos φ) doit être le plus proche possible de 1 et la distorsion (harmoniques) la plus faible possible de manière à réduire les pertes.
  • Les perturbations électromagnétiques émises doivent être faibles.

Mode de pilotage

Pilotage en courant continu DC

Le mode de pilotage des alimentations peut être de différents types :

  • pilotage en tension ;
  • pilotage en courant.

Relation courant-tension dans une LED.

Le pilotage en courant est souvent préféré au pilotage en tension pour les simples raisons :

  • Comme le montre la figure ci-dessus, une petite variation de la tension aux bornes de la LED peut entrainer une variation importante du courant qui traverse sa jonction avec un risque de détérioration accru.
  • Le flux lumineux est proportionnel au courant de jonction.
  • Les coordonnées chromatiques des LEDs blanches peuvent varier en fonction du courant d’alimentation.

Un pilotage en tension de plusieurs LED en parallèle (courant différent dans chaque LED) peut aussi entrainer des différences de courant entre chaque LED qui sont sensées donner la même lumière.

Influence du courant sur la chromatique.

Pilotage en PWM

Le pilotage en PWM (Pulse Width Modulation) est souvent utilisé dans le domaine de l’éclairage sachant que les LEDs sont très peu sensibles à ce type de modulation. L’avantage également est que ce pilotage permet de réaliser un dimming comme le montre la figure suivante.

Modulation du courant en fonction de la modulation de la largeur d’impulsion.


Influence du « dimming »

Efficacité de la LED

Lorsque le luminaire LED est « dimmé » par son alimentation, une variation de l’efficacité et du facteur de puissance (cos φ) de l’alimentation apparait.

Couleur de la LED

En fonction du niveau de courant, une dérive du spectre des LEDs est observé et différent suivant le mode de pilotage et le type de technologie des LEDs blanches, à savoir :

  • LED bleu + phosphore ;
  • RGB (3 LED’s Red-Green-Blue).

Sur base du graphique ci-dessus, on peut retirer les grandes lignes suivantes :

  • Une variation du courant d’alimentation provoque une plus grande dérive spectrale de la technologie RGB que celle au phosphore.
  • Le pilotage PWM, par rapport au pilotage continu (DC), permet de modifier facilement le flux de la LED sans trop changer ses coordonnées chromatiques.

Le contrôle simultané du niveau de rouge et de vert pour la technologie RGB en mode de pilotage DC paraît délicat et coûteux.


Alimentation intégrée ou déportée ?

Dans la mesure du possible, on préfèrera une alimentation déportée pour éviter d’influencer l’alimentation par la chaleur dégagée par la ou les LED(s) du luminaire. Cette configuration déportée devra tenir compte de l’adaptation :

  • De la puissance de l’alimentation en fonction de la puissance de LED nécessaire ;
  • De la valeur de courant à lui appliquer ;
  • Ainsi que de la longueur de câble entre l’alimentation et la LED.

Dans le cas d’alimentation intégrée ou embarquée dans le luminaire, l’alimentation sera soumise par conduction, ou même par convection, à l’échauffement des LEDs. Il y a lieu d’en tenir compte.

Exemple :

Photo ampoule LED.

Le type de lampe développé ci-contre dispose de 3 dissipateurs thermiques radiaux (un tous les 120°). L’alimentation se trouve entre le culot et l’ampoule. Entre 2 dissipateurs, une ou plusieurs LEDs sont placées. La raison d’être des dissipateurs au niveau de la partie « éclairante » de la lampe s’explique par la nécessité d’évacuer la chaleur vers le bas plutôt que vers le haut sachant que l’alimentation se trouve au-dessus de la source lumineuse lorsque la lampe est « tête en bas ».

Lampes et luminaires LED

Lampes et luminaires LED


Terminologie

Puce (ou chip) LED

Puce (ou chip) LED

La puce LED est le composant semi-conducteur intégré dans une capsule appropriée permettant une connexion électrique ou un assemblage simplifié. Les puces LED peuvent être combinées entre elles sur un circuit imprimé.

Lampe LED

Lampe LED.

La lampe LED est un système complet conçu de manière à permettre le remplacement aisé des technologies traditionnelles moins efficaces (retrofit). Ces lampes reprennent pour cela les formes et les culots normalisés des lampes traditionnelles.

Module LED

Module LED.

Le module LED est constitué d’une ou plusieurs puces LED montées avec d’éventuels composants optiques, électriques ou thermiques (généralement externes).

Luminaire LED

Luminaire LED.
Luminaire encastré.

Luminaire LED.
Luminaire plafonnier.

Le luminaire LED est un système complet composé de puces LED, de lampe(s) à LEDs ou encore de module(s) LED, comprenant l’électronique, l’enveloppe, le câblage, etc. Il peut éventuellement être conçu pour recevoir des modules remplaçables.


Conception d’une lampe ou d’un luminaire LED

La plupart des constructeurs de lampes ou de luminaires sérieux ne font que concevoir les lampes ou les luminaires en se fournissant en unités LED chez les électroniciens. Afin d’assurer une homogénéité dans l’application, le choix des LEDs utilisés se fait suite à une sélection (appelée binning) en fonction de critères spécifiques de couleur, flux lumineux et tension.

Pour répondre aux attentes des marchés, les objectifs des constructeurs sont principalement :

  • de fournir un éventail de lampes et de luminaires avec un large panel de photométries différentes ;
  • d’obtenir une esthétique attrayante ;
  • d’optimiser les performances énergétiques (lm/W) ;
  • d’allonger la durée de vie (heures de fonctionnement);
  •   …

Des études sur la thermique sont impératives de manière à bien « drainer » la chaleur en dehors de la lampe ou du luminaire. Ces études influencent bien entendu la conception de la lampe ou du luminaire.


 Caractéristiques générales

Durée de vie des lampes et luminaires LED

Même si aujourd’hui une source LED (chip) seule peut atteindre une durée de vie de 50 000 h, cet objectif n’est pas encore atteint pour les applications intérieures (lampes et luminaires). Selon une étude du U.S. Department of Energy (Energy Savings Potential of Solid State Lighting in General Illumination Applications. 2012), on peut raisonnablement prévoir  l’évolution suivante dans le futur :

Évolution prévue de la durée de vie des applications LED.

Efficacité lumineuse des lampes et luminaires LED

L’efficacité lumineuse des lampes et luminaires à LEDs est bien différente de l’efficacité lumineuse annoncée pour les puces LED.
En effet, cette dernière est évaluée en test éclair et pour une température de jonction de 25°C (soit une température très basse par rapport à la température à laquelle la jonction est soumise en conditions d’utilisation réelle).

En réalité, l’efficacité lumineuse d’un luminaire LED est d’environ 20 % à 30 % plus faible que la valeur annoncée pour la chip LED.
Voici deux exemples :

Grâce à ces exemples, on se rend compte que l’efficacité lumineuse réelle des lampes et luminaires à LEDs est pour le moment équivalente à celle des lampes fluorescente :

Selon l’étude du U.S. Department of Energy, l’évolution des LEDs devrait permettre d’atteindre 200 lm/W vers 2020-2025.  De quoi alors surpasser tous les autres types de sources lumineuses !

Évolution prévue de l’efficacité lumineuse des applications LED.

Rendu des couleurs et température de couleurs

Avec les lampes et luminaires à LEDs, on peut obtenir un indice de rendu de couleur entre 60 et 98. De plus, il est possible, avec certains types de LED, de moduler la température de couleur de manière continue.


Aspect thermique

Malgré que le rayonnement lumineux de la LED ne génère pas d’infrarouge (et donc pas de chaleur dans le sens du flux lumineux), la dissipation de la chaleur de la jonction est un des problèmes majeurs des lampes et des luminaires à LEDs. En effet, entre  50 % et 70 % de la consommation d’une LED est transformée directement en chaleur qui doit être absolument évacuée sous peine de réduire l’efficacité lumineuse et la durée de vie.

Comparatif thermique entre une LED et une lampe à incandescence.

Des études de dissipation thermique, pour chaque modèle sont donc nécessaires pour pouvoir concevoir une lampe ou un luminaire à LEDs avec  son dissipateur de chaleur intégré.

Cas des lampes

La complexité de l’évacuation de la chaleur générée par les unités LED composant la lampe s’accentue vu la nécessité d’éviter le « drainage » de la chaleur vers l’arrière de la lampe. En effet, le risque est d’accumuler la chaleur de jonction au niveau de l’alimentation intégrée dans le culot. On dit que la lampe LED « claque » non pas par une surchauffe des unités LED mais plutôt de l’alimentation. D’où la nécessité d’évacuer la chaleur par l’avant de la lampe.

Exemple d’étude thermique d’une lampe LED.

Cas des luminaires

Dans le cas des luminaires, le problème de la surchauffe de l’alimentation peut être éliminé vu la possibilité de la déporter hors du luminaire. Il reste aux constructeurs à bien concevoir le dissipateur en fonction d’un luminaire prévu pour être monté en saillie ou encastré.

Étude thermique (source ETAP).


Aspect optique

De par sa taille réduite, l’association de puces LED, de lentille, de diffuseurs et de réflecteurs permet d’obtenir à peu près toutes les distributions lumineuses possibles.

Cependant, à cause de cette petite taille combinée à une puissance lumineuse en constante augmentation, la luminance de la source devient très importante et peut atteindre des valeurs de 10 à 100 millions de Cd/m². Les fabricants prévoient donc des systèmes optiques comme les lentilles, les réflecteurs ou/et des diffuseurs pour éviter l’exposition directe du regard et le risque d’éblouissement.

Type de lampe Luminance (Cd/m²)
Fluo linéaire – T8 14 000
Fluo linéaire – T5 15 000 – 33 000
Fluo compact 50 000
LED nue 100 000 000
Soleil 1 000 000 00
Suivant l’application, on peut obtenir les résultats suivants :

Des lentilles seules, par exemple, permettent de réduire la luminance de crête :

Des réflecteurs combinés avec un diffuseur permettent d’obtenir une lumière douce :

Sources LED

Sources LED

N.B. : cette page reprend uniquement la description du fonctionnement et des caractéristiques de la puce LED. Pour en savoir plus sur son application sous forme de lampe ou de luminaire.


Comment fonctionne une LED ?

Schéma description LED.

Une LED (Light Emitting Diode) est une diode électroluminescente qui émet de la lumière lorsqu’elle est parcourue par un courant continu dans le sens passant.

Schéma description LED - 02. Schéma description LED - 03.

Comme le montre la figure suivante, la quantité de lumière générée par la LED est  proportionnelle à l’intensité du courant qui la traverse.

Couleur des LEDs

Schéma couleur des LEDs.

La LED émet une lumière quasi monochromatique. Sa couleur dépend des caractéristiques des matériaux utilisés durant la production (composition des semi-conducteurs et de leur dopage, température de jonction, …). Il est ainsi possible de balayer toutes les couleurs du spectre visible.

En éclairage artificiel d’intérieur, on cherche cependant essentiellement à se rapprocher de la couleur de la lumière naturelle, à savoir la lumière blanche. Pour obtenir une lumière blanche, il est nécessaire de combiner plusieurs sources lumineuses de composantes. Ainsi, la couleur blanche peut être produite soit par mélange additif de LED rouges, vertes et bleues, soit par conversion d’un LED bleu au moyen de poudre phosphorescente, selon le même principe utilisé dans les tubes fluorescents. Ce dernier principe est généralement utilisé en éclairage intérieur.

Les LEDs pour l’éclairage

Avant de devenir incontournables dans le domaine de l’éclairage, les LEDs doivent encore relever plusieurs défis non négligeables en termes :


Caractéristiques générales

Il importe de bien distinguer la performance (et son potentiel d’évolution) d’une puce LED par rapport à celle d’une lampe LED et à celle d’un luminaire LED.

Si les performances (efficacité lumineuse, durée de vie, etc.) des puces LED sont intéressantes pour évaluer le potentiel intrinsèque de la technologie, elles sont inutiles pour comparer la technologie de l’éclairage LED par rapport aux autres technologies disponibles (notamment les lampes fluorescentes).

Sous différents aspects, la LED est très prometteuse sachant que ses performances énergétiques, sa durée de vie, … s’améliorent de jour en jour.

Techniques

Pour en savoir plus sur les applications LED (lampes et luminaires) et leurs performances.

Durée de vie d’un « chip » LED

La durée de vie des puces LED avoisine théoriquement les 50 000 heures, durée pendant laquelle le flux lumineux reste au-dessus de 70 % du flux initial.

Schéma durée de vie d'un "chip" LED.

Cependant, cette durée dépend de plusieurs paramètres comme le courant qui la traverse et, donc indirectement de la température. Les 50 000 heures sont atteignables pour autant que la température de jonction ne dépasse pas 80-85 °C.

L’absence de « pièce fragile » comme le filament de nombreuses lampes, permet d’augurer une durée de vie plus importante. Par contre, comme tout composant électronique, la chip LED est sensible aux influences électromagnétiques. Pour ne pas raccourcir sa durée de vie, il est important que les constructeurs prévoient une bonne connexion à la terre.

Ces valeurs élevées doivent être vues comme une démonstration du potentiel élevé de la technologie LED.

Efficacité lumineuse des chip LED

L’efficacité lumineuse (lm/W) représente un des critères essentiels d’une source lumineuse. Certains fabricants annoncent une efficacité lumineuse de l’ordre de 100 lm/W sous forme commerciale et de 200 lm/W en laboratoire. Le maximum théorique serait de 230 lm/W (pour une température de jonction de 25°C).
De même que pour la durée de vie, ces valeurs élevées doivent être vues comme une démonstration du potentiel élevé de la technologie LED.

La température de jonction influence aussi le flux lumineux de la puce LED et donc son efficacité lumineuse. C’est principalement pour cette raison que les LEDs conviennent particulièrement bien pour les applications à basse température (surgélation, réfrigération, …) sachant que le flux lumineux augmente avec l’abaissement de la température de jonction. De plus, pour les basses températures, la durée de vie augmente.

Flux lumineux de démarrage

Contrairement à la plupart des lampes fluorescentes qui mettent un certain temps à atteindre leur flux lumineux optimal, les LEDs l’atteignent  quasi instantanément. De plus, elles peuvent être commutées ON/OFF à chaud sans altération de leur durée de vie. Ce n’est pas le cas pour les lampes à décharge par exemple.

La gradation du flux lumineux

La gradation du flux lumineux des LEDs s’opère sur une large plage (presque 0 % à 100 %). Les pertes par gradation sont sensiblement les mêmes que pour les lampes fluorescentes équipées d’un ballast électronique performant.

Schéma gradation du flux lumineux.

À 0 % de flux lumineux, la consommation résiduelle est de l’ordre de 10-15 % de la puissance nominale.

Rayonnement IR et UV

Les LEDs ne génèrent pas ou peu de rayonnement infrarouge (IR) ou ultraviolet (UV) dans le flux lumineux. Il est clair qu’elles génèrent de la chaleur, mais en grande partie de manière convective et non radiative. Autrement dit, la chaleur n’est pas émise dans le sens du flux lumineux. De par ces propriétés, les lampes LED sont intéressantes dans le cas d’application comme pour l’éclairage des œuvres d’art, des denrées alimentaires, des vêtements, …

Par contre l’élimination de la chaleur reste un problème majeur pour toutes les applications LED. Pour en savoir plus, cliquez ici !


Métier de la LED

Dans le monde de la conception LED apparaissent deux métiers : les concepteurs de puces LED et les  concepteurs de luminaires ou lampes LEDs. Les premiers sont plutôt issus de l’industrie électronique, les seconds de la conception en éclairage (lampe ou luminaire). Dans ce domaine, à l’heure actuelle, il convient de prendre un certain recul par rapport à la tendance qu’ont les électroniciens à s’improviser professionnel de l’éclairage.

Techniques

pour en savoir plus sur les lampes et luminaires à LEDs.

Données

Pour connaitre les valeurs caractéristiques des lampes LED.

Données

Pour consulter un récapitulatif des caractéristiques des différents types de lampe.

Isolation à l’intérieur de la structure

Isolation  à l'intérieur de la structure

Cette technique, délicate par la résolution des risques de condensation et ponts thermiques, consiste au placement d’isolation entre les éléments de structure.

Pompes à chaleur gaz

Pompes à chaleur gaz


PAC à moteur gaz

Principe

La pompe à chaleur à moteur gaz (GHP : Gas engine Heat Pump) s’apparente fort à la pompe à chaleur électrique traditionnelle. Les seules différences résident au niveau :

  • Du système d’entrainement du compresseur : le moteur électrique accouplé mécaniquement au compresseur est remplacé par un moteur à combustion à gaz.
  • De l’exploitation de la chaleur générée par le système d’entrainement :
    • Le moteur électrique a très peu de pertes (η de l’ordre de = 98 %). En d’autres termes, l’énergie électrique, au rendement près, est transformée totalement en énergie mécanique pour le compresseur.
    • Le moteur à gaz, quant à lui, a un rendement mécanique médiocre (45-50 %). Le solde de l’énergie de combustion du gaz est de la chaleur. L’intérêt de la pompe à chaleur à moteur à gaz réside dans la récupération de la chaleur de combustion.

Schéma de principe : PAC à moteur gaz.

Technologie

PAC à moteur gaz (source : Sanyo).

Moteur gaz

Moteur gaz (source : Aisin Toyota).

La technologie des pompes à chaleur à moteur gaz est développée depuis plusieurs décennies. Le moteur gaz est un moteur thermique à faible taux de compression de type volumétrique (cycle de Miller). Le gaz utilisé est soit le gaz naturel ou le LPG. Certains moteurs utilisent le propane. Comme le montre la figure ci-contre, ce fabricant propose un moteur 4 temps accouplé mécaniquement à des compresseurs au moyen d’une ou plusieurs courroies. La particularité de ce moteur est la récupération de la chaleur de combustion du gaz résiduelle au niveau du circuit de refroidissement. Un échangeur, placé au niveau du condenseur du circuit frigorifique permet le refroidissement du moteur et, par conséquent, la récupération de chaleur de combustion du moteur en supplément de celle échangée par le circuit frigorifique.

Circuit frigorifique

Les fabricants de PAC à moteur gaz proposent plusieurs configurations de circuit frigorifique. On retrouve généralement :

  • Le groupe VRV réversible à détente directe à 2 tubes permettant de travailler en mode « change-over » ou 3 tubes en mode « récupérateur d’énergie ».
  • la PAC à condenseur à eau. En général, c’est la même machine de base que l’unité externe des groupes VRV. Un condenseur à eau est directement branché sur le circuit frigorifique.

 (Source : Aisin Toyota).

Les compresseurs sont généralement des « scrolls ».  L’avantage de la pompe à chaleur à moteur gaz réside dans le fait que les compresseurs sont entrainés par un moteur à vitesse variable et, par conséquent, peuvent moduler le débit de fluide frigorigène (R410A par exemple).


PAC gaz à absorption

Principe

Tout part de la succession, dans un cycle fermé :

  • De l’absorption d’ammoniac (NH3) gazeux en présence d’eau pour donner une solution d’ammoniaque concentré (NH4OH). Elle s’accompagne de la libération d’une grande quantité de chaleur à température élevée.
  • Et de la désorption de cette même solution d’ammoniaque (NH4OH) qui permet la libération d’ammoniac (NH3) gazeux. La désorption demande de la chaleur.

À ce stade, rien de différencie ce système thermodynamique d’une chaudière gaz à eau chaude. Au lieu de chauffer de l’eau pure en circuit fermé, on chauffe une solution d’ammoniaque (NH4OH).

L’ingéniosité du principe vient de l’utilisation de l’ammoniac (NH3) dans un cycle frigorifique secondaire qui permettra de « pomper » la chaleur d’une source froide (au niveau de l’évaporateur) pour la restituer au niveau de la source chaude (condenseur) : cette chaleur est gratuite !

En combinant la libération de chaleur lors de l’absorption et la chaleur de condensation, le bilan énergétique est nettement positif !

Technologie

Schéma de principe (source Théma).

Générateur (ou déconcentrateur)

Au niveau du générateur, le brûleur chauffe la solution d’ammoniaque (NH4OH) de manière à libérer de l’ammoniac gazeux (NH3) à haute température. En partie haute du générateur, l’ammoniac est injecté dans le circuit principal de la PAC vers le condenseur. Il va de soi que la solution d’ammoniaque se déconcentre. En continuant de chauffer la solution sans rien changer, la production d’ammoniac gazeux risque de s’arrêter d’elle-même. Pour cette raison, il est nécessaire de régénérer (ou concentrer) la solution d’ammoniaque pauvre. C’est l’absorbeur qui s’en charge !

Absorbeur (ou concentrateur)

Dans l’absorbeur, la solution pauvre issue du générateur est projetée en fines gouttelettes sur l’ammoniac gazeux provenant de l’évaporateur de la machine thermodynamique. Il s’en suit un enrichissement de la solution d’ammoniaque avec, en prime, un dégagement de chaleur important (réaction exothermique). La solution d’ammoniaque riche régénérée peut être renvoyée au niveau du générateur. Le cycle de la PAC gaz est fermé !

Sans rien changé, l’efficacité énergétique de la PAC gaz serait vraiment médiocre ! L’ingéniosité du système réside dans la récupération au condenseur de la chaleur d’absorption. Concrètement, la solution riche d’ammoniaque passera par le condenseur de manière à céder sa chaleur à la source chaude.

Condenseur

Le condenseur de la PAC gaz à absorption est de conception un peu particulière. En réalité, c’est un double condenseur :

  • Un premier échangeur branché sur le circuit thermodynamique principal permet à l’ammoniac (NH3) gazeux de condenser et donc de céder sa chaleur à la source chaude (système de chauffage).
  • Un second échangeur raccordé au circuit secondaire permet à la phase liquide/gaz d’ammoniaque de céder, elle aussi, sa chaleur d’absorption.

Évaporateur

L’évaporateur de la PAC gaz à absorption est un évaporateur classique comme celui utilisé dans les PAC électriques.

Échangeurs secondaires

La chaleur d’absorption étant libérée à haute température, elle ne peut être, qu’en partie, transmise à la source chaude en demande de températures plus modestes. Pour cette raison, d’autres échangeurs placés en aval du condenseur permettront de successivement récupérer la chaleur d’absorption (intérêt de ces échangeurs).

Disponibilité sur le marché

Environnement

Parler du CO2 mais aussi de l’impact d’une fuite de NH3 dans l’air.


PAC gaz à adsorption

Principe

Le principe de fonctionnement de la pompe à chaleur à adsorption s’appuie sur les caractéristiques de la zéolithe, une céramique microporeuse très stable et non polluante. Cette zéolithe est capable de dégager de la chaleur lorsqu’elle adsorbe de l’eau (réaction exothermique lors du passage de la forme déshydratée à la forme hydratée). Lorsqu’elle est saturée, un brûleur à gaz évacue l’eau (désorption). L’emploi de la zéolithe permet de favoriser l’utilisation de l’énergie solaire même à basse température pour le chauffage, sachant que la réaction exothermique d’adsorption peut atteindre 85 °C avec de l’eau à 4 °C.

  • Phase d’adsorption : dans la partie basse de la pompe à chaleur, l’eau présente dans un réservoir sous vide est chauffée. Cette eau, même à basse température, se transforme  en vapeur et migre vers le haut du réservoir. La microporosité de la zéolithe permet de piéger une grande quantité de vapeur (adsorption). La chaleur d’adsorption est utilisée  au niveau de la source chaude (comme un plancher chauffant par exemple) ;
  • Phase de désorption : lorsque la zéolithe saturée d’eau, le minéral est chauffé. L’eau retenue dans la zéolithe est alors libérée sous forme de vapeur (désorption). Cette vapeur coule vers la partie inférieure de la pompe à chaleur, se condense à nouveau et libère de la chaleur. Une récupération de cette chaleur est mise en place. Le système peut redémarrer dans un nouveau cycle d’adsorption.

L’adsorption et la désorption sont des réactions physiques qui n’altèrent pas la structure de la zéolithe. L’alternance adsorption/désorption est alternative, mais peut fonctionner indéfiniment.

     

Phase de désorption puis d’adsorption (Source : www.gaz-naturel.ch).

Technologie

Le système est  conçu sur la base d’une chaudière à condensation, associée à un module à zéolithe sous vide comprenant des billes de céramique microporeuse, de l’eau et les composants hydrauliques.

A l’heure actuelle, certains constructeurs ont un programme de développe des PAC gaz à adsorption pour le résidentiel (maximum 10 kW). L’adsorbant utilisé est la zéolite (Une zéolithe, ou zéolite est un minéral microporeux appartenant au groupe des silicates).

Les sources froides peuvent, comme pour les pompes à chaleur classiques :

  • L’air ;
  • L’eau ;
  • La géothermie …

Comme le montrent les figures ci-dessus, la source froide de la pompe à chaleur à adsorption peut être aussi des panneaux solaires thermiques. Les efficacités saisonnières sont à préciser par le constructeur et à vérifier par des études neutres et en situation réelle. Sur papier, ce système paraît très intéressant sachant qu’on pourrait attendre des …


Point de comparaison des PAC’s

Principe et technologie

Bien que la machine gaz à absorption/adsorption semble assez différente de la machine frigorifique traditionnelle, le principe de base de fonctionnement reste le même :

  • circulation d’un fluide réfrigérant ;
  • évaporation du fluide avec production de froid ;
  • compression du fluide demandant un apport d’énergie ;
  • condensation du fluide avec production de chaleur.

La différence réside dans le moyen de comprimer le fluide :

  • mécanique dans le cas d’une machine électrique ou à moteur à gaz ;
  • thermochimique/thermophysique dans le cas de la machine à absorption/adsorption.

Le type d’énergie nécessaire à cette compression :

  • électrique dans le cas d’une PAC électrique ;
  • calorifique dans le cas d’une PAC gaz à absorption.

PAC électrique

Principe de la PAC électrique.

La pompe à chaleur électrique utilise le travail de compression du compresseur pour faire passer la chaleur gratuite disponible à basse température au niveau de l’évaporateur (source froide : l’air extérieur, l’eau d’une rivière ou d’une nappe phréatique, …) à une température plus élevée au niveau du condenseur (source chaude : l’air intérieur, l’eau chaude d’un chauffage à basse température comme le chauffage au sol, l’ECS, …). Le transfert de la chaleur est effectué grâce un fluide frigorigène via le compresseur. A la chaleur gratuite tirée de la source de froid est ajouté le travail de compression, cette énergie étant fournie par le moteur électrique du compresseur.

PAC à moteur gaz

Principe de la PAC à moteur gaz.

Toute chose restant égale, seul le moteur électrique accouplé mécaniquement au compresseur est remplacé par un moteur à combustion gaz.

PAC gaz à absorption

Principe de la PAC gaz à absorption.

Sur le même principe que la pompe à chaleur électrique, le transfert de la chaleur gratuite de la source froide à basse température vers la source chaude à température plus élevée, est assuré  grâce à un fluide frigorigène via, non pas un compresseur, mais un générateur de chaleur au gaz. C’est à ce stade que l’analogie s’arrête et que les deux systèmes diffèrent complètement.

Efficacité énergétique

Principe de comparaison

Une pompe à chaleur est énergétiquement efficace si elle demande peu d’énergie pour fournir une puissance calorifique donnée. Pour pouvoir assurer un point de comparaison énergétique entre les différents types de pompe, il est nécessaire, par rapport à leur production de chaleur, de considérer les consommations « primaires » d’énergie. C’est le cas surtout pour l’électricité ! En effet, l’électricité consommée au niveau de la pompe à chaleur est une énergie finale qui ne tient pas compte :

  • du rendement moyen des centrales électriques en Belgique ;
  • des pertes en lignes du réseau électrique.

L’énergie primaire à considérer est :

  • Le gaz disponible au niveau de la conduite d’alimentation du bâtiment. Les kWhPCI sont utilisés pour tenir compte d’une éventuelle phase de condensation (ηPCI > 100 %).
  • L’électricité disponible au niveau du câble d’alimentation du bâtiment multipliée 2.5. Ce coefficient a été adopté par la ouverture d'une nouvelle fenêtre ! CWaPE (Commission Wallonne Pour L’Énergie) se base sur un rendement moyen de 40 % pour les centrales électriques en Europe. En d’autres termes, un 1 kWh consommé au niveau de la pompe à chaleur, 2.5 kWh ont été consommés au niveau de la centrale électrique. Dans le cas de la PAC électrique, la performance se calcule par le rapport :

    Technologie

COP = Énergie utile (chaleur) / Énergie consommée (électricité)

Cependant, pour comparer des pommes entre elles par rapport à une PAC gaz à absorption par exemple, l’énergie primaire consommée pour produire de l’électricité nécessaire à alimenter le moteur électrique, doit être considérée. On parle alors de rapport d’énergie primaire REP défini comme suit :

REP (PER) = Énergie utile / (Énergie consommée / η centrale électrique)

La valeur intéressante pour les gestionnaires de bâtiments est la valeur du COPA ou ACOP, … (vive l’Europe !) qui exprime l’efficacité  annuelle mesurée en tenant compte de toutes les consommations de la machine par rapport à l’énergie qu’elle fournit. La performance annuelle est naturellement liée à l’efficacité instantanée au cours du temps qui, elle, peut varier en fonction de différents paramètres :

  • de la température de la source froide ;
  • de la température de la source chaude ;
  • du taux de charge de la pompe à chaleur.

PAC électrique

Dans le cas de la pompe à chaleur électrique dont le COP = 3, 1 kWh d’énergie électrique finale consommé, fournit à la distribution d’un système de chauffage 3 kWh. C’est bon pour la poche du consommateur (performance finale de 300 %) ! Mais en termes d’énergie primaire, seulement 3/2.5 soit 1.2 kWh est restitué à la source chaude (performance primaire de 120 %) ; ce qui reste meilleur que la performance d’une chaudière à condensation très efficace quand même (ηPCI = 108 %).

Bilan énergétique  (source : Thema).

La performance de la PAC électrique est influencée par les paramètres repris dans le tableau suivant :

Paramètres d’influence Niveau d’influence Remarque
Température de la source froide Forte Réduction des consommations de + 3 % par augmentation de 1 °C
Température de la source chaude Forte Réduction des consommations de + 3 % réduction de 1 °C
Taux de charge Moyenne En général, une PAC électrique travaillant à charge partielle réduit les consommations

Comme le montre le tableau précédent, la PAC électrique est très sensible aux types de source chaude et de source froide. On privilégiera le fonctionnement de la PAC à charge partielle par la réduction de la vitesse du compresseur (technique INVERTER).

PAC à moteur gaz

Bilan énergétique (source Théma).

Bilan énergétique et performance (Source : Aisin Toyota).

La PAC gaz à absorption a une efficacité énergétique définie comme suit :

COP = Énergie utile (chaleur) / Énergie consommée (consommation de gaz)

Comme le montre le graphique précédent, le constructeur annonce qu’en pointe (taux de charge faible) pour 1 kWh d’énergie primaire fourni (gaz), une pompe à chaleur à moteur à gaz restitue donc 1,43 kWh maximum, ce qui en fait un système de chauffage hautement intéressant par rapport à l’environnement.
La performance de la PAC à moteur gaz est influencée par les paramètres repris dans le tableau suivant :

Paramètres d’influence Niveau d’influence Remarque
Température de la source froide Faible
Température de la source chaude Moyenne
Taux de charge Forte 30 à 40 % d’influence

La modulation de puissance est très importante pour augmenter la performance de la PAC à moteur gaz. Sur un moteur à combustion, comme celui qui équipe ce type de PAC, la modulation de puissance ne pose aucun problème. Elle est donc principalement influencée par le dimensionnement en fonction des besoins de chaleur.

PAC gaz à absorption

Bilan énergétique  (source : Thema).

Certains constructeurs annoncent des performances de l’ordre de 150 %.

Tout comme la PAC à moteur gaz, la performance de la PAC gaz à absorption est influencée par les paramètres repris dans le tableau suivant :

Paramètres d’influence Niveau d’influence Remarque
Température de la source froide Faible
Température de la source chaude Moyenne
Taux de charge Forte

Comparatif des PAC gaz

Une étude très intéressante de l’IGU (International Gas Union : « Gas Heat Pumps, the renewable heating system for the future ? ») a montré qu’en moyenne, la performance des PAC gaz, toutes parques confondues, était plutôt aux alentours des 116 % avec une valeur à 120 % en cas de configuration de la PAC gaz avec des panneaux solaires thermiques.

Performance moyenne.

PAC électrique, PAC gaz même combat ?

Tout dépend des conditions de fonctionnement (taux de charge, températures des sources chaudes et froides, …) et des consommations des auxiliaires du niveau de dégivrage). Dans la littérature, on s’accorde à dire, qu’effectivement, pour les PAC électriques et gaz c’est le même combat !

Intérêt de la géothermie ?

Par contre, comme le montre la figure ci-dessus, les PAC gaz peuvent fortement se démarquer des PAC électriques au niveau du dimensionnement de la source froide. On voit tout de suite que l’évaporateur peut être de dimension plus faible :

  • Si la source froide est l’air externe, la taille de l’évaporateur et des ventilateurs sera plus faible d’où réduction de l’investissement pour la partie évaporateur. Il s’ensuit que les consommations des auxiliaires seront aussi réduites.
  • Si la source froide est l’eau, et plus spécifiquement, la géothermie, le dimensionnement du système de géothermie est presque divisé par 3.

Surtout dans le domaine de la conception et de l’exploitation de la géothermie qui, en règle générale, passe à la trappe pour une question d’investissement (grande quantité de sondes géothermiques, profondeur importante, …), l’association d’une PAC gaz avec une géothermie est très intéressante.

Régulation d’un ensemble chaudière/cogénérateur

Régulation d'un ensemble chaudière/cogénérateur


Régulation d’ensemble

Ordre de priorité

Monotone de chaleur.

Dans l’association d’une cogénération avec une ou plusieurs chaudières, l’objectif, comme on l’a déjà précisé, est que la cogénération fonctionne un maximum d’heures sur l’année. Elle devrait donc être « en tête » de cascade ! Attention toutefois qu’une cogénération ne peut, en général, moduler qu’entre 60 et 100 %  de son taux de charge thermique.

En supposant que l’étude donne un dimensionnement de la puissance du cogénérateur de l’ordre de 40 % de la puissance totale nécessaire au bâtiment, il ne pourra moduler qu’entre une valeur de 24 à 40 % de la puissance totale. Sous les 24 % de puissance, si la cogénération est mise en tête de cascade, elle va commencer à « pomper » avec pour effet d’accentuer son vieillissement prématuré, car elle ne supporte pas les séquences répétées marche/arrêt.

Zone 1

En réalité, pour un besoin inférieur à 24 % de la puissance totale, ce sont les autres chaudières qui doivent être en « tête » de cascade. Si la chaufferie est équipée d’une chaudière à condensation, pour autant qu’elle soit dans de bonnes conditions de condensation, c’est elle qui doit assurer le besoin de chaleur. Avec sa capacité à moduler de 10 % à 100 % de son taux de charge, avec un excellent rendement à faible charge, la chaudière à condensation est tout indiquée.

Zone 2

Dans la plage de 24 à 40 % de la puissance totale nécessaire, la cogénération doit fonctionner en priorité. Une régulation mal réglée peut être à l’origine de l’arrêt prolongé ou du « pompage » de la cogénération ; ce qui n’est pas le but recherché.

Zone 3

Pendant les périodes de grands froids, la cogénération ne sera pas suffisante pour assurer les besoins de chaleur du bâtiment considéré. Il sera nécessaire de lui adjoindre une chaudière afin de lui donner le « coup de pouce sauveur ». Cette opération est délicate en fonction du type de chaudière qui vient faire l’appoint. Un développement trop important de puissance de la part de la chaudière peut faire en sorte que la cogénération s’arrête voire pire qu’elle commence à « pomper » (marche/arrêt intempestifs à faible charge). Pour cette plage de fonctionnement, il sera nécessaire, si possible, de piloter les chaudières en puissance de manière à éviter de démarrer :

  • une chaudière classique avec brûleur à 2 allures en grande flamme ;
  • une chaudière plus récente avec brûleur modulant à 100 % de taux de charge.
Exemple

Situation avant :

  • un besoin thermique maximum de 600 kW ;
  • deux chaudières classiques HR de 300 kW chacune.

La configuration suivante est envisagée :

  • Une des deux chaudières est remplacée par une chaudière à condensation sans réduction de puissance par rapport à l’ancienne chaufferie. La chaudière à condensation peut moduler de 10 à 100 % de sa puissance nominale.
  • Une cogénération de 200 kW thermique équipée d’un ballon tampon est sélectionnée par l’étude de faisabilité. La cogénération peut moduler de 60 à 100 % de sa puissance thermique nominale.

Le graphique suivant donne un aperçu d’un type de régulation réalisable :

Cette régulation intelligente tente de maintenir les différents équipements de production de chaleur à leur meilleure efficacité énergétique optimale, à savoir :

  • De 0 à 24 % du besoin de chaleur : la chaudière à condensation module de 5 à 24 % du besoin total de chaleur (soit 10 à 48 % de son taux de charge). Dans cette plage, le rendement de la chaudière peut atteindre au mieux de l’ordre de 107 % sur PCI.
  • De 24 à 40 % du besoin de chaleur : la cogénération module de 60 à 100 % de son taux de charge.
  • De 40 à 90 % du besoin de chaleur : la cogénération est à 100 % de sa charge soit à son meilleur rendement (cogénération de qualité) et la chaudière à condensation module de 10 % à 100 % de son taux de charge.
  • De 90 à 100 % du besoin de chaleur : la cogénération et la chaudière à condensation restent à 100 % de leur taux de charge tandis que la chaudière existante donne le complément de chaleur pendant quelques heures par an, ce qui n’affecte que très peu le rendement saisonnier de l’ensemble des deux chaudières.

On notera ici toute l’importance du ballon tampon qui permet :

  • De réduire la puissance thermique de la cogénération.
  • D’éviter les cycles courts ou le pompage de la cogénération. De cette manière, on prolonge aussi la durée de vie de la cogénération sachant qu’elle est, non seulement liés au nombre d’heures de fonctionnement, mais aussi au nombre de démarrages.

Comment assurer la régulation d’ensemble ?

En réalité, la régulation ne doit pas être une « usine à gaz ».

Ce qui nous intéresse ici, sur base d’un ensemble d’équipements de production de chaleur, c’est de  « sélectionner le bon équipement au bon moment » en partant toujours de l’idée de choisir l’équipement qui donnera la meilleure performance énergétique à l’ensemble.

Voici un type de régulation d’ensemble qui pourrait être proposé.

Schéma de régulation ensemble chaudière(s)/cogénération.
Source Vadémécum : réussir l’intégration de l’hydraulique et de la régulation d’une cogénération dans une chaufferie, facilitateur cogénération 2014.

Chaque unité de production de chaleur ayant sa propre régulation interne, la complexité réelle de la régulation reste interne aux unités. Une régulation d’ensemble cohérente doit de plus être assurée de manière à ce que les équipements communiquent un minimum entre eux.

Il est donc nécessaire qu’un des régulateurs des chaudières puisse superviser le cogénérateur. Le superviseur peut par exemple être le régulateur d’une nouvelle chaudière à condensation.

Pour en savoir plus, le facilitateur Cogénération pour la Wallonie a publié un vadémécum « Réussir l’intégration de l’hydraulique et de la régulation d’une cogénération dans une chaufferie ». Il est disponible ici.

Techniques


Régulation interne de la cogénération

Le nombre d’heures de fonctionnement et le nombre de démarrages de la cogénération associée à un ballon tampon peut être influencé par la régulation :

  • du taux de charge du cogénérateur par rapport à sa puissance thermique nominale et au besoin de chaleur total ;
  • du taux de charge du ballon tampon.

Taux de charge du cogénérateur

La régulation interne du cogénérateur peut être réalisée selon le rapport entre le besoin instantané de chaleur (en kWth) et la puissance thermique nominale de la cogénération en dessous duquel la cogénération reste à l’arrêt. Pratiquement, cette régulation s’exprime par sa capacité à gérer la modulation de puissance de la cogénération. Une cogénération classique peut en général avoir une modulation de puissance entre 60 et 100 %.

Exemple

Soit :

  • une cogénération de 300 kW thermique ;
  • un rapport : besoin de chaleur/puissance nominale de la cogénération de 60 %.

A l’instant t, la cogénération est à l’arrêt. La cogénération redémarrera lorsque le besoin thermique sera de 300 x 0.6 = 180 kW.

Sur base de différentes simulations effectuées avec CogenSim, on peut montrer l’influence de ce type de régulation.

Les hypothèses sont les suivantes :

  • Les profils de chaleur et d’électricité sont ceux donnés par défaut dans CogenSim.
  • Plage de modulation de la cogénération : 100 à 60 %.
  • Le taux de charge maximum du ballon en dessous duquel la cogénération module dans sa plage de modulation : 60 %.
  • Le taux de charge minimum du ballon à partir duquel la cogénération redémarre : 40 %.

Dans les simulations on fait varier le rapport besoin thermique/puissance cogénérateur, soit 60 et 90.

Temps de fonctionnement (heures/an) Nombre de démarrages annuel
Taux de charge du cogénérateur (%) 0-39 40-49 50-59 60-69 70-79 80-89 90-99 100
Besoin/puissance cogénération
60% 1261 169 479 387 5714 21
90% 653 77 470 387 5709 1

 

On constate que :

  • Cette régulation permet de « grappiller » quelques heures de fonctionnement lorsqu’on dispose d’une cogénération qui peut démarrer à un taux de charge de 60 %.
  • Attention, cependant, que le nombre de démarrage augmente légèrement lorsqu’on passe de 90 à 60 %, ce qui sollicite le cogénérateur en accélérant son vieillissement.

Taux de charge du ballon

En dessous d’une certaine valeur de taux de charge maximum, la cogénération module en puissance. Plus ce taux de charge maximum est élevé, plus la cogénération commence à « pomper » (marche/ arrêt important). Ce qui nuit naturellement à longévité du cogénérateur.

Exemple

Les simulations sont de nouveau effectuées avec CogenSim.

Les hypothèses sont les suivantes :

  • La puissance thermique du cogénérateur : 300 kW thermiques.
  • La plage de modulation de la cogénération : 100 à 60 %.
  • Le rapport besoin de chaleur/puissance cogénérateur en dessous duquel la cogénération module en puissance : 60 %.
  • Le taux de charge minimum du ballon à partir duquel la cogénération redémarre : 40 %.

Dans les simulations on fait varier le taux de charge maximum du ballon en dessous duquel la cogénération module dans sa plage de modulation, soit 60 et 90 %.

Temps de fonctionnement (heures/an) Nombre de démarrages par an
Taux de charge du cogénérateur (%) 0-39 40-49 50-59 60-69 70-79 80-89 90-99 100
Taux de charge max du ballon à partir duquel la cogénération module (100 à 60 %)
60% 1261 169 479 387 5714 21
90% 789 117 464 338 6158 593

On constate que choisir un taux de charge maximum du ballon pas trop élevé (autour des 60 %) permet :

  • D’augmenter le nombre d’heures de fonctionnement du cogénérateur. En fait, la cogénération module beaucoup rapidement sa puissance par rapport aux besoins de chaleur au travers du ballon en « épousant » mieux le profil du besoin.
  • De réduire le nombre de démarrages de manière draconienne, ce qui allonge la durée de vie du cogénérateur.

Régulation individuelle des chaudières par rapport à la cogénération

Lorsqu’une ou plusieurs chaudières existantes sont en appoint de la cogénération, les régulations individuelles de chaque chaudière doivent être adaptées par rapport au cogénérateur. Souvent, on observera que lorsque le besoin de chaleur devient supérieur à la puissance thermique des cogénérateurs, on démarre une chaudière d’appoint sans modulation de puissance au niveau du brûleur. Le « boost » de puissance de la chaudière va tout de suite « affoler » la régulation du cogénérateur qui risque de s’arrêter rapidement. Il en résulte un risque non négligeable de « pompage » de la cogénération  altérant ainsi :

  • la rentabilité de la cogénération ;
  • la durée de vie de la cogénération tout en augmentant le risque de panne.

Immanquablement, la chaudière d’appoint devra démarrer, pour les anciens modèles en petite flamme et pour les modèles récents au minimum de la plage de modulation (à 10 % pour une chaudière à condensation par exemple).

Définition, fonctions et types de planchers inférieurs

Définition, fonctions et types de planchers inférieurs


Définition du plancher

Nous appellerons plancher inférieur la paroi qui délimite le volume protégé. Les technologies relatives aux planchers dépendront de l’environnement extérieur et du type de support. Par contre, comme ils font partie de l’enveloppe du volume protégé, ils devront, quelque soit leur technologie, avoir une résistance thermique et une étanchéité à l’air suffisante.

Types d’environnement extérieur

Le sol

Le plancher peut être en contact avec le sol. Dans ce cas il peut soit supporter uniquement son propre poids et les charges découlant de son utilisation (dalle sur sol), soit il peut porter l’ensemble du bâtiment et des charges (radier).

Dalle sur sol.

Radier.

Le vide

Le plancher peut aussi porter au-dessus du vide en s’appuyant sur des parois verticales. Ce vide peut être l’air extérieur, un espace adjacent non chauffé (EANC), un vide sanitaire ou une cave.

Sur l’extérieur – Sur espace adjacent non chauffé (EANC) – Sur cave – Sur vide sanitaire.

Types de support

Les planchers non portants sur sol

Ces planchers sont directement posés sur le sol. Ils sont généralement en béton armé. Ils ne sont pas solidaires des murs et bougent librement par rapport à ceux-ci. Ils doivent résister à leur propre poids et aux charges d’utilisation.

Le plancher ne porte pas le bâtiment.

Les radiers

Le radier est une forme de fondation qui a la particularité de répartir le poids du bâtiment sur une grande surface lorsque la portance du sol est limitée. Ils servent ainsi de fondation continue à  l’ensemble des murs porteurs. Ils sont réalisés en béton armé. Les armatures sont beaucoup plus importantes que lorsqu’il s’agit d’un plancher non portant.

Le radier porte l’ensemble du bâtiment.

Les planchers autoportants

Le plancher inférieur du bâtiment peut aussi être appuyé sur les murs comme les autres planchers d’étages.

  • Les planchers autoportants lourds
    Ces planchers massifs sont réalisés en béton. Ils peuvent être totalement coulés sur place ou préfabriqués et solidarisés ensuite à l’aide d’une dalle de compression en béton armé.

Plancher en béton massif coulé sur place.

Eléments de plancher en béton armé.

Hourdis (poutrains + entrevoûts).

(4 schémas : BA, Hourdis, prédalles et poutrains + entrevoûts)

  • Planchers portants légers
    Ces planchers sont constitués d’une ossature en bois portant une aire de foulée en bois ou en panneaux de bois. Leur face inférieure pout être habillée ou non.

Plancher en bois.


Fonctions du plancher

Résistance mécanique (autoportant, non portant)

Lorsque le plancher est non portant, les armatures sont principalement technologiques. Elles ont pour fonction d’aider la dalle à répartir les charges d’utilisation sur le terrain et d’éviter une fissuration de celle-ci.

Lorsque le plancher est portant, il devra être calculé pour résister aux charges et empêcher des déformations qui dépassent les normes admises.

Résistance thermique

Lorsque le plancher est posé sur la terre ou est situé au-dessus d’une cave ou d’un vide sanitaire, la présence du sol constitue déjà une forme d’isolation thermique du plancher. La chaleur doit parcourir un long chemin dans le sol pour parvenir à l’extérieur. Cela n’est cependant pas suffisant pour que le bâtiment soit thermiquement performant (la réglementation PEB en Wallonie exige une  résistance thermique minimale de ce plancher).

La mise en œuvre d’une couche isolante est donc nécessaire. Elle peut être placée au-dessus de la dalle ou en dessous de celle-ci (contre la terre). Dans ce dernier cas, il est nécessaire d’employer un matériau isolant qui résiste à l’humidité et à la compression.

La chaleur doit traverser le sol pour atteindre l’environnement extérieur.

Le plancher est situé au-dessus d’un EANC ou de l’environnement extérieur, il doit être isolé au même titre que les autres parois de l’enveloppe du volume protégé (la réglementation PEB en Wallonie exige que le coefficient de transmission thermique U de ce  plancher ne dépasse certaines valeurs maximales).
L’isolant peut être placé sous le plancher, dans la structure portante d’un plancher léger ou sur le support, mais en dessous de l’aire de circulation (chape ou panneaux).

Isolation au-dessus du support.

  1. Finition intérieure
  2. Couche de séparation
  3. Isolant
  4. Étanchéité éventuelle (si terre-plein)
  5. Support existant

Isolation dans le support.

  1. Plancher
  2. Isolant
  3. Structure
  4. Finition intérieure

Isolation sous le support.

  1. Plancher existant
  2. Isolation
  3. Finition éventuelle

Protection contre l’humidité

Lorsque le plancher est situé au- dessus du vide, les problèmes d’humidité ne se posent généralement pas.

Plancher sur vide.

  1. Niveau du terrain
  2. Vide ventilé
  3. Humidité ascensionnelle
  4. Barrière d’étanchéité

Lorsque le plancher est posé directement sur le sol, des précautions doivent être prises.
Si le sol est suffisamment drainant et sec, aucun risque n’est à craindre. Sinon une couche d’étanchéité est à prévoir. Elle sera d’autant plus soignée qu’il y a un risque que le plancher se trouve occasionnellement ou en permanence sous le niveau de la nappe phréatique.

Plancher sur sol drainant.

  1. Dalle sur sol
  2. Sol drainant
  3. Humidité du sol
  4. Eaux de ruissellement (écartée)
  5. Terrain

Plancher sur sol humide.

  1. Niveau du terrain
  2. Nappe phréatique éventuelle
  3. Étanchéité

Attention une simple feuille de polyéthylène n’est pas à proprement parler une membrane d’étanchéité. Elle sert uniquement, lors de la mise en œuvre du béton coulé sur place, à éviter  que sa laitance ne se perdre dans le sol ou entre les panneaux isolants. Cette feuille est parfois remplacée par un béton de propreté.

Inertie thermique

Un plancher lourd non isolé ou isolé par le dessous représente une masse d’inertie thermique importante. Dans le cas des bâtiments légers à faible inertie, seul le sol permet une certaine stabilité thermique et réduit les risques de surchauffe.

Étanchéité à l’air et aux gaz (Méthane, Radon, …)

Comme les autres parois du volume protégé, les planchers doivent être le plus possible étanches à l’air pour éviter les déperditions thermiques inutiles et les désordres provoqués par des condensations internes à la paroi. Une bonne étanchéité à l’air sera plus facile à obtenir si le plancher est coulé sur place. L’éventuelle membrane d’étanchéité à l’eau permet également une étanchéité à l’air performante.

Dans le cas des planchers légers, une barrière d’étanchéité à l’air est nécessaire.
Dans certaines régions, des gaz toxiques (Méthane, Radon, …) s’échappent du sol. Une parfaite étanchéité à l’air du plancher est alors indispensable.

    

  1. Empêcher le Radon de rentrer dans le bâtiment.
  2. Permettre au Radon de s’échapper du sol sous le bâtiment.

Aperçu des modèles d’isolation de l’espace protégé [Enveloppe – toiture inclinée]

Les combles qui seront occupés et chauffés doivent être isolés de l’ambiance extérieure.

Le toit incliné est dans ce cas la limite de l’espace protégé. C’est donc à ce niveau que doit être posé l’isolant et son pare-vapeur éventuel.

L’isolant peut être situé entre les éléments de charpente et/ou en dessous de ceux-ci (isolation par l’intérieur), ou au-dessus des éléments de charpente (isolation par l’extérieur).

Isolation par l’intérieur :

    1. couverture
    2. contre-lattes
    3. lattes
    4. sous-toiture
    5. chevrons ou fermettes
    6. isolant
    7. pare-vapeur
    8. finition intérieure
    9. panne

[1]  Isolation entre chevrons ou fermettes

Isolation par l’extérieur :

[1]  Isolation au-dessus des chevrons ou des fermettes (« Sarking »)

    1. couverture
    2. contre-lattes
    3. lattes
    4. sous-toiture
    5. isolant
    6. pare-vapeur
    7. chevrons ou fermettes
    8. pannes

[2]  Isolation au-dessus des pannes à l’aide de panneaux préfabriqués

    1. couverture
    2. languette d’assemblage
    3. lattes
    4. panneau de toiture préfabriqué
    5. raidisseurs du panneau
    6. isolant du panneau
    7. pare-vapeur intégré éventuel
    8. plaque inférieure du panneau
    9. pannes

Aperçu des modèles d’isolation du plancher des combles [Enveloppe – Le plancher des combles ]

Lorsque les combles ne sont pas prévus pour être chauffés, le plancher de celui-ci constitue la limite supérieure de l’espace protégé. C’est donc à ce niveau que doit être posé l’isolant et son pare-vapeur éventuel. Ce qui permet :

On distingue les planchers légers (en général, constitués d’une structure en bois supportant un plancher en bois et/ou un plafond en plâtre), des planchers lourds (en général, constitué de béton ou de terre-cuite).
Dans les deux cas, on précisera si le plancher des combles doit être circulable, pour permettre le rangement d’objets par exemple.

Les planchers légers

[1]   léger sans aire de foulée

  1. Gîte.
  2. Isolant.
  3. Pare-vapeur.
  4. Finition du plafond.

[2]  Plancher léger avec aire de foulée

  1. Gîte.
  2. Isolant (remplissage partiel).
  3. Pare-vapeur.
  4. Finition du plafond.
  5. Isolant (remplissage complet).
  6. Aire de foulée.

Les planchers lourds

[1]  Plancher lourd sans aire de foulée

  1. Isolant.
  2. Pare-vapeur.
  3. Support lourd.
  4. Finition du plafond.

[2]  Plancher lourd avec aire de foulée

  1. Aire de foulée.
  2. Lambourde (facultative).
  3. Isolant.
  4. Pare-vapeur.
  5. Support lourd.
  6. Finition du plafond.

Longueur du chemin de moindre résistance thermique

Longueur du chemin de moindre résistance thermique

Il existe des situations dans lesquelles les couches isolantes ne peuvent pas se joindre directement et dans lesquelles il n’est pas possible d’intercaler un élément isolant (par exemple, pour des raisons de stabilité). La coupure thermique ne peut pas, dans de telles situations, être conservée. Cela ne signifie pas pour autant qu’on ait à faire à un détail mal étudié. La réglementation PEB prévoit en effet une possibilité d’obtenir quand même, sans coupure thermique, un nœud constructif suffisamment performant du point de vue thermique.

Le flux thermique suivra toujours le chemin le plus facile de l’intérieur vers l’extérieur. Si la coupure thermique n’est pas présente, alors cela signifie que le flux thermique suit le chemin vers l’extérieur qui passe par l’interruption des couches isolantes, ce que l’on appelle le chemin de moindre résistance.  Le chemin de moindre résistance ne passe donc jamais à travers une couche isolante.

Exemple : poutre extérieure.

Exemple : fondation.

Le chemin de moindre résistance est strictement défini comme le plus court trajet entre l’environnement intérieur, et l’environnement extérieur ou un espace adjacent non chauffé, et qui ne coupe nulle part une couche d’isolante ou un élément isolant d’une, ont la résistance thermique est plus grande, supérieure ou égale à la plus petite des deux résistances R1 et R2 (= les résistances thermiques des couches isolantes des parois). Cela signifie qu’on doit dessiner, sur le plan de coupe du nœud constructif, la ligne la plus courte, de l’intérieur vers l’extérieur ou vers un EANC qui ne coupe nulle part une couche isolante.  Si la longueur totale de cette ligne est inférieure à 1 mètre, alors il est alors recommandé d’ajouter de l’isolant, à condition que cet isolant présente une résistance thermique plus grande, supérieure ou égale à la plus petite des valeurs de R1 et R2.  Le chemin de moindre résistance doit contourner les « obstacles », ce qui l’allonge automatiquement et permet de satisfaire l’exigence pour le nœud constructif.

Exemple : poutre extérieure.

Exemple : fondation.

Dans le cadre de la réglementation PEB, on considère le nœud constructif comme suffisamment performant du point de vue thermique lorsque le chemin de moindre résistance est suffisamment long, à savoir, plus grand ou égal à 1 mètre. Lorsque c’est le cas, le flux thermique doit franchir une distance suffisamment grande et la déperdition thermique peut rester limitée.

Interposition d’éléments isolants

Interposition d'éléments isolants


Dans certains cas, les couches isolantes ne peuvent pas se raccorder directement l’une à l’autre. Il existe alors la possibilité d’intercaler des éléments isolants. Ces éléments isolants assument localement la fonction d’isolation thermique des couches isolantes, de manière à maintenir ainsi la coupure thermique, comme par exemple au raccord d’un toit plat avec un mur extérieur ou à un appui de fondation.

Élément isolant en verre cellulaire entre la couche
isolante de la façade et celle du plancher inférieur.

La réglementation PEB indique que pour que le nœud constructif soit conforme,  tous les éléments isolants doivent répondre simultanément aux trois exigences suivantes :

  1. La conductivité thermique λ de la couche isolante de l’élément isolant ne peut pas dépasser 0.2 W/m.k.
  2. La résistance thermique de l’élément isolant doit être plus grande que la moitié  de la résistance thermique de la couche isolante  des parois la moins thermiquement résistante ou être supérieure à 2 m²K/W.Cas particulier des châssis et portes
    Lorsqu’un châssis de fenêtre ou de porte joint l’élément isolant, il n’est pas tenu compte de la résistance thermique de la fenêtre, mais uniquement  de la résistance thermique de la couche isolante de la paroi opaque. La résistance thermique de l’élément isolant doit être plus grande que la moitié  de la résistance thermique de la couche isolante de cette paroi ou être supérieure à 1.5 m²K/W.
  3. L’épaisseur de contact entre l’élément isolant et la couche isolante de la paroi jointe doit être au moins égale à la moitié de l’épaisseur de la couche isolante de la paroi jointe ou de l’épaisseur de l’élément isolant.
    Si un élément isolant est accolé à un autre élément isolant, l’épaisseur de contact doit être au moins égale à la moitié de l’épaisseur de l’élément isolant le moins épais.
    Ces épaisseurs doivent être mesurées perpendiculairement aux couches isolantes.

 

L’épaisseur de contact minimale doit être respectée pour tous les raccords.

           Cas particulier des châssis et portes

  • Châssis de fenêtre ou de porte sans coupure thermique
    L’épaisseur de contact doit être au moins égale à la moitié de l’épaisseur de l’élément isolant ou de l’épaisseur du dormant du châssis mesurée perpendiculairement au plan du vitrage.

Exemple : coupe en plan du piédroit SANS coupure thermique.

  • Châssis avec coupure thermique
    L’élément isolant doit nécessairement être en contact direct avec la coupure thermique, et ce, sur toute l’épaisseur de la coupure thermique.

Exemple : coupe en plan du piédroit AVEC coupure thermique.

Continuité de l’isolant

Continuité de l'isolant

Pour qu’un nœud constructif soit considéré comme thermiquement performant, il suffit que la coupure thermique soit garantie. Cela signifie que les couches isolantes de 2 parois jointives de la surface de déperdition doivent s’accoler de manière toujours continue. Cela signifie au moins qu’on peut parcourir à l’aide d’un crayon les couches isolantes et les parties isolantes intercalées sans devoir relever ce crayon.

Continuité de l’isolant au raccord de deux façades.

La continuité des couches isolantes n’est garantie que si elles sont jointes directement l’une à l’autre avec une épaisseur de contact minimale.

Du point de vue thermique, la meilleure solution pour ces nœuds constructifs est de joindre au maximum les couches isolantes l’une à l’autre, ce qui signifie que l’épaisseur de contact entre les deux couches isolantes (d contact) doit être égale à l’épaisseur de la couche. Du point de vue pratique cette situation n’est pas toujours faisable. C’est pourquoi, la réglementation PEB prévoit la possibilité de s’écarter jusqu’à une certaine limite de cette situation thermiquement idéale.

L’épaisseur de contact doit être au moins égale à la moitié de l’épaisseur de la couche isolante la moins épaisse des parois qui se joignent. Ces épaisseurs doivent être mesurées perpendiculairement aux couches isolantes.


Exemple : coupe en plan à l’angle de deux façades.
Schéma coupe en plan à l’angle de deux façades.

Cas particulier des châssis et portes

Châssis de fenêtre ou de porte sans coupure thermique

L’épaisseur de contact doit être au moins égale à la moitié de l’épaisseur de la couche isolante de la paroi ou de l’épaisseur du dormant du châssis mesurée perpendiculairement au plan du vitrage.

Schéma châssis de fenêtre ou de porte sans coupure thermique.

Exemple : coupe en plan du piédroit d’une fenêtre SANS coupure thermique.

Châssis avec coupure thermique

La couche isolante de la paroi doit nécessairement être en contact direct avec la coupure thermique, et ce, sur toute l’épaisseur de la coupure thermique.

Schéma châssis avec coupure thermique.

Exemple : coupe en plan du piédroit d’une fenêtre AVEC coupure thermique.

Définition de la couche isolante dans le cadre de la prise en compte des nœuds constructifs

La couche isolante d’une paroi de la surface de déperdition est par définition la couche de matériau avec la plus grande résistance thermique.

La couche isolante peut également être constituée de plusieurs couches de matériaux, homogènes ou non (les membranes doivent être négligées). À condition que :

  • les couches accolées de matériaux se succèdent  ET
  • il n’y ait aucune couche d’air intercalée ET
  • chacune des couches de matériaux ait une valeur λ inférieure ou égale à 0.2 W/mK.

Dans ce cas, les couches isolantes doivent être considérées comme une couche isolante assemblée, avec une épaisseur d  égale à la somme des épaisseurs de chacune des couches di et la résistance thermique R égale à la somme des résistances thermiques de chacune des couches Ri

Pour l’application de la réglementation PEB relative aux nœuds constructifs, s’il y a plusieurs couches isolantes non accolées, une seule des couches isolantes est prise en considération. C’est celle qui a la plus grande résistance thermique qui sera considérée comme la couche isolante de la paroi.

Nœud constructif ponctuel

Nœud constructif ponctuel


On est en présence d’un nœud constructif ponctuel lorsque la couche isolante d’une paroi est interrompue ou réduite ponctuellement.

Exemples

  • Colonnes qui traversent la couche isolante d’un plancher au-dessus de l’extérieur, d’un parking, d’une cave… ;

Colonne dans un parking non chauffé.

  • Poutres perpendiculaires à une paroi qui en interrompent la couche isolante ;

 

Console supportant une coursive.

  • Points de fixation de capteurs solaires, mâts… qui traversent la couche isolante ;

 

  • Ancrages ponctuels de supports de maçonneries (par exemple supports ponctuels de cornières utilisées localement pour soutenir des maçonneries) ;

Exceptions

Ne sont pas considérés comme des nœuds constructifs ponctuels :

  • Les percements de paroi par des passages de canalisations (gaines de ventilation, conduits de fumée, évacuations d’eau pluviale et autres passages de conduite) ;

 

  • Les intersections de deux ou trois nœuds constructifs linéaires ;

 

  • L’interruption ponctuelle de la couche isolante d’une paroi en contact direct avec le sol.

 

Nœud constructif linéaire

Nœud constructif linéaire


Un nœud constructif linéaire peut se présenter aux deux endroits suivants :

  • Là où deux parois de l’enveloppe du volume protégé  se rejoignent ;
  • Là où, dans une même paroi de la surface de déperdition, la couche isolante est interrompue ou réduite linéairement.

Rencontre de deux parois

Ce type de nœud constructif linéaire peut être repéré sur un plan ou une coupe d’un bâtiment.

Là où deux parois de la surface de déperdition se rejoignent, qu’elles soient dans le même plan ou non, il s’agit toujours d’un nœud constructif, même si la coupure thermique est assurée dans le détail pour éviter la création d’un pont thermique.

Là ou deux parois seront considérées comme différentes dès :

  • qu’elles ne sont pas dans le même plan ;

Façade – angle extérieur.

Façade – angle intérieur.

Raccord façade – toiture.

Raccord façade – plancher inférieur.

  • que leurs compositions varient (matériaux différents par leur nombre, leurs natures et/ou leurs épaisseurs) ;

Composants variant par leurs nombres, ordres, natures, épaisseurs.

  • que leur environnement extérieur varie.

Environnements extérieurs différents.

Interruption linéaire de la couche isolante

Là où une couche isolante d’une paroi est entièrement ou partiellement interrompue linéairement par un matériau avec une conductivité thermique plus élevée, on parle d’un nœud constructif linéaire.

Élément de structure.

Descente d’eau.

Balcon (coupe).

Appui de mur intérieur (coupe).

Ce type de nœud constructif linéaire se présente uniquement dans un même plan, à savoir le plan de la paroi elle-même. La couche isolante ne peut, et c’est important, être interrompue que sur une distance maximale de 0.4 m. Cela signifie qu’en coupe, la plus courte distance entre les deux extrémités de l’interruption de la couche isolante complète ne peut être plus grande que 0.4 m.

L’interruption de l’isolant ne
peut pas dépasser 40 cm.

Si cette distance est plus grande que 0.4 m, alors l’interruption doit être considérée comme une paroi à part entière avec son propre coefficient de transmission thermique U et une superficie déterminée à partir des dimensions extérieures. De plus, il faut remarquer que dans ce cas, deux nœuds constructifs linéaires apparaissent le long des deux côtés de la nouvelle paroi, étant donné qu’à ces endroits, deux parois de la superficie de déperdition se joignent.

Exceptions

Ne sont pas considérés comme des nœuds constructifs linéaires :

  • L’interruption linéaire de la couche isolante d’une paroi en contact direct avec le sol.

Ceci N’est PAS un nœud constructif !

  • Les endroits où la couche isolante est entièrement conservée (pas d’interruption, pas d’amincissement/élargissement, pas de décalages, pas de changement de direction de la couche isolante) même si les autres couches de matériaux varient.

(Vue en plan).

(Vue en coupe).

 

Définition d’un noeud constructif

Définition d'un noeud constructif


Définition

Le terme « nœuds constructifs » désigne les endroits où les parois de l’enveloppe du volume protégé  se rejoignent (jonction) et les endroits où la couche isolante est interrompue localement linéairement ou ponctuellement (acrotères, fondations, raccords aux fenêtres, …)

On distinguera deux types de nœuds constructifs :

Ils ne sont pas à confondre avec les « interruptions linéaires et ponctuelles propres à une paroi » qui ne sont pas considérées comme des nœuds constructifs.

Ces interruptions sont réparties de manière régulière dans les différentes parois de l’enveloppe du volume protégé et sont directement prise en compte dans le coefficient de transmission thermique U de la paroi (montants et traverses en bois dans une paroi à ossature, crochets d’un mur creux, intercalaire d’un double vitrage, …)

Paroi à ossature.

Crochets de maçonnerie.

Intercalaire des vitrages.


Caractéristiques thermiques

Lorsqu’on considère une paroi extérieure avec une structure homogène et un coefficient de transmission thermique U bien déterminé et homogène, les isothermes (= lignes d’égale température) seront toujours parallèles au plan de la façade et les lignes de flux de chaleur perpendiculaires à celui-ci.

      

Une paroi extérieure avec une structure homogène présente des isothermes parallèles au plan de façade (au milieu) et des lignes de flux perpendiculaires au plan de façade (à droite).

Aux nœuds constructifs induits par une géométrie variante et/ou par la présence d’éléments constructifs de transmission thermique  différente, les isothermes et les lignes de flux diffèrent de ce modèle unidimensionnel et la méthode de calcul sur base des valeurs U n’est plus correcte.

    

À certains endroits de l’enveloppe les isothermes et les lignes de flux diffèrent du modèle unidimensionnel.

Un calcul numérique bi- ou tridimensionnel validé est nécessaire pour pouvoir déterminer avec précision le flux thermique par transmission à l’endroit des nœuds constructifs. À partir de là, on peut déduire le coefficient de transmission thermique linéaire ou ponctuel des nœuds constructifs, qui corrige le flux thermique par transmission calculé de manière unidimensionnelle.

Isolation à l’intérieur de l’ossature d’un plancher inférieur

Isolation à l’intérieur de l’ossature d’un plancher inférieur


Principe technique

On profite de l’espace disponible entre les éléments de l’ossature pour poser un maximum d’isolant.

  1. L’isolant peut être placé en matelas fabriqués en usine. Ceux-ci sont découpés à la forme des cavités présentes dans la paroi. La fermeture d’une des faces de ces cavités par des panneaux ou des membranes se fait avant la pose de l’isolant.
  2. La pose de l’isolant peut également se faire par dépose de flocons ou de billes en vrac dans les cavités. Ce travail doit être confié à un entrepreneur spécialisé, car, pour que la pose soit correcte, il nécessite une bonne expérience et un outillage adapté. On évite ainsi que l’isolant soit insuffisamment ou trop tassé, voir mal réparti. La face inférieure du plancher est posée avant placement  de l’isolant. La face supérieure est généralement posée lorsque l’isolant est en place.

Les isolants généralement utilisés seront suffisamment souples et élastiques pour assurer un calfeutrement parfait contre les éléments de structures. Ainsi des fibres organiques ou minérales conviennent parfaitement. On sera cependant très attentif à prévoir du côté intérieur (côté chaud de l’isolant) un freine-vapeur ou pare-vapeur adapté à l’hygroscopicité de l’isolant à la perméabilité à la vapeur de la finition extérieure et  aux caractéristiques du climat intérieur. Cette protection indispensable fera également office de barrière d’étanchéité à l’air, point faible des parois à ossature.


Schémas de principe

  1. Revêtement de sol
  2. Freine-vapeur, étanchéité à l’air
  3. Structure du plancher
  4. Isolant
  5. Finition
  6. Vide

Précautions

  • Les isolants utilisés devront avoir une bonne stabilité dans le temps (tassement, humidité, vermine, …)

Isolation au-dessus du plancher support, sous l’aire de foulée

Isolation au-dessus du plancher support, sous l'aire de foulée


Principe technique

L’isolant est posé sur le support du plancher (béton armé, hourdis, …). Sur l’isolant est posée l’aire de foulée (chape + finition, panneaux, …). La chape peut être chauffante. C’est configuration peut s’appliquer tant pour les planchers sur sol que pour les planchers sur vide.


Schémas de principe

  1. Revêtement de sol.
  2. Chape.
  3. Couche de séparation.
  4. Isolant.
  5. Plancher portant.
  6. Sol ou vide

Précautions

  • L’isolant doit résister à la compression. Il n’est pas soumis à l’humidité.
  • Les canalisations hydrauliques (chauffage, ECS) dans le sol doivent se trouver au-dessus de l’isolant pour des raisons d’économie d’énergie.
  • Les nœuds constructifs aux appuis des maçonneries en élévation doivent être conçus afin d’éviter au maximum les ponts thermiques.
  • Les mouvements libres en périphérie (tassement et dilatation).
  • La chape qui recouvre l’isolant doit être suffisamment résistante (flexion et poinçonnement).
  • L’impact de la diminution de l’inertie thermique devrait être évalué (réduction de la capacité d’absorption et de déphasage par rapport à une dalle non isolée : avantageux dans le cas du chauffage par le sol mais désavantageux pour la gestion de la surchauffe.)

Isolation sous le plancher sur vide

Isolation sous le plancher sur vide


Principe technique

La pose de l’isolant sur la face extérieure des parois délimitant volume protégé amène de nombreux avantages : continuité de l’isolant, maintien de la paroi à une température constante intérieure, moins de risque de condensation interne, meilleure inertie thermique, etc. C’est également le cas pour les planchers situés au-dessus du vide.


Schémas de principe

  1. Revêtement de sol
  2. Chape
  3. Plancher portant
  4. Isolant
  5. Finition (éventuelle)
  6. Vide

Précautions

  • Tous les isolants conviennent.
  • Prévoir ou non une finition extérieure ventilée.
  • Nœuds constructifs aux appuis sur les fondations.

Isolation sous le plancher sur sol

Isolation sous le plancher sur sol


Principe technique

La pose de l’isolant sur la face extérieure des parois délimitant le volume protégé amène de nombreux avantages : continuité de l’isolant, maintien de la paroi à une température constante intérieure, moins de risque de condensation interne, meilleure inertie thermique, etc. C’est également le cas pour les planchers contre terre.


Schémas de principe

  1. Revêtement de sol
  2. Chape
  3. Plancher portant
  4. Couche de séparation
  5. Isolant
  6. Terre

Schémas de principe avec support, étanchéité éventuelle, isolation, protection éventuelle, drainage éventuel (prévoir des variantes : avec ou sans nappe phréatique ; radiers <-> semelles et dalles ; etc.)

Précautions

Les isolants utilisés devront avoir certaines caractéristiques

  • Ils devront être étanches à l’eau pour conserver leurs  performances thermiques,
  • Ils devront résister à l’écrasement.

Isolation enterrée

Isolation enterrée


Principe technique

La pose de l’isolant sur la face extérieure des parois appartenant à l’enveloppe du volume protégé amène de nombreux avantages : continuité de l’isolant ; maintien de la paroi à une température constante intérieure ; moins de risque de condensation interne ; meilleure inertie thermique ; etc. C’est également le cas pour les  murs contre terre.

  1. Mur enterré
  2. Étanchéité
  3. Isolant thermique
  4. Filtre
  5. Drain
  6. Fondation du drain
  7. Raccord entre le mur enterré et le bas de la façade
  1. Mur du local enterré
  2. Isolant thermique
  3. Matelas drainant
  4. Bavette en attente pour la finition supérieure
  1. Membrane d’étanchéité éventuelle
  2. Isolant thermique
  3. Filtre
  4. Drain
  1. Isolant thermique
  2. Drain (sable)
  3. Exemple de raccord d’étanchéité dans le haut du mur enterré

Schémas de principe avec support, étanchéité éventuelle, isolation, protection éventuelle, drainage éventuel (prévoir des variantes : avec ou sans nappe phréatique.


Précautions

Les isolants utilisés devront avoir certaines caractéristiques

  • Ils devront être étanches à l’eau pour conserver leurs  performances thermiques ;
  • Ils devront résister à l’écrasement.

Isolation à l’intérieur de l’ossature en bois d’un mur

Isolation à l'intérieur de l'ossature en bois d’un mur


Principe technique

On profite de l’espace disponible entre les éléments de l’ossature pour poser un maximum d’isolant.

  1. Structure bois
  2. Pare-pluie
  3. Cavité
  4. Isolant
  5. Freine vapeur

Ossature bois avant la pose de l’isolation.

1. L’isolant peut être placé en panneaux fabriqués en usine découpés à la forme des cavités présentes dans la paroi. La fermeture d’une des faces de ces cavités par des panneaux ou des membranes se fait après la pose de l’isolant.

 

Isolation à l’aide de matelas souples.

2. La pose de l’isolant peut également se faire par insufflation de flocons dans les cavités qui, dans ce cas, sont complètement fermées avant insufflation. Ce travail doit être confié à un entrepreneur spécialisé, car, pour que la pose soit correcte, il nécessite une bonne expérience et un outillage adapté. On évite ainsi que l’isolant soit insuffisamment ou trop tassé, ou bien que des vides sans isolant subsistent.

  

Insufflation, pare-vapeur en feuille transparente.

Avant insufflation, pare-vapeur réalisé à l’aide de panneaux.

Les isolants généralement utilisés seront suffisamment souples et élastiques pour assurer un calfeutrement parfait contre les éléments de structures. Ainsi, des fibres organiques ou minérales conviennent parfaitement. On sera cependant très attentif à prévoir du côté intérieur un freine-vapeur ou pare-vapeur adapté à l’hygroscopicité de l’isolant à la perméabilité à la vapeur de la finition extérieure et aux caractéristiques du climat intérieur. Cette protection indispensable fera également office de barrière d’étanchéité à l’air, point faible des parois à ossature.

Schémas de principe avec ossature bois, isolant, finitions intérieure et extérieure, pare-vapeur, espace technique, …


Précautions

Les isolants utilisés devront avoir une bonne stabilité dans le temps (tassement, humidité, vermine, …).

Mur enterré

Mur enterré


Définition

Lorsqu’un bâtiment est partiellement enterré, des parois séparent les locaux du terrain extérieur. Les qualités des faces intérieures de ces parois doivent être équivalentes à celles des autres murs. Le contact avec le sol et les contraintes liées implique des principes constructifs différents de ceux des murs en élévation.

En général, les murs enterrés seront en maçonnerie pleine ou en béton armé. Ils peuvent être isolés par l’intérieur ou par l’extérieur. Ils devront de plus être rendus étanches aux infiltrations par des systèmes d’étanchéité et/ou de drainage.


Fonctions

Résistance mécanique

Le mur enterré supporte le poids de la construction. Il doit aussi résister à des contraintes obliques ou horizontales dues à la poussée du sol ou à la pression hydrostatique de l’eau qu’il contient lorsqu’il est situé plus bas que le niveau de la nappe phréatique.

Origines des contraintes mécaniques

Schéma origines des contraintes mécaniques.
  1. Poids du bâtiment
  2. Poussée des terres
  3. Pression hydrostatique (si nappe phréatique)
  4. Appui

Les murs enterrés sont donc généralement réalisés en maçonneries pleines (blocs de béton, de terre cuite ou briques). Ces maçonneries seront dans certains cas armées horizontalement dans les joints ou verticalement à travers les blocs creux pour résister aux contraintes horizontales. Ils peuvent aussi être renforcés par un galandage de poutres et de colonnes en béton.
Le poids du bâtiment situé au-dessus du mur enterré renforce sa résistance aux poussées latérales.

Les parois enterrées peuvent aussi être réalisées à l’aide de voiles en béton armé dont les armatures sont calculées pour qu’elles résistent aux contraintes auxquelles elles sont soumises.

Le poids du bâtiment situé au-dessus du mur enterré renforce sa résistance aux poussées latérales.

Résistance à l’humidité et infiltration d’eau

Types d’infiltrations :

Schéma types d'infiltrations.
  1. Remontée capillaire
  2. Eau de ruissellement
  3. Eau de la nappe phréatique

Lorsqu’il abrite des locaux habitables, il est primordial que la face intérieure du mur enterré reste sèche (moins important lorsqu’il s’agit de caves ou de garages). Des mesures d’étanchéité doivent donc être prises.

Lorsque le mur est situé plus bas que le niveau de la nappe phréatique une étanchéité continue à l’aide d’une membrane d’étanchéité ou d’un cuvelage est mise en œuvre. Cette étanchéité est idéalement posée sur la face extérieure du mur de manière le maintenir sec. Elle doit résister aux racines.

Un cuvelage peut éventuellement être réalisé sur la face intérieure du mur. Dans ce cas, il faut être certains que les matériaux qui constituent le mur peuvent être noyés en permanence. Le cuvelage intérieur permet  de rendre étanche a posteriori un local enterré sans devoir enlever les terres extérieures et un raccordement continu avec une étanchéité posée sur le plancher de sol (cuvelage complet). Attention, l’eau présente dans le mur aura tendance à monter par capillarité vers les éléments situés plus haut. Des barrières contre cette humidité capillaire doivent être réalisées.

Lorsque le mur est situé au-dessus du niveau de la nappe phréatique, une  étanchéité extérieure (membrane ou cimentage hydrofuge) est également nécessaire, mais les contraintes hydrostatiques subies sont moins importantes. Un drainage du sol situé contre le mur est réalisé soit à l’aide d’une couche de granulats drainants (sable, gravier, …) protégée du colmatage par un filtre en géotextile, soit à l’aide d’une nappe drainante (feuille synthétique embossée, nappe filamentaire plissée, isolant rainuré, …) qui peut également être protégée par un filtre. Ces nappes protègent aussi mécaniquement les couches d’étanchéité.

A la base du drain vertical, un drain horizontal (tuyau muni de percements) évacue les eaux de ruissellement et de percolation vers le réseau d’égouttage.

  1. Mur de cave
  2. Couche hydrofuge
  3. Couche drainante verticale
  4. Filtre géotextile
  5. Fondation du drain horizontal
  6. Drain horizontal
  7. Solin de protection

Résistance thermique

La présence du sol constitue déjà une forme d’isolation thermique du mur enterré. La chaleur doit en effet parcourir un chemin plus long dans le sol pour parvenir à l’extérieur.

Schéma résistance thermique.

Cela n’est cependant pas suffisant pour que le bâtiment soit thermiquement performant (la réglementation PEB exige une  résistance thermique minimale de ce mur).
La mise en œuvre d’une couche isolante est donc nécessaire. Elle peut être placée du côté intérieur ou du côté extérieur du mur (contre le sol).

La pose de l’isolant sur la face extérieure nécessite l’emploi d’un matériau résistant à l’humidité et à la compression. Il peut être combiné avec le système de drainage et de protection de la membrane d’étanchéité.

Inertie thermique

Lorsque les caves n’étaient pas isolées, du fait de la présence du sol derrière les murs massifs, la température dans ces locaux était particulièrement stable, ce qui apportait un confort tant en été qu’en hiver.

Le fait d’isoler les murs enterrés entraîne une perte de l’inertie thermique et rend par là le local plus sujet aux variations rapides de température.

Mur à ossature

Mur à ossature

Les performances thermiques des murs dépendent principalement des qualités de la couche isolante. L’impact de son épaisseur est ainsi très important (plus l’épaisseur est grande meilleure est l’isolation). L’avantage des murs à ossature est de ménager dans la paroi des espaces suffisamment épais pour permettre la pose d’une couche épaisse d’isolant. Cette couche n’est malheureusement pas continue à cause des montants et traverses de la structure.

L’étanchéité à l’air de ce type de mur est plus difficile à obtenir que lorsque le mur est monolithe et enduit (murs en maçonnerie ou en béton). La pose d’un freine vapeur assurera l’étanchéité à l’air d’une telle paroi. Une  attention particulière devra aussi être apportée à la réalisation des raccords.


Ossature bois

Schéma principe mur à ossature bois.
  1. Finition intérieure
  2. Structure de l’espace technique
  3. Espace technique
  4. Isolant (éventuel) dans l’espace technique
  5. Pare-vapeur (freine-vapeur)
  6. Isolant dans la paroi
  7. Pare-pluie
  8. Structure de la paroi
  9. Vide ventilé
  10. Finition extérieure (parement ou bardage)

Ce type de mur est constitué d’une résille de montants (colonnes) et de traverses (poutres) en bois qui assurent la stabilité de la paroi. L’ensemble est triangulé pour le rigidifier. Les espaces libres entre les éléments de structure contiennent l’isolant. Ces cavités sont généralement entièrement remplies pour obtenir des performances les plus élevées possible.

L’ossature est ensuite refermée :

  • du côté intérieur, une couche étanche à l’air et plus ou moins étanche à la vapeur d’eau (freine vapeur) choisi en fonction des conditions climatiques intérieures, de la nature de l’isolant, de la perméabilité à la vapeur d’eau de la couche extérieure.
  • du côté extérieur, La face extérieure est fermée par une couche de matériau étanche à l’eau et le plus perméable possible à la vapeur (pare pluie).

Du côté intérieur, un espace technique (vide ou rempli d’une couche supplémentaire d’isolant), est généralement aménagée entre le freine vapeur et la couche de finition pour permettre le passage des conduites (chauffage, ECS, électricité, …) sans percement du freine vapeur.

Pose des conduites dans l’espace technique
sans percer le pare-vapeur.

Du côté extérieur, la paroi est protégée par un bardage (bois, ardoises, plaques ondulées ou planes, …) ou un parement en brique. La brique à l’extérieur ne se justifie que par des contraintes urbanistiques. Son inertie thermique est inutile à l’extérieur. Elle donne la fausse impression que le bâtiment est réalisé en maçonnerie.

Le calcul de performances thermiques du mur à ossature bois tiendra compte de la présence du bois.


Ossature métallique

Schéma principe mur à ossature métallique.
  1. Colonne en acier
  2. Bac horizontal en acier
  3. Isolant
  4. Bardage extérieur en acier

Les façades des bâtiments industriels sont régulièrement réalisées à l’aide d’ossatures métalliques recouvertes d’un bardage extérieur en plaques ondulées. Des caissons métalliques horizontaux sont fixés aux colonnes en acier. Le bardage extérieur vertical est à son tour, fixé au caisson. L’isolation thermique est obtenue par remplissage des caissons à l’aide d’un matériau isolant.

L’acier étant thermiquement 1 000 fois plus conducteur que le bois, les pertes de chaleur par les liaisons entre les caissons et le bardage sont très importantes. De plus, les tôles intérieures et extérieures répartissent la chaleur sur de grandes surfaces et la résistance d’échange thermique superficielle est, de ce fait quasi nulle.

Pour remédier à cette faiblesse, un isolant résistant suffisamment aux contraintes métalliques est interposé entre les caissons et le bardage. Cela réduit ainsi  considérablement les ponts thermiques ponctuels répartis sur la paroi.

Schéma principe mur à ossature métallique - 2.
  1. Colonne en acier
  2. Bac horizontal en acier
  3. Isolant
  4. Isolant interposé sous le bardage
  5. Bardage extérieur en acier

Le calcul des performances thermique d’un mur à ossature métallique est relativement compliqué et nécessite l’usage d’un programme de calcul numérique. Dans le cadre de la réglementation PEB, ce programme doit satisfaire à toutes les exigences qui sont indiquées dans les normes.

Objectifs d’une bonne toiture

Objectifs d'une bonne toiture


Objectifs d’une bonne toiture

La toiture sera stable et protégera les occupant des agresseurs extérieurs :

  • l’eau,
  • le froid,
  • la poussière,
  • le vent,
  • le bruit.

Assurant ainsi le confort des occupants à un coût énergétique avantageux.


Comment composer une toiture qui remplisse ces objectifs ?

Pour visualiser la composition d’une toiture inclinée, consulter la partie ci-dessous :


1. Le bâtiment sans toiture

Inspiré de « L’isolation thermique des toitures » CIFUL /  FFC.

© Architecture et climat 2023.

Sources d’inconfort.
Toiture et accessoires.
Effets de la toiture sur les sources d’inconfort.
– – – – – – – – –

  1. Pluie, vent et neige
  2. Température extérieure de 0°
  3. Production de vapeur d’eau
  4. Air intérieur de 0°
  5. Mur creux isolé

2. La toiture élémentaire

Inspiré de « L’isolation thermique des toitures » CIFUL /  FFC.

© Architecture et climat 2023.

Sources d’inconfort.
Toiture et accessoires.
Effets de la toiture sur les sources d’inconfort.
– – – – – – – – –
  1. Pluie, vent et neige
  2. Température extérieure de 0°
  3. Production de vapeur d’eau
  4. Air intérieur de 1°
  5. Mur creux isolé
  6. Eau infiltrée
  7. Migration de la vapeur de l’intérieur vers l’extérieur
  8. Gouttière et évacuation

-> Les composants mis en œuvre :

La charpente, la couverture et les évacuations d’eau pluviale

  • La charpente assure la stabilité de la toiture.
  • La couverture protège les occupants contre les intempéries.
  • La couverture et les évacuations écartent les eaux pluviales.

3. La toiture sans infiltration

Inspiré de « L’isolation thermique des toitures » CIFUL /  FFC.

© Architecture et climat 2023.

Sources d’inconfort.
Toiture et accessoires.
  Effets de la toiture sur les sources d’inconfort.
– – – – – – – – –
  1. Pluie, vent et neige
  2. Température extérieure de 0°
  3. Production de vapeur d’eau
  4. Air intérieur de 5°
  5. Mur creux isolé
  6. Eau infiltrée
  7. Migration de la vapeur de l’intérieur vers l’extérieur
  8. Gouttière et évacuation
  9. Pose d’une sous-toiture étanche à l’eau et perméable à la vapeur d’eau + contre-lattes

-> Les composants mis en œuvre :

La charpente, la couverture et les évacuations d’eau pluviale

  • La charpente assure la stabilité de la toiture.
  • La couverture protège les occupants contre les intempéries.
  • La couverture et les évacuations écartent les eaux pluviales.

La sous-toiture

  • Elle limite les infiltrations d’air.
  • Elle protège le bâtiment des eaux accidentellement infiltrées et des poussières.

4. Vers une toiture isolée

Inspiré de « L’isolation thermique des toitures » CIFUL /  FFC.

© Architecture et climat 2023.

Sources d’inconfort.
Toiture et accessoires.
Effets de la toiture sur les sources d »inconfort.
– – – – – – – – –

  1. Pluie, vent et neige
  2. Température extérieure de 0°
  3. Production de vapeur d’eau
  4. Air intérieur de 18°
  5. Mur creux isolé
  6. Eau infiltrée
  7. Migration de la vapeur de l’intérieur vers l’extérieur
  8. Gouttière et évacuation
  9. Pose d’une sous-toiture étanche à l’eau et perméable à la vapeur d’eau + contre-lattes
  10. Pose d’un isolant thermique

-> Les composants mis en œuvre :

La charpente, la couverture et les évacuations d’eau pluviale

  • La charpente assure la stabilité de la toiture.
  • La couverture protège les occupants contre les intempéries.
  • La couverture et les évacuations écartent les eaux pluviales.

La sous-toiture

  • Elle limite les infiltrations d’air.
  • Elle protège le bâtiment des eaux accidentellement infiltrées et des poussières.

L’isolation

  • Elle limite les pertes de chaleur.
  • Elle protège les occupants du bruit extérieur.

DANGER ! RISQUES DE CONDENSATION


5. La toiture isolée complète

Inspiré de « L’isolation thermique des toitures » CIFUL /  FFC.

© Architecture et climat 2023.

Sources d’inconfort.
Toiture et accessoires.
Effets de la toiture sur les sources d’inconfort.

– – – – – – – – –

  1. Pluie, vent et neige
  2. Température extérieure de 0°
  3. Production de vapeur d’eau
  4. Air intérieur de 20°
  5. Mur creux isolé
  6. Eau infiltrée
  7. Migration de la vapeur de l’intérieur vers l’extérieur
  8. Gouttière et évacuation
  9. Pose d’une sous-toiture étanche à l’eau et perméable à la vapeur d’eau + contre-lattes
  10. Pose d’un isolant thermique
  11. Pose d’un écran étanche à l’air et à la vapeur
  12. Finition intérieure

-> Les composants mis en œuvre :

La charpente, la couverture et les évacuations d’eau pluviale

  • La charpente assure la stabilité de la toiture.
  • La couverture protège les occupants contre les intempéries.
  • La couverture et les évacuations écartent les eaux pluviales.

La sous-toiture

  • Elle limite les infiltrations d »air.
  • Elle protège le bâtiment des eaux accidentellement infiltrées et des poussières.

L’isolation

  • Elle limite les pertes de chaleur.
  • Elle protège les occupants du bruit extérieur.

L’écran étanche à l’air et à la vapeur, et la finition intérieure

  • Ils suppriment les courants d’air.
  • Ils protègent la toiture des condensations internes et lui conservent son aspect, son efficacité thermique et sa stabilité.

Capteur solaire à eau chaude

Capteur solaire à eau chaude


Principe de fonctionnement

Schéma principe de fonctionnement.

Les capteurs solaires transforment le rayonnement solaire en chaleur grâce à un absorbeur (un corps noir caractérisé par des propriétés d’absorption très élevées et d’émissivité très basse). L’absorbeur transfère la chaleur à un fluide caloporteur (généralement de l’eau glycolée) circulant au travers de chacun des capteurs.

Lorsque la différence de température entre la sonde capteur (T1) et la sonde en fond de ballon (T2) dépasse quelques degrés, les circulateurs s’enclenchent.

Le fluide caloporteur, circulant dans le circuit primaire, achemine alors l’énergie solaire depuis les capteurs vers le(s) ballon(s) de stockage à travers un échangeur.

Le(s) ballon(s) de stockage accumule(nt) la chaleur produite.

Si nécessaire, une source d’énergie d’appoint porte l’eau préchauffée à la température souhaitée. Celle-ci est alors acheminée vers les points de puisage par la boucle de distribution.

Un dispositif de régulation électronique commande le fonctionnement du système (circulateurs et appoints) selon les conditions d’ensoleillement et la demande en eau chaude.


Les principaux composants d’une installation

Un chauffe-eau solaire est toujours composé de quatre parties :

Schéma principaux composants d'une installation.

Le système de charge

Le système de charge comprend les capteurs solaires, la boucle primaire ou solaire et un échangeur de chaleur.

Le système de stockage

Il s’agit généralement d’un ou plusieurs ballon(s) d’eau bien isolé(s) thermiquement. Le stockage permet de différer la demande de puisage par rapport au moment de la production solaire.

Le système d’appoint

Pendant une bonne partie de l’année, un appoint de chaleur est nécessaire pour atteindre la température minimale de la boucle sanitaire (en général 60 °C). Cet appoint de chaleur peut être fourni par un moyen traditionnel de production de chaleur (chaudière, résistance électrique, pompe à chaleur,…).

Le système de décharge

C’est la partie de l’installation qui distribue l’eau chaude sanitaire aux différents points de puisage.

Photo capteur solaire sous vide.

Exemple de capteur solaire sous vide (avec sonde de température en 1 et purgeur en 2).
À noter le lestage des pieds de l’équipement…


Les différents types d’installation

Sous nos climats, la plupart des installations sont conçues avec une boucle fermée sous pression dont la circulation est forcée, mais il existe d’autres types d’installation :

Boucle solaire fermée (indirecte) ou ouverte (directe) ?

Si la boucle est fermée, le fluide qui chauffe dans les capteurs solaires et celui qui arrive aux points de puisages (douches…) sont distincts : l’eau de consommation est indirectement chauffée à travers un échangeur par le fluide caloporteur du circuit solaire.

Dans le cas où la boucle est dite ouverte, l’eau qui circule dans les capteurs est la même que celle qui est consommée aux points de puisage. Ce type de circuit est rarement utilisé en Belgique, notamment à cause des problèmes liés au gel. On le trouve donc plus souvent dans les pays chauds, où les capteurs constituent le seul moyen de chauffage.

Boucle fermée.

Boucle ouverte.

Circulation forcée ou thermosiphon ?

Dans les installations à thermosiphon, le fluide de la boucle solaire circule par convection naturelle (le fluide réchauffé s’élève). Le stockage est en général situé au-dessus des capteurs (à une distance de minimum 50 cm). Chez nous, ce système est difficilement maîtrisable. Il convient nettement mieux aux pays chauds et ensoleillés.

Thermosiphon.

Circulation forcée.

Les installations à circulation forcée sont équipées d’un dispositif de pompage (circulateur) provoquant la circulation forcée du fluide de la boucle solaire. La pompe est activée automatiquement par la régulation qui évalue le moment où la température du fluide à la sortie des capteurs est supérieure à la température de l’eau dans le bas du réservoir de stockage. On distingue dans cette catégorie plusieurs principes suivant le débit imposé au fluide dans le circuit solaire :

  • Les installations dites « high flow » : dans ce cas, le débit étant élevé (+/- 40 à 60 litres/heure.m²), on favorise une production d’une grande quantité de fluide avec un delta de température peu élevé.
  • Les installations dites « low flow » : dans ce cas, le débit étant faible (+/- 15 à 20 litres/heure.m²), on valorise une plus haute montée en température d’un volume de fluide réduit. Cela permet de travailler avec de plus faibles diamètres de tuyauterie et de faibles puissances de circulateur. Cependant, les pertes thermiques sont augmentées, ce qui diminue le rendement des capteurs. Ce système est généralement utilisé pour les installations de type directe ou encore pour les installations dites « à vidange ».
  • Les installations dites « mix flow » : dans ce cas, le débit est variable et ajusté en continu par la régulation afin de garantir à tout moment un delta de température fixé. Ce système est de plus en plus utilisé et permet d’éviter des enclenchements-arrêts fréquents de la pompe.

Sous pression ou à vidange ?

Les systèmes traditionnels à boucle fermée et à circulation forcée sont généralement « sous pression ». Dans ce type de système, le fluide caloporteur est constamment maintenu à une pression de 1 bar à l’arrêt et de 6 bars en fonctionnement.

Il existe aussi des systèmes « vidangeables ». La différence principale avec les systèmes traditionnels est que lorsque le système ne peut capter d’énergie, les capteurs et les tuyauteries sont vidés et la pompe arrêtée. Le fluide caloporteur est alors recueilli dans un réceptacle fermé. S’ils sont bien conçus, ces systèmes présentent une grande sécurité en cas de gel ou en cas de surchauffe estivale (cela permet d’éviter les montées en températures trop importantes dans le capteur). Ces systèmes permettent ainsi d’éviter une usure accélérée des composants et présentent une grande simplicité de construction puisqu’ils ne nécessitent ni manomètre, ni vase d’expansion, ni purgeur, ni clapet anti-retour (vu que l’installation est vidangée, il n’y a pas de risque de circulation inverse par thermosiphon).

Sous pression.

A vidange.


Les types de capteurs

Il existe deux grandes familles de capteurs : les capteurs plans et les capteurs à tubes « sous vide ».

Capteurs plans

Les capteurs plans opaques

Ce sont les capteurs les plus simples du marché. Ils sont constitués d’un ensemble de tuyaux opaques de couleur foncée qui jouent à la fois le rôle de:

  

  1. plaque absorbante qui permet la captation de l’énergie thermique du rayonnement solaire.
  2. tuyauterie dans laquelle circule directement le fluide caloporteur (généralement l’eau).

Ils ne possèdent ni isolation ni couvercle transparent. Leur rendement est donc globalement moins bon sauf s’ils sont destinés à des applications estivales à basse température (proche de la température extérieure), par exemple pour les piscines extérieures … Leur simplicité va de pair avec un coût très réduit.

Les capteurs plans vitrés

Il s’agit des capteurs que l’on rencontre le plus souvent ; ils conviennent pour la plupart des applications courantes (ECS, appoint chauffage, piscine…).

Un capteur plan vitré se compose des éléments fondamentaux suivants :

  1. Un boîtier qui contient tous les éléments constitutifs fragiles du capteur comme les tubes, la plaque absorbante…
  2. un joint d’étanchéité pour empêcher l’eau de pénétrer quand il pleut ;
  3. un couvercle transparent qui crée un effet de serre au-dessus de la plaque absorbante : en général un verre trempé dit solaire, présentant une faible teneur en fer pour permettre un haut degré de transmission lumineuse ;
  4. une isolation thermique qui réduit la déperdition de chaleur par la face arrière et les côtés du capteur ;
  5. une plaque absorbante qui permet la conversion du rayonnement solaire en énergie thermique transportée par le fluide ;
  6. les tubes traversés par le fluide caloporteur qui évacue la chaleur jusqu‘à l‘extérieur du capteur ;

Selon les modèles, différents types de réseaux hydrauliques internes aux capteurs existent :

Schéma différents types de réseaux hydrauliques internes.

Capteurs à tube sous vide

L’isolation de ce type de capteurs est assurée par le vide. Par facilité de conception, ces capteurs ont toujours une forme cylindrique, d’une longueur d’environ 2 m et d’un diamètre approximatif de 10 cm. Ces capteurs sous vide ont en général un rendement optique (correspondant au rendement de production d’eau chaude à une température égale à celle de l’ambiance) plus faible mais de meilleurs coefficients d’isolation thermique que les capteurs plans.

Ils récupéreront dès lors moins d’énergie à basse température que leurs homologues plans. Plus efficaces pour la production d’eau chaude à température élevée par rapport à l’ambiance extérieure, ils seront principalement utilisés pour des applications comme le chauffage, la climatisation par ab/adsorption ou encore certains process particuliers,…

Photo capteur solaire thermique.

Il en existe deux grandes familles selon que l’absorbeur se trouve directement sur le verre ou sur une ailette en cuivre.

Les tubes sous vide avec absorbeurs sur ailette en cuivre

L’absorbeur de ce type de capteur est déposé sur une structure en cuivre placée dans le tube. Ce type d’absorbeur sur cuivre possède une meilleure sélectivité que celui déposé sur le verre (et donc procure un rendement optique plus élevé au capteur). L’avantage principal est que l’absorbeur peut être orienté différemment par rapport à son support. Cela peut être avantageux pour des applications en façade par exemple.

C’est l’intérieur du tube (et tout ce qu’il contient) qui est soumis au vide d’air. Bien que le principe soit simple, la fabrication de ces capteurs reste délicate à cause des liaisons verre/métal nécessaires.

Composition des tubes sous vide avec ailette absorbante

Schéma composition des tubes sous vide avec ailette absorbante

  1. Un tube en verre  dans lequel on effectue le vide d’air (assurant une isolation optimale) dans lequel se trouvent tous les composants suivants.
  2. L’absorbeur posé sur un support en cuivre.
  3. Les tubes qui évacuent la chaleur, généralement aussi en cuivre. Ces tuyaux peuvent être disposés de divers manières (soit juxtaposés, soit concentriques).
  4. Le système de raccordement permet la rotation des tubes afin d’orienter au mieux l’ailette absorbante.

Il existe aussi plusieurs types de capteurs selon le fluide caloporteur et son mode de circulation:

> Les capteurs à circulation directe

> Les capteurs à caloduc (ou heat pipe)

Dans le cas de capteurs à circulation directe, l’ailette sert de support à un tube en U dans lequel circule le fluide caloporteur.

Le caloduc, lui, est un échangeur qui utilise les mécanismes de changement d’état liquide-gaz d’un fluide placé dans un tube fermé. Le principe est simple : en captant la chaleur absorbée par l’ailette, le fluide s’évapore. Il s’élève alors jusqu’en partie haute et cède sa chaleur en se condensant par contact avec le fluide caloporteur de l’installation qui circule en partie haute. De nouveau à l’état liquide, il retourne alors par gravité en bas du tube.

Schéma principe du caloduc.

Pour un fonctionnement correct, ces tubes doivent être installés avec une inclinaison minimale. Ce système permet un remplacement des tubes sans purgeage complet de l’installation.

Les tubes sous vide avec absorbeurs sur support en verre (tube Sydney)

Schéma tubes sous vide avec absorbeurs sur support en verre.

Dans ce cas, le vide est fait entre les deux couches de verre (principe du thermo) qui composent le tube en verre. L’intérieur de la bouteille est donc soumis à la pression atmosphérique. À l’intérieur, l’absorbeur et les tuyauteries évacuent la chaleur du creux atmosphérique central.

Composition des tubes sous vide avec absorbeur sur support en verre

Schéma composition des tubes sous vide avec absorbeur sur support en verre.

  1. Une bouteille de verre à double paroi est employée. Les deux parois sont reliées de manière étanche au niveau du goulot de manière à emprisonner le vide (partie grise dans le schéma).
  2. Sa surface externe (2) est laissée transparente.
  3. Un absorbeur est posé sur la face intérieure de la bouteille.
  4. Des tubes qui évacuent la chaleur sont placés dans le creux atmosphérique central.
  5. Des tuyaux sont reliés à l’absorbeur par des profilés semi-circulaires métalliques de transfert de chaleur.
  6. Éventuellement et préférablement, des réflecteurs augmentent le rayonnement solaire sur le capteur (on parle alors de tubes CPC pour Compound Parabolic Concentrator).

Le rendement et l’utilisation des capteurs

Les capteurs vont se différencier entre eux par la qualité de l’absorbeur (sa sélectivité) et du verre solaire (rendement optique), ainsi que par celle de l’isolation du capteur. L’ensemble de ces trois propriétés conféreront au capteur des plages de températures privilégiées et par là, les usages pour lesquels il sera mieux adapté.

Graphique rendement et l'utilisation des capteurs.

Ces différences de rendement selon les plages de température de fonctionnement seront à la base du choix du type de capteurs que l’on utilisera. On choisira donc préférablement le capteur qui offre le meilleur rendement pour le régime de température de travail correspondant à l’application voulue.

Les plages de régimes de travail à basse température (correspondant à des delta de températures de travail des capteurs entre 0 et 20 °C) sont essentiellement rencontrées pour le chauffage de piscine. Les déperditions thermiques n’ont pour ces températures que peu d’influence. C’est donc, dans ce cas, le rendement optique du capteur qui sera déterminant. Les capteurs plans (vitrés ou non) seront le choix idéal puisqu’ils offrent des rendements optiques plus élevés pour un prix nettement inférieur.

Pour les régimes à température moyenne (delta de T° de 20° à 100 °C), recherchés pour des applications comme la production d’eau chaude sanitaire ou le chauffage à basse (delta de 60 °C) et moyenne température (delta de 100 °C), les déperditions commencent à prendre le pas sur le rendement optique. Dans ce cas, les capteurs devront posséder outre un bon absorbeur sélectif, une bonne isolation thermique. Pour ces plages, les capteurs à tubes sous vide et les capteurs plans vitrés sont concurrentiels.

Pour les régimes à haute température (nécessaires pour des applications comme des process industriels, chauffage à très haute température, climatisation solaire), c’est l’efficacité de l’isolation qui sera déterminante. Le seul choix réaliste dans ce cas est celui des tubes sous vide.


Le raccordement des capteurs

Un champ de capteurs doit être composé de capteurs aux propriétés physiques semblables. Plusieurs raisons à cela :

  • Eviter les sources d’usure prématurée : des métaux différents peuvent provoquer des couples galvaniques, sources de corrosion interne des capteurs.
  • Eviter un problème d’équilibrage hydraulique, problème fréquent de fonctionnement des capteurs : chaque capteur doit posséder des pertes de charge similaires.

Le placement des capteurs doit permettre :

  • que la planéité des capteurs soit respectée ;
  • de placer vers le bas les orifices d’évacuation des condensats ;
  • de résister aux conditions climatiques locales (vent et neige).

Pour le raccordement des panneaux entre eux, différentes configurations sont possibles :

  • en série (a) ;
  • en parallèle respectant de préférence le principe de Tichelmann (b) ;
  • en rangée de capteurs en série (c) ;
  • en rangée de capteurs en parallèle (respectant le principe de Tichelmann) (d).
  • etc.

Schéma principes de raccordement des panneaux.

Le choix sera fonction de différents éléments :

  • La facilité de réglage (équilibrage) ;
  • la longueur nécessaire de tuyauterie (coût et pertes thermiques associés) ;
  • la configuration de l’espace disponible ;
  • le compromis entre l’efficacité des capteurs et la température de sortie.

Le raccordement en série permet une montée en température plus importante au prix de pertes thermiques plus importantes (d’autant plus si l’on travaille avec un faible débit (low flow). De fait, la montée progressive en température au fil des panneaux en série est accompagnée par une diminution du rendement. Un trop grand nombre de capteurs raccordés en série sera donc à éviter. En pratique, 5 à 6 capteurs de taille standard (environ 2 m²) est un maximum.

Énergétiquement parlant, le raccordement en parallèle est donc plus intéressant mais n’est pas toujours réaliste vu les longueurs de tuyauterie nécessaires.

L’équilibrage hydraulique des différents capteurs est un point crucial. Dans la réalité, il est souvent réalisé empiriquement par un jeu de vannes qui ne permet évidemment pas de corriger les erreurs de conception. Il est donc primordial de prendre en compte les pertes de charges liées aux capteurs  pour le dimensionnement des tuyauteries. En pratique, le raccordement en boucle de Tichelmann (longueur de tuyauterie identique quelque soit le capteur ou groupe de capteurs) est souvent préconisé pour les grandes installations. Il permet un équilibrage naturel en imposant des pertes de charges identiques pour chaque capteur/groupe de capteurs.

Selon un rapport du CTSB, on recommande généralement un rapport :

Perte de charge dans les collecteurs / Perte de charge dans les capteurs, le plus faible possible,
et donc un rapport Diamètre interne des collecteurs / Diamètre interne des circuits hydrauliques des capteurs, le plus faible possible également (rapport compris entre 1,6 et 3,3).


Le circuit primaire ou circuit solaire

Le circuit primaire (ou circuit de charge solaire) est un circuit fermé composé de tuyauteries, généralement en cuivre, qui relient les capteurs (A) à un échangeur de chaleur (B). Il transporte le fluide caloporteur. Celui-ci peut atteindre des températures allant de -20 °C en cas de gel à des températures très élevées (jusqu’à 200 °C dans les capteurs !). Il est donc impératif que les composants de ce circuit puissent résister à ces changements importants de température !


Exemple de schéma possible pour un circuit primaire (partie en couleur).

Le circuit primaire est généralement muni des composants suivants :

  • Une pompe de circulation (1) assurant la circulation du fluide caloporteur dans le circuit.
  • Un purgeur (2) manuel permettant d’éliminer l’air en partie haute du circuit lors du remplissage et des entretiens.
  • Un clapet anti-retour (3) pour éviter la formation d’un contre-courant de thermocirculation qui déchargerait le ballon de stockage de sa chaleur.
  • Plusieurs vannes d’isolement (4) pour isoler les composants principaux du système en cas d’entretien ou de remplacement.
  • Un robinet (5) permettant le remplissage et la vidange du circuit en fluide caloporteur.
  • Un débitmètre gravimétrique, appareil indiquant le débit du fluide du circuit. Situé sous le circulateur, il permet de régler la vitesse minimale de celui-ci pour assurer un débit minimum dans les capteurs.
  • Parfois un système de comptage d’énergie produite est placé. Celui-ci comprend : un débitmètre volumétrique, deux thermomètres sur l’aller et le retour des capteurs et un calculateur intégrateur.

Comme pour toute autre boucle hydraulique où un générateur de chaleur est installé, un dispositif de limitation de pression devra aussi être utilisé. Pour cela, le circuit primaire comporte :

  • Une soupape de sécurité (6) munie d’un manomètre destinée à évacuer les surpressions en cas de surchauffe de l’installation. Cette vanne est raccordée à un réservoir de collecte du fluide caloporteur avec antigel pour éviter tout rejet toxique dans le réseau d’égout.
  • Un vase d’expansion (7), placé du côté aspiration de la pompe de circulation, chargé d’absorber les différences de volume et de récolter la totalité du fluide caloporteur expulsé des capteurs en cas de surchauffe. Par rapport aux vases d’expansion traditionnels utilisés pour le chauffage, les vases d’expansion solaires doivent supporter des pressions de service maximales plus élevées (de 8 à 10 bar) et possèdent une membrane plus résistante aux hautes températures. Il est parfois judicieux, vu les hautes températures atteintes, de placer un vase tampon en amont afin de ne pas compromettre la longévité du vase d’expansion. Dans le cas d’un système à vidange, on peut omettre le vase d’expansion car le circuit primaire n’est pas mis sous pression, mais il faut prévoir la place pour installer le réservoir à vidange entre le champ de capteurs et le ballon de stockage solaire.

Le fluide caloporteur

Le circuit primaire relatif à l’installation sous pression est totalement rempli d’un fluide caloporteur résistant au gel. On utilise généralement du propylène glycol. Il existe aussi des mélanges complets qui contiennent un agent inhibiteur de corrosion, un agent anti-mousse, un agent anti-algue et un colorant.

Théoriquement, on pourrait également travailler avec de l’eau pure non glycolée dans le cas d’un système à vidange. Actuellement, pour des raisons de sécurité on utilise, même dans ce cas, de plus en plus d’antigel.

Caractéristiques essentielles d’un fluide solaire

  • Stable jusqu’à la température de stagnation maximale ;
  • Protégé contre le gel ;
  • Non corrosif  ;
  • Capacité thermique élevée ;
  • Viscosité réduite ;
  • Prix réduit et disponibilité.

En pratique, on utilise généralement un mélange d’eau et de glycol comme par exemple :

Éthylène glycol (C2H6O2)
Capacité thermique : 2 410 J.kg-1.K-1
Température de fusion : – 13 °C
Température d’ébullition : 198 °C

Polypropylène glycol (C3H8O2)
Capacité thermique: 2 500 J.kg-1.K-1
Température de fusion : – 59 °C
Température d’ébullition : 188 °C

Les conduites

Photo conduites.

Les matériaux utilisés pour les conduites du circuit solaire doivent résister aux contraintes mécaniques possibles dans le circuit (pression et plage de température en fonctionnement (de – 20 à 150 °C)) et être compatibles avec le fluide et les autres matériaux de l’installation. On utilise principalement des tubes en cuivre, en acier simple ou en acier inoxydable. Les tuyauteries en matière synthétique sont plus que déconseillées, car elles ne sont généralement pas tout-à-fait étanches (surtout à haute température) à l’oxygène qui pénètre alors par diffusion dans le circuit. Le risque de corrosion en est alors augmenté. L’acier galvanisé est lui strictement interdit, car il réagit avec le glycol présent dans le circuit primaire.

Vu les hautes températures auxquelles ces conduites sont soumises, leur isolation ne peut en aucun cas être réalisée au moyen d’un quelconque isolant utilisé pour les applications sanitaires habituelles. Ne résistant qu’à des températures de l’ordre de 110 – 120 °C, le polyuréthane est à proscrire. On utilisera généralement un caoutchouc synthétique en mousse capable de résister à des températures de l’ordre de 150 °C.

L’isolant utilisé pour la boucle solaire doit de plus :

  • résister aux U.V. (ou en être protégé) ;
  • résister à l’humidité ;
  • résister aux attaques des rongeurs et oiseaux ;
  • être étanche (au vent et à la pluie).
  • Et bien sûr, avoir une épaisseur suffisante ! (au minimum égale au diamètre du tuyau).

Sous ces hautes températures, la dilatation des conduites est aussi un phénomène à prendre en compte, car elle peut induire pour les grandes installations des mouvements importants.
Pour se faire une idée, la dilatation thermique du cuivre est de 1.7 mm/m sous un échauffement de 100 °C. On comprend vite le risque associé à plusieurs dizaines de mètres de tuyauteries !

 

Montage permettant d’absorber la dilatation thermique des tuyauteries.


Le stockage de l’eau solaire

Le stockage est un élément clé de toute installation solaire thermique. Il permet de pallier au caractère discontinu de l’énergie solaire et à la non-simultanéité de la production et des besoins. En pratique, l’énergie solaire thermique est stockée via l’eau contenue dans un ou plusieurs ballon(s) d’eau accumulateur(s) raccordé(s) en série.

Photo cuves stockage.

Un matériau résistant

Comme pour tout ballon accumulateur d’eau chaude sanitaire, le principal critère de sélection de matériau du ballon est sa résistance à la corrosion. On utilise généralement des réservoirs en acier inoxydable, ou en acier émaillé voire en cuivre avec anode de protection. Les ballons en acier galvanisé sont déconseillés du fait de leur mauvaise résistance à la corrosion.
Pour les réservoirs à eau morte, n’étant pas sous-pression, on peut envisager des réservoirs en matière synthétique, plus durable puisque non soumis à la corrosion.

Le ballon de stockage à eau solaire doit non seulement répondre à toutes les exigences d’un réservoir d’eau sanitaire classique, mais doit en plus pouvoir résister aux hautes températures auxquelles il pourrait être soumis. La température dans le ballon peut en effet monter jusqu’à 95 °C, d’où la nécessité de prévoir un mitigeur thermostatique sur la boucle de distribution.

Une forme adaptée

Par ailleurs, les ballons solaires sont en général étudiés de manière à favoriser une bonne stratification interne des températures. La stratification est basée sur une variation de masse volumique en fonction de la température : L’eau réchauffée s’élève par thermocirculation et par sa masse volumique moindre s’accumule dans le haut du ballon (phénomène de la poussée d’Archimède). L’eau froide, plus lourde, reste en bas. A chaque puisage, l’eau la plus chaude du ballon est extraite et de l’eau froide du réseau est injectée dans le bas du ballon. La stratification est donc globalement préservée, l’important étant d’éviter tout brassage.

Pour favoriser ce phénomène, le réservoir  est donc préférablement vertical et sa hauteur équivaut généralement à 2-2.5 fois le diamètre. Il existe aussi des dispositifs de charge améliorant la stratification : amenée de l’eau chaude à différentes hauteurs suivant sa température.

Une isolation primordiale

Encore plus que pour un ballon accumulateur classique, outre sa bonne compacité, un ballon solaire doit impérativement être isolé dans son entièreté (10 cm grand minimum) : attention aux parties supérieures et inférieures ainsi qu’aux différents raccords ! La parfaite isolation et une bonne stratification augmenteront indéniablement les performances du système.

Une dimension adaptée

Le volume du stockage dépend du projet envisagé, mais doit être étudié de manière précise. L’enjeu est double :
D’une part, il ne doit pas être trop petit pour ne pas limiter les gains solaires possibles et d’autre part, il ne doit pas être trop grand pour permettre une montée en température suffisante pour que l’eau soit utilisable (idéalement pour pouvoir se passer de l’appoint en été).

Le ballon solaire doit généralement pouvoir stocker l’équivalent de 30 à 40 % d’une journée de consommation d’eau chaude (à 60°) de l’établissement. La capacité fréquente des plus grands ballons est de 5 000 l, mais le recours à plusieurs ballons de stockage est en général déterminé par la place prise par les échangeurs internes de grande puissance. La question de la liaison des multiples ballons est alors posée. Dans bien des cas, on s’orientera alors vers un ballon solaire à eau morte (eau ne servant pas d’eau chaude sanitaire) permettant d’emmagasiner l’énergie solaire sans se préoccuper de la gestion de la légionellose.

N.B. : Le stockage, c’est LE défi de la recherche ! Le jour où l’on arrivera à stocker l’énergie solaire pour de plus longues périodes voire saisons, ce sera sans doute une porte d’entrée vers l’autonomie énergétique. Les recherches actuelles se portent vers des matériaux à changement de phase qui remplaceraient l’eau traditionnelle.


La charge du ballon de stockage

La charge du ballon de stockage s’effectue au moyen d’un échangeur au travers duquel la chaleur du fluide solaire est transférée à l’eau du stockage.
Comme pour toute installation, deux types d’échangeurs peuvent être employés : les échangeurs intégrés au stockage et les échangeurs extérieurs (à plaques) :

Echangeurs intégrés au stockage.

Echangeurs extérieurs au stockage.

Schéma charge du ballon de stockage- 1.

À partir de là, différents systèmes de charge sont envisageables : avec échangeur interne (a,b,c,f) ou externe (d,e). Certains systèmes permettent un renforcement de la stratification des températures à l’intérieur du/des ballon(s) par différents dispositifs :

  • cheminée interne enrobant l’échangeur solaire et diffusion en fonction des températures (b),
  • chargement à hauteur différenciée par vanne trois voies (e),
  • chargement à hauteur différenciée par échangeurs multiples (c).

Schéma différents systèmes de charge possibles.

Typiquement, pour les grands systèmes solaires (au-delà de 30 m² de capteurs) des échangeurs de chaleur externes sont souvent utilisés vu les puissances considérables qui entrent en jeu.

La disposition des échangeurs et leur raccordement se fera toujours de manière à :

  • Favoriser la stratification correcte des températures à l’intérieur des ballons et le long du circuit de charge : les températures les plus hautes doivent être les plus proches de l’appoint.
  • Assurer un rendement optimal des capteurs :
    Les pertes thermiques des capteurs dépendant de la différence de température entre le fluide à l’intérieur des capteurs et la température extérieure, on aura tout intérêt à travailler avec un fluide caloporteur à la température la plus basse possible.
  • Permettre à l’échangeur de chauffer un volume d’eau suffisamment grand.

En conséquence, l’échangeur de chaleur solaire intégré au stockage des petits systèmes, sera placé en partie basse du ballon et le retour vers les capteurs sera situé le plus bas possible dans le ballon.

Schéma principe échangeur.

L’échangeur de chaleur relié à l’appoint se trouvera quant à lui dans la partie supérieure du ballon de stockage ou dans un ballon séparé (en série avec le premier) lorsque la quantité d’eau chaude nécessaire sera plus importante.


La régulation

Démarrage et arrêt du circulateur

Pour les systèmes à circulation forcée, le système de régulation différentielle assure la mise en marche et l’arrêt adéquats de l’installation. Cette gestion de la chauffe solaire est primordiale pour tirer un maximum de profit de l’énergie solaire disponible. Le principe est basé sur la mesure continue de deux températures :

  • la température de l’eau chaude en partie basse du ballon de stockage (ou du fluide caloporteur à la sortie de l’échangeur solaire) : T°stockage.
  • la température du fluide caloporteur à la sortie des capteurs : T°capteur.

Dès que la différence de température est suffisante, la pompe est mise en marche. Elle s’arrête lorsque l’énergie solaire captée n’est plus suffisante ou n’est plus nécessaire.

En résumé :

  • Si T°capteur> T°stockage + ∆T1 : la pompe démarre.
  • Si par contre, T°capteur< T°stockage + ∆T2 : la pompe s’arrête.

Il est nécessaire de calibrer précisément ces ∆ de température afin d’optimiser l’énergie solaire récoltée (on évitera les préréglages d’usines !). Le paramétrage doit tenir compte de la configuration de l’installation et principalement de la longueur des conduites et des pertes thermiques liées. On aura évidemment tout intérêt à minimiser ces pertes en plaçant le stockage aussi proche que possible des capteurs, en isolant les conduites et en travaillant à basse température. En pratique, cette perte en ligne peut être estimée en comparant la température au niveau du capteur et la température à l’entrée du ballon en fonctionnement.

Pour éviter des arrêts et des mises en marche successifs (Phénomène de Stop and Go), la température de démarrage devra en outre prendre en compte le refroidissement du capteur lors de l’enclenchement. En effet, l’ensemble du liquide de la boucle solaire plus froid que celui des capteurs provoquera au démarrage une diminution de température du capteur.

Pour le choix de la consigne d’arrêt, on devrait, en plus des pertes thermiques, prendre en compte l’énergie minimum à récolter de sorte à ce que celle-ci soit toujours supérieure à l’énergie primaire nécessaire au fonctionnement de la pompe (consommation électrique multipliée par le facteur de conversion 2,5).

En pratique, on rencontre des ∆T :

  • Pour les valeurs de démarrage de : 5 à 7 K.
  • Pour les valeurs d’arrêt de : 3 à 4 K.

Température maximale de charge

Tout ballon de stockage possède une température de charge maximale. Le système de régulation doit prendre en compte correctement cette valeur afin de couper le circulateur pour que cette température critique ne soit pas atteinte. Une valeur d’usine est  souvent donnée par défaut pour le système de régulation, mais il serait dommage de se priver de l’énergie solaire gratuite si le ballon de stockage accepte des températures plus élevées (jusqu’à 95 °C). Si la régulation ne possède qu’une sonde de température dans le bas du ballon il faut absolument tenir compte de l’effet de stratification. C’est pour cette raison que les régulations possèdent souvent un préréglage d’usine assez bas (de l’ordre de 70 °C) pour que le haut du ballon n’atteigne pas des températures de plus de 95°C.

Température de sécurité

Lors d’une journée ensoleillée, lorsque l’ensemble du stockage est à température, le circulateur s’arrête mais la température des capteurs continue, elle, à grimper.
La régulation des systèmes à vidange tiendra évidemment compte de cette température de sécurité. À partir de celle-ci, le système s’arrête et le fluide est récupéré dans un réceptacle prévu à cet effet : l’installation se vidange par drainage gravitaire ! Cela permet d’éviter que le fluide n’entre en ébullition (et vieillisse prématurément) et ne détériore les composants de l’installation. C’est l’un des grands avantages de ce système !

Certaines régulations permettent aussi d’empêcher le redémarrage de la pompe au cas où la température du fluide caloporteur est trop élevée (+/- 120 °C), évitant ainsi l’endommagement des composants les plus sensibles.


L’apport de chaleur complémentaire

Les capteurs solaires ne peuvent à eux seuls satisfaire à tout moment l’entièreté des besoins. Pour assurer la production d’eau chaude, même en période prolongée de non ensoleillement,  un système d’appoint est nécessaire. L’appoint devra pouvoir répondre aux besoins sans intervention solaire et sera, par conséquent, envisagé de manière classique. Différentes configurations sont possibles selon la présence ou non d’un échangeur de chaleur (intégré ou non au stockage) :

 

On distingue principalement quatre cas de figure :

– L’appoint électrique (c) : Dans ce cas, une résistance est directement intégrée au ballon de stockage.

Schéma appoint électrique.

– L’appoint intégré au stockage (a, d, e, f) : L’échangeur se trouvera le plus près possible de l’endroit où s’effectue le puisage dans le(s) ballon(s) et son raccordement respectera la stratification interne des températures (les plus élevées, les plus hautes). Dans un ballon de stockage unique qui rassemble aussi la production solaire, l’échangeur d’appoint se trouvera donc en haut du ballon.

Schéma appoint intégré au stockage.

– L’appoint séparé en série (b) : L’appoint (généralement instantané ou semi-instantané) se trouve dans ce cas à l’extérieur du ballon de stockage solaire. L’eau préchauffée par les capteurs solaires est alors directement portée à température (par une chaudière au gaz à condensation par exemple).

Schéma appoint séparé en série.

– L’appoint mixte : il est bien entendu possible de combiner différents types d’appoint. Par exemple, pour une petite installation, l’idée pourrait être d’éviter le fonctionnement d’une chaudière sol au mazout grâce au recours d’un appoint électrique (mais attention à la régulation de cette résistance !).

 Notons que pour les plus grands systèmes, s’il est intégré au stockage, l’appoint peut se faire via des ballons différents…

Schéma appoint mixte.


Le circuit de décharge

La décharge du ballon de stockage solaire peut se faire de multiples manières.

  • Via un système direct (a) : l’eau de stockage est directement l’eau sanitaire.
  • Via un échangeur : interne simple (c), plongé dans une cuve de transition (d) ou externe (e) dans le cas où l’eau sanitaire est chauffée instantanément. Le ballon est alors dit à eau morte, car l’eau qu’il contient est une eau de transition et non l’eau sanitaire.
  • Via une cuve de transmission (b), principalement pour les petits systèmes combinés avec les systèmes de chauffage : préparation d’un volume réduit d’ECS dans un grand volume d’eau.

Schéma circuit de décharge.

Par rapport à une installation classique d’ECS, le circuit d’eau sanitaire comportera en plus un mitigeur thermostatique et un disconnecteur.

Le mitigeur thermostatique permet d’éviter toute brûlure au point de puisage. En été, lorsque l’on bénéficie d’un rayonnement solaire important et que le puisage est réduit, il n’est pas impossible d’atteindre dans le ballon des températures de plus de 60° (maximum toléré pour de l’eau chaude sanitaire). Le mitigeur se chargera de mélanger l’eau du ballon avec de l’eau froide pour que cette température ne soit pas dépassée.

D’autre part, une fuite de liquide caloporteur du circuit primaire au niveau de l’échangeur de chaleur solaire est toujours possible. Pour protéger le réseau de distribution de toute contamination par le fluide solaire, on place un disconnecteur.
Cet équipement à zones de pression différentielle empêche le retour de l’eau sanitaire du ballon de stockage solaire vers le réseau de distribution.

Précisons aussi que vu la toxicité du fluide caloporteur, l’évacuation directe vers les égoûts est interdite. Le disconnecteur, ainsi que les soupapes et robinets de vidange doivent donc être raccordés à des réservoirs de collecte.


La gestion de la légionellose

Plus que pour toute installation de production d’eau chaude sanitaire, un regard particulier doit être posé sur la gestion de la légionellose. En effet, les températures atteintes dans un ballon de stockage solaire sont favorables à la prolifération de ces bactéries (de 30 à 40°).
La première solution est le placement d’une pompe de « dé-stratification » via laquelle on portera régulièrement l’ensemble des ballons à une température suffisante. Dans ce cas, un circulateur supplémentaire transfère l’eau à haute température du ballon d’appoint vers le(s) ballon(s) de stockage solaire. Une bonne régulation de cette mesure anti-légionellose, par une horloge, permettra de minimiser la consommation énergétique tout en évitant la contamination : par exemple, une montée en température journalière à 60° ou hebdomadaire à 80°.

Schéma de principe : désinfection thermique par pompe de déstratification.

Une autre solution, souvent à privilégier, est l’utilisation de cuves de transitions (appelés réservoirs à eau « morte ») constituant un circuit fermé indépendant de l’eau sanitaire. L’eau sanitaire est alors réchauffée instantanément via un échangeur interne ou externe au stockage. De cette manière, on évite tout risque de contamination en séparant physiquement les eaux de températures différentes. Ce système permet d’éviter les pertes thermiques liées à la montée soudaine en température, mais implique l’utilisation d’un échangeur supplémentaire.

Installation avec une cuve de transition.

Découvrez ces exemples d’eau chaude sanitaire alimentée par capteurs solaires : 2.150 m² de capteurs solaires thermiques à la résidence 3e âge « Aux Lilas » de Bonlez et des capteurs solaires au home La Charmille de Gembloux.

Suiveurs solaires

Suiveurs solaires


L’objectif d’un suiveur solaire est de pouvoir suivre le soleil tout au long des mois et de la journée. En suivant continuellement la position du soleil, ce système permet d’assurer une production électrique maximum.

Un suiveur solaire peut avoir deux degrés de liberté de rotation : horizontal pour régler l’inclinaison et vertical pour l’orientation. Il en existe différents types :

Simple axe longitudinal.

Simple axe vertical.

Simple axe transversal.

Double axe.

On distingue principalement le suiveur à un axe, qui permet (généralement) de suivre le soleil d’est en ouest, du suiveur à deux axes qui permet une modification de l’orientation et de l’inclinaison. Ce dernier cas nécessite l’intervention de deux moteurs.
Deux systèmes différents permettent le tracking :

  • Le système actif : muni d’une sonde d’éclairement, il permet une recherche instantanée de la position optimale. En cas de ciel couvert (rayonnement diffus), un tel système se met à l’horizontal, position dans laquelle la production est maximale par ce type de ciel.
  • Le système astronomique : la position est alors directement fonction du parcours solaire pré-programmé.

D’autres sondes (type anémomètre) permettent aux traqueurs d’adopter une position de sécurité en cas d’intempérie.

> Vers le choix d’un suiveur solaire.

Onduleurs

Onduleurs


Définition

La plupart de nos applications électriques actuelles fonctionnent en courant alternatif ; or une installation photovoltaïque produit un courant continu. Le premier rôle d’un onduleur sera d’assurer cette transformation. Mais son rôle ne s’arrête pas là.

Il doit permettre en plus :

  • La recherche du point de fonctionnement maximal (MPP tracker) par rapport à l’intensité et à la tension générée par les modules, par exemple, par modification d’impédance.
  • De se synchroniser avec le réseau du GRD afin de pouvoir réinjecter le courant généré. Pour cela, il devra adapter la tension (transformation), la fréquence et l’impédance.
  • De se découpler automatiquement en cas de chute de tension dans le réseau.
  • Le relevé et l’enregistrement des valeurs caractéristiques du fonctionnement nécessaire à la maintenance et au contrôle de l’installation.

Un onduleur possède des plages de travail bien définies :

  • Puissance maximale ;
  • Tensions minimum et maximum ;
  • Courant maximum.

Ces valeurs devront donc être en cohérence avec les caractéristiques du champ de capteurs pour éviter tout risque de mauvais fonctionnement voire de détérioration de l’appareil.

Un onduleur peut être caractérisé par son rendement « européen », obtenu sur base de rendement à charge partielle. Celui-ci atteint actuellement  95 %.

> Plus d’infos sur le fonctionnement de l’onduleur.

Différentes configurations sont possibles pour la position du ou des onduleurs par rapport aux modules photovoltaïques : sur chaque panneau, string, champ de capteurs,… La configuration idéale d’une installation (raccordement des modules en série parallèle et place de l’onduleur) dépendra essentiellement de l’homogénéité du champ de capteurs (ombrage, orientation et inclinaison, types de cellules, défaillance, encrassement,…).


Onduleur central : un onduleur gère l’ensemble de l’installation

  1. Champ de capteur (ou générateur).
  2. Boitier de raccordement.
  3. Onduleur.
  4. Compteur.
  5. Réseau.

Dans cette configuration,  l’onduleur ne perçoit pas les différences de caractéristiques entre les courants produits par les différents strings. Ils sont en effet couplés au préalable au niveau du boitier de raccordement. C’est à partir de ce courant (d’intensité égale à la somme des courants et de tension égale à la tension la plus haute des différents strings) réellement perçu par  l’onduleur est que celui-ci adaptera ses caractéristiques d’entrées pour faire fonctionner le générateur photovoltaïque à son point de puissance maximum.

Avantage

  • Coût.
  • Simplicité et rapidité de montage.

Inconvénient

  • La tension de sortie et donc la production énergétique est très facilement perturbée par un string plus faible (ombrage, nombres de panneaux, type de cellule,…).
  • Ce type de raccordement ne permet pas de travailler avec des strings de natures différentes sans altérer considérablement la production.

Note : Deux types  de raccordement sont possibles avec un onduleur central: à tension faible (peu de modules composent les strings) ou à tension élevée (beaucoup de modules par string). Le principe de fonctionnement est similaire.


Onduleur string : un onduleur par string (rangée de modules en série)

Dans cette configuration, chaque onduleur peut exploiter aux mieux chaque string.

Avantage

  • Recherche du point de puissance maximale (MPP) pour chaque string.

Inconvénient

  • Influence de la perte de rendement d’un module (du à l’ombrage, à la saleté, ou à une défaillance) sur les performances des modules du string (mais limitée à celui-ci !).

Onduleur Multistring : un onduleur gère différents strings en parallèle

Dans ce cas, combinant en quelque sorte les configurations « string et centralisées », les entrées sont équipées chacune de leur propre MPPT. Les différents courants continus générés sont d’abord synchronisés avant d’être transformés en courant alternatif.

Avantage

  • Association de string de natures différentes (types de cellules, orientation, nombres de modules,…) sans perturbation globale des performances.
  • Rendement nettement supérieur comparé à la configuration centralisée, en présence de string de natures différentes.

Onduleur modulaire : un onduleur par panneau

Avantage

  • Facilité d’emploi.
  • Pas de câblage en courant continu.
  • Indépendance de chaque module (l’ombrage d’un panneau et sa perte de rendement résultante n’affecte pas la production des autres panneaux. De même que la panne d’un onduleur n’influence pas les autres modules).

Inconvénient

  • Coût.
  • Maintenance : en général ce type d’onduleur est directement intégré au panneau. Sa défaillance entraine le remplacement du panneau (hors la durée de vie de celui-ci est normalement inférieure à celle du panneau).

Branchement d’onduleur

En charge partielle faible, c’est-à-dire lorsque le flux lumineux est faible, le rendement des onduleurs est plus bas.
Pour écourter le temps de travail en faible charge d’un seul onduleur, il est possible d’utiliser plusieurs onduleurs en communication.

Le principe est simple : Si l’éclairement est important, plusieurs onduleurs travaillent ensemble à pleine charge si par contre, l’éclairement est faible, un seul onduleur fait le travail !

Deux cas de figure sont possibles :

  • Suivant que les onduleurs s’allument et s’éteignent selon les besoins :  principe maitre esclave. Le raccordement est identique à la configuration centralisée.
  • Suivant que les strings soient répartis ou non sur différents onduleurs : principe team. Cette configuration est un prolongement de la configuration onduleur string.

Modules photovoltaïques

Modules photovoltaïques


Pour obtenir une tension électrique générée qui soit utilisable, on raccorde plusieurs cellules en série qui forment alors un string. Un module est composé de plusieurs strings.

L’association des cellules en modules permet :

  • D’obtenir une tension suffisante
  • De protéger les cellules et leurs contacts métalliques de l’ambiance extérieure (humidité,…)
  • De protéger mécaniquement les cellules (chocs,…)

Les modules les plus courants (communément appelés panneaux) sont généralement constitués :

Schéma principe du module photovoltaïque.

  • D’un cadre de support et un joint d’étanchéité (1 et 2).
  • D’une plaque de verre extra claire (favorisant la transmission lumineuse) (3).
  • De deux couches d’Ethylène-Acétate de Vynile (EVA) qui enrobent les cellules assurant leur protection contre les intempéries et l’humidité. (4)
  • Des différents strings de cellules (5).
  • D’une feuille de tedlar (ou éventuellement du verre) comme face arrière du module. Ce polymère à haute résistance aux UV et à la haute température assure au module sa résistance mécanique face aux chocs externes (vent, transport,…) (6).

Le type de module le plus courant, rencontré entre autres pour le montage en toiture est le module verre tedlar.
Il existe cependant d’autre type de module comme :
Les modules « verre-verre », utilisés pour leur propriété « translucide » : verrières, façade,…

Photo module modules "verre-verre".

Des modules tuiles/ardoises solaires où les cellules sont directement intégrées dans des modules de formes traditionnelles de toiture. Celles-ci sont cependant plus exigeantes en termes de main d’œuvre (chaque tuile doit être raccordée manuellement !)

D’autres modules de types « thin film » ont aussi récemment fait leur apparition sur la marché. Ils sont en général disposés sur un support souple (teflon,…).

Photo module de type "thin film".

Les modules sont connectés entre eux (en série ou parallèle) par des fils électriques. Ils forment alors un champ de capteurs (appelés aussi générateur).

Schéma principe du champ de capteurs.

Types de cellules

Types de cellules


Une cellule photovoltaïque est un composant électronique qui lorsqu’il est exposé au spectre solaire génère une tension électrique par effet photovoltaïque.

Toutes les cellules sont créées à partir de matériaux semi-conducteurs. La plupart du temps, c’est le silicium (Si) qui est utilisé mais on rencontre aussi le sulfure de cadmium (CdS), le tellure de cadmium (CdTE), des alliages de cuivre indium et sélénium (CIS),…

Trois technologies principales de cellules existent suivant leur mode de production :


1ère génération : cellules cristallines

Ces cellules, généralement en silicium, ne comprennent qu’une seule jonction p-n. La technique de fabrication de ces cellules, basée sur la production de « wafers » à partir d’un silicium très pure, reste très énergivore et coûteuse. La limite théorique de rendement de ce type de cellule est de ±27%. Les cellules les plus récentes s’approchent chaque année de plus en plus de cette limite.

Méthode de fabrication : le cristal formé par refroidissement du silicium en fusion dans des creusets parallélépipédiques est ensuite découpé en fines tranches appelées « wafers ». Les cellules sont alors obtenues après « dopage » et traitement de surface.

On distingue deux types de cellules cristallines :

Les cellules polycristallines

Photo cellules polycristallines.

Le refroidissement du silicium en fusion est effectué dans des creusets parallélépipédiques à fond plat. Par cette technique, des cristaux orientés de manière irrégulière se forment. Cela donne l’aspect caractéristique de ces cellules bleutées présentant des motifs générés par les cristaux.

Rendement

16-18 % (On obtient ainsi une puissance de 160 à 180 Wc par m²)
Ces cellules restent les plus utilisées du fait du rapport performance/prix plus intéressant que celui de leurs homologues monocristallins.

Avantage

  • Rapport performance/prix.

Inconvénient

  • Rendement faible sous éclairement réduit.

Les cellules monocristallines

Photo cellules monocristallines.

Ces cellules sont constituées de cristaux très purs obtenus par un contrôle strict et progressif du refroidissement du silicium.

Rendement

17-20 % (On obtient ainsi une puissance de 170 à 200 Wc par m²).

Sans entrer dans le détail, si aujourd’hui les cellules sont de type « Al-BSF » (aluminium back surface field) l’évolution vers des cellules « PERC » (passived emitter and rear cell) permettra prochainement de monter à ± 23 % tandis que les cellules à hétérojonctions promettent déjà d’atteindre les 26 %. (26.6 % déjà obtenu en laboratoire)

Avantage

  • Très bon rendement.

Inconvénients

  • Coût élevé.
  • Rendement faible sous éclairement réduit.

2ème génération : couches minces « thin films »

Photo cellule couches minces "thin films".

Dans le cas de « couches minces », le semi conducteur est directement déposé par vaporisation sur un matériau support (du verre par exemple). Le silicium amorphe (a-Si) (silicium non cristallisé de couleur gris foncé), le tellurure de cadmium (CdTe), le disélénium de cuivre indium (CIS) font notamment partie de cette génération. Ce sont des cellules de cette technologie que l’on retrouve dans les montres, calculatrices,… dites solaires !

Le silicium amorphe

Rendement

6 à 7 % soit 60-70 Wc/m².

Avantages

  • Moins coûteux que la première génération puisqu’elle consomme moins de matériau semi-conducteur.
  • Moins polluant à la fabrication (Ne nécessite pas de passer par l’étape de transformation du silicium en « wafers » (moins énergivores)).
  • Fonctionnent avec éclairement faible.
  • Moins sensible à l’ombrage et aux élévations de température.
  • Possibilité de créer des panneaux souples.
  • Panneaux légers.

Inconvénients

  • Rendement global plus faible.
  • Rendement moindre sous éclairement direct.
  • Diminution de performance avec le temps plus importante.

Le tellure de Cadnium, Disélénium de cuivre indium (avec ou sans Gallium)

Il existe d’autres types de cellules « couches minces » : tellurure de cadmium (CdTe), le disélénium de cuivre indium (CIS),…

Le CdTe présente de bonnes performances, mais la toxicité du cadmium reste problématique pour sa production.

Rendement

11 à 15 % soit 110-150 Wc/m². En laboratoire, les cellules ont déjà atteint le rendement record [2017] de 21,7 % pour des cellules CIGS ! De quoi concurrencer les homologues cristallins !

Avantages

  • Fonctionnent avec éclairement faible.
  • Moins sensible à l’ombrage et aux élévations de température.
  • Possibilité de créer des panneaux souples.
  • Panneaux légers.

Inconvénients

  • Rendement global plus faible en ce qui concerne les cellules commercialisées.
  • Rendement moindre sous éclairement direct.
  • Diminution de performance avec le temps plus importante.
  • Durée de vie moins grande que les cellules cristallines.

3ème génération : Perovskites, multijonction, concentration, …

Pour améliorer les rendements des cellules, la recherche se tourne actuellement vers plusieurs pistes dont notamment :

  • Les Cellules Pérovskites sont des cellules composées d’un élément hybride organique-inorganique ayant une structure de pérovskite.

Schéma cellules Pérovskites.

  • Ces cellules sont apparues en 2000 avec un rendement de 3,8 %. Depuis, en 2016, le rendement est passé à 22,1 % ce qui en fait une alternative prometteuse ! Leur coût de production est faible. L’inconvénient de ces cellules réside dans leur instabilité et faible résistance aux agents extérieurs (eau, températures…). Néanmoins bon nombre de recherches prometteuses sont en cours et devraient finir de rendre ce type de cellules rapidement intéressantes.
  • Cellules multicouches : superposition de multiples cellules aux propriétés différentes (utilisant des bandes d’énergie différentes permettant un balayage plus large du spectre solaire). Ce type de cellules est déjà commercialisé, mais principalement pour des applications spatiales. Les rendements obtenus sous concentration sont très prometteurs (au délà de 30 %)..

    Schéma cellules multicouches.

      1. Sunlight spectrum ;
      2. Tunnel junctions ;
      3. Cell 1, cell 2, cell 3.

    Structure d’une cellule triple-jonction.

  • Cellules à concentration (permet d’utiliser des photons à basse énergie qui ne sont habituellement pas absorbés par la cellule).
  • Cellules organiques,…

Conclusion

  • Les cellules cristallines à jonction simple se rapprochent de leur performance ultime théorique (± 27 %).
  • Les TF-PV (ThinFilm PV) s’améliorent très rapidement et commencent à concurrencer les cellules cristallines en terme de rendement.
  • Les Cellules à Perovskites sont un nouveau matériau plein de potentie.
  • Les Tandems Silicones-Cristallins semblent être la voie à suivre pour atteindre des rendements supérieurs à 30 % à faible coûts.
    [imec]

Courtesy of M. Hermle, Fraunhofer ISE.

Génératrice et dynamique du rotor

Génératrice et dynamique du rotor

Il s’agit d’une section plus technique qui approfondit certains aspects liés à la dynamique de l’éolienne. Cela inclut inévitablement de considérer la technologie de génératrice utilisée ainsi que de considérer le système de transmission. Il n’est pas absolument nécessaire de comprendre les concepts suivants pour se familiariser avec les éoliennes, mais ils présentent l’avantage d’expliquer certains choix techniques.


Génératrice et transmission

La génératrice est l’élément d’une éolienne qui transforme l’énergie mécanique en énergie électrique. Les pales transforment l’énergie cinétique en énergie mécanique, celle-ci étant transmise à la génératrice via le système de transmission. Une fois le courant produit, celui-ci est généralement injecté sur le réseau électrique.

Illustration de la transmission entre le couple moteur appliqué sur les pales et la génératrice dans le cas d’une éolienne à axe horizontal.

Dans le cas des éoliennes à axe horizontal, la typologie de la chaîne de transmission est relativement standard. On trouve d’un côté les pales qui sont soumises à une certaine force et qui ont une certaine vitesse de rotation. Ces pales sont solidarisées à un moyeu, ce moyeu est lui-même connecté à l’arbre de transmission qui, in fine, est sujet à un couple moteur. À l’autre extrémité, on trouve la génératrice. Il s’agit de machines tournantes composées d’un stator et d’un rotor. Du coup, dans la suite de cette section, il faudra être vigilant dans l’utilisation du vocabulaire technique pour ne pas confondre le rotor de la génératrice avec le rotor de l’éolienne, composé des pales.

De manière générale, on trouve une boîte de vitesse (gear box) intercalée entre l’arbre et la génératrice.  En effet, la majorité des génératrices imposent une vitesse de leur rotor significativement supérieure à la vitesse du rotor de l’éolienne. Par conséquent, il est nécessaire de placer une boîte de vitesse pour multiplier la vitesse de rotation et assurer le couplage entre ces deux entités.

Génératrices synchrones ou asynchrones

On se trouve aussi bien en présence de machines synchrones (aussi appelées alternateurs) que de machines asynchrones (aussi appelées machines à induction). Le but de cette section n’est pas de donner une explication sur le mode fonctionnement de ces deux machines, mais plutôt de développer leurs spécificités et leurs impacts dans le cadre de l’éolien. La suite des développements est assez technique, mais, dans ce domaine, il est difficile de simplifier plus les propos. Fort heureusement, les fabricants d’éoliennes choisissent le bon système électrique adapté à leur éolienne. Même si ce n’était pas le cas, cela reste une question de spécialiste. En conclusion, il ne vous sera jamais demandé de choisir ou de concevoir un système électrique, composé d’un générateur, pour une éolienne. Des concepts sont uniquement introduits afin de permettre au lecteur de comprendre les enjeux de la conception de la génératrice.

Pour le lecteur qui ne souhaite pas aller plus loin, nous résumons le point important à retenir. Dans le cas des machines tournantes synchrones et asynchrones, on trouve une certaine tension alternative aux bornes du stator. Elle présente une certaine fréquence, f.

  • Dans le cas des machines synchrones, son rotor doit tourner à une vitesse constante dépendant de cette fréquence (à la vitesse dite de synchronisme). Si le stator est directement connecté au réseau électrique, la fréquence du stator, f, est la fréquence du réseau (50 Hz). Par conséquent, le rotor de la génératrice tourne à une vitesse fixe imposée par le réseau que l’on ne peut changer.
  • Dans le cas des machines asynchrones, son rotor tourne à une vitesse différente de la vitesse de synchronisme. Cette différence de vitesse de rotation dépend à la fois des propriétés de la machine et du couple moteur exercé sur le rotor de la génératrice. En conclusion, même si la machine est directement connectée au réseau électrique, il reste une certaine latitude sur la vitesse de rotor.

Moteurs synchrones

Dans le cas d’une machine synchrone, un champ magnétique est généré au niveau du rotor au moyen d’un aimant permanent ou d’un électroaimant alimenté en courant continu. De manière générale, on trouvera les technologies à aimant permanent sur les petites éoliennes. En effet, il est plus difficile de mettre en œuvre des aimants permanents sur des grandes machines. La spécificité de la machine synchrone est que le rotor tourne à la même vitesse que la fréquence de la tension appliquée au stator divisée par le nombre de paires de pôles de la machine :

n = ns = f/p,

où,

  • f représente la fréquence de la tension au stator,
  • p, le nombre de paires de pôles,
  • ns, la vitesse de synchronisme et
  • n, la vitesse de rotation du rotor.

De par le principe de fonctionnement de cette machine, le rotor tourne à la vitesse de synchronisme.

Si la génératrice est directement connectée au réseau électrique, la fréquence du stator, f, est égale à la fréquence du réseau électrique (c’est-à-dire 50 Hz). Le rotor tourne alors à une vitesse constante, n, qui dépend du nombre de paires de pôles de la génératrice, p.  Pour des questions de contraintes constructives, on ne peut augmenter ce nombre de pôles de manière infinie. La majorité des éoliennes ont deux paires de pôles. La vitesse de rotation du rotor sera donc de 1 500 tours/min. Cette vitesse est supérieure aux vitesses de rotation des éoliennes si bien que cela justifie la présence d’une boîte de vitesse.  Néanmoins, certains modèles ont un nombre de pôles plus important ce qui permet de réduire cette vitesse de synchronisme et d’être dans le même ordre de grandeur que la vitesse du rotor de l’éolienne. Dès lors, un couplage direct sans boîte de vitesse devient possible. Cela se fait au prix d’une machine plus complexe, plus volumineuse et donc, plus lourde et plus chère. En contrepartie, on a épargné la boîte de vitesse.

Le couple résistif du générateur dépend du décalage, c’est-à-dire du retard qui existe entre la force électromotrice (fem) générée par le rotor et la tension au stator. On appelle ce décalage, l’angle électrique. Si l’angle correspondant à ce déphasage dépasse 90°, on a phénomène dit de décrochage où le rotor s’emballe et la génératrice ne parvient plus à le freiner.

Courbe caractéristique du couple électrique en fonction de l’angle électrique pour une machine synchrone.

Moteurs asynchrones

Dans le cas d’une machine asynchrone, un courant alternatif est induit dans les bobines du rotor par le champ magnétique du stator. Ce courant est généré parce que le rotor tourne à une vitesse légèrement différente que la vitesse du champ magnétique généré par le stator, celui-ci tourne à la vitesse de synchronisme (telle que définie ci-dessus). Ce courant dans le rotor produit à son tour un champ magnétique qui interagit avec le champ initial du stator. De cette interaction, il est produit un courant qui sort de la machine. De par cette explication, on en déduit que la vitesse de rotor diffère de la vitesse de synchronisme (par définition, l’effet utile a lieu s’il existe une différence de vitesse). Si on reprend la notation ci-dessus, on a « n » différent de « ns ». Cette différence de vitesse est appelée glissement,

s = (ns – n)/ns, et différent de 0.

Le couple de freinage exercé par la génératrice sur le rotor dépend de ce glissement, s. On voit donc que la vitesse de rotation dépend du couple exercé sur le rotor du moteur. Dans le cas de la machine synchrone, on avait un couple qui dépendait d’un déphasage entre le rotor et le stator, l’angle électrique, mais l’ensemble tournait à la même vitesse. Par contre, dans le cas de la machine asynchrone, on a un couple dépendant de la différence de vitesse entre rotor et stator.

Courbe caractéristique du couple électrique en fonction du glissement pour une machine asynchrone.

Si la génératrice est directement connectée au réseau électrique, la vitesse de synchronisme, ns, est fixée par la fréquence du réseau et le nombre de pôles. Dans le cas de la machine asynchrone, le rotor peut tourner à une vitesse différente qui dépend du couple exercé par le rotor et de la courbe caractéristique du couple électrique du moteur à induction (présentée ci-dessus). Si on peut jouer sur le glissement de la machine, on peut alors fonctionner à une vitesse différente que celle imposée par le réseau qui est constante. On gagne en souplesse.


Dynamique du rotor : vitesse variable ou constante

Reprenons une nouvelle fois la configuration de la chaîne de transmission entre le rotor de l’éolienne, d’une part, et le rotor de la génératrice, d’autre part.

           

Schéma des forces appliquées au système de transmission ainsi que les éléments dominant pour l’inertie.

Si l’on examine les forces qui s’exercent sur l’arbre de l’éolienne, on voit que l’on trouve, d’un côté, le couple mécanique exercé par les forces aérodynamiques sur les pales de l’éolienne, et d’un autre côté, le couple de freinage exercé par la génératrice sur le rotor (c’est-à-dire le couple électrique). En effet, si l’arbre exerce un certain couple sur la génératrice alors la génératrice exerce par réaction un couple de freinage sur son rotor. On trouve souvent intercalé entre les deux extrémités une boîte de vitesse pour rendre les vitesses de rotation compatibles. Le rotor de l’éolienne ainsi que le rotor de la génératrice représentent les contributions principales pour l’inertie de la chaîne de transmission.

La vitesse du vent est, de par nature, fluctuante dans le temps, si bien que le couple aérodynamique varie suivant ces variations. On distingue deux grands types de fonctionnement qui ont un impact sur la manière dont on gère ces fluctuations de couple aérodynamique :

Éolienne à vitesse de rotation constante directement couplée au réseau électrique

Schéma éolienne à vitesse de rotation constante couplée au réseau électrique.

On considère ici une machine, synchrone ou asynchrone, directement connectée sur le réseau d’énergie électrique. Par « directement », on veut dire que l’on n’a pas intercalé, entre la sortie de la génératrice et le réseau, un système d’électronique de puissance qui permet de découpler le comportement électrique du réseau de celui de la machine (c’est-à-dire essentiellement un système « redresseur-onduleur »). C’est le montage le plus basique qui correspond typiquement à de vieilles façons de procéder.

Comme le stator de la génératrice est directement connecté au réseau, on connaît la vitesse de synchronisme de la machine, ns.

  • Dans le cas de la machine synchrone, le rotor doit strictement tourner à la vitesse de synchronisme, ns.
  • Pour la machine à induction, la vitesse de rotation est différente de la vitesse de synchronisme, ce qui correspond à un certain glissement, s. Néanmoins, il faut savoir que ce dernier est limité. En fait, il est d’autant plus limité que la machine est puissante, et ce, pour une question d’efficacité énergétique.

Dans le cas d’une éolienne qui tourne à vitesse constante, le couple électrique doit être constamment adapté au couple aérodynamique. Tout au plus, on peut essayer d’intercaler entre les deux extrémités de la transmission, une certaine forme d’amortissement mécanique qui permet que les à-coups ne se traduisent pas directement en contraintes mécaniques dynamiques importantes sur l’ensemble de la transmission, avec les problèmes de durée de vie qui y sont liés.

Couple moteur aérodynamique = Couple résistif électrique

Si le vent vient à augmenter brusquement, cela se traduit par une augmentation soudaine du couple aérodynamique. Le couple résistif du générateur s’adapte presque instantanément pour égaler ce couple aérodynamique. Cela se fait soit par une augmentation de l’angle électrique dans le cas d’une machine synchrone, ou par une augmentation du glissement dans le cas d’une machine à induction.

On voit qu’avec ce mode de fonctionnement, on a deux désavantages :

  • Le système de transmission est soumis à des charges dynamiques mécaniques importantes,
  • Par définition, la vitesse de rotation de l’éolienne reste constante (ou varie un peu dans le cas de la machine asynchrone avec glissement), et ce, quel que soit le régime de vent. Par conséquent, on ne peut maintenir le rapport entre la vitesse en haut de pale et la vitesse du vent qui garantit les meilleurs rendements aérodynamiques de la machine. On perd en efficacité.

Éolienne à vitesse de rotation variable couplée au réseau

On veut pouvoir travailler à vitesse de rotation variable pour toujours aller chercher les meilleurs rendements, en maintenant le « tip-speed ratio » optimum. En outre, on veut pouvoir minimiser les charges dynamiques sur la chaîne de transmission. En effet, si le vent vient à augmenter brusquement, cela se traduit par une augmentation soudaine du couple aérodynamique. Comme le couple électrique n’est pas obligé de s’adapter en fonction, le rotor va simplement se mettre à accélérer. En d’autres termes, le rotor accumule sous forme d’énergie cinétique (au moyen de l’inertie de rotation) l’énergie des fluctuations rapides de vent. Une fois que le vent diminue et reprend sa valeur précédente, le rotor décélère lentement en transférant son énergie accumulée à la génératrice.

Couple moteur aérodynamique différent du Couple résistif électrique

Génératrice synchrone couplée au réseau via un système redresseur-onduleur

Schéma génératrice synchrone couplée au réseau via un système redresseur-onduleur.

La fréquence à la sortie du stator de la génératrice synchrone n’est pas fixée. En effet, le système redresseur-onduleur permet de découpler le fonctionnement électrique de la machine électrique et du réseau. Du coup, c’est la vitesse de rotation du rotor qui donne la fréquence électrique à la sortie du stator. On peut laisser la vitesse de rotor varier. La fréquence du stator sera elle aussi variable, mais cela n’a aucune importance dans la mesure où un couple redresseur-onduleur va transformer cette tension alternative en une autre de fréquence et de tension différente, en l’occurrence, celles du réseau électrique.

Génératrice asynchrone combinée directement au réseau avec glissement important

Schéma génératrice asynchrone combinée directement au réseau avec glissement important.

Si on peut jouer sur le glissement de la machine à induction et que l’on est capable de le faire varier sur de larges plages, alors on peut travailler avec un rotor à vitesse variable. Typiquement, on peut augmenter le glissement du moteur en ajoutant des résistances au rotor. Cela peut se faire par un jeu de balais qui connecte le rotor par l’extérieur, ce qui permet d’avoir des éléments du circuit électrique à l’extérieur du rotor, autrement dit, fixes. Dans ce cas-ci, il s’agit de résistances. Néanmoins, pour atteindre des plages de variation importantes, le niveau de ces résistances est loin d’être négligeable si bien qu’elles engendrent beaucoup de dissipation. Heureusement, elles sont placées à l’extérieur du rotor à un endroit où elles peuvent évacuer facilement la chaleur. Néanmoins, ces pertes par effet Joule grèvent sérieusement le rendement. On ne peut pas raisonnablement envisager de travailler de cette manière.

Une solution est de faire varier les caractéristiques électriques du rotor via un système d’électronique de puissance. Dans ce cas, on peut faire varier le glissement de manière significative et donc la vitesse de rotation de l’éolienne sans créer de dissipation importante et donc conserver l’efficacité énergétique. L’avantage par rapport à une génératrice synchrone avec redresseur-onduleur est que, dans ce cas-ci, l’électronique de puissance embarquée est moins importante.

Eoliennes

Eoliennes

Généralités

Une éolienne est une machine qui convertit l’énergie du vent en énergie mécanique. Pour être plus clair, on considère qu’il y a du vent quand l’air se déplace et donc quand l’air possède une certaine vitesse. À cette vitesse est associée une énergie, l’énergie cinétique. Le vent exerce une force sur le rotor de l’éolienne et le met en rotation : il exerce une certaine puissance. A proprement parler, cette force est transmise à un axe qui correspond à une certaine puissance. En langage d’ingénieur, nous sommes en présence d’une machine motrice.

Cette énergie mécanique peut être utilisée directement. Par exemple, on pense à l’actionnement d’une pompe à des endroits non desservis par le réseau électrique ou à nos anciens moulins à vent. Néanmoins, ces applications mécaniques sont assez marginales. Dans la majorité des cas, l’énergie mécanique du rotor de l’éolienne est transformée en énergie électrique via une génératrice. En tout cas, comme l’énergie mécanique est de « qualité » élevée (notion d’exergie), il est a priori regrettable de la transformer en chaleur, par exemple en utilisant l’énergie éolienne pour se chauffer.


Classification

On peut classifier les éoliennes suivant leur taille ou suivant leur principe de fonctionnement.

Classification selon la taille

On définit différentes classes de taille d’éoliennes. En théorie, il n’y a pas de relation directe entre la hauteur et la puissance de l’éolienne. En effet, cette puissance dépend essentiellement de la surface balayée par le rotor qui n’est pas toujours fonction de la hauteur de l’éolienne, mais du diamètre du rotor. Néanmoins, dans le cas des grandes éoliennes, une règle de bonne pratique veut que la hauteur du mât, L, soit égale au diamètre du rotor, D. Dans ce cas, il y a un lien indirect entre la hauteur du mât et la puissance. Dans le tableau suivant sont repris les dénominations de taille et les ordres de grandeur de puissances associées. Attention, il s’agit bien d’ordres de grandeur de puissance. Le but est uniquement de se donner une idée. En outre, cette puissance n’a de sens que si on a défini la vitesse de vent à laquelle elle est délivrée.

Graphe diamètre rotor / puissance

Illustration de la relation entre le diamètre du rotor et la puissance électrique de sortie basée sur les données techniques de 62 modèles récents d’éoliennes.

Dénomination Diamètre du rotor [m] Aire balayée [m²]  Puissance [kW]
Micro 0.5-1.25 0.2-1.2 0.1-0.4
Mini 1.25-3 1.2-7.1 0.4-2
Domestique 3-10 7-79 2-30
Petite commerciale 10-20 79-314 30-120
Moyenne commerciale 20-50 314-1963 120-750
Grande commerciale 50-100 1 963-7854 750-3 000
Géante commerciale 100-170 7 854-22 686 3 000-8 000

 Classification des éoliennes suivant la taille et ordre de grandeur associé.

Pour être plus parlant, on trouve classiquement ces éoliennes pour les applications suivantes :

  • Micro-éoliennes : en général pour couvrir des besoins très limités et sites isolés (par exemple, des sites de pèche, des bateaux, des caravanes).
  • Mini-éoliennes : essentiellement pour recharger des batteries sur des sites isolés du réseau, les plus puissantes peuvent servir pour l’alimentation domestique hors du réseau (maisons isolées).
  • Eoliennes domestiques : elles balayent un spectre assez large allant de rotors de 3 à 10 m de diamètre. C’est typiquement le genre d’éoliennes proposées pour les particuliers.
  • Petites éoliennes  commerciales : elles sont typiquement conçues pour les petites entreprises, les fermes, … mais il existe très peu de modèles produits dans cette gamme.
  • Moyennes éoliennes commerciales : elles sont typiquement utilisées pour les applications commerciales dans des fermes, des usines, des entreprises voire des petits parcs éoliens.
  • Eoliennes grands commerciales : ce sont les éoliennes que l’on trouve dans les parcs éoliens modernes, ce sont aussi les plus efficaces.
  • Eoliennes commerciales géantes : ce sont les éoliennes que l’on trouve dans les parcs éoliens modernes et également en offshore, elles sont très efficaces et issues des dernières générations technologiques.

Dans la course au gigantisme, l’éolien ne fait pas figure d’exception. Si les modèles de 9 MW sont déjà à l’ordre du jour, certaines sociétés n’hésitent pas à parler de diamètres avoisinant les 400 m (!) pour atteindre des puissances de 50 MW !!!

Classification selon le principe de fonctionnement

Eoliennes à axe horizontal ou vertical

Les plus connues sont les éoliennes à axe horizontal (HAWT, horizontal axis wind turbine).  Leur typologie est souvent identique. A la base, on a un mât sur lequel est placée la nacelle. Cette nacelle contient la génératrice ainsi que le système de transmission, c’est-à-dire les éléments d’accouplement mécanique entre le rotor et la génératrice. Celle-ci convertit l’énergie mécanique en énergie électrique.

Schéma principe éoliennes à axe horizontal ou vertical.   Photo principe éoliennes à axe horizontal ou vertical.

En suivant le sens de parcours du vent, le rotor peut être placé en amont ou en aval de la nacelle. Cette dernière configuration a été à la mode, mais devient anecdotique. Elle présentait l’avantage que la nacelle et le rotor se mettent automatiquement face au vent. Lorsque le rotor se situe en amont, il faut un dispositif particulier pour que l’éolienne se positionne correctement. Par exemple, on peut trouver une aile fixe verticale qui stabilise l’éolienne face au vent (même principe que la gouverne verticale d’un avion) ou un moteur qui réalise cette tâche. On parlera alors d’un dispositif de positionnement passif ou actif, respectivement.

Distinction entre éoliennes à axe horizontal avec le rotor placé en amont avec gouverne (figure gauche), en amont avec contrôle actif (figure centrale) et en aval (figure de droite).

L’avantage du rotor placé en aval est qu’il se positionne naturellement face au vent, c’est-à-dire de manière passive. Par contre, le vent est d’abord perturbé par la nacelle et le pylône avant d’agir sur le rotor. D’une part, le régime de vent devient non uniforme sur la surface balayée par le rotor. Cela engendre des contraintes mécaniques variables dans le temps ce qui provoque une usure prématurée du matériel (phénomène de fatigue mécanique). D’autre part, le vent perturbé vient impacter les ailettes de l’éolienne ce qui a tendance à générer beaucoup de bruit (bruit d’origine aérodynamique). Pour ces deux raisons, on préfère la configuration avec le rotor en amont. En effet, le vent est moins perturbé avant de rencontrer les pales de l’éolienne (à moins qu’un obstacle se trouve en amont, mais ce n’est idéalement pas le cas). Finalement, on peut dire que l’éolienne à axe horizontal avec le rotor en amont est devenue le standard, en tout cas pour les applications de puissance élevée.

On rencontre aussi des éoliennes à axe vertical (VAWT, vertical axis wind turbine) pour les applications de petite voire de moyennes puissances. Les avantages de cette configuration sont que l’éolienne est toujours bien positionnée par rapport au vent, que le dispositif d’accouplement ainsi que la génératrice se trouvent au niveau du sol ce qui facilite la maintenance. En outre, de par les diamètres de rotor inférieurs aux éoliennes à axe horizontal, les vitesses absolues sont plus faibles ce qui, du moins théoriquement, devrait engendrer moins de bruit.

Classiquement, on distingue deux grandes familles parmi les éoliennes à axe vertical. D’une part, on trouve les éoliennes basées sur la « portance » dont la plus connue est le modèle de « Darrieus » et, d’autre part, les éoliennes basées sur la « trainée » dont la plus connue est le modèle de « Savonius ». On invite le lecteur qui veut approfondir ces concepts à consulter des sites spécialisés. Retenons néanmoins que par le principe physique qui anime ces modèles, elles donnent peu de couple au démarrage. Par conséquent, elles ne démarrent qu’à une certaine vitesse de vent, ou il faut assurer mécaniquement le démarrage de l’éolienne pour qu’elle fonctionne.

Illustration des deux grands types d’éoliennes à axe vertical : les éoliennes de type Savonius en haut, basées sur la trainée, et les éoliennes de type Darrieus en bas, basées sur la portance. Les figures du haut montrent une coupe horizontale du rotor vue selon un axe vertical. Les figures du bas montrent une coupe horizontale du rotor d’éoliennes Darrieus. Le rotor peut avoir une forme en « phi », en « delta », en « H », etc.

  

Exemple d’éolienne Darrieus (à gauche) et Savonius (à droite).

Dans l’histoire des éoliennes, on trouve de manière cyclique un regain d’intérêt pour les éoliennes à axe vertical. Les nouveaux concepts proposés sont sensés dépasser les limites technologiques du standard actuel qui est l’éolienne à axe horizontal avec rotor en amont. Pour répondre de manière nuancée, voici quelques éléments de réflexion pour situer le débat sur ces VAWT :

  • En ce qui concerne les nouvelles éoliennes à axe vertical, il s’agit souvent de la redécouverte de vieux concepts.
  • De manière générale, on manque de retour d’expérience sur le comportement des nouvelles éoliennes à axe vertical, notamment en ce qui concerne leurs performances aussi bien techniques que d’un point de vue économique.
  • Beaucoup d’experts qui ont accumulé une longue expérience dans l’éolien sont sceptiques.
  • Beaucoup d’effets d’annonce sur les performances de ces nouveaux concepts sans pour autant les valider : absence récurrente de certification IEC (commission électrotechnique internationale) de la plupart de ces machines [APERe].

Pour résumer la situation, nous reprenons le point de vue nuancé de Paul Gipe : « Avec des éoliennes à axe vertical, on peut dans certains cas réaliser les mêmes performances technico-économiques qu’avec des éoliennes à axe horizontal, mais plus que probablement pas mieux« .

Propriétés des éoliennes à axe vertical par rapport aux modèles standards Avantages Inconvénients
Simplicité. Parfois oui, on peut arriver à un concept plus simple Parfois non, on n’aboutit pas systématiquement à plus de simplicité
Meilleure fiabilité. Peu probable, mais peu de retour d’expérience.
Positionnement. Toujours bien placé par rapport au vent.
Entretien. Equipement au niveau du sol.
Prix. Moins cher, mais le rendement est-il égal ?
Rendement mécanique (transformation énergie du vent). Meilleur rendement en vent turbulent/changeant. (Cas des implantations urbaines ou proches du sol). Peu de retour d’expérience.
Rendement économique. Peu de retour d’expérience.
Émission de bruit. Théoriquement moins bruyantes parce que les vitesses sont plus faibles.

Tableau récapitulatif des propriétés des éoliennes à axe vertical par rapport aux modèles conventionnels d’éoliennes.

Distinction selon le nombre de pales

On peut faire une distinction entre les éoliennes suivant le nombre de pales.

Distinction entre éoliennes à axe horizontal selon le nombre de pales.

         

Dans le cas des éoliennes à axe horizontal, la plupart des éoliennes ont 3 pales. En fait, il s’agit du meilleur compromis entre différentes contraintes. Une éolienne à 3 pales (ou plus) tourne plus régulièrement qu’une éolienne à 1 ou 2 pales, on a un meilleur équilibre du rotor. D’un point de vue esthétique, les effets de battement visuel sont plus importants pour les éoliennes à moins de 3 pales. Le rendement aérodynamique, c’est-à-dire la capacité à convertir l’énergie du vent en énergie mécanique (et donc, in fine, en électricité), est équivalent de 2 à 4 pales. Il augmente sensiblement à partir de 5. Le seul avantage d’avoir une éolienne à deux pales plutôt qu’à trois est qu’elle sera meilleur marché, mais elle tournera de manière moins régulière ce qui est synonyme de durée de vie plus courte. On ne monte pas au-delà de 4 pales à cause de la diminution de la tenue mécanique : en effet, la « corde » des pales diminue avec le nombre de pales.

Nombre de pâles 1 2 3 4 5
Équilibre du rotor + + +
Esthétique (effet de battement visuel) + + +
Rendement aérodynamique = = = +
Bruit et fatigue + + +
Tenue mécanique + = =

Tableau récapitulatif des propriétés des éoliennes à axe horizontal en fonction du nombre de pales.

Pour conclure cette rubrique, on peut mettre en garde contre certaines conclusions intuitives qui peuvent induire en erreur. Dans le cas des éoliennes à axe vertical, il existe des modèles avec un grand nombre d’ailettes donnant à l’ensemble un aspect très compact. Cette forte densité n’est pas nécessairement synonyme de meilleures performances (aérodynamiques). Comme il sera montré par la suite, la puissance dépend essentiellement de la surface balayée par le rotor. Or, cette surface ne varie pas en augmentant le nombre de pales. Tout au plus, on balaye cette surface de manière plus efficace. Néanmoins, on peut aussi alourdir inutilement la structure ce qui grève les performances.

Distinction selon la protection contre les vents importants

C’est un aspect fondamental. En effet, en présence de vents importants ou de rafales, il s’agit d’éviter les contraintes mécaniques trop importantes et les vitesses de rotation excessives, c’est-à-dire d’éviter la casse, d’assurer l’intégrité du matériel.
On distingue d’une part les stratégies de contrôle par l’aérodynamique. On joue sur l’orientation des ailes pour modifier leurs propriétés aérodynamiques et donc réduire la force exercée par le vent.

  • Soit on réduit l’angle d’attaque des pales qui présentent alors un rendement plus faible. On peut aller jusqu’à mettre les pales face au vent où elles seront soumises à une force nulle.
  • Soit on augmente l’angle d’attaque jusqu’au décrochage du profil (« stall control » en anglais).

Une autre manière de procéder est de placer directement un frein aérodynamique sur l’aile (mais cela est physiquement équivalent à chercher le décrochage).

Ces modifications des propriétés aérodynamiques peuvent être réalisées sur l’entièreté de l’aile ou sur seulement une fraction de celle-ci, par exemple sur le bout d’aile.

À noter que l’on peut jouer sur l’orientation de l’éolienne à axe horizontal. Dans ce cas de figure, il s’agit de réduire la surface présentée au vent par le rotor de l’éolienne en la décalant par rapport à la direction du vent. Comme cette surface est réduite, la puissance du vent est directement réduite. Typiquement, on décale l’éolienne à gauche ou à droite suivant son axe vertical, soit on place l’éolienne en « hélicoptère » en tirant le rotor vers l’arrière.

D’autre part, on trouve le freinage dynamique ou électrique. Dans ce cas, c’est un frein mécanique qui limite la vitesse de rotation. Cette fonction peut être réalisée par le génératrice électrique.

Le freinage aérodynamique est une stratégie dont on ne peut se passer pour les grandes éoliennes. On peut se limiter au freinage dynamique que pour les éoliennes de faible puissance.

Distinction selon le mode de régulation de la vitesse du rotor : vitesse constante ou variable

Le rendement aérodynamique instantané, ou coefficient de performance, d’une éolienne dépend du rapport entre la vitesse en bout de pales et la vitesse du vent (évaluée bien en amont de l’éolienne) :

Lambda = tip speed ratio (TSR) = u/V,

avec,

  • u, la vitesse en bout de pale induite par la vitesse de rotation du rotor,
  • et V, la vitesse en amont de l’éolienne.

Pour optimiser la conversion de la puissance du vent en puissance mécanique appliquée au rotor, il faut que se rapport Lambda ne soit ni trop faible, ni trop élevé.  Si la vitesse du vent change, la vitesse de rotation de l’éolienne devrait idéalement pouvoir s’adapter pour maintenir le TSR constant et donc toujours travailler avec les meilleurs rendements. Par conséquent, on distingue les éoliennes à vitesse de rotation constante des éoliennes à vitesse de rotation variable. Ces dernières permettent de suivre le régime de vent et d’obtenir de meilleurs rendements en adaptant la vitesse de rotation de l’éolienne.

Il existe une deuxième raison qui justifie de travailler avec une éolienne à vitesse de rotation variable. De part nature, la vitesse du vent est fluctuante. Si l’éolienne a une vitesse de rotation constante alors ces fluctuations de vitesse se traduisent par des fluctuations du couple mécanique exercé sur l’arbre. Nous sommes alors en présence de contraintes mécaniques fluctuantes qui peuvent accélérer l’usure de la transmission entre le rotor et la génératrice. Travailler avec un rotor à vitesse variable permet d’absorber les fluctuations de vitesse par une accélération de la vitesse du rotor.

Une éolienne à vitesse de rotation variable suppose d’avoir systématiquement recours à de l’électronique de puissance. Fort heureusement, cette technique a évolué très positivement ces dernières années ce qui permet de conserver un bon rendement  et un prix acceptable. Par conséquent, le choix d’une éolienne à vitesse de rotation variable est tout à fait abordable et cohérent. Néanmoins, il faut savoir qu’une éolienne à vitesse de rotation constante reste, théoriquement du moins, plus simple.


Positionnement et intégration

Placer une éolienne est une question de compromis. Par exemple, si l’éolienne est placée près de bâtiments, elle pourra subir leur interférence dans la mesure où ces bâtiments influencent globalement la trajectoire de l’air. Par contre, placer une éolienne loin d’un bâtiment pose la question de la ligne de transmission qu’il faudra tirer entre l’éolienne et le poste électrique compatible le plus proche.

Schéma positionnement et intégration.

Illustration de la structure de l’écoulement d’air autour d’un bâtiment et des zones d’influences.

La figure ci-dessus donne une idée de l’influence d’un bâtiment sur l’écoulement. On voit que le vent est perturbé par la présence du bâtiment avant que ce vent arrive à son niveau, c’est-à-dire en amont. Si l’obstacle placé sur un terrain plat a une hauteur « H », on considère que l’écoulement est influencé en amont à partir d’une longueur de l’ordre de « 2H ». En aval, le bâtiment influence significativement l’écoulement jusqu’à une longueur de l’ordre de « 20H ». C’est donc loin d’être négligeable. Il est important de comprendre que dans ces zones d’influence, l’écoulement est fortement perturbé, c’est-à-dire que l’air subit de fortes fluctuations de vitesse qui sont loin d’être négligeables devant la vitesse du vent en amont. En d’autres termes, il ne s’agit pas de faibles fluctuations qui se superposent au vent initial, comme un « bruit blanc ». Au contraire, le vent subit de fortes fluctuations de vitesse dans toutes les directions de l’espace. En outre, la vitesse moyenne de l’écoulement est réduite, à certains endroits parfois annulée voire même inversée.

La situation peut être particulièrement complexe dans un milieu urbain où le vent est perturbé par un ensemble de bâtiments. Comme les figures ci-dessous l’illustrent bien, il existe de grandes zones où la vitesse moyenne du vent est réduite. Le comportement du vent n’est pas aléatoire, il obéit à des lois physiques bien précises. Il n’en reste pas moins que son évolution en passant près de bâtiments est loin d’être intuitive. En effet, il est difficile de prédire les caractéristiques de tels types d’écoulement. Par exemple, les résultats ci-dessous ont été obtenus au moyen de simulations numériques complexes.

Types d'écoulement via simulation numérique- 01.

Types d'écoulement via simulation numérique- 02.

Types d'écoulement via simulation numérique- 03.

Norme de la vitesse dans un plan horizontal à 1.5  m du sol (1ere figure), à 4 m du sol (2ème figure) et dans un plan vertical (3ème figure), autour d’un quartier composé d’immeubles. Cette dernière figure illustre bien l’évolution de la vitesse avec la hauteur. Résultats obtenus au moyen de simulations numériques réalisées par Tatiana de Meester de Betzenbroeck (Architecture et Climat, UCL).

Eoliennes montées sur le toit : éviter les zones d’écoulement turbulent

Photo éoliennes montées sur le toit - 01.

Photo éoliennes montées sur le toit - 02.

Exemples d’éoliennes placées sur le toit d’un bâtiment. En premier lieu, le bâtiment Éole à Gosselies (Igretec) qui intègre deux éoliennes à axe vertical dans un immeuble de bureau. Dans ce cas-ci, on voit que les éoliennes font partie intégrante du concept architectural du bâtiment (un peu comme son nom l’indique).  En second lieu, un bâtiment avec une série d’éoliennes à axe horizontal placées sur un mât.

Dans certains cas, on souhaiterait mettre une éolienne sur le toit d’un bâtiment. Cela peut constituer une opportunité dans les zones urbaines où les zones dégagées, c’est-à-dire sans obstacles, sont peu ou pas existantes. L’idée est aussi de ne pas devoir investir dans un mât pour hisser le rotor à une certaine hauteur. Mis à part ces avantages, il reste de sérieux inconvénients à travailler avec une éolienne placée sur un bâtiment :

  • Comme la figure ci-dessus sur la zone de perturbation d’un bâtiment l’illustre bien, l’écoulement est aussi perturbé au-dessus du toit. Il est moins perturbé sur le bord amont du toit, mais on voit que cette zone grandit en progressant en aval. Si le rotor de l’éolienne est situé dans cette zone d’influence,  il rencontrera un vent de vitesse moyenne plus faible et il subira de fortes fluctuations de vitesse. Par conséquent, le rendement sera plus faible et les forces auxquelles l’éolienne sera soumise seront très fluctuantes. Ces charges dynamiques sur la structure et les équipements de l’éolienne peuvent accélérer son usure. Pour conclure, on peut atténuer cet effet en conseillant d’installer l’éolienne près du bord du toit dans la direction des vents dominants.
  • Les vibrations de l’éolienne, en plus d’être potentiellement plus importantes sur un toit, sont transmises à la structure du bâtiment. Il faut voir si le bâtiment peut supporter cela et voir dans quelle mesure ces vibrations peuvent être absorbées par un dispositif ad hoc. L’impact de la propagation de ces vibrations par les matériaux de construction sur le confort acoustique des occupants n’est pas à négliger non plus.
  • Les villes étaient généralement bâties dans des sites abrités du vent.
  • Assurer la viabilité de la structure en cas de tempête devient encore plus critique concernant la sécurité. En effet, que se passe-t-il si l’éolienne est arrachée ou tombe sur une façade, une personne ? On ne peut se permettre que l’éolienne puisse perdre des éléments par grand vent.
  • L’impact paysager, au vu de la production dérisoire de ces mini-éoliennes, pose question et pourrait nuire à l’image du secteur éolien dans sa globalité alors que ce secteur est plein de potentialités. [APERe]

Tous ces éléments font que l’intérêt d’installer des éoliennes sur le toit de bâtiments est loin d’être évident. On mentionne souvent que les éoliennes à axe vertical sont bien conditionnées pour fonctionner sur un toit dans la mesure où elles sont toujours bien orientées par rapport à la direction du vent. C’est déjà un bon point, mais il n’en reste pas moins que tous les désavantages cités ci-dessus restent d’application. En effet, quand on dit que le vent est perturbé, il ne s’agit pas simplement de dire qu’il change de direction par rapport à la vitesse non perturbée en amont du bâtiment. Non, le vent est aussi sujet à de fortes fluctuations d’amplitude et la direction locale du vent fluctue aussi rapidement dans le temps. Les forces aérodynamiques sur l’éolienne restent donc relativement instationnaires (c’est-à-dire, variables), même si l’éolienne est à axe vertical. Au minimum, il faut s’assurer que le constructeur à mis en œuvre des techniques spécifiques pour gérer cela.

Éoliennes intégrées au bâtiment

     Photo éoliennes intégrées au bâtiment - 01.  Photo éoliennes intégrées au bâtiment - 02.  Photo éoliennes intégrées au bâtiment - 03.

Exemples d’éoliennes intégrées au bâtiment : le bâtiment Strata en fin de construction à Londres (figures de gauche et centrale ) et le World Trade Centre de Barhain (figure de droite).

Plus délicate encore est l’intégration de l’éolienne au sein même du bâtiment. En d’autres termes, l’éolienne devient partie intégrante du concept architectural, de l’image véhiculée par le bâtiment. Effectivement, cette démarche donne une image, un style technologique et écologique au bâtiment. Par contre, mis à part ses qualités de vitrine de marque, on peut se poser de sérieuses questions sur l’intérêt d’intégrer des éoliennes directement au bâtiment. Il reste notamment la question de l’absorption des vibrations des éoliennes par le bâtiment. Si elles sont petites, cela ne pose pas de gros problèmes, mais, d’un autre côté, si elles sont petites, elles ne produiront alors qu’une infime fraction de la consommation du bâtiment. Si les éoliennes sont de tailles plus importantes, elles peuvent fortement perturber la structure du bâtiment.

On peut jouer sur la forme du bâtiment pour obtenir un effet d’accélération au niveau de l’éolienne (effet Venturi). Néanmoins, on ne peut pas déplacer le bâtiment en fonction de l’orientation du vent. En conclusion, l’intérêt ne semble pas évident.


Les éoliennes carénées

Certaines éoliennes sont munies d’éléments externes au rotor dont l’objectif est de concentrer le vent sur le celui-ci. On pense principalement aux éoliennes carénées où un conduit convergeant ou divergeant enveloppe le rotor de l’éolienne. Les designs peuvent être des plus variés, voire des plus futuristes :

Schéma principe éoliennes carénées.    Photo éoliennes carénées.

Certains de ces modèles présentent des puissances supérieures aux éoliennes traditionnelles non carénées. Il ne faut pas y voir pour autant un effet révolutionnaire. L’explication est relativement simple. Lorsque l’on définit la puissance instantanée du vent, il faut être vigilant à la définition de la surface rencontrée par l’éolienne que l’on utilise. Dans le cas d’une éolienne classique, il s’agit de la surface balayée par le rotor. Par contre, dans le cas de modèles carénés, il faut tenir compte de ces éléments supplémentaires extérieurs. Typiquement, il faut prendre la surface frontale de l’éolienne, carénage inclus. En gros, celui-ci augmente la puissance instantanée du vent en augmentant la surface exposée au vent. Les puissances plus élevées obtenues par ces éoliennes ne sont donc pas dues à un meilleur rendement, mais à une augmentation de la puissance du vent rencontrée, c’est-à-dire la source d’énergie.

Le carénage est-il pertinent?

La méthode n’est pas mauvaise, mais il faut savoir que c’est tout aussi simple d’augmenter la surface du rotor d’une éolienne classique pour qu’il soit équivalent à la surface au vent de l’éolienne carénée. En effet, dans le cas d’une éolienne carénée, ajouter cet élément externe a un certain coût. En outre, il faut pouvoir le maintenir par une structure et l’orienter correctement par rapport au vent. En ce qui nous concerne, nous pensons qu’il est plus simple d’augmenter la taille du rotor d’une éolienne traditionnelle. Un avantage néanmoins, il épargnerait les oiseaux grâce à l’absence de pièces mouvantes externes.


Dispositifs d’optimisation de l’aérodynamique

Quand on voit la complexité des ailerons acérés des Formules 1, c’est à se demander pourquoi les pales de nos éoliennes sont si minimalistes. Ni aurait-il pas moyen de pousser l’aérodynamique plus loin  ?  Si la réponse courte est OUI, la réponse longue impose de nuancer.

En effet, si une pale d’éolienne est loin de la complexité d’un aileron de formule 1, la raison se situe probablement dans une balance coût/bénéfice pour laquelle le point de vue n’est pas le même. D’un côté, en formule 1, on cherchera le bénéfice maximal, qu’importe le coût et la durée de vie ; de l’autre côté, celui de l’éolien, ce sera la solution proposant le meilleur rapport coûts/bénéfices tout au long du cycle de vie qui l’emportera. Ce dernier point de vue menant logiquement à des solutions simples, éprouvées, efficaces et durables avec « peu » de débauche de moyens. En résumé, cela revient moins cher de faire plus grand que de faire plus complexe.

Néanmoins, les techniques évoluent et les coûts associés également. Pour cette raison, certaines technologies que l’on retrouve dans le monde des sports moteurs, mais aussi de l’aéronautique deviennent suffisamment matures et abordables pour être intégrées dans le secteur éolien.

Les winglets

Photo winglets - 01.

Afin de réduire la traînée induite par les tourbillons de bout d’aile, certains dispositifs biomimétiques comme les winglets (petite ailette perpendiculaire à la pale située en bout d’aile) ont été développées pour permettre de limiter les turbulences en bout d’aile. En réduisant la trainée, c’est à la fois de rendement qui est amélioré (1 à 3 %)  mais également une réduction du bruit qui peut être observée. Ce type de dispositif est déjà très présent dans le monde aéronautique (on y voit même des doubles winglets aussi appelés « split winglets »).

Photo winglets - 02. Schéma principe winglets.

Les chevrons ou dentelures

Photo chevrons ou dentelures - 01.

Afin d’améliorer l’aérodynamique et le rendement, mais surtout l’acoustique qu’induisent les turbulences au niveau du bord de fuite, certaines sociétés s’inspirent du vol silencieux du hibou et étudient des solutions pour « adoucir » les perturbations.

Ainsi, par bio mimétisme, en s’inspirant des plumes d’hibou, des dentelures ou chevrons sont apposés au bord de fuite. Ces entreprises promettent une réduction de 5dB grâce à ce dispositif. Wait and see !

Photo chevrons ou dentelures - 02.

Les générateurs de vortex

Schéma principe générateurs de vortex - 01.

Accolés sur l’extrados de la pale, non loin du bord d’attaque, les générateurs de vortex, sorte de petites lames, permettent de contrer la séparation prématurée des flux et ainsi augmentent la portance de la pale. Se faisant, le bruit est réduit et le rendement, en poussant la limite de décrochage plus loin, est amélioré. Ce dispositif peut être placé a posteriori.

Schéma principe générateurs de vortex - 02.

Ecoulement de l’air avec générateurs de vortex.

Stockage et l’alimentation du bois-énergie

Stockage et l'alimentation du bois-énergie

Avant d’alimenter la chaudière, le bois-énergie, qu’il soit sous forme de pellets ou de plaquettes, est d’abord acheminé vers un lieu de stockage, le silo. Ensuite un dispositif mécanique lui permettra de l’extraire de cette réserve pour ensuite être transporté jusqu’à la chaudière. La chaudière peut elle-même posséder un petit réservoir qui lui permet de ne pas devoir s’alimenter de manière continue à la réserve de pellets ou plaquettes.

Afin de généraliser notre propos, nous allons scinder ce processus en deux étapes :

  • D’une part, on analysera les systèmes de stockage suivant le conditionnement du bois, ainsi que les modes d’extraction suivant le stockage.
  • D’autre part, on analysera le dispositif de transport entre le local de stockage et la chaudière.

Ces développements n’ont pas pour vocation de former le lecteur au choix d’un dispositif de stockage et d’alimentation. En fait, il s’agit d’une tâche de spécialiste. Pour prendre une décision éclairée, il faut connaître les détails techniques et de prix de chaque dispositif. Ceux-ci dépendent du fabricant, du constructeur. En outre, ces techniques peuvent évoluer dans le temps.

La vue synthétique présentée ci-dessus a pour objectif de montrer la variété des solutions qui permettent de s’adapter à un très grand nombre de situations. Cela permet aussi de donner les éléments clefs de réflexion pour interagir avec les spécialistes de la question. Au travers des différentes configurations présentées, on s’aperçoit que les investissements et les aménagements sont plus ou moins lourds. D’un point de vue économique et technique, le stockage est un poste important du projet. Il aura un impact majeur sur sa faisabilité ainsi que sur sa viabilité économique.


Stockage

Pièce de stockage : pellets et plaquettes

On peut distinguer différents types de stockage pour les pellets et plaquettes. Généralement, on trouve une pièce de stockage, c’est-à-dire un silo. Cette pièce rectangulaire ou cylindrique est dissociée de la chaufferie et peut ne pas lui être voisine voire se situer à un niveau différent.

La pièce devra être conçue pour résister mécaniquement à la masse du bois et pour protéger le bois de l’humidité. En outre, elle devra être facilement accessible pour son réapprovisionnement. Ce dernier point sera traité plus tard.

On peut faire certaines distinctions entre les pièces de stockage, distinction qui aura un impact sur la méthode d’extraction du combustible :

  • Avec sol incliné : Dans ce cas, le sol est incliné dans la direction de l’admission de bois de la chaudière. Comme la chaudière est dans le prolongement direct du plan incliné de stockage, le dispositif d’extraction pourra être conçu de manière plus simple.
  • Avec sol horizontal : Tout l’espace est occupé au niveau du sol ce qui assure une optimisation de l’espace disponible. Par contre, le sol peut être à une hauteur différente de l’admission de combustible de la chaudière et le bois à extraire peut se situer n’importe où au niveau du sol de la pièce. En conclusion, le dispositif d’extraction devra être plus élaboré.

     

Illustration de deux organisations spatiales du local de stockage : la figure de gauche représente un local à sol horizontal alors que la figure de droite correspond au local avec un sol incliné.

Stockage des pellets

Les pellets offrent des possibilités de stockage supplémentaires. Cette flexibilité est est due à la grande faculté d’écoulement des pellets. Celui-ci est découle de leurs petites tailles et de leurs surfaces lisses.

Pièce de stockage

Toujours dans les pièces de stockage séparées, on peut maintenant ajouter une troisième catégorie :

  • Avec parois latérales inclinées ou en « V » : Dans ce cas de figure, les pellets sont dirigés naturellement sous l’effet de la gravité vers le centre de la pièce où les deux parois latérales se rejoignent. Cette particularité permettra de concevoir un dispositif d’extraction simple.

 

Illustration  d’un local de stockage pour pellets avec parois latérales inclinées : ce principe garantit l’écoulement naturel des granulés vers le dispositif d’extraction (vis d’extraction).

Sac ou silo textiles à pellets

Il s’agit de silo en textile pré-assemblés par le constructeur. Ces sacs ont des de multiples avantages mais ont des volumes limités si bien qu’ils s’appliquent plutôt au secteur domestique et au petit tertiaire :

  • Plus de flexibilité sur la localisation du stockage. Les parois sont protégées contre l’humidité si bien qu’ils peuvent être placés dans des pièces humides, dans la mesure où le silo textile protège les pellets qu’il contient. Dans le même ordre d’idée, le silo pourra être directement placé dans la chaufferie si celle-ci possède un volume suffisant. Il ne faut donc pas prévoir une pièce spécifique pour le stockage. Le silo peut même être placé à l’extérieur du bâtiment s’il est protégé contre les intempéries et des rayons UV (qui peuvent altérer les propriétés des parois à long terme).
  • Facilité de montage. Dans la mesure où la fonction de stockage et d’extraction est réalisée de façon automatique par le silo préfabriqué. Le montage est relativement simple : il ne reste plus qu’à prévoir le transport entre le silo et la chaudière.

   

Illustration de silos textiles de stockage de pellets  :  la figure de gauche représente un silo textile placé dans un local de stockage tandis que la figure de droite correspond à un silo dans le local de chauffe.

Volume de stockage

On a déjà plusieurs fois évoqué le volume occupé par les différents conditionnements de bois pour une même quantité d’énergie. De cette analyse, il ressort qu’il faut un volume deux à trois fois plus important de pellets que de mazout, un volume dix à quatorze fois plus important de plaquettes. Les plaquettes sont donc caractérisées par un volume de stockage important qui aura un impact direct sur la zone de stockage.

Le tableau ci-dessous reprend les différents volumes de bois en fonction de la consommation annuelle d’énergie du bâtiment [kWh/an]. La première ligne est caractérisée par une consommation de 5 000 kWh/an, ce qui correspond approximativement à une maison passive où le chauffage des pièces et de l’ECS est couvert par le bois. Les hypothèses de calcul sont reprises dans la première ligne du tableau décrivant les entrées. En outre, on a uniquement supposé, pour l’estimation du volume de stockage, que l’on réalisait dix approvisionnements par an. Il est facile de déduire ces volumes pour un autre nombre d’approvisionnements. On a estimé qu’il fallait un volume total de stockage 1.5 fois plus important pour contenir 1 volume utile de bois.

Estimation du volume de stockage en fonction de la consommation annuelle

Besoin calorifique [kWh/an] Litres de mazout: ~10 kWh/litre M³ de gaz naturel : ~10 kWh/m³ Tonnes de plaquettes : ~3 900 kWh/tonne Tonnes de pellets : ~4 600 kWh/tonne Map de plaquettes : ~1 000 kWh/map Map de pellets : ~3 500 kWh/map Volume stockage plaquettes [m³] pour 10 approvisionnements: ~1.5 m³/map Volume stockage pellets pour 10 approvisionnements [m³]: ~1.5 m³/map

5 000

500 500 1.28 1.08 5 1.42 0.75 0.21
10 000 1 000 1 000 2.56 2.17 10 2.85 1.5 0.43
15 000 1 500 1 500 3.84 3.26 15 4.28 2.25 0.65
20 000 2 000 2 000 5.12 4.34 20 5.71 3.0 0.86
50 000 5 000 5 000 12.82 10.86 50 14.28 7.5 2.14
100 000 10 000 10 000 25.64 21.73 100 28.57 15.0 4.3
200 000 20 000 20 000 51.28 43.47 200 57.14 30.0 8.6
300 000 30 000 30 000 76.92 65.2 300 85.71 45.0 12.8

Approvisionnement

La position de la zone de stockage ne peut être prise au hasard. Elle doit être compatible avec le dispositif d’approvisionnement des pellets et des plaquettes. Dans la pratique, cette contrainte est loin d’être négligeable.

Pellets

De manière générale, les pellets peuvent être vendus par sacs de 10 à 30 kg, par palettes d’une tonne et en vrac par camion souffleur.

Dans le cas du tertiaire, nous considérons ce dernier cas. En pratique, le camion est muni d’une citerne qui contient les pellets. Une fois arrivé à destination, il est muni d’un tuyau flexible qui permet de souffler les pellets dans la zone de stockage. Cette dernière est munie de bouches ou connexions de remplissage. Pour des volumes importants, plusieurs bouches peuvent être placées pour assurer un remplissage plus uniforme de la zone de stockage. En outre, les parois de la zone de stockage sont munies d’un revêtement anti-rebondissement pour ne pas briser les pellets. En effet, il faut que les pellets conservent leurs dimensions et leurs propriétés mécaniques pour que la combustion s’opère dans les meilleures conditions.

Pour que le tuyau flexible puisse atteindre le volume de stockage, il faut que les connexions de remplissage soient situées à maximum 30 m du camion souffleur. Il faudra donc s’assurer que la localisation du stockage soit compatible avec les possibilités d’accès du site.

Illustration de la distance maximale entre le camion souffleur et les conduits d’admission des pellets vers le silo (placés en façade).

Plaquettes

Comme pour le stockage, les plaquettes offrent moins de flexibilité. En effet, la zone de stockage doit être directement accessible par un charroi lourd, c’est-à-dire une remorque à benne ou une benne de tracteur. Cette contrainte spatiale est beaucoup plus sévère que pour les pellets. De nouveau, cela illustre bien qu’une analyse préalable de faisabilité est nécessaire avant de s’engager dans un projet tertiaire basé sur le bois-énergie.

  

     

Illustration de l’accessibilité du local de stockage des plaquettes par un charroi lourd (1ère figure).
Photographie de l’alimentation en plaquettes de la chaufferie de l’hôpital de Dave.


Extraction

Avant d’être transportés vers la chaudière, les pellets ou les plaquettes doivent être extraits du silo. La méthode est fortement liée au type de stockage :

  • Silo avec sol plat : Un déssileur racle le sol de la pièce et amène le bois au niveau d’une tranchée dans laquelle se trouve une vis sans fin d’extraction. Les éléments en bois viennent se placer entre deux pas de vis. La rotation de celle-ci amène ces éléments progressivement vers la sortie du silo. Comme le sol est la plat, la vis d’extraction est elle-même horizontale.
  • Silo avec sol incliné : On travaille toujours avec un déssileur et le principe reste le même. Comme le sol est incliné en direction de la chaudière, la vis intégrée au sol est directement alignée avec la chaudière. Par conséquent, si la vis est assez longue, elle peut directement alimenter la chaudière sans devoir ajouter de dispositifs particuliers.

 Représentation d’un déssileur : la partie supérieure rotative racle le sol de la pièce et amène le bois au niveau d’une tranchée dans laquelle se trouve une vis sans fin d’extraction.

  • Silo avec parois latérales inclinée ou en « V » : Applicable pour les pellets, cette méthode permet d’éviter l’installation d’un déssileur. De par la forme des parois, les pellets s’écoulent naturellement vers la rigole contenant la vis d’extraction.
  • Silo textile : Le dispositif ad hoc est développé par le fabricant du silo textile.
  • Plancher tiroir : Idéal pour les locaux de grande surface.

Représentation simplifiée d’un système d’extraction basé sur un plancher tiroir.


Transport

Une fois extraits de la zone de stockage, les pellets ou plaquettes sont acheminés vers la chaudière. Celle-ci peut être voisine de la zone de stockage ou éloignée, au même niveau ou à niveau inférieur ou supérieur. Ces différents éléments conditionnent le type de système de transport. De nouveau, on verra que les pellets proposent plus de flexibilité que les plaquettes.

Alimentation pellets et plaquettes

  • Par vis d’alimentation inclinée : On peut atteindre directement la chaudière si la chaufferie est proche de la zone de stockage et au même niveau.

Illustration d’une vis d’extraction directement couplée à la chaudière : la disposition relative du sol du local de chauffage et de la chaudière permet de réaliser un couplage direct.

  • Par vis d’alimentation horizontale couplée avec vis montante à renvoi d’angle : La vis montante permet de monter les granulés ou plaquettes de plusieurs mètres (par exemple, maximum 3.5 m) pour atteindre la chaudière si la chaufferie reste proche de la zone de stockage.

       

 L’alimentation de la chaudière se trouve à un niveau supérieur comparé au sol du local de stockage (et par conséquent du système d’extraction) : la vis montante à renvoi d’angle,  illustrée sur la figure en dessous,  permet de récupérer cette différence de niveau.

     

Exemple de vis d’alimentation avec renvoi d’angle sur le coté de la chaudière de l’hôpital de Dave.
Sur la figure de gauche,  on a une vue détaillée de la connexion entre la vis d’alimentation et la chaudière : intercalé entre la fin de la rampe d’alimentation et la vis d’alimentation de la chaudière se trouve un dispositif coupe-feu (dans ce cas-ci, il s’agit d’une guillotine) et un réservoir d’eau pour éteindre la masse de bois non encore intégrée au foyer.

  • Par vis d’alimentation horizontale couplée à une conduite de chute : La conduite de chute permet de descendre les granulés ou plaquettes de plusieurs mètres pour atteindre la chaufferie si celle-ci reste proche de la zone de chauffage.

L’alimentation de la chaudière se trouve à un niveau inférieur comparé au sol du local de stockage (et par conséquent du système d’extraction) : la conduite de chute permet de descendre le combustible de niveau.

Autres alimentations possibles pour les pellets

  • Par aspiration : Les pellets sont aspirés dans un flexible dont la longueur peut aller jusqu’à une vingtaine de mètres. Cela permet d’alimenter une chaufferie distante ou située à un niveau supérieur. La chaudière se voit ajouter un réservoir supplémentaire de collecte pour l’admission des granulés. Cela permet aussi de faire fonctionner le transfert par aspiration de manière intermittente, ce qui minimise la consommation et les bruits durant la nuit. La méthode par aspiration marche aussi bien pour les pièces de stockage que pour les silos flexibles.

    

Dans le cas particulier des pellets, un dispositif de soufflage peut être mis en place, et ce,  pour différentes configuration du local de stockage.

Chaudières bois-énergie

Chaudières bois-énergie


Remarque générale

termes de technologie, il faut noter que les différents conditionnements du bois influencent fortement la structure de la chaudière. Par conséquent, dans les développements ci-dessous, les différentes approches seront déclinées suivant le type de conditionnement.

De manière générale,

  • La température de retour de l’eau vers la chaudière au bois est limitée à une valeur minimale. Celle-ci dépend du modèle, mais un ordre de grandeur fréquent est de 50-60°C, comme pour les chaudières gaz ou mazout d’ancienne génération (c’est-à-dire, avant les chaudières basse température et à condensation). Cette caractéristique a une influence majeure sur le design de la boucle primaire qui sera conçue pour garantir une température de retour suffisante. Il y a lieu de garder ce paramètre en vue. Celui-ci est souvent communiqué par le constructeur.
  • La possibilité de modulation en puissance d’une chaudière au bois est souvent plus limitée qu’une chaudière au gaz voire de certains brûleurs au mazout. Cela a un impact sur la manière de dimensionner la chaudière : la logique de dimensionnement sera différente que pour les combustibles « traditionnels ».

Les chaudières à bûches

Les chaudières à bûches ont le désavantage de ne pas être entièrement automatisées si bien que leur emploi dans le secteur tertiaire soulève certains problèmes. Le facilitateur bois-énergie pour le secteur public, Francis Flahaux de la FRW, mentionne qu’il n’existe pas de projet à bûche en Wallonie. En fait, cette approche est bien adaptée pour le chauffage des maisons individuelles ou collectives et pour des bâtiments agricoles.

               

Exemples de chaudière à bûches.

Les éléments constitutifs de la chaudière à bûches sont la zone de remplissage, la zone de combustion ainsi que l’échangeur thermique. Cette distinction entre zones s’explique par leurs fonctions différentes. Les bûches sont placées manuellement dans la zone de remplissage. C’est dans cette zone qu’elles seront attaquées par l’air primaire.  Les gaz riches générés par cette première phase, essentiellement du monoxyde carbone CO et de l’hydrogène H2, sont ensuite acheminés vers la zone de combustion où l’oxydation complète est réalisée par l’air secondaire. Différentes configurations existent suivant la direction et l’agencement des flux d’air. On peut trouver une combustion montante, latérale ou inversée. Les gaz de combustion issus de la seconde étape, essentiellement de la vapeur d’eau et du CO2, sont à haute température. Ils sont admis dans l’échangeur thermique pour réchauffer l’eau de la chaudière. Ce tirage se fait par un ventilateur situé en aval de l’échangeur.

En 2010, les rendements normalisés annoncés par les constructeurs oscillent entre 90 et 94 %. La plage de modulation oscillant quant à elle autour d’une puissance instantanée minimale de 30 à 50 % de la puissance nominale.


Les chaudières à pellets

Les chaudières à pellets sont bien adaptées pour les applications domestiques, tertiaires et industrielles. D’une part, le système d’approvisionnement peut-être entièrement automatisé, ce qui est toujours le cas dans le secteur tertiaire. Cela donne un confort d’utilisation comparable aux chaudières mazout ou gaz. D’autre part, le bois se trouve sous forme compactée si bien qu’il demande le volume de stockage le plus faible parmi les différents conditionnements du bois.

     

Exemples de chaudière à pellets. Pour la dernière figure, illustration par une coupe dans une chaudière à pellets. On distingue clairement la couche d’isolation pour limiter les pertes vers la chaufferie, le foyer ainsi que la vis d’alimentation situés en bas et surplombés par l’échangeur.  En bas à gauche, une porte permet d’accéder au cendrier.

Comme pour les bûches, la combustion se fait en deux étapes séparées, ce qui influence la structure de la chaudière. Au départ, les pellets sont acheminés vers le foyer. Cela se fait généralement par un système de vis sans fin, mais on trouve aussi des systèmes où les pellets tombent dans le foyer. C’est au niveau du foyer que se passe la phase primaire de combustion.

     

Illustration d’une typologie de foyer à pellets où les pellets sont amenés via une vis sans fin par le dessous et l’air primaire est injecté latéralement par une série de trous percés dans un anneau.

Illustration de deux autres typologies différentes de foyer à pellets : la première figure correspond à une alimentation via une vis sans fin tandis que la dernière image montre des pellets qui tombent dans le foyer.

De nouveau, cette phase dégage des gaz riches, essentiellement du CO et de l’hydrogène H2, qui se déplacent vers la zone dite de « post-combustion » où ces gaz subissent leur oxydation complète par l’air secondaire. La séparation en deux étapes permet de les contrôler indépendamment, permettant ainsi d’optimiser le processus de combustion (c’est-à-dire, obtenir les meilleurs rendements et minimiser l’émission de gaz nocifs).

Les gaz de combustion à haute température traversent l’échangeur thermique pour céder leur chaleur à l’eau de la chaudière. Ce déplacement est généré par un ventilateur situé en aval de l’échangeur.

Vue du haut d’un échangeur vertical avec un système de ressorts pour racler les dépôts. Au centre, on trouve la zone de post-combustion où une série d’injecteurs placés en anneau fournissent l’air secondaire de combustion.

En 2010, les rendements normalisés annoncés par les constructeurs pour les chaudières basse température oscillent typiquement entre 90 et 94 %. La plage de modulation oscillant quant à elle autour d’une puissance instantanée minimale de 20 à 30 % de la puissance nominale. Nous n’avons pas de rendement nominal à notre disposition pour les chaudières pellets à condensation.


Les chaudières à plaquettes

Les chaudières à plaquettes sont elles aussi bien adaptées pour le secteur tertiaire et industriel. En effet, l’entièreté du processus d’approvisionnement est toujours automatisé de même que le nettoyage des tubes de l’échangeur et le décendrage. Néanmoins, il ne faut pas perdre de vue que le volume de stockage pour les plaquettes est plus important que pour les pellets.

Exemple de chaudière à plaquettes.

La chaudière à plaquettes est organisée de manière identique à la chaudière à pellets. On retrouve le foyer et son alimentation en combustible et en air primaire, la chambre de « post-combustion » pour l’oxydation avec l’air secondaire ainsi que l’échangeur thermique.

Les chaudières à plaquettes sont souvent capables de brûler aussi bien des plaquettes que des pellets, et ceci, dans de bonnes conditions. Néanmoins, l’inverse n’est pas vrai : les chaudières à pellets ne peuvent gérer efficacement les plaquettes.

En 2010, les rendements normalisés annoncés par les constructeurs oscillent typiquement entre 88 et 92 %. La plage de modulation oscillant quant à elle autour d’une puissance instantanée minimale de 30 à 50 % de la puissance nominale.


Les chaudières industrielles

Les chaudières industrielles sont caractérisées par des puissances importantes et une plus grande souplesse sur la nature et la qualité du combustible exigé. Elles sont souvent proposées pour des puissances supérieures à ~150 kW.  Ces chaudières peuvent brûler indifféremment des plaquettes et des pellets industriels (qui obéissent à des normes moins strictes que les pellets pour application domestique).

       

 Exemples de chaudière industrielle avec une grille de combustion :  tournante (image de gauche) et rectiligne (image de droite).

Dans cette catégorie de chaudières pour le tertiaire, on trouve essentiellement la combustion sur grille qui permet de brûler du bois présentant des granulométries différentes. De nouveau, on trouve une zone de combustion pour l’oxydation avec l’air secondaire et l’échangeur de chaleur.

Direction de la flamme par rapport à l’alimentation de la grille en fonction de la géométrie de la chaudière et de l’arrivée d’air primaire : combustion à contre-courant (figure de gauche), à co-courant (figure centrale) et latérale (figure de droite).

      

Exemple de chaudière industrielle de 1MW de l’hôpital de Dave brûlant des plaquettes. La première vue représente une vue globale de l’installation. La deuxième photographie montre l’ouverture sur le foyer (les flammes sont maintenues à l’intérieur,  car le foyer est mis en dépression par le ventilateur d’extraction).  La troisième photographie montre la combustion sur la grille.


Équipements de l’installation

Échangeur de chaleur

L’échangeur de chaleur est un élément constitutif récurrent des différents types de chaudière. Son objectif est de transférer la plus grande partie de l’énergie des gaz de combustion à haute température vers l’eau de la chaudière. Cette eau réchauffée sera ensuite acheminée vers le circuit de chauffage.

Généralement, les chaudières ne refroidissent pas les gaz de combustion jusqu’à la condensation de la vapeur d’eau contenue dans les fumées. Le soufre contenu dans l’eau condensée provoquerait la corrosion de l’échangeur. Néanmoins, certains fabricants présentent des chaudières à condensation. Dans ce cas, l’échangeur thermique est adapté pour supporter cette étape supplémentaire, par exemple en travaillant avec de l’acier inoxydable. Si la condensation n’est pas prévue, le circuit hydraulique devra être conçu pour maintenir la température de retour à un niveau suffisant pour éviter cette condensation.

En outre, l’échangeur doit être conçu pour éviter son encrassement. En effet, des cendres volantes ainsi que des suies sont présentes dans les fumées. Généralement, elles viennent s’agglomérer ou se condenser sur les points froids de la chaudière et donc particulièrement dans l’échangeur thermique (puisque sa fonction est de diminuer la température des fumées).

Différentes solutions sont présentées par les constructeurs. On pense notamment à la disposition des canaux de l’échangeur de manière verticale pour permettre l’écoulement naturel des crasses. Certains constructeurs ont équipé les canaux des échangeurs d’éléments métalliques, typiquement des ressorts spéciaux, qui viennent racler la surface de l’échangeur et ainsi assurer son nettoyage (voir figure du zoom sur l’échangeur dans la section sur les chaudières à pellets). Suivant les modèles cette procédure peut être réalisée automatiquement, par exemple sur une base quotidienne ou, mieux encore, sur base d’un nombre d’heures de fonctionnement. De manière moins souple et peu adaptée pour le tertiaire, la procédure peut être réalisée manuellement via une manette qui actionne le jeu de ressorts.

Zoom sur la face avant de la chaudière de l’hôpital de Dave : on voit ici une série d’actionneurs pneumatiques qui permettent de racler les canaux horizontaux de l’échangeur de chaleur.

Cendrier

Les cendres sont un produit naturel de la combustion. Qu’elles proviennent du foyer ou du nettoyage de l’échangeur thermique voire des filtres à fumées, une bonne conception de chaudière les fera aboutir dans un cendrier sous l’effet combiné de la gravité et de dispositifs mécaniques (comme une vis sans fin).

Suivant la teneur en minéraux du bois-énergie qui est à l’origine de la formation des cendres et de la consommation, le volume de cendres généré est plus ou moins important. Souvent, le volume du cendrier est fixé par le constructeur si bien que la fréquence de vidage du cendrier dépend des applications. Pour fixer les idées, on parle de décendrages espacés de deux semaines jusqu’à un seul décendrage par saison de chauffe. Les variations sont donc assez conséquentes, mais restent suffisamment espacées pour garantir le confort d’utilisation. Pour fixer les idées, le taux de cendres est d’approximativement 0.5% du poids avec des granulés jusqu’à 2 voire 3% pour des bois plus minéralisés (par exemple, contenant beaucoup d’écorces).

Pour garantir le caractère renouvelable de la combustion du bois, les cendres doivent être idéalement restituées à la nature. Il s’agit en effet de minéraux qui ont été prélevés au sol durant la croissance de l’arbre. Il est donc logique de restituer ces éléments pour avoir un bilan écologique le plus neutre possible. Néanmoins, à l’heure actuelle, la législation en région wallonne n’autorise pas les épandages en forêt et, pour l’agriculture, les cendres doivent être analysées et agrées par l’AFSCA pour pouvoir intégrer un amendement agricole.

Si le bois est sain, l’épandage ne pose pas de gros problèmes techniques. Par contre, si le bois est pollué, les cendres peuvent contenir des produits toxiques, par exemple du Plomb ou de l’Arsenic. Il n’est dès lors pas question de répandre ces cendres polluées directement dans la nature.

Ballon tampon et cycle de production

Dans les cas des chaudières au bois, on intercale parfois un ballon tampon entre la chaudière et le circuit primaire de chauffage.

Les chaudières au bois présentent des cycles de fonctionnement relativement longs, c’est-à-dire l’espace de temps entre la première injection de combustible et l’arrêt de fonctionnement de la chaudière. Pour les applications domestiques, on parle d’une demi-heure pour les chaudières à pellets et d’une heure pour les chaudières à bûches. Si on veut travailler sur des cycles de production plus courts, la qualité de la combustion sera dégradée significativement. Cette caractéristique est liée à la physique de la combustion du bois. En conclusion, on peut synthétiser que la chaudière doit fonctionner pendant une durée minimale pour travailler de manière efficace.

Les chaudières possèdent une modulation de puissance, c’est-à-dire que la puissance instantanée peut être inférieure à la puissance nominale de chaudière. Certains modèles de chaudière bois-énergie peuvent avoir une plage de modulation d’au maximum 25 à 100 %. Par exemple, une chaudière de 25 kW pourrait avoir une puissance instantanée minimale proche de 6 kW. Cette modulation permet de s’adapter aux besoins thermiques instantanés du bâtiment. Au mieux, on a une production de chaleur qui est égale à la chaleur consommée par le bâtiment. Dans ce cas, la chaudière fonctionne sur base de cycles de production longs. Tout se passe alors pour le mieux : on obtient un fonctionnement continu synonyme de meilleur rendement ainsi qu’un minimum de gaz nocifs produits.

La réalité est malheureusement un peu plus complexe. Suivant les saisons, l’ensoleillement voire l’occupation du bâtiment, les besoins de chaleur de celui-ci seront fort variables. Les puissances demandées pour chauffer le bâtiment peuvent varier à la fois en amplitude, mais aussi dans le temps. À certaines périodes, le besoin d’énergie du bâtiment peut être trop faible pour absorber toute l’énergie produite par un cycle de combustion de la chaudière au bois, même si la durée du cycle est limitée au minimum. En outre, on ne veut engendrer aucune surconsommation : on ne veut pas rejeter la puissance excédentaire ou surchauffer le bâtiment. Ces aspects sont traités dans la partie relative au dimensionnement des chaudières au bois.

Si on ne peut absorber raisonnablement la quantité minimale d’énergie produite par une chaudière, une solution est d’intercaler un ballon tampon entre la chaudière et le circuit primaire de chauffage. Le volume du ballon est dimensionné pour absorber une bonne partie de l’énergie d’un cycle minimal de combustion, si bien que la chaudière est assurée de fonctionner dans des conditions optimales. L’énergie qui n’est pas consommée instantanément par le bâtiment est stockée dans le ballon. Ensuite, une fois la chaudière éteinte, le circuit de chauffage vient s’alimenter dans cette réserve de chaleur au rythme des demandes du bâtiment. Le ballon tampon permet de « temporiser ». Ce ballon permet de faire un découplage entre le rythme de la chaudière et le rythme des demandes du bâtiment. D’un côté, la chaudière peut fonctionner sur base de cycles suffisamment longs, indépendamment de la demande du bâtiment. D’un autre côté, le bâtiment peut toujours être chauffé à la bonne puissance et au bon moment. On a une combustion efficace et aucune surconsommation. Au pire, on a les pertes du ballon tampon.

Installation avec chaudière industrielle de 230 kW de l’école IND à Saint-Hubert. On trouve à gauche la chaudière (en jaune) et le ballon tampon associé (en gris). On voit aussi les conteneurs de cendres (« poubelles » métalliques en gris à gauche de l’image).

Découvrez ces exemples de chaudières bois ou pellets : la chaudière à pellets à la résidence 3e âge « Aux Lilas » de Bonlez, le chauffage urbain au bois de Libin et le chauffage au bois à l’hôpital de Dave.

Organes de détente


Principe de fonctionnement

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit d’une pompe à chaleur. C’est le rôle du détendeur, qui va donc abaisser la pression du fluide frigorigène sortant du condenseur à l’aide d’un dispositif d’étranglement. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température. Le détendeur alimente ensuite l’évaporateur en fluide frigorigène en modulant son débit.

La détente se produit sans échange de chaleur ou de travail avec le milieu extérieur.

Un mauvais contrôle de la quantité de fluide frigorigène admise dans l’évaporateur, entraîne les conséquences suivantes :

  • Trop peu de fluide frigorigène : il est immédiatement évaporé et il continue à se réchauffer. C’est l’effet de surchauffe. L’efficacité de l’évaporateur diminue.
  • Trop de fluide injecté : l’excès de fluide n’est pas évaporé par manque de chaleur disponible. Une partie du fluide reste liquide et est aspirée par le compresseur. Celui-ci peut alors être sérieusement endommagé (coup de liquide).

Le détendeur thermostatique

C’est le dispositif le plus fréquemment utilisé dans les pompes à chaleur. Le détendeur thermostatique, qui fonctionne de façon automatique, est un corps de vanne qui règle le débit du fluide réfrigérant de façon à maintenir constante la surchauffe des gaz qui viennent de l’évaporateur.

Schéma détendeur thermostatique.

Le corps de vanne est muni d’un orifice fixe et d’un pointeau mobile. La position du pointeau est contrôlée à partir d’un ensemble composé d’une membrane (4), d’un train thermostatique dont la pression interne est fonction de la température du bulbe (= la sonde) (3) et d’un ressort, dont la force d’appui sur la membrane est contrôlée par une vis de réglage (5). Si la charge thermique de l’évaporateur augmente, la sonde détectera une montée de température, agira sur la membrane et le pointeau s’ouvrira afin d’augmenter le débit de réfrigérant (1) jusqu’à obtention de la même surchauffe des vapeurs. D’un côté du soufflet règne la pression d’évaporation (amont ou aval de l’évaporateur suivant l’existence ou non d’une égalisation de pression) ; de l’autre côté du soufflet règne la pression de saturation correspondant à la température du bulbe.

Il existe deux classes de détendeurs thermostatiques : les détendeurs thermostatiques à égalisation interne de pression et les détendeurs thermostatiques à égalisation externe de pression.

  1. Dans le premier cas, les forces agissant sur le pointeau de détente sont d’une part la pression du train thermostatique et, d’autre part, la pression exercée par le ressort de réglage et la pression d’évaporation à l’entrée de l’évaporateur (prise à l’intérieur du détendeur). Ce type de détendeur est bien adapté lorsque la perte de charge entre l’aval du détendeur et la sortie de l’évaporateur est faible, ce qui est le cas la plupart du temps, des pompes à chaleur de faible puissance dont l’évaporateur est équipé d’un ou de deux circuits sans distributeur de liquide.
  2. Dans le second cas, les forces agissant sur le pointeau de détente sont d’une part la pression du train thermostatique et, d’autre part, la pression exercée par le ressort de réglage et la pression d’évaporation à la sortie de l’évaporateur. Cette pression aval est transmise dans un compartiment du détendeur par l’intermédiaire d’une tuyauterie d’égalisation de pression dont le raccordement est effectué à la sortie de l’évaporateur, et de préférence après le bulbe pour éviter d’influencer celui-ci par la turbulence locale occasionnée par le piquage. La perte de charge occasionnée par le distributeur de liquide et l’évaporateur n’intervient pas sur l’ouverture ou la fermeture du pointeau. Seule la surchauffe à la sortie de l’évaporateur agit sur le pointeau.

L’utilisation de ce type de détendeur présente l’inconvénient de ne pas avoir un temps de réponse instantané. Les avantages sont :

  • Une grande fiabilité.
  • Les détendeurs thermostatiques permettent d’adapter au mieux l’alimentation de l’évaporateur en fluide frigorigène, quelle que soit la charge thermique de celui-ci.
  • Certains détendeurs thermostatiques à égalisation de pression peuvent fonctionner dans les deux sens, évitant un second détendeur et les clapets dans les pompes à chaleur réversibles.

Le capillaire de détente

Ce type d’organe de détente, qui est non-automatique, est utilisé dans les petits matériels de série. On se contente, comme dispositif de réglage, d’un étranglement dans la conduite du fluide frigorigène avant l’évaporateur. L’étranglement est assuré par un tube capillaire de très faible diamètre dans lequel la détente du fluide est obtenue par la perte de charge dans le tube. La longueur et le diamètre du tube capillaire sont déterminés par le constructeur.

Le capillaire de détente n’interrompt jamais la communication entre le condenseur et l’évaporateur. Pendant l’arrêt du compresseur, rien ne s’oppose donc à ce que le fluide frigorigène s’écoule du condenseur (où il est sous haute pression) vers l’évaporateur.

Le capillaire ne permet aucun réglage de la détente, ce qui peut être un inconvénient. D’un autre côté, il ne permet aucun déréglage de la détente dans le temps, ce qui est un avantage. Le circuit doit être soigneusement déshydraté sinon le capillaire se bouche. De plus, il faut éviter l’utilisation d’une bouteille accumulatrice de liquide afin de ne pas remplir exagérément l’évaporateur durant l’arrêt du compresseur. La charge en frigorigène du circuit doit donc être relativement limitée, ce qui nécessite une recherche particulièrement soignée des fuites. En ce qui concerne les avantages de ce système, on remarque que l’équilibre de pression qui s’établit entre la haute pression et la basse pression pendant l’arrêt du compresseur permet un démarrage plus facile de celui-ci. De plus, le temps de réponse de la détente est instantané.


Le détendeur thermostatique.

Deux techniques existent :

  • Le détendeur avec moteur à impulsion : le temps d’ouverture détermine la surchauffe.
  • Le détendeur avec moteur pas à pas : le degré d’ouverture permet une alimentation correcte de l’évaporateur.

Schéma détendeur thermostatique

Le détendeur électronique fonctionne sur le même principe que le détendeur thermostatique mais il permet un réglage plus précis de l’injection à l’évaporateur. Une surchauffe plus faible sera nécessaire et le rendement de la pompe à chaleur reste ainsi optimal à tous les régimes. La température d’évaporation remontera de 2 à 3 K, ce qui diminuera la consommation du compresseur.

Il se compose d’une sonde de température (placée à la sortie de l’évaporateur contrôlant la surchauffe des gaz), d’une sonde de pression d’évaporation et d’une carte électronique dont le rôle est d’analyser ces valeurs et d’agir en conséquence sur une vanne de détente motorisée (moteur pas à pas à 2 500 positions) ou séquentielle.

Le système s’adapte à tous les fluides frigorigènes et, pour passer d’un fluide à l’autre, il suffit de modifier le paramétrage de la corrélation pression/température du fluide en ébullition. La vanne de détente peut se fermer en période d’arrêt et jouer ainsi le rôle d’une vanne magnétique de départ liquide.

Les systèmes avec vanne de détente séquentielle posent quelquefois des problèmes de tenue mécanique des évaporateurs à faible inertie (coup de bélier).


L’orifice calibré

Cet organe de détente est composé d’un orifice calibré réalisé dans un corps mobile coulissant. Son fonctionnement comme détendeur s’apparente à un tube capillaire associé à un clapet de retenue autorisant le passage du liquide en sens inverse. Lorsque le fluide frigorigène circule dans un sens, il joue le rôle d’organe de détente grâce à l’orifice calibré. Dans l’autre sens, le corps mobile coulisse, dévoilant des rainures permettant de laisser passer le fluide liquide sans détente.

Les autres détendeurs

D’autres détendeurs de PAC existent ; ils sont brièvement expliqués sur cette page-ci.

Évaporateurs [PAC]

Évaporateurs [PAC]


Les évaporateurs à air

Photo évaporateurs à air.

Ce type d’évaporateurs s’utilise lorsque la source froide est… l’air.

Le fluide frigorigène circule dans un tube qui traverse de nombreuses ailettes d’aluminium (en général rectangulaires, mais aussi parfois circulaires ou hélicoïdales). Les tubes sont disposés en série, formant une nappe, et les différentes nappes sont associées en parallèle. On peut avoir deux configurations des tubes en ce qui concerne l’alimentation en fluide frigorigène :

  • Soit, les nappes sont assemblées en parallèle à l’entrée et à la sortie de l’évaporateur. Le collecteur d’entrée est alors alimenté par le détendeur.
  • Soit, les nappes sont assemblées en parallèle seulement à la sortie. Le détendeur est alors un capillaire d’alimentation et il y a un distributeur de liquide à l’entrée de l’évaporateur. Ce dernier répartit le fluide en quantités égales dans chacun des circuits. La sortie de chaque circuit aboutit au collecteur d’aspiration.

Dans ces évaporateurs, il peut y avoir de la ventilation (c’est-à-dire de la convection forcée) ou de la convection naturelle. Les ailettes alimentées par ventilation seront très rapprochées les unes des autres, les ailettes alimentées par convection naturelle seront très espacées.

En pratique, l’on procède souvent à une filtration de l’air avant l’évaporateur. Le ventilateur peut être de type centrifuge ou hélicoïdal.

Condensation et givre

Lorsque la température des parois extérieures de l’évaporateur devient inférieure à la température de rosée de l’air, il se produit le phénomène de condensation ou de givrage sur l’évaporateur (condensation si la température de paroi est supérieure à 0 °C et givrage si non). Une chaleur latente, résultant de l’apparition d’eau ou de glace, s’ajoute à la chaleur sensible captée sur l’air. Ceci influence directement les échanges thermiques.

Au fur et à mesure qu’il se forme, le givre a pour effet de produire une isolation thermique de l’évaporateur conduisant à une chute du coefficient d’échange thermique. Il contribue également à la diminution du passage d’air, conduisant à une augmentation de la perte de charge côté air et par suite à une diminution du débit d’air. On cherchera donc à éliminer le givre.

La condensation a pour effet de mouiller l’évaporateur. Il convient d’éliminer l’eau condensée et d’éviter son entraînement dans les circuits d’air. On choisira donc des vitesses de passage d’air inférieures à 3 m/s.
Dans certains cas de refroidissement, il ne se produit ni givrage ni condensation, et ce, même lorsque la température de paroi est négative.


Les évaporateurs à eau ou à eau glycolée

Les différents évaporateurs à eau qui existent sont listés dans cette section. Pour comprendre les notions d’évaporateurs à surchauffe ou noyés, cliquer ici !.

Évaporateurs coaxiaux en spirale (ou évaporateurs double tube) = Évaporateurs à surchauffe

Dans ces évaporateurs, deux tubes de cuivre coaxiaux sont enroulés en spirale. Le fluide frigorigène qui se vaporise circule dans le plus petit tube (le tube intérieur) et le fluide caloporteur (eau glycolée) circule à contre-courant dans l’espace annulaire entre les deux tubes.

Ces évaporateurs présentent des difficultés d’entretien et il faut utiliser de l’eau propre non entartrante.

Évaporateurs à plaques brasées = Évaporateurs à surchauffe

Photo évaporateurs à plaques brasées.

Ils se composent d’une série de plaques d’acier inoxydable assemblées par brasure (= avec un métal d’apport). L’eau glycolée et le fluide frigorigène en évaporation circulent à contre-courant de chaque côté de ces plaques.

La conception de ces échangeurs favorise des coefficients d’échange thermique très élevés avec une différence de température très faible entre les deux fluides. Ceci en fait des appareils très performants et compacts, en plus d’être robustes. Un autre avantage est les pertes de charge sur l’eau qui sont en général assez faibles. Ces évaporateurs sont aussi suffisamment étanches pour permettre l’utilisation de fluides frigorigènes.

La petite taille des canaux facilite cependant l’encrassement. Les circuits doivent donc être très propres ou alors on peut prévoir des filtres à l’entrée de l’eau glycolée dans l’évaporateur. Un autre inconvénient est la non-résistance au gel de ces échangeurs. De l’antigel doit donc être présent en quantité suffisante et de façon homogène dans les circuits de capteurs enterrés.

Évaporateurs multitubulaires = Évaporateurs à surchauffe ou noyés

Photo évaporateurs multitubulaires.

  • Les évaporateurs multitubulaires noyés sont constitués d’un faisceau de tubes métallique soudé sur des plaques à l’intérieur d’un corps cylindrique en acier. L’eau de la source froide circule dans les tubes intérieurs et le fluide frigorigène s’évapore dans le corps principal à l’extérieur des tubes. Il y a un séparateur de gouttelettes dans l’évaporateur pour éviter les entraînements de liquide vers le compresseur. Malgré cela, il faut en plus prévoir une bouteille anti-coups de liquide pour protéger le compresseur. Ces évaporateurs présentent un autre problème : celui de piéger l’huile de lubrification (si elle est présente dans l’installation).
  • Les évaporateurs multitubulaires à surchauffe sont aussi appelés évaporateurs à épingles (à cause de la forme du faisceau tubulaire) ou évaporateur Dry-Ex. Ici le fluide frigorigène circule dans les tubes, à l’inverse de l’évaporateur multitubulaire noyé. Les tubes sont en général munis d’ailettes intérieures afin d’augmenter la surface d’échange. L’évaporateur est alimenté par un détendeur thermostatique, qui permet d’adapter le débit de fluide frigorigène entrant dans l’évaporateur et donc de contrôler la surchauffe des vapeurs. Cet évaporateur ne montre pas de problème de piégeage d’huile, car elle se dirige vers le carter du compresseur si elle est entraînée par le fluide frigorigène.

Évaporateurs à serpentin = Évaporateurs noyés

Dans ce cas, les tubes (le plus souvent en cuivre) de l’évaporateur sont noyés dans un réservoir d’eau (de nappe phréatique, d’étang, etc.). Ils sont enroulés en spirale ou suivant la forme du bac. L’eau pénètre dans le réservoir et peut déborder. Cette technique permet d’éviter les problèmes de gel car la glace se forme autour des tubes sans dégrader l’évaporateur.

Ce type d’évaporateur, facilement nettoyable, autorise l’usage d’eau de mauvaise qualité sur le plan de la propreté (sable, débris de feuilles,…). Par contre, les coefficients d’échange thermique sont assez faibles, ce qui nécessite de grandes longueurs de tubes et conduit à un encombrement important.

Condenseurs [Chauffage, PAC]

Condenseurs [Chauffage, PAC]


Le principe de fonctionnement du condenseur

Le condensation du fluide frigorigène transmet la chaleur à l’environnement à chauffer.

Trois phases se succèdent le long d’un échangeur de chaleur à contre-courant (le fluide frigorigène et le fluide à chauffer vont dans des sens opposés) : la désurchauffe, la condensation proprement dite et le sous-refroidissement.

  1. Pendant la désurchauffe, le fluide frigorigène à l’état de vapeur qui vient du compresseur se refroidit à pression constante en cédant de sa chaleur sensible au fluide extérieur.
  2. La condensation commence quand la première goutte de liquide frigorigène apparaît, et se produit à pression et température constantes. Lors de cette phase, les vapeurs qui se condensent cèdent leur chaleur latente de condensation au fluide extérieur qui se réchauffe.
  3. Lorsque toute la vapeur a été condensée, le liquide frigorigène va se sous-refroidir à pression constante en cédant de nouveau de la chaleur sensible au fluide extérieur.

Cependant, en pratique, les trois phases coexistent dans une même section de l’échangeur de chaleur. Le fluide frigorigène circule dans un tube en contact avec l’eau ou l’air. La partie du fluide frigorigène qui touche le tube est liquide et se sous-refroidit. Le fluide qui est en contact avec ce liquide condense à son tour. Le gaz frigorigène qui est au centre du tube désurchauffe simplement.

En résumé, la quantité de chaleur évacuée au condenseur comprend la chaleur sensible de la vapeur surchauffée, la chaleur latente de condensation du fluide frigorigène et la chaleur sensible de sous-refroidissement du liquide frigorigène.


Les condenseurs à air

On utilise ce type de condenseur lorsque le fluide extérieur à chauffer est de l’air. On se trouve alors dans le cas d’une pompe à chaleur air/air ou eau/air.

Le condenseur à air le plus couramment utilisé comprend des tubes à ailettes, un ventilateur centrifuge de brassage d’air et un filtre. Les tubes sont reliés parallèlement les uns aux autres entre deux collecteurs. Un de ces collecteurs alimente les tubes en vapeur frigorigène surchauffée, l’autre évacue le liquide.


Les condenseurs à eau

Dans ce cas la source chaude est de l’eau. On distingue quatre types de condenseurs à eau :

  • Les condenseurs à serpentins : Le serpentin en cuivre forme une spirale à l’intérieur d’une enveloppe d’acier soudé. L’eau de la source chaude circule dans le serpentin et le fluide frigorigène dans l’enveloppe d’acier. Le fluide frigorigène se condense dans l’enveloppe au contact de la surface du serpentin.
  • Les condenseurs à tubes coaxiaux : Les tubes concentriques en cuivre sont enroulés ensemble en forme de spirale. L’eau circule dans le tube intérieur et le fluide frigorigène se condense à l’extérieur.
  • Les condenseurs à plaques brasées : Cet échangeur se compose de plaques en acier inoxydable assemblées par brasage. Le fluide frigorigène en condensation circule dans une plaque sur deux, et l’eau à réchauffer dans les autres plaques.

  • Les condenseurs multitubulaires.

Un grand nombre de tubes, dans lequel circule l’eau à chauffer, sont placés à l’intérieur d’un anneau. La condensation du fluide frigorigène s’effectue sur la surface extérieure des tubes, à l’intérieur de l’enveloppe. À chaque extrémité de l’anneau se trouvent des boîtes à eau qui distribuent l’eau en série et parallèle dans les divers tubes. Les tubes sont souvent équipés de petites ailettes afin d’augmenter le coefficient d’échange thermique.

Compresseurs

Auteur : Manouane Dubois, relecture Laurent Georges

Mise en page – Sylvie (08.2010)

  • Titres page, navigation, titres normal
  • Antidote
  • Test liens
  • Mise en page globale : listes, tableaux, typographie, images, …

Les compresseurs volumétriques à pistons

Dans les compresseurs volumétriques à pistons, les vapeurs de fluide frigorigène sont comprimées à l’aide du mouvement alternatif de pistons dans des cylindres. Ces derniers sont pourvus de clapets d’aspiration et de refoulement. En plus de ces éléments, le compresseur se compose :

  • d’un excentrique, qui sert à transformer un mouvement circulaire en un mouvement rectiligne alternatif,
  • d’un carter, qui contient le moteur d’entraînement électrique et qui forme la réserve d’huile de graissage (car le compresseur a besoin d’être constamment lubrifié),
  • d’une pompe à huile, qui assure la distribution de l’huile aux paliers et bielles.

Quelques remarques sur les compresseurs à pistons :

  • Les gaz aspirés pénètrent dans le compresseur généralement à la partie haute du moteur électrique, évitant ainsi l’introduction de liquide frigorigène dans les cylindres en cas de fonctionnement anormal de l’installation. Le refoulement est effectué au travers d’une tuyauterie souple brasée à l’enveloppe.
  • Le compresseur à piston est très sensible à l’arrivée de fluide liquide : si quelques gouttes de liquide pénètrent au niveau des soupapes, elles en provoquent une usure lente. Si du fluide liquide pénètre en grande quantité, la destruction des clapets est immédiate. Il faut donc des protections anti-coups de liquide (ressort puissant sur le chapeau de cylindre, capable de se soulever en cas d’arrivée de liquide). Le carter joue aussi en quelque sorte un rôle analogue à celui d’une bouteille anti-coup de liquide, mais sa capacité est très limitée en volume et le rôle protecteur ne sera réel que pour de faibles admissions de liquide à l’aspiration.
  • Le fluide frigorigène et bien sûr l’huile de lubrification doivent être compatibles avec les matériaux qui composent le moteur.
  • La vitesse de rotation du moteur d’entraînement est de 3000 tours/min la plupart du temps, pour des raisons d’encombrement et de coût de fabrication. Certaines rares séries sont cependant encore réalisées avec des moteurs dont la vitesse de rotation est de 1500 tours/min.
  • Le moteur électrique est alimenté par des fils reliés à des bornes étanches.

Les compresseurs volumétriques à pistons sont de trois types :

  • hermétique  : le moteur et le compresseur sont situés à l’intérieur d’une cloche et ne sont pas accessibles. Ils sont généralement supportés par des ressorts pour éviter la transmission des vibrations. Le nombre de cylindres varie entre 1 et 4 suivant la puissance désirée (un seul cylindre entre 0 et 2 kW, 2 cylindres entre 2 et 5,5 kW et 4 cylindres entre 5,5 et 15 kW).

  • semi-hermétique : le moteur est accolé au compresseur et certaines parties du compresseur peuvent être démontées pour une réparation ou un entretien. Une des extrémités de l’arbre du vilebrequin porte le rotor du moteur qui entraîne le compresseur. Le moteur est refroidi en grande partie par le fluide frigorigène aspiré par le compresseur, mais aussi parfois par un ventilateur ou un serpentin d’eau enroulé autour du moteur. Le nombre de cylindres varie entre 1 et 16 et ils sont disposés en ligne, en V, en W ou en étoile. La puissance est réglée par mise hors service de certains cylindres ou par changement de régime du moteur d’entraînement.

  • ouvert : le compresseur est accouplé au moteur soit simplement en bout d’arbre par un manchon d’accouplement, ou bien à l’aide de poulies et courroies. Le nombre de cylindres varie entre 1 et 16 et ils peuvent être disposés en ligne, en V, en W ou en étoile. La vitesse de rotation est ajustable par exemple en changeant la poulie du moteur, en arrêtant certains cylindres ou en changeant le régime de fonctionnement du moteur.

Le compresseur volumétrique hermétique spiro-orbital (Scroll)

Un compresseur Scroll comprime un gaz en continu en faisant tourner une partie mobile en forme de spirale autour d’une autre spirale fixe identique à la première. Ces deux spirales sont déphasées de 180°. Elles forment plusieurs volumes qui se créent à l’aspiration, se réduisent progressivement au fur et à mesure du déplacement orbital de la spirale mobile pour déboucher vers l’orifice de refoulement central.

   

Le type de compresseur ne nécessite pas de clapets d’aspiration et de refoulement, mais un clapet existe cependant afin d’éviter l’équilibrage des pressions haute et basse au moment de l’arrêt et la rotation en sens inverse de la spirale mobile.
Le moteur d’entraînement est situé à l’intérieur du carter. L’huile de lubrification se trouve en fond de carter et est envoyée par pompage vers les pièces mobiles.
Les compresseurs Scroll encaissent facilement les coups de liquide à l’aspiration par désolidarisation radiale des deux spirales. Ceci est un avantage important pour les systèmes à inversion de cycle.
Pour les applications en pompe à chaleur à haute température, il est possible d’effectuer une injection de liquide intermédiaire au milieu des spirales dans le but d’abaisser la température de refoulement et d’augmenter la puissance et le COP.
Diverses méthodes de régulation de vitesse sont possibles :

  • Régulation « tout ou rien ».
  • Régulation par moteur à 2 vitesses.
  • Régulation par variateur de vitesse
Attention : en cas de rotation en sens contraire, il n’y a pas de compression et un bruit insolite avertit le technicien !

Le compresseur volumétrique à vis

Ces compresseurs peuvent comporter une ou deux vis et être du type semi-hermétique ou ouvert.

Compresseur à vis mono-rotor.

Le compresseur à vis bi-rotor est constitué de deux rotors à dentures hélicoïdales (un rotor mâle et un rotor femelle) tournants à grande vitesse. Le rotor mâle est entraîné par le moteur et entraîne à sa suite le rotor femelle.

Les deux rotors à dentures hélicoïdales d’un compresseur à vis.

Le volume du gaz frigorigène est réduit progressivement par la rotation qui provoque l’insertion des lobes du rotor mâle dans le rotor femelle. Quatre phases se succèdent lors de la compression du gaz frigorigène :

  • L’aspiration.
  • Le transfert : les dentures emprisonnent le gaz aspiré.
  • La compression : le gaz diminue de volume à cause de la rotation des dentures et est ainsi comprimé.
  • Le refoulement : le gaz s’échappe par l’orifice de refoulement lorsqu’il est découvert pendant la rotation.

Les variations de puissance s’obtiennent dans les grosses machines par l’action d’un « tiroir » qui décide de l’utilisation d’une plus ou moins grande longueur de vis dans la compression des gaz, et donc induit un plus ou moins grand taux de compression. Dans les petites machines (toujours très grandes comparées à des compresseurs à pistons), la modulation de puissance s’obtient par variation de la vitesse de rotation ou par utilisation de ports d’aspiration auxiliaires, soit par les deux.
Le compresseur à vis doit être abondamment lubrifié pour assurer l’étanchéité entre les pièces en mouvement et pour réduire le niveau sonore, mais aussi pour refroidir le fluide frigorigène. On peut alors atteindre des taux de compression élevés (jusqu’à 20) sans altérer le fluide frigorigène. Le circuit de graissage comprend un déshuileur, un réservoir d’huile, un refroidisseur d’huile et une pompe à huile.
Quelques caractéristiques des compresseurs à vis ouverts :

  • La garniture d’étanchéité au passage de l’arbre est indispensable.
  • Quelquefois (pour les plus gros compresseurs), les moteurs sont pourvus d’un refroidissement hydraulique permettant de récupérer également de la chaleur sur le circuit d’eau.

Dans la version semi-hermétique, le moteur électrique est accouplé directement sur l’arbre du rotor mâle, côté flasque de refoulement, et fait corps avec le compresseur. Le refroidissement du moteur est obtenu directement par les gaz de refoulement qui le traversent en totalité avant de pénétrer dans le séparateur d’huile.

> Pour connaître les avantages/inconvénients des compresseurs à vis, cliquer ici !

Le compresseur volumétrique rotatif

On rencontre deux technologies :

  • le compresseur rotatif à piston roulant,
  • le compresseur rotatif à palettes.

Compresseur rotatif à piston roulant et compresseur rotatif à palettes.

Dans les deux cas, un stator cylindrique renferme un rotor excentré par rapport à l’axe du stator. Un volume en forme de croissant est piégé. Du fluide frigorigène y est introduit (aspiration) et la rotation du rotor va comprimer cet espace jusqu’à atteindre la pression souhaitée (refoulement).
Les puissances frigorifiques atteignent 10 kW. Ils sont essentiellement utilisés pour les climatiseurs individuels et les petits refroidisseurs de liquide.

Le compresseur centrifuge

Les appareils centrifuges utilisés en pompes à chaleur dérivent des groupes centrifuges de production d’eau glacée. Ce sont tous des appareils du type eau/eau. Ils ne diffèrent des groupes à eau glacée que par leur régulation.
Les compresseurs centrifuges sont munis de roues qui tournent à grande vitesse, elles-mêmes pourvues d’aubages. L’entraînement est réalisé par un moteur électrique en version semi-hermétique ou par un autre type de moteur en version ouverte. L’énergie cinétique centrifuge est transformée en énergie de pression dans les roues et les aubages et cela comprime le gaz frigorigène. La première roue est précédée d’aubages de prérotation en acier inoxydable qui permettent de :

  • réguler la machine pour que la production calorifique corresponde aux besoins réels ;
  • donner aux gaz arrivant sur les aubes de la roue un angle d’attaque favorable ;
  • assurer un étranglement à l’aspiration.
Le corps du compresseur est réalisé soit en fonte spéciale étanche, soit en acier soudé, soit en alliage léger. Il comprend la buse d’aspiration convergente, les diffuseurs radiaux placés à la périphérie des roues, ainsi que le multiplicateur de vitesse éventuel. Les roues du rotor sont munies d’ailettes (en acier soudé ou en alliage léger coulé et usiné) qui sont couchées vers l’arrière. L’arbre du rotor est réalisé en fer forgé, il comporte sur son extrémité sortante une garniture d’étanchéité (cas uniquement du compresseur centrifuge type ouvert) et des paliers lisses.

Les organes à graisser sont les paliers, la butée et éventuellement le multiplicateur et la garniture d’étanchéité. Le dispositif de graissage se compose d’une pompe à engrenages ou à palettes, d’un réchauffeur électrique et d’un échangeur refroidisseur huile/eau. Il comporte aussi un dispositif de compensation de la poussée axiale.

Les variations de puissance s’obtiennent par réglage des vantelles à l’ouïe d’aspiration de la turbine. À faible charge, ils sont cependant plus délicats que les compresseurs à pistons. En effet, par faible débit, un phénomène de pompage apparaît : le débit oscille entre un débit nul et débit maximal, l’écoulement devient pulsatoire et engendre des vibrations qui peuvent endommager le compresseur. Les frais de réparation sont élevés. Les constructeurs prévoient généralement une mesure de sauvegarde de l’appareil par injection de gaz chauds. Ce n’est certainement pas une technique énergétiquement intéressante puisque la puissance absorbée reste constante. On évitera donc le surdimensionnement des équipements.
isolants écologiques dans le cadre d'une rénovation

Isolants biosourcés

Date :

  • Janvier 2009

Auteur :

  • B.J., corrigé par Arnaud Evrard et Sophie Trachte

Notes :

  • Conforme à la mode PEB août 2008
  • En attente des droits de publications des photos issues du livre de Oliva.
  • 26-03-2009 : Application des nouveaux styles de mise en page. Julien.

Source :

  • IBGE, Infos fiches-éco-construction, Mat05, Isolation thermique : Choisir des matériaux sains et écologiques. Consultable dans la farde ENERGIE+\2008\ISOLATION1
  • Réseau éco-consommation, fiche n°79, Les matériaux d’isolation : les connaître pour bien les choisir. Consultable dans la farde ENERGIE+\2008\ISOLATION1
  • Une isolation plus saine, conseil et fiches matériaux, de www.pie.dromenet.org. Consultable dans la farde ENERGIE+\2008\ISOLATION1

Antidote :

  • Oui

Photo : Aline Branders.

Pour s’inscrire dans une démarche d’éco-construction, il est nécessaire de ne pas choisir un isolant uniquement sur base de ses propriétés thermiques, techniques et économiques.
Il y a lieu d’évaluer son impact environnemental (et sur la santé) tout au long de sa vie :

  • en tenant compte de l’énergie grise (renouvelable et non renouvelable) consommée sur l’ensemble de son cycle de vie (traitement en fin de vie inclus) ;
  • en tenant compte des différentes émissions (gaz à effet de serre, gaz acidifiant, gaz à formation d’ozone…) sur l’ensemble du cycle de vie, qui auront un impact sur l’environnement et la santé ;
  • en tenant compte des matières premières et de l’eau consommée ;
  • en tenant compte des substances nocives utilisées lors de la fabrication et pendant la mise en œuvre (solvants, COV…) ;
  • en estimant les émissions de composés organiques volatiles (COV), formaldéhydes et autres produits nocifs durant sa vie en œuvre ;
  • en appréciant les possibilités de recyclage pour la phase de déconstruction.

La prise en compte de tous ces paramètres conduit à l’utilisation d’isolants dits « écologiques ». Nous parlerons dans la suite de cet article plus particulièrement des isolants dits « biosourcés », c’est-à-dire d’origine végétale ou animale.

Origines, traitements, transformations, domaines d’application et spécificités de chacun des isolants permettront d’approcher la notion de développement durable dans le bâtiment. Nous y verrons les isolants suivants :

  • Isolants à base de cellulose
  • Isolants sous forme de laine d’origine végétale ou animale
  • Isolants à base de fibre de bois
  • Isolants à base de liège
  • Isolants à base de chanvre
  • Isolants à base de paille
  • Isolants à base de textile recyclé

Ils seront passés en revue afin de donner un aperçu des avantages et inconvénients à prendre en compte dans le choix de l’isolant.

De l’approche classique à l’éco-construction

Certaines lignes directrices simples, énoncées dans le tableau suivant, permettent d’évoluer vers une démarche éco-constructive en partant d’une approche tout à fait classique.

Déconseillé Les isolants minces réfléchissants. Ces isolants sont difficiles à mettre en œuvre, leurs performances  sont réduites et il est très difficile de les recycler (assemblage de plusieurs matériaux)
Minimum Éviter les isolants synthétiques (mousses de polyuréthane, de polystyrène…) autant que possible. Dans les situations où ces isolants ne s’imposent pas, leur préférer les laines végétales et animales, les laines minérales, ou le verre cellulaire.
Conseillé Choisir des matériaux naturels à la place des matériaux courants : laines végétales ou animales et isolants à base de cellulose, de liège, de chanvre ou d’autres sources renouvelables…

Mais attention, beaucoup de ces isolants ne possèdent pas d’agrément technique belge ou européen

Tableau inspiré de la fiche « Matériaux d’isolation thermique : Choisir des matériaux sains, avec un écobilan favorable » de l’IBGE.

Les types d’isolants biosourcés classiques

Isolants à base de cellulose

Isolants à base de papier ou journal recyclé, leur conductivité est comparable à celle des laines minérales. Ce matériau possède la caractéristique de pouvoir absorber la vapeur d’eau et permet ainsi de réguler l’humidité. Son absorption acoustique est excellente.

Les flocons de cellulose sont soufflés sous pression soit dans des caissons fermés soit sur des surfaces horizontales. Certains critères ont été définis afin de garantir le non-tassement ultérieur des flocons dans les caissons.

Ces isolants à base de cellulose existent aussi sous forme de panneaux semi-rigides ou flexibles. Ils sont utilisés pour l’isolation des sols, des toitures, des cloisons légères et des murs à ossature bois.Bien qu’elle constitue un bon rempart contre l’humidité, l’ouate de cellulose n’est pas résistante au feu ! Par conséquent, un traitement chimique nécessaire dévalorise sa valeur écoresponsable. En effet, afin de protéger cet isolant des attaques d’insectes, de champignons ou du feu, un traitement au sel de bore est nécessaire. Aussi, si vous privilégiez ce type d’isolant, prenez soin de vous poser des questions relatives à la provenance et à la teneur en résidus d’encre dans l’ouate de cellulose afin d’anticiper les odeurs désagréables sur le long terme. Enfin, insufflée, elle provoque beaucoup de poussières et implique l’utilisation d’équipements de protection adéquats.

     

Panneaux de cellulose (doc. Homatherm) et flocons de cellulose humidifiés et projetés.

Jean-Pierre Oliva , L’isolation écologique, conception, matériaux, mise en œuvre, éditions Terre vivante, 2001.

Isolants sous forme de laine d’origine végétale ou animale

Il existe de nombreux types de laine végétale ou animale disponibles en vrac, en feutre fin,  en rouleaux ou en panneaux semi-rigides. On trouve par exemple des laines en fibre de coco, de lin, de chanvre, de bois ou en mouton. Certains de ces isolants reçoivent un traitement au sel de bore qui les protège des attaques d’insectes, des champignons et du feu.
Ils possèdent la capacité d’absorber et de restituer l’humidité (la laine de mouton peut absorber jusqu’à 33% de son poids en eau((Les matériaux biosourcés dans le bâtiment, FFB, novembre 2015))), remplissant ainsi la fonction de régulateur d’humidité.

Son domaine d’application est l’isolation des murs, des combles et des rampants de toiture. Sa version conditionnée sous forme d’écheveaux sert à l’isolation de gaines et de tuyaux, mais également de calfeutrement. Sous forme de panneaux ou rouleaux, elle se pose de façon classique. Seul le soufflage de la laine en vrac demande l’intervention d’un professionnel spécialisé.

De par leur caractère fibreux, ces isolants possèdent aussi de très bonnes caractéristiques acoustiques. En plus de ses vertus d’isolant acoustique, elle est difficilement inflammable, ne dégage pas de gaz toxiques en cas d’incendie et est une ressource renouvelable.

En termes d’inconvénients, certains de ces isolants reçoivent, tout comme la cellulose, un traitement au sel de bore qui les protège des attaques d’insectes, des champignons et du feu. De plus, même si la laine (de type animale) subit un lavage et un pressage, elle pourrait, après sa pose, dégager une odeur désagréable.

Laine de lin en vrac, laine de lin en rouleaux et laine de lin en panneaux (doc. Textinap).

Laine de chanvre en rouleaux (doc. LCDA) et laine de chanvre en panneaux semi-rigides (doc. Haga).

Noix de coco sciée et panneaux et rouleaux de laine de coco (doc. EMFA).

Jean-Pierre Oliva , L’isolation écologique, conception, matériaux, mise en œuvre, éditions Terre vivante, 2001.

Isolants à base de fibre de bois

Les panneaux de fibre de bois sont fabriqués à partir de déchets de scierie.

Après son sciage, le bois peut :

  • se transformer directement en matériaux pour structures portantes et bardages
  • être broyé ou défibré pour servir à la production de copeaux en vrac ou de fibre de bois pour la confection de la laine isolante
  • être déroulé, tranché et lié afin de servir à la fabrication de panneaux isolants solides pour la construction.

Les panneaux sont perméables à la vapeur, ils complètent très bien les autres isolants.

Son domaine d’application concerne principalement l’isolation thermique intérieure et extérieure de murs, combles et rampants de toiture lorsqu’il est sous forme de laine ou de fibres utilisées en partie aussi pour leurs qualités acoustiques.

Lorsque plusieurs panneaux sont collés ensemble pour obtenir une plus grosse épaisseur d’isolant, de la colle est utilisée, ce qui dévalorise son caractère écologique. Le bois peut aussi servir d’isolant sous son format en vrac, mais va alors nécessiter un traitement chimique préventif, fongicide et insecticide((Les matériaux biosourcés dans le bâtiment, FFB, novembre 2015)).

Panneaux de bois feutré (doc. Pavatex).

Jean-Pierre Oliva , L’isolation écologique, conception, matériaux, mise en œuvre, éditions Terre vivante, 2001.

Isolants à base de liège

Cet isolant est extrait des écorces des chênes-liège ou du recyclage de bouchons, le liège est broyé pour former des granulats de liège en vrac, puis assemblé pour la fabrication de panneaux et de rouleaux qui nécessitent l’intervention d’un liant chimique.

Les panneaux en liège constituent une alternative écologique idéale pour l’isolation

  • des planchers
  • des murs par l’intérieur ou l’extérieur
  • des combles perdus
  • des rampants de toiture.

Tout comme le bois, les avantages en termes d’isolation thermique et acoustique sont incontestables. Ajoutons son imputrescibilité, cet isolant est également difficile inflammable.

Du point de vue des inconvénients, certains panneaux sont renforcés avec des colles synthétiques et dégagent du formaldéhyde, il est donc important de se renseigner avant l’achat afin d’éviter ce type d’isolants à base de liège. Mais le principal problème, en plus de son coût élevé, réside dans sa disponibilité. Il perd en effet de sa valeur écologique et locale à cause de son importation.

Liège.

Isolants à base de chanvre

Fabriqué à partir du défibrage de la tige de chanvre, on peut obtenir à partir de cette plante deux supports de base :

  • la fibre en vrac ou qui servira pour la laine ;
  • la chévenotte utilisée pour la fabrication de panneaux, enduits et bétons (composée d’un mélange de lient à base de chaux aérienne et de copeaux de chanvre).

Le chanvre est par ailleurs une plante à croissance rapide qui ne nécessite pas ou peu d’engrais.

Compressé, il sert pour l’isolation des murs, des sols, des façades intérieures et extérieures et des combles non aménageables après sa transformation en

  • Blocs de béton
  • Laine
  • Panneaux

En vrac, il sert dans l’isolation des murs et des combles non aménageables par soufflage.

Actuellement l’usage le plus fréquent de ce type d’isolant est le remplissage des murs à ossature bois (30 cm) ou d’enduits isolants (10 cm) sur un support existant.

Son coefficient d’isolation est proche de celui du bois massif (λ = ± 0.1), mais le matériau possède d’importantes qualités du point de vue de l’inertie thermique et de la régulation de la vapeur d’eau. Sa résistance au feu lorsqu’il est sous forme de béton, sa fourniture locale ainsi que ses caractéristiques naturellement insecticides constitue également des avantages non négligeables.

Isolants à base de paille

La paille, en tant que matériaux biosourcés, revêt différentes formes :

  • D’un mélange de terre et de paille naît un enduit appelé « terre/paille »
  • Sans pressage, elle se présente sous forme de bottes de paille compressée sous forme de ballot, forme utilisée depuis très longtemps  comme isolant à part entière ou au sein d’une structure propre.

Produit local, la paille constitue un isolant bon marché qui ne nécessite que très peu de traitement en usine ce qui lui confère une réelle valeur ajoutée dans la construction à caractère écologique. Aujourd’hui, ce type d’isolant est  de plus en plus documenté, référence et normalisé comme système de construction et comme isolant reconnu.

Le ballot de paille n’a pas des caractéristiques thermiques homogènes. L’orientation de ses fibres par rapport au flux de chaleur va impacter sur sa conductivité thermique. Celle-ci sera plus faible si les fibres sont perpendiculaires au flux (λ d’environ 0,05) et plus élevés si les fibres sont parallèles aux flux (λ variant autour de 0,07… 0,08). Il est en plus nécessaire de s’assurer des ballots de pailles de qualité pour rencontrer les exigences du monde de la construction.

Toutefois, suite à l’étude de construction paille en occupation, il a été montré que si elle est correctement mise en œuvre et à l’abri de pluies battantes, les risques de dégradations à long terme sont négligeables et la paille comme isolant est capable d’apporter de bonnes performances thermiques ainsi que les conforts d’été et d’hiver attendus.
En outre, la paille n’a pas seulement un rôle isolant, le ballot de paille peut également servir de support à un enduit voir de structure en soi sans en altérer ses caractéristiques. Ainsi, combiner plusieurs de ces rôles (isolant et mécanique et/ou structurel) permet de diminuer le bilan écologique de la paroi. Attention cependant, à utiliser une paille provenant de culture durable.

L’inconvénient de la paille réside dans l’inconfort de pose à cause du poids de chaque botte. De plus, son volume implique de concevoir des murs d’une épaisseur relativement conséquente à isoler.

Si vous souhaitez en savoir plus sur l’isolant à base de paille, consultez le site www.apropaille.be  qui réunit le monde pas si petit que ça de la paille en Belgique.

Isolants à base de textile recyclé

Né du recyclage des textiles usagés ou des déchets des fabricants de vêtements, le textile recyclé est traité en usine avant de devenir un matériau de construction en soi.

D’abord effiloché, on le métamorphose ensuite en panneaux et rouleaux isolants grâce à des techniques de pressage. Sa version en vrac permet, tout comme l’ouate, d’être insufflée et d’isoler les murs.

Alternative idéale pour isoler pour les murs et les combles non aménageables en priorisant l’économie circulaire, notez que les isolants et autres matériaux de construction en textile recyclé sont traités chimiquement pour résister aux flammes. Parmi les autres inconvénients, prenez en compte que son application verticale implique un tassement du matériau sur le long terme.

Par contre, ce matériau biosourcé reste très facile à poser et il ne nécessite pas de formation préalable ou obligatoire. Grâce à sa compression, le textile recyclé n’émet aucune poussière. Enfin, il peut absorber jusqu’à 25% de son poids en eau, ce qui constitue un isolant contre l’humidité très efficace((Les matériaux biosourcés dans le bâtiment, FFB, novembre 2015)).

Performances des isolants biosourcés

La performance thermique des isolants est renseignée par la valeur de la conductivité thermique  (λ). Plus celle-ci est élevée, moins le matériau sera isolant. Mais cela ne veut pas dire qu’il faut nécessairement abandonner l’utilisation d’un matériau qui aurait un λ élevé. En effet, il suffit d’augmenter l’épaisseur de la couche isolante pour obtenir une performance thermique globale équivalente!
Pour choisir son isolant, il faut donc tenir compte de plusieurs critères en même temps:

  • la conductivité thermique  (λ)
  • le coût (plus l’épaisseur augmente, plus le coût augmente)
  • l’encombrement

Les performances des isolants biosourcés sont reprises dans le tableau suivant.

Résistance mécanique Conductibilité thermique Conductibilité thermique Diffusion de la vapeur d’eau Diffusion de la vapeur d’eau Inflammable
ρ [daN/m³] λ [W/mK] λ [W/mK] μ [-] μ [-]
Selon la documentation Selon la norme NBN B62-002 (humide et sec) (humide et sec) selon la documentation
Perlite expansée pure 50-80 0.046 / 5 à 7 / Non
Vermiculite expansée pure <100 0.058 / 5 à 7 / Non
Argile expansée 0.103 à 0.108 / / / Non
Bois feutré en panneaux mous ± 160 ± 0.042 / / 3 à 4 Difficilement
Bois feutré en panneaux mi-durs ± 270 ± 0.07 / / 3 à 4
Cellulose en vrac 35-50 0.035 à 0.04 / / 1 à 2
Laine de cellulose en panneaux 70-100 0.04 / / / Auto-extingible
Liège expansé 18 0.04 à 0.045 / 4.5 à 29 / Difficilement
Liège expansé en panneaux 80-120 0.032 à 0.045 / / 5 à 30
Chanvre ou laine de chanvre 25-210 0.039 à 0.08 / / 1 à 2 Difficilement
Lin en vrac 18-35 0.037 à 0.045 / / 1à 2 Difficilement
Lin en panneaux 400-500 0.05 à 0.065 / / / Difficilement
Laine de coco 20-50 0.047 à 0.05 / / 1à 2 Ignifugé au sel de bore
Laine de coton 20-30 0.04 / / 1 à 2 Sans dégagement toxique
Panneaux de roseau ± 100 0.056 / / 1 à 1.5
Laine de mouton 10-30 0.035 à 0.045 / / 1 à 2 Sans dégagement toxique
Paille (dans le sens des tiges) rechercher valeurs 0.08 / / / /
Paille (perpendiculairement aux tiges) rechercher valeurs 0.052 / / / /
Valeurs issues de l’ouvrage L’isolation thermique de la toiture inclinée, ministère de la Région Wallone, L’isolation écologique de J-P. Olivia, éditions terre Vivante, 2001, ouverture d'une nouvelle fenêtre ! www.livios.be, ainsi que des documentations des fabricants.

La PEB impose, lors du calcul du coefficient de transmission des parois (U) que l’on utilise pour les différents constituants des valeurs de conductivité thermique (λ) certifiées (essais réalisés conformément aux normes européennes EN ISO 10456) ou les valeurs par défaut reprises dans l’annexe VII de la PEB.
Malheureusement, l’Annexe VII de la PEB ne fournit pas de valeur pour les matériaux repris dans le tableau ci-dessus. Si aucune certification (agréments techniques…) n’existe, la couche d’isolant ne pourra pas être prise en compte dans le calcul du U des parois pour la PEB  qui est d’application pour les travaux soumis à permis d’urbanisme.

Intérêts des isolants biosourcés

Comme le montre le tableau suivant, les isolants possédant une capacité thermique élevée, garante d’une diffusivité faible et d’une effusivité importante sont généralement les isolants « écologiques » :

ρ ρ * c
[kg/m³] [Wh/m³]
Laine de bois 160 90
Laine de bois 55 31
Liège expansé (vrac) 60 31
Ouate de Cellulose (insufflée) 60 31
Perlite expansée 80 22
Polyuréthane rigide 30 12
Laine de mouton 10 5
Polystyrène 7 3

Mais attention, si le confort d’été est amélioré, l’utilisation d’isolant permettant d’obtenir ces caractéristiques peut conduire à un autre problème. En effet, une trop grande effusivité produira dans la pièce une sensation de surface froide au toucher.

Pour aller plus profondeur sur ce sujet, n’hésitez pas également à visiter notre page consacrée à l’inertie thermique.

Stockage de CO2

Les isolants à base de végétaux, via le processus de photosynthèse, permettent de stocker le CO2 atmosphérique.

Performances hygrothermiques

Outre leur caractère “écologique”, les isolants biosourcés qui nous intéressent ici possèdent des propriétés hygrothermiques prometteuses. Par leur capacité plus ou moins grande à absorber l’humidité, les matériaux en contact avec l’ambiance intérieure peuvent stabiliser les conditions hygrothermiques d’un local et, de la sorte, avoir un impact positif sur le confort.

De nombreuses recherches ont été menées sur ce sujet. Comme par exemple celle réalisée par le département d’ingénierie de la Technical University of Denmark qui a conduit à la définition du paramètre appelé Moisture Buffer Value (valeur de régulation de l’humidité) qui indique la quantité d’eau que l’isolant absorbe et restitue par  unité de surface durant une certaine période quand il est soumis à des variations de l’humidité relative de son environnement. Ce paramètre permet d’analyser le rôle de régulateur d’humidité joué par l’isolant.

Certifications

C’est à ce niveau que se complique la démarche d’éco-construction ! Comme dit auparavant, lors du calcul du U des parois, la PEB implique que l’on utilise comme valeur de λ :

  • une valeur certifiée sur base de la norme de produit NBN EN ou d’un ATE (Agrément Technique Européen). Ces valeurs sont regroupées sur le site ouverture d'une nouvelle fenêtre ! www.epbd.be.
  • ou la valeur par défaut renseignée dans l’annexe VII de la PEB.

Cette manière de faire a pour but de protéger le consommateur, en garantissant la qualité des matériaux utilisés.

Le problème avec les matériaux d’isolations biosourcés est que ces derniers ne sont pas repris dans l’Annexe VII de la PEB et l’utilisation de ceux-ci nécessite donc la réalisation d’une certification pour tous travaux soumis à permis.

Labellisation

Comme annoncé précédemment, l’utilisation d’un matériau issu de sources renouvelables ne garantit pas en pratique le caractère “écologique” de l’isolant (ajout de colle, procédé de fabrication énergivore…). Pour s’assurer que l’isolant a été réalisé dans les règles de l’art, on peut se tourner vers les labels comme www.svanen.se en Suède www.blauer-engel.de en Allemagne ou encore www.certivea.fr en France.

Pour en savoir plus sur les normes en vigueur qui régissent l’utilisation de chacun de ces isolants, voici quelques sources qui peuvent être utiles :

Concernant les isolants à base de cellulose :

Concernant les isolants à base de laine d’origine végétale ou animale :

Concernant les isolants à base de fibre bois :

Concernant les isolants à base de liège :

Concernant les isolants à base de chanvre :

  • réglementation professionnelle et validation en laboratoire des enduits chaux/chanvre pour béton : construire-en-chanvre.fr

Concernant les isolants à base de paille :

Concernant les isolants à base de textile recyclé :

Régulation du ventilo-convecteur deux tubes – deux fils – Schéma 1

Comment réguler le ventilo ?

– schéma 1 »» [0] [1]

Régulation du ventilo-convecteur deux tubes - deux fils - Schéma 1

La production frigorifique avec stockage de glace.

Schéma 1

L’équipement frigorifique peut être complété par un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace. Une vanne trois voies mélangeuse permet de réguler la température de l’eau glacée lors de la décharge du stockage.

Régulation du ventilo-convecteur deux tubes – deux fils – Schéma 0

Comment réguler le ventilo ?

– schéma 0 »» [0] [1]

Régulation du ventilo-convecteur deux tubes - deux fils - Schéma 0

La régulation du ventilo-convecteur deux tubes – deux fils.

> Schéma 0

Une sonde dans la prise d’air permet de commander soit le débit d’alimentation de la batterie froide, soit l’alimentation de la résistance électrique.

Régulation de l’alimentation du ventilo-convecteur quatre tubes – Schéma 1

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 1 »» [0] [1]

Schéma 1

À cet équipement frigorifique peut être adjoint un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace.

La production peut aussi être assurée par une machine frigorifique dont on récupère la chaleur au condenseur : à ce moment, la chaleur captée dans les locaux à refoidir est récupérée dans les locaux à réchauffer! C’est la situation rencontrée en mi-saison. L’installation est alors particulièrement économe puisque seule la consommation des compresseurs est à fournir.

En plein été, la dissipation de chaleur  se fait par un condenseur traditionnel (dit condenseur de rejet). En plein hiver, une chaudière d’appoint reste nécessaire pour vaincre la forte demande.

Régulation de l’alimentation du ventilo-convecteur quatre tubes – Schéma 0

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 0 »» [0] [1]

 La régulation du ventilo-convecteur quatre tubes.

> Schéma 0 : schéma de principe d’une installation ventilos 2 tubes.

La production de chaleur se fait, par exemple, par la chaudière du bâtiment.

La température de l’eau chaude distribuée est alors modulée en fonction de la température extérieure, via la courbe de chauffe du régulateur.

La production d’eau glacée est réalisée par la machine frigorifique. On y rencontre généralement une distribution à un régime constant du type aller 6° – retour 11°, mais les accro’s de l’URE savent qu’il y a là un potentiel d’énergie à récupérer (en augmentant la température de l’eau glacée, on diminue la consommation latente).

Régulation du ventilo-convecteur quatre tubes – Schéma 4

Comment réguler le ventilo ?

– schéma 4 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 4

La régulation vannes 2 voies (vitesse variable).

> schéma 4

La pompe travaille à vitesse variable, et maintient une pression constante dans le réseau. Ceci est nettement plus économique mais suppose qu’une protection des installations de production soit prévue lorsque le débit d’irrigation devient faible : un bypass pour la chaudière et un ballon tampon pour la machine frigorifique.

Régulation du ventilo-convecteur quatre tubes – Schéma 3

Comment réguler le ventilo ?

– schéma 3 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 3

La régulation par vannes deux voies (soupape différentielle).

2° Régulation du circuit hydraulique

Dans les circuits sans vannes ou avec des vannes à trois voies, le débit hydraulique total de l’installation est constant.

Par contre, dans les installations avec vannes deux voies, deux solutions sont possibles

> schéma 3

Une vanne à décharge (encore appelée vanne à soupape différentielle) est placée en parallèle sur le réseau de distribution. La pompe est protégée, elle travaille à débit constant, mais la consommation est constante également !

Régulation du ventilo-convecteur quatre tubes – Schéma 2

Comment réguler le ventilo ?

– schéma 2 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 2

La régulation par réglage de la vitesse du ventilateur.

> schéma 2

Variante : il existe des appareils pour lesquels la sélection de la vitesse du ventilateur est réalisée automatiquement en fonction de l’écart de température par rapport à la consigne (ce sera par exemple le cas pour des appareils ne disposant pas de vanne de réglage sur le débit d’eau).

Si plusieurs ventilos sont prévus dans un même local, il est utile de les faire fonctionner en maître-esclaves, de telle sorte que l’un ne fasse pas du froid quand l’autre fait du chaud !

Régulation du ventilo-convecteur quatre tubes – Schéma 1

Comment réguler le ventilo ?

– schéma 1 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 1

La régulation par vannes trois voies.

1°  régulation de la température

> schéma 1

Une sonde de température est insérée à la prise d’air. En fonction de l’écart à la consigne, on module l’ouverture d’une vanne à trois voies, et donc le débit d’eau chaude (hiver) ou d’eau glacée (été).  Il s’agit généralement d’un régulateur à action progressive. Ce régulateur peut commander plusieurs ventilos d’un même local.

On remarque la présence d’une zone neutre (minimum 2 degrés) pour laquelle l’installation n’est plus alimentée, évitant ainsi le pompage entre chaud et froid. Un agrandissement de cette zone neutre permet des économies d’énergie.

Ceci étant dit, l’occupant peut également agir sur la vitesse du ventilateur pour donner ou non de la pêche à l’émetteur. En pratique, il n’acceptera le bruit de la grande vitesse que pour la relance du matin en hiver ou pendant les canicules en été.

Régulation du ventilo-convecteur quatre tubes – Schéma 0

Comment réguler le ventilo ?

– schéma 0 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 0

La régulation du ventilo-convecteur quatre tubes.

> schéma 0 : schéma de principe d’une régulation du ventilo-convecteur quatre tubes.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 6

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 6 »» [0] [1] [2] [3] [4] [5] [6]

 Distribution par zone (avec circulateur propre).

> schéma 6 : découpage par zone et ciculateur par zone

C’est une variante du schéma précédent.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 5

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 5 »» [0] [1] [2] [3] [4] [5] [6]

 Distribution par zone (avec circulateur commun).

2ème solution : alimentation chaud et froid

> schéma 5 : découpage par zone et circulateur commun

L’inconvénient des ventilos à deux tubes, c’est l’uniformité de la température de distribution de l’eau dans tous les bureaux. De là, le souhait de découper l’installation par zones : la zone en façade Sud, la zone de la salle de conférence,…
Des vannes de commutation sont alors placées à l’entrée et à la sortie de chaque zone. Des consignes différentes sont alors possibles pour chaque local, mais le passage de la distribution d’eau glacée à la distribution d’eau chaude est fait en même temps pour tous les locaux de la zone, … après accord syndical !

En pratique, un régulateur agit sur base d’une sonde de température extérieure, une sonde d’ensoleillement et d’une sonde de compensation d’ambiance dans un local témoin,…généralement chez le chef !

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 4

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 4 »» [0] [1] [2] [3] [4] [5] [6]

 Production chaud/froid par machine réversible.

> schéma 4 : machine frigorifique réversible

La production peut aussi être assurée par une machine frigorifique réversible : lors du changement été/hiver, le sens de circulation du fluide frigorigène s’inverse, et une pompe à chaleur air-eau est créée. Un appoint de chaleur sera nécessaire pour vaincre la pointe hivernale.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 3

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 3 »» [0] [1] [2] [3] [4] [5] [6]

Production frigorifique avec stockage nocturne.

> schéma 3 : stockage de frigories

À l’équipement frigorifique peut être adjoint un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 2

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 2 »» [0] [1] [2] [3] [4] [5] [6]

En hiver, alimentation en eau chaude.

> schéma 2 : situation hiver

La production de chaleur se fait souvent par la chaudière du bâtiment. La température de l’eau chaude distribuée est alors très souvent modulée en fonction de la température extérieure, via la courbe de chauffe du régulateur.

On sera attentif à ce que le basculement froid/chaud se fasse avec un battement suffisamment large pour éviter un phénomène de pompage eau chaude/eau glacée et des pertes d’énergie par mélange eau chaude – eau froide…

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 1

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 1 »» [0] [1] [2] [3] [4] [5] [6]

 En été, alimentation en eau glacée.

1ère solution : alimentation chaud ou froid

> schéma 1 : situation été

La commutation eau glacée/eau chaude est réalisée via deux vannes 3 voies de commutation, encore appelées « change over ». Elles peuvent être commandées manuellement ou automatiquement (en fonction de la température extérieure et de l’ensoleillement).

La production d’eau glacée est réalisée par la machine frigorifique. On prévoit généralement une distribution à régime constant du type aller 6° – retour 11°, mais les accro’s de l’URE savent qu’il y a là un potentiel d’énergie à récupérer (en augmentant la température de l’eau glacée, on diminue la consommation latente) !

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 0

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 0 »» [0] [1] [2] [3] [4] [5] [6]

La régulation du ventilo-convecteur deux tubes.

schéma 0  : schéma de principe d’une installation ventilos 2 tubes.

Régulation du ventilo-convecteur deux tubes – Schéma 4

Comment réguler le ventilo ?

– schéma 4 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur deux tubes - Schéma 4

La régulation de pression du réseau par variation de vitesse du circulateur.

> schéma 4

Soit la pompe travaille à vitesse variable, en maintenant une pression constante dans le réseau. Ceci est nettement plus économique mais suppose une protection des installations de production lorsque le débit d’irrigation devient faible : un bypass pour la chaudière et un ballon tampon pour la machine frigorifique.