Communauté d’énergie : Quel est le cadre mis en place et quels sont les outils à disposition ?

Communauté d’énergie : Quel est le cadre mis en place et quels sont les outils à disposition ?

Webinaire Energie+ – du jeudi 14 décembre 2023

Intervenants :

Philippe Judong – Renewable Energy Communities Projects – TWEED

Cliquez sur ce lien afin d’accéder à la présentation (PDF) de Philippe Judong

Basile CaprasseEco-passeur – Ville de Hannut

Cliquez sur ce lien afin d’accéder à la présentation (PDF) de Basile Caprasse

 Vidéo du Webinaire (appuyez sur « Regarder sur You Tube » afin d’accéder à la vidéo) 


Avec le soutien de :

En partenariat avec l’organisme :

Approcher globalement la question de la ventilation 

Cet article est, pour une large part, basé sur un document réalisé par la NAV (Netwerk ArchitectenVlaanderen) , l’organisation flamande des architectes, dans le cadre du projet d’amélioration de la qualité de l’air intérieur, en particulier dans les bâtiments scolaires initié par le département flamand de l’environnement en collaboration avec le VITO (Vlaamse Instelling voor Technologisch Onderzoek), l’institut flamand de recherche technologique. Cet ouvrage n’existe qu’en néerlandais et peut intégralement être téléchargé via ce lien.

Afin de concevoir un système de ventilation performant, il convient d’éviter ou de limiter drastiquement la présence d’agents tels que le CO2 et l’humidité émis par les personnes présentes, les polluants qui viennent de l’extérieur, les virus et les bactéries. Nous allons voir quelles sont les étapes et les aspects selon lesquels le type de ventilation est choisi.


1. Approche générale

Les professionnels du secteur de la construction doivent tout d’abord faire un état de la situation actuelle et/ou future du bâtiment à construire.

L’utilisateur

Le client  doit être rencontré afin :

  • de l’informer de l’intérêt d’une ventilation efficace en faisant bien la distinction entre ventilation et système de refroidissement de l’air (climatisation, ventilateur, etc.) ;
  • de lui demander son niveau d’exigence en terme non seulement de confort, mais aussi de facilité de prise en main, d’utilisation et de maintenance du (des) système(s) de ventilation proposé(s) ;
  • de s’accorder sur un budget basé sur le coût de l’appareil, son installation, son entretien, ses réparations, maintenances et sa consommation en énergie ;
  • de déterminer le type d’activités prévues selon les pièces et leur taille ainsi que le type d’utilisateurs .

La situation existante

Pour évaluer le système de ventilation adéquat pour évacuer et remplacer l’air « vicié », il faudra calculer le débit d’évacuation de l’air impropre, de renouvellement et d’amélioration de la qualité d’air sain par personne. Pour ce faire, le responsable du bâtiment (responsable énergie ou technicien) devra prendre en compte l’environnement extérieur, l’environnement intérieur ainsi que la ventilation existante.

L’environnement extérieur

Il fera un état des lieux des sources et densité d’agents extérieurs polluants tels que :

  • Les gaz d’échappement liés à un trafic lourd et fréquent de véhicules à proximité,
  • l’activité agricole ou industrielle à proximité,
  • la pollution sonore et olfactive.

Certains types de ventilation tels que des grilles d’aération ne constituent pas une solution au renouvellement de l’air sain si la densité de ces agents extérieurs est trop élevée. Par exemple, l’aération des chambres d’un internat qui surplombe une autoroute, fait face à une forêt ou un littoral sera adapté à l’environnement extérieur.

L’environnement intérieur

Selon la densité moyenne d’occupants et le type d’activités, le responsable du bâtiment doit analyser les types d’agents émis en interne :

  • Des polluants émis par les futurs matériaux de construction,
  • des polluants émis par les matières utilisées pour la décoration et le parachèvement,
  • des bactéries, virus ou émissions de CO2 émis par les occupants,
  • l’humidité de source humaine, végétale ou liée aux installations existantes.

La ventilation existante

L’analyse de ces mêmes circonstances est incontournable en cas de rénovation du système de ventilation. Y seront ajoutées des questions concernant le bâtiment dans son ensemble, le système de ventilation et l’ampleur de la rénovation.

Le bâtiment

  • Quel est l’état de son enveloppe actuelle ? (fissures et fentes impliquant tantôt une perte d’énergie tantôt de la condensation, de l’humidité et de la moisissure) ;
  • Quels sont les matériaux de construction déjà présents ?

Le système de ventilation existant

La rénovation ou l’extension du système de ventilation  déjà en place fera l’objet d’une analyse globale.

L’ampleur de la rénovation

Le responsable du bâtiment devra faire une série d’inspections de la ventilation existante afin d’y apporter des améliorations plus ou moins radicales selon l’ampleur de la rénovation prévue par l’institution concernée.

Cela passera inévitablement par un calcul des débits et flux déjà présents. Selon les superficies et les volumes, quelle quantité d’air se renouvelle chaque heure ? Quelle est la complexité du bâtiment existant ?

Pour connaître tous ces détails, il est primordial d’avoir fait le point sur les questions liées aux utilisateurs du bâtiment déjà existant. On en revient alors aux mêmes questions que celles abordées précédemment sur les futurs utilisateurs. La question est d’autant plus simple que l’usager et ses habitudes sont déjà connus. D’autres aspects tels que la possible utilisation du bâtiment pendant les travaux doivent être mis sur la table.

Enfin, une modernisation importante de la ventilation peut s’avérer coûteuse en cas de bâtiments complexes. Cela peut impliquer une décentralisation des systèmes de ventilation  pour augmenter le rythme et l’efficacité du renouvellement de l’air, en diminuer le volume sonore ou disperser des odeurs indésirables. Dans ce cas, il faut repasser par la case budget afin d’être le plus en accord possible avec l’institution concernée.


Les matériaux de construction

Que ce soit pour une rénovation ou une nouvelle construction, les matériaux doivent faire l’objet d’une analyse minutieuse avant de choisir un système de ventilation adéquat.

L’amiante

Des isolants en amiante non friable sont parfois encore présentes, notamment, pour protéger canalisations et tuyauteries. Elles dégagent ses fibres dans l’air et contaminent y compris les locaux qui n’étaient pas directement parachevés ou isolés à l’amiante.

Le retrait de l’amiante doit se faire dans de strictes conditions de sécurité pour les ouvriers, décrites par l’AGW du 17 juillet 2003 .

Les nouveaux matériaux de construction

Bien que les matériaux d’aujourd’hui soient le fruit de progrès en termes d’écologie, d’isolation et de durabilité, il subsiste encore de nombreux revêtements volatiles dont les évaporations sont tantôt minimales, tantôt significatives. Ces émissions peuvent persister jusqu’à plusieurs mois voire plusieurs années après les travaux. C’est pourquoi un choix de matériaux à faibles émissions ou un délai préalable à l’emménagement dans ces locaux sont à prévoir.

Citons deux exemples :

  • L’augmentation temporaire de concentration de polluants issus de certaines peintures va retomber à un seuil sain peu de temps après son application à condition de bien ventiler les pièces concernées.
  • Certaines résines utilisées contre l’humidité émettent des hydrocarbures qui polluent encore plusieurs années après leur installation.

Voici 2 liens utiles à consulter si vous souhaitez approfondir votre connaissance sur le sujet :

-> Les recommandations en matière de qualité et de renouvellement de l’air intérieur : comment limiter les polluants intérieurs ?


2. Concevoir le système de ventilation

Un système de renouvellement de l’air efficace doit garantir un air sain et confortable dans chaque classe, quelles que soient son utilisation, sa dimension et son occupation. Le gestionnaire du projet va calculer quels sont les débits prescrits en fonction des superficies, volumes et le type d’occupation prévu.

Il va croiser ses calculs afin de concevoir une construction à la fois étanche ET ventilée ! C’est pourquoi, pour des raisons sanitaires évidentes, il est important de passer par des experts en la matière pour contribuer à l’amélioration de la qualité de l’air dans les classes.

Vous trouverez les infos générales sur le dimensionnement des systèmes de ventilation sur la  page suivante.

Examinons ici la situation spécifique des salles de classe.

Voici un tableau récapitulatif provenant du décret flamand sur l’énergie qui prescrit les débits d’air par heure et par personne selon le volume de chaque type de pièce. Les exigences sont identiques à celles d’application en Wallonie.

Ces exigences doivent être combinées avec les prescriptions :

  • Du Code du Bien-être au travail, dont l’article 3 stipule que « L’employeur prend les mesures techniques et/ou organisationnelles nécessaires pour veiller à ce que la concentration de CO2 dans les locaux de travail soit généralement inférieure à 900 ppm ou qu’un débit minimal de ventilation de 40 m3/h par personne présente soit respecté ».
  • De la directive fédérale sur la qualité de l’air intérieur sur les lieux de travail , qui indique un débit de conception de minimum 25 m³/h par personne dans un local à pollution limitée.

De l’analyse au système de ventilation adapté

Une grille de lecture reprenant les étapes d’inspection de l’état actuel de la ventilation et des mesures à prendre en cas de besoins. Cette grille de lecture divise le processus en trois temps :

  1. La détermination du type de bâtiment – ancien ou neuf,
  2. une analyse des risques
  3. et enfin, la détermination de l’humidité de l’air idéale.

Ancien ou nouveau bâtiment

Construire un nouveau bâtiment permettra de ne pas passer par une étude de l’analyse des risques existants. Une fois les volumes, surfaces et occupations connus, on conçoit les systèmes de ventilation en parallèle.

Pour les rénovations ou les extensions, l’analyse se subdivise par zone :

  • Zones humides ;
  • espaces de circulation ;
  • zones spéciales ;
  • locales pour déchets ménagers ;
  • salles techniques ;
  • cuisine ;
  • salles de classe avec fonction spéciale.

Pour chacun de ces locaux, des valeurs sont prescrites et l’audit pourra justifier deux types de mesures à mettre en place par le pouvoir organisateur :

  1. Des actions techniques (rénovation, entretien, maintenance, réparation, etc.).
  2. Des actions organisationnelles permanentes ou l’occupation limitée d’un lieu dans le temps.

Une analyse des risques

Une première analyse de risques doit se faire sur base des sources citées plus haut : occupation, situation existante, environnement intérieur et extérieur afin de bien définir quel(s) type(s) de  ventilation est de mise selon :

  • L’occupation de personnes,
  • les matériaux existants,
  • la ventilation et traitement de l’air actuels,
  • l’entretien des ventilations,
  • le système de chauffage.

La détermination de l’humidité de l’air idéale

La stabilité d’un air ni trop humide ni trop sec dépend de l’occupation de chaque local.

On distingue :

  • L’occupation humaine : où les personnes passent le plus de temps,
  • l’occupation non humaine : où les personnes n’effectuent qu’un court passage,
  • les zones spéciales : cages d’ascenseurs, locaux techniques ou laboratoires.

Selon le Code du bien-être au travail, les valeurs usuellement retenues entre 40 et 60 % d’humidité peuvent être revues entre 35 et 70 % si le pouvoir organisateur sait justifier qu’aucun agent chimique ou biologique ne viendra atteindre la santé de ses occupants.

Par exemple, pour les locaux sanitaires, la ventilation doit prévoir un renouvellement de l’air de 25 m³/h par personne pour des urinoirs, 50 m³/h par personne pour des WC ou encore 75 m³/h par personne pour des douches.

Ces plages sont suffisamment larges pour ne pas justifier l’installation de déshumidification dans les salles de classe. A priori, il n’est pas nécessaire non plus de prévoir d’humidification. Cependant, si le groupe de ventilation n’est pas conçu pour ajuster son débit en cas, par exemple, de sous occupation des locaux, le risque d’un assèchement inconfortable est réel. Il pourrait alors être prudent de disposer, dans l’école, de quelques humidificateurs mobiles pour corriger des problèmes ponctuels.


Des mesures face aux contaminants

Suite à l’analyse des risques, des mesures doivent être prises par les instances dirigeantes ou le pouvoir organisateur dans le cas d’une école afin de démontrer que les locaux garantissent une faible émission. Pour éradiquer ou diminuer drastiquement les contaminants (virus, CO2 et bactéries) ces mesures sont prises en concertation avec le personnel compétent en matière de sécurité .

Prévoir un plan d’action

Si l’analyse des risques le justifie, un plan d’action doit être mis en place par les instances dirigeantes ou le pouvoir organisateur afin de contribuer à l’amélioration de la qualité de l’air des différentes pièces et plus généralement du bâtiment public dans son ensemble en termes de :

  • Répartition de l’air,
  • fluctuation des températures,
  • nuisances sonores ,
  • vibrations,
  • entretien des installations de ventilation.

Une fois les actions définies, le type de ventilation pourra alors être choisi parmi 4 systèmes différents :A, B, C ou D :

  • Les ventilations A et B sont naturelles, mais le contrôle limité sur leur fonctionnement engendre des pertes énergétiques.
  • La ventilation C se base sur un renouvellement naturel de l’air combiné à une ventilation mécanique. Il est généralement conseillé pour les bâtiments scolaires.
  • La ventilation D réutilise la chaleur de l’air pollué avant de le rejeter vers l’extérieur. C’est un système qui correspond aux maisons dites « passives ».

Selon nous, l’expérience montre à suffisance que seuls les systèmes de ventilation mécanique avec récupération de chaleur sont en mesure d’assurer une qualité d’air adéquate sans générer d’inconfort thermique majeur. Ils sont donc à privilégier.


3. La ventilation : son installation et son exécution

Une fois le type de ventilation défini en fonction de tous les facteurs cités plus haut, viennent les phases d’installation et d’exécution.

L’emplacement des systèmes de ventilation

Indiqué sur le plan de rénovation ou de construction, le système de ventilation doit se situer dans un endroit accessible à l’installation et à l’entretien. Son emplacement doit être choisi aussi en fonction des nuisances sonores possibles ou thermiques .

L’emplacement des entrées et sorties d’air

Les entrées et sorties d’air peuvent se faire par différents moyens :

  • Grilles d’aspiration et d’extraction de l’air vers l’extérieur,
  • ouvertures qui permettent le passage de l’air entre une pièce sèche et une pièce humide,
  • conduits en gaines galvanisées à placer dans des puits, plafonds suspendus ou apparents dans des locaux occupés ou pas. Le dimensionnement des ouvertures naturelles ou mécaniques doit être conçu afin de ne pas gêner les occupants des locaux concernés.

Aussi, un plan en 3D permettra d’estimer les conséquences du poids de l’appareillage sur la résistance structurelle du bâtiment et autres installations :

  • Plafonds, planchers et poutres,
  • canalisations,
  • murs extérieurs et porteurs,
  • installations électriques.

Le but est d’éviter l’influence des systèmes de chauffage et refroidissement sur la ventilation. Afin d’optimiser l’équilibre entre, d’une part, les extractions ou les entrées d’air et, d’autre part, les changements thermiques qui en résultent, toute l’installation doit être pensée pour compenser ou compléter le système thermique choisi.


4. Le suivi et la maintenance

Tel que nous venons de le voir, l’installation d’un système de ventilation visant à améliorer l’air dans les différentes pièces ne peut se faire qu’en passant par une série d’étapes qui impliquent des aspects aussi bien quantitatifs que qualitatifs. C’est pourquoi tous les acteurs de ce processus se doivent de connaître tous les détails de l’installation une fois terminée.

Installé dans les faux plafonds, occultés derrière des parois ou accessibles via des locaux techniques, le système de ventilation n’est pas toujours accessible à des personnes non compétentes. Parfois, le but est d’éviter aux utilisateurs de modifier l’équilibre savamment calculé par les professionnels du secteur. Ils risqueraient de provoquer des effets indésirables sur le confort, le bien-être et la santé des occupants.

Le concepteur doit donc donner à son client les éléments nécessaires afin qu’il comprenne, surveille, nettoie et entretienne convenablement son installation . Parmi eux, citons entre autres les plans d’exécution, les fiches techniques des matériaux, les rapports d’inspection, de démarrage et les schémas électriques de la ventilation. Une fiche reprenant les coordonnées des entreprises et des responsables doit également être fournie à l’utilisateur final.

Si vous souhaitez aller plus loin dans la gestion de la ventilation afin de prévenir la dispersion d’agents pathogènes , n’hésitez à consulter l’article réalisé en juillet 2020 durant la pandémie du COVID-19.

vers le 0 emissions de CO2

La démarche “Bâtiment zéro carbone”

La démarche des bâtiments zéro carbone n’est ni un label, ni une définition formelle d’objectifs à atteindre mais une démarche globale pour se rapprocher au maximum de la neutralité carbone.


La neutralité carbone : un indiscutable impératif écologique

D’ici 2050, de nombreux défis devront être relevés : d’une part, l’amélioration de la performance énergétique des bâtiments devra s’accompagner d’une amélioration de la performance environnementale, et d’autre part, le secteur de la construction devra se transformer afin d’augmenter le nombre et l’ampleur des rénovations, comme le prévoit le Green Deal européen.

Dans sa stratégie à long terme pour 2050, la Commission européenne reconnaît la nécessité d’une décarbonation quasi complète du secteur du bâtiment pour atteindre ses objectifs climatiques.

Les bâtiments dans le monde représentent jusqu’à 45 % de la consommation totale d’énergie et des émissions de carbone, ce qui indique que les bâtiments sont le principal facteur de changement climatique anthropique. Les bâtiments ont donc été identifiés comme offrant les meilleures possibilités de réduction des émissions de carbone. La construction sans carbone a été considérée comme une approche importante pour réduire les émissions de carbone associées aux bâtiments et a attiré une attention politique importante dans de nombreux pays((PAN W. (2014). System boundaries of zero carbon buildings.)).

Dans le même temps, les citoyens ont beaucoup à gagner de la décarbonation des bâtiments, notamment en termes de santé, d’emploi, de réduction de la facture énergétique des ménages et d’économies sur les coûts du système.


La nécessité d’accélérer des politiques énergétiques actuelles face à l’urgence

Un nouveau rapport publié par l’European Climate Foundation (ECF), préparé par CE Delft, montre que malgré la nécessité, les avantages et l’urgence de décarboner les bâtiments européens, le secteur n’est pas actuellement sur une trajectoire vers le zéro carbone d’ici 2050. Les politiques actuelles axées sur les incitations et l’information ne sont pas suffisantes pour atteindre cet objectif. Selon ce rapport, les politiques actuelles ne seraient capable de réduire les émissions des bâtiments que de 30% d’ici 2050((Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020)).

 

démarche 0 carbone

Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020.


La neutralité carbone

Nous considérons que la neutralité carbone consiste à atteindre un équilibre entre les émissions de CO₂ d’origine humaine et leur élimination de l’atmosphère. Cependant, dans la pratique, les possibilités d’éliminer le CO₂ de l’atmosphère étant limitées, la neutralité carbone ne sera atteinte qu’en limitant très fortement les émissions, en agissant en faveur d’une multiplication des possibilités d’élimination du CO2 et en compensant les émissions d’un secteur en les réduisant ailleurs, en investissant par exemple dans les énergies renouvelables, l’efficacité énergétique, etc…

En ce qui concerne les bâtiments, une partie des émissions de CO₂ est liée à la consommation d’énergie opérationnelle, c’est-à-dire l’énergie consommée pendant l’utilisation des bâtiments, et une autre partie est due à la fabrication, au transport et à l’application des matériaux. Actuellement, les exigences réglementaires n’incluent pas l’empreinte carbone des matériaux.

Nos Régions ont donc développé l’outil TOTEM (Tool to Optimise the Total Environmental Impact of Materials), qui vise à évaluer les impacts environnementaux de leurs projets de construction à l’aide de 17 indicateurs, dont le CO₂. (voir Les Dossiers du CSTC 2018/2.2).

En effet, on sait que :

  • l’impact environnemental des bâtiments est bien plus important que la seule énergie qu’ils consomment
  • Plus la performance énergétique des bâtiments s’améliore, plus la part des émissions de CO₂ liée aux matériaux mis en œuvre augmente (voir schéma).

QZENDeltour., N. Heijmans (2020). Du Nearly Zero Energy Building à la neutralité carbone.

Les deux voies principales pour approcher cette neutralité carbone sont donc :

  • l’ abandon quasi total des énergies fossiles (gaz, pétrole, charbon, …) car elles émettent massivement du CO₂ lors de leur combustion.
  • l’ évolution de notre régime en terme de matériaux
    • processus de fabrication/recyclage des matériaux
    • processus de construction/déconstruction des bâtiments ((Deltour., N. Heijmans (2020). Du Nearly Zero Energy Building à la neutralité carbone))

Comment approcher concrètement cette neutralité carbone ?

En se concentrant sur trois domaines où le potentiel de réduction des émissions est le plus important, à savoir la performance énergétique de l’enveloppe des bâtiments existants, les vecteurs énergétiques et les matériaux de construction, le rapport publié par l’ECF (préparé par CE Delft et Climact) recommande une toute première feuille de route à long terme des politiques visant à réaliser des réductions essentielles de carbone dans le secteur des bâtiments résidentiels. Celle-ci est, pour une large part, également valable pour les écoles.

Les mesures ont été regroupées en cinq « zones cibles d’émissions » :

  • L’enveloppe du bâtiment :
    • Améliorer l’enveloppe des bâtiments existants et nouveaux pour réduire la demande d’énergie pour le chauffage et la climatisation.
    • Réduire le niveau d’émissions intrinsèques associé aux matériaux de construction utilisés.
  • Changement de combustible de chauffage :
    • Décarbonation de la demande résiduelle de chauffage par le passage à des vecteurs énergétiques sans carbone (électricité renouvelable, chauffage urbain, gaz sans carbone, biomasse durable).
      Ce changement englobe la décarbonation du vecteur énergétique (combustible) ainsi qu’un système de chauffage différent dans le bâtiment, et souvent aussi une infrastructure énergétique nouvelle ou adaptée.
  • Efficacité des appareils ménagers :
    • Remplacement des appareils électriques par des appareils plus efficaces.
  • Électricité renouvelable :
    • Décarbonation de l’électricité résiduelle en passant à une électricité 100 % renouvelable.
  • Matériaux de construction décarbonés :
    • Utilisation de matériaux recyclés et sans carbone dans la construction et la rénovation et passer à une industrie 100 % décarboné((Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020)).

Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020.

Schéma © Architecture et Climat (UCL).

Nous avons pu également relier cette démarche à une norme déjà active au Canada depuis 2017.
Cependant, contrairement à cette norme, nous voyons la démarche des bâtiments zéro carbone comme quelque chose qui n’est :

  • ni un label
  • ni une définition formelle d’objectifs à atteindre
  • mais une démarche globale pour se rapprocher au maximum de la neutralité carbone.

Les cinq axes de réflexion principaux des bâtiments zéro carbone que nous leur empruntons seraient donc :

  • la réflexion sur le carbone intrinsèque : reconnaître l’importance des impacts des matériaux du bâtiment sur le cycle de vie
  • la diminution des émissions de gaz à effet de serre par l’ arrêt de brûler quoi que ce soit, à moins que la source soit locale, durable (biomasse gérée durablement/pompe à chaleur)
  • la compressions des besoins d’ énergie opérationnelle
    • chauffage par un travail sur l’enveloppe
    • électricité par un travail sur les talons de consommations et l’efficacité des appareillages/systèmes/luminaires
  • la couverture de ces besoins par l’ énergie renouvelable produite sur place au maximum sinon achetée au fournisseur
  • la réduction de la demande d’ énergie de pointe

Réflexion sur le carbone intrinsèque

L’analyse multicritère des impacts d’un matériau ou d’une solution est un exercice complexe.

Si on privilégie le réemploi et qu’on choisit des matériaux

  • fabriqués partir de matières premières renouvelables (et renouvelées !) et/ou ou à partir de matières recyclées ;
  • peu transformés (surtout thermiquement) ;
  • peu ou pas traité, n’utilisant pas de produits toxiques ;
  • résistants et réparables ;
  • issus de filières locales et d’entreprises qui respectent leurs travailleurs ;
  • assemblés mécaniquement ;
  • réutilisables ou recyclables en fin de vie.

Alors, on est dans le bon ! Analysons tout ceci de façon détaillée via le site « rénover mon école ».

Schéma © Architecture et Climat (UCL).


Une vision dépassant le seul domaine de la construction : concevoir avec une vision globale pour de meilleurs résultats.

En 2014, un chercheur chinois a tenté de cadrer théoriquement le terme ‘bâtiment zéro-carbone (ZCB)’ afin de pallier les manques de connaissances des fondements théoriques et des limites qu’il identifie dans ses recherches. En effet, pour lui, les ZCB sont des “systèmes sociotechniques complexes qui ne peuvent être examinés efficacement sans définir explicitement leurs limites […] car toutes les stratégies de réduction du carbone impliquent des facteurs politiques, économiques, techniques, sociaux et comportementaux qui relient de multiples parties prenantes telles que les praticiens, les occupants et les chercheurs”. Dès lors, concevoir un ZCB peut parfois s’avérer plus complexe que prévu. ((PAN W – 2014 –  System boundaries of zero carbon buildings))

Aujourd’hui, une planification urbaine de plus en plus intelligente maximise les possibilités de conception à faible émission de carbone dans les bâtiments et les infrastructures environnantes.

Lorsque les bâtiments sont considérés, par exemple, comme une source d’énergie pour les véhicules électriques, il est clair que les frontières interdisciplinaires sont franchies. La conception des bâtiments peut donc faire partie d’un ensemble plus vaste qui englobe également les transports et la planification urbaine.

Il est bon de rappeler que la conception de bâtiments à faible émission de carbone tient également compte des scénarios d’utilisation future et de fin de vie, en maximisant le potentiel d’entretien, de réparation, de rénovation et d’adaptation. Une conception intelligente pour le désassemblage et la déconstruction choisit et utilise des matériaux qui peuvent être recyclés, ou qui peuvent être extraits et séparés facilement pour être traités.

Parallèlement, les mesures de performance de dernière génération relèvent le niveau des normes de conception dans les nouvelles constructions, dans le but d’éliminer les émissions de carbone associées aux coûts d’exploitation. Dans ce contexte, l’accent est mis sur le suivi et la mesure des résultats avec une fiabilité et une rigueur accrues, et sur l’utilisation de solutions de conception intégrées pour atteindre des émissions nettes nulles aujourd’hui tout en préparant l’avenir.

 

Prévenir la dispersion d’agents pathogènes


Gouttelettes et aérosols

L’épidémie liée au coronavirus SARS-CoV2 est l’occasion de faire le point sur la dispersion des agents pathogènes dans les bâtiments, et le rôle des réseaux de ventilation.

A l’évidence, les espaces confinés et mal ventilés sont favorables à la transmission des infections respiratoires. La durée de l’exposition à ce type d’environnement semble jouer un rôle (dans ce type d’espaces, les transmissions se font de deux façons : par gouttelettes, expulsées lorsque l’on parle, éternue ou tousse, et par aérosols).

La différence entre gouttelettes et aérosols tient en leur taille et, par conséquence, leur capacité à rester plus ou moins longtemps en suspension dans l’air et à éventuellement se disperser dans un réseau de ventilation. Certaines maladies, notamment liées au coronavirus SARS-CoV2, se transmettent également par le contact de surfaces infectées. Il s’agit là d’un mode de transmission qui n’est pas lié aux aspects techniques du bâtiment et que nous n’aborderons pas.

Les gouttelettes (> 10 micron) sont relativement lourdes et tombent à 1 ou 2 mètres de la personne qui les émets en toussant ou éternuant. La transmission se fait dès lors largement par le contact des mains avec des surfaces ou objets préalablement contaminées, puis le transfert des mains vers les yeux ou le système respiratoire. Une transmission directe par inhalation est néanmoins possible entre deux personnes proches (1 à 2 mètres).

Les aérosols sont formés par l’évaporation et dessiccation de gouttelettes. Il a été montré que les particules SARS-CoV-2 peuvent rester actives près de 3 heures dans l’air après leur production ((REHVA, REHVA COVID-19 guidance document, April 3, 2020, disponible sur : https://www.rehva.eu/fileadmin/user_upload/REHVA_COVID-19_guidance_document_ver2_20200403_1.pdf)).Des particules si petites peuvent facilement être portées sur de longueurs distances par des  mouvements d’air tels que présents dans les bâtiments. La contamination se produit alors par inhalation sans contact rapproché.

Covid19 Prévenir la dispersion d’agents pathogènes

Modes de transmissions des coronavirus (inspiré de publications de l’OMS).


Recommandations

Rapidement après le début de l’épidémie de COVID19, la Fédération des Associations Européennes de Chauffage, Ventilation et Air-conditionnée (REHVA) a publié des recommandations destinées à prévenir la transmission de la maladie. Ces recommandations n’étant pas, à ce moment, appuyées par des preuves scientifiques suffisantes, il s’agissait de recommandations de prudence pour les bâtiments tertiaires, à l’exclusions des bâtiments de soins.

Il est à noter qu’au moment de la publication des recommandations du REHVA, il était supposé que la transmission du SARS-CoV2  ce faisant par gouttelettes et contact uniquement. La transmission par aérosols n’avait pas encore été mise en évidence.

Les études scientifiques avançant, le European Center for Disease prevention and Control (ECDC) a publié en juin 2020 des recommandations concernant les  systèmes de ventilation dans le cadre de la prévention du COVID19. Celles-ci sont globalement cohérentes, bien que moins détaillées, que celles du REHVA.

Globalement, ces recommandations portent principalement sur le maintien de taux de renouvellement d’air élevés.

Dans ce qui suit, sauf mention contraire, les recommandations pointées sont celles du REHVA.


Garantir des débits de ventilation élevés

L’objectif est d’assurer le plus haut taux de ventilation possible par personne, grâce à :

  • L’élargissement des plages de ventilation : commencer la ventilation hygiénique 2 heures avant l’occupation du bâtiment, et l’interrompre deux heures après.
  • La continuation d’une ventilation non-nulle en-dehors des périodes d’occupation.
  • L’adaptation des consignes de modulations, par exemple en réduisant les valeurs cibles des régulations sur base de CO2 à 400 ppm, de sorte que le débit nominal de l’installation soit assuré en permanence.

En mi-saison, ces recommandations ont un impact énergétique limité. En plein été ou hiver par contre, elles risquent d’augmenter significativement les charges thermiques. Il faut donc rester vigilant et veiller à revenir à un fonctionnement « normal » dès que la situation sanitaire le permet.

D’autres recommandations liées sont :

  • D’utiliser autant que possible de l’air extérieur, notamment par l’ouverture des fenêtres, même dans les bâtiment équipés de systèmes de ventilation mécaniques. Cela revient à valoriser les solutions de ventilation intensive mécanique  ou naturelle, comme on le fait pour éviter les surchauffes estivales.
  • De garantir la dépression dans les locaux sanitaires pour limiter les risques de transmission fécale-orale. Cela implique de ne pas y ouvrir les fenêtres lorsqu’une évacuation mécanique par cheminée est prévue, pour ne pas risques des inversions de flux d’air.

La Taksforce Ventilation du Commissariat Corona recommande de ne pas dépasser 900 ppm et en aucun cas dépasser 1200 ppm ((https://emploi.belgique.be/sites/default/files/content/documents/Coronavirus/Plan_ventilation.pdf)).


Pas de recirculation d’air

A ce jour (juillet 2020), il n’y a pas de preuve de cas de contamination COVID19 liées à des réseaux de ventilation ((ECDC, Heating, ventilation and air-conditioning systems in the context of COVID-19, juin 2020,
disponible sur : https://www.ecdc.europa.eu/sites/default/files/documents/Ventilation-in-the-context-of-COVID-19.pdf)). Néanmoins,  les aérosols sont plus fins que les filtres classiquement utilisés et peuvent donc être distribués dans un bâtiment par un système de ventilation avec recyclage d’air. Ces systèmes doivent donc être absolument évités en période d’épidémie.

La présence de filtres en amont des clapets de mélange ne change pas cette recommandation, dans la mesure où ils ne sont pas assez fins que pour éviter le passage de particules de type aérosols.

Des systèmes de refroidissement à détente directe,  tels que les climatiseurs, entrainent également des mouvements d’air important dans un local, ce qui peut favoriser la dispersion des aérosols. L’usage de ceux-ci doit également être évité. Par contre, si ces climatiseurs ne peuvent être arrêtés complètement, il est recommandé de laisser tourner leurs ventilateurs en continu, de façon à éviter une sédimentation de particules au niveau des filtres et un apport important de particules dans l’air au moment du réenclenchement.

Dans le même esprit, on évitera les pulsions  d’air directement sur les personnes pour éviter que ce jet ne devienne vecteur de transmission si la personne qui se trouve dans le flux est infectée.


Utilisation sûre de la récupération de chaleur

Des inétanchéités au sein du dispositif de récupération de chaleur peuvent engendrer des contaminations, comme le ferait un recyclage.

C’est particulièrement sensible pour les échangeurs à régénération. En théorie, et lorsque l’installation est  bien réalisée et entretenue, les inétanchéité de ces échangeurs sont de l’ordre de 1 à 2% du débit passant, similaire à celles des échangeurs à plaques. Des inétanchéités de l’ordre de 20% sont par contre possibles en cas de défaut, typiquement à cause de déséquilibres entre les débits entrant et sortant.

Pour résoudre cela à court terme, une augmentation des débits globaux est recommandée, les déséquilibres étant relativement plus important à petits débits. Un by-pass de l’échangeur de chaleur et également possible, sans conséquence énergétique importante en mi-saison.


Eventuellement prévoir une filtration spécifique

Les particules liées à la transmission du SARS-CoV2  sont dans la gamme 70-120 nm. Pour cette gamme de particule, les filtres de type HEPA ont montré leur efficacité. Il s’agit des filtres dit « absolus », ou classes H10 à H14 selon la norme EN779, à savoir les filtres généralement utilisés dans les laboratoires, salles d’opérations, industries pharmaceutiques, … bien plus fins que ceux présents habituellement dans les bâtiments tertiaires.

Néanmoins, des systèmes de filtrations autonomes spécifiques peuvent être temporairement ajouté dans les locaux, pour peu qu’ils soient équipés de filtres HEPA. Leur efficacité a été démontrée, avec des réductions de concentration d’aérosols allant jusqu’à 90% ((J. Curtius, M. Granzin & J. Schrod (2021) Testing mobile air purifiers in a school classroom: Reducing the airborne transmission risk for SARS-CoV-2, Aerosol Science and Technology, DOI: 10.1080/02786826.2021.1877257)). Attention cependant à correctement les dimensionner. Leur efficacité dépendra de leur capacité à gérer le volume d’une classe. Un outil d’aide au dimensionnement est disponible.

Les systèmes portables de filtration électrostatique ou de désinfection par ultra-violet peuvent également être efficaces, lorsqu’il n’est pas possible d’assurer un apport d’air neuf important ((Hogeling, Jaap, et al. How Can Airborne Transmission of Covid-19 Indoors Be Minimised ? Disponible sur https://scholar.colorado.edu/concern/articles/8w32r666s)).  Mais dû au faible débit que ces systèmes peuvent traiter, ils ne purifieront que des petites zones et doivent donc être placés à proximité immédiate des occupants. Attention cependant aux émissions d’ozone que ces types de purificateurs d’air engendrent.  Un rapport présentant les différentes technologies de purificateurs d’air est indiqué en bibliographie ((Kirkman, Sophie, et al. Effectiveness of Air Cleaners for Removal of Virus-Containing Respiratory Droplets: Recommendations for Air Cleaner Selection for Campus Spaces, May 2020, disponible sur https://shellym80304.files.wordpress.com/2020/06/air-cleaner-report.pdf)).

L’arrêté ministériel du 12 mai 2021 relatif aux conditions de mises sur la marché de produits purificateurs d’air donne des indications précieuses sur quelles technologies éviter et privilégier. Bien que limité dans sa durée d’application et lié au contexte spécifique de la pandémie SARS-CoV-2, nous estimons que ces règles peuvent servir de cadre plus général dans le choix des systèmes de purification. Cet arrêté rappelle la priorité à donner à l’aération des espaces sur la purification d’air, et précise dans son article 5 qu’est interdite la mise sur la marché des produits mobiles et non mobiles de purification d’air destinés à être installés dans les locaux fréquentés par le public et qui se composent d’une ou plusieurs des techniques suivantes couplées ou non à une ventilation :

  • de l’ozone, les systèmes à plasma froid ;
  • les systèmes qui utilisent des UV-C et qui ne suivent pas les conditions fixées à l’article 3, 7° et à l’article 4, 8° ;
  • la combinaison d’UV et de solides photo-catalytiques (principalement le TiO2) ;
  • l’ionisation de l’air sans capture des précipités ;
  • brumisation au peroxyde d’hydrogène.

Le même arrêté encadre les performances attendues des systèmes de purification autorisés (voir le texte de l’arrêté pour les détail des exigences) :

  • Filtres : filtres répondent aux normes HEPA de la classe H13 (efficacité de rétention de 99,95%), HEPA de la classe H14 et EPA de la classe E12 (efficacité de rétention de 99,95%, de 99,995% et 99,5% respectivement, selon les normes NBN EN 1822:2019 et EN ISO 29463). Les filtres doivent être intégrés dans un boitier au système de ventilation pour prévenir toute fuite possible de sorte que l’efficacité totale du système est égale à l’efficacité du filtre seul.
  • Précipitateur électrostatiques : l’efficacité des précipitateurs électrostatiques est au minimum celle des filtres EPA de la classe H13. Le système de collecteur de précipités doit être remplaçable et la production d’ozone affichée sur l’appareil, les lampes doivent être placées dans un boîtier d’où aucune lumière ne peut s’échapper, ou le système de purification d’air non mobile doit être conforme aux normes de sécurité EN ISO 15858.
  • lampes UVC : la longueur d’onde des lampes UVC doit être garantie, par le fabricant ou le responsable de la mise sur le marché selon leur utilisation : entre 185 et 240 nm pour générer de l’ozone et entre 220 et 280 nm pour inactiver le SARS-CoV-2, avec une efficacité au moins équivalente à celle des filtres EPA de la classe E12. Les lampes doivent être placées dans un boîtier d’où aucune lumière ne peut s’échapper et conformes aux normes de sécurité reconnues EN IEC 60335-2-65 dans le cas d’un système fermé, ou aux normes de sécurité reconnues EN IEC 62471 et IEC PAS 63313 dans le cas d’un système ouvert.

Efficacité des différents systèmes de filtration

Pour la plupart des techniques, leur efficacité n’est prouvée qu’en laboratoire. Or, les conditions réelles influent largement sur la circulation de l’air et des particules par les mouvements des personnes. L’efficacité de tous les purificateurs dépend aussi de leur CADR. 

Le CADR pour « Clean Air Delivery Rate » correspond au débit d’air purifié par un appareil en m3/heure. Certains systèmes sont dotés de plusieurs positions de CADR. Dans ce cas, elles doivent être mentionnées par le fabricant, soit sur l’appareil lui-même, soit dans son manuel technique.

En conclusion, les chercheurs et les autorités se rejoignent pour dire que l’usage des purificateurs d’air est fortement conseillé, particulièrement dans les lieux où une aération régulière n’est pas possible. Il est sûr que ces appareils ne garantissent pas un air totalement sain. Dans les recommandations principales en matière de protection contre le SARS-CoV-2 dans les lieux clos, les autorités insistent sur l’aération des pièces. Aucun dispositif de purification d’air présent sur le marché ne peut se substituer au renouvellement de l’air par aération. Au niveau français, le Haut Conseil Supérieur de la Santé (HCSP) insiste aussi sur la nécessité du respect des gestes barrières, ils réduisent fortement le risque de transmission du SARS-CoV-2((Haut Conseil de la santé publique – Avis relatif au recours à des unités mobiles de purification de l’air dans le cadre de la maitrise de la diffusion du SARS-CoV-2 dans les espaces clos – 14 mai 2021)). 

Pour les personnes souhaitant équiper leur établissement d’un purificateur d’air, une liste des appareils contrôlés est disponible sur le site du Service Public Fédéral de la Santé : https://www.health.belgium.be/fr/list-des-produits-de-ventilation-purification-contre-la-covid-19-controles-et-autorises

Afin de compléter notre propos concernant la filtration, voici également un article portant sur la classification des filtres à air.


Prendre ses précautions lors des entretiens

Les entretient normaux d’équipement techniques tels que les filtres ou ventilateurs doivent être maintenus en période d’épidémie, pour assurer leur bon fonctionnement, en particulier garantir que les débits d’air souhaités sont effectivement obtenus.

Cependant, il faut veiller à la santé des personnes qui effectuent ces entretiens. On partira donc du principe de sécurité que les équipements  faisant l’objet de l’entretien son contaminés, en particulier les filtres liés au réseau d’extraction d’air, dans des bâtiments où des cas de contamination ont été identifiés.

Le personnel interviendra dans une installation à l’arrêt, pour ne pas se trouver dans un flux d’air potentiellement contaminé, sera équipé de gants et  d’une protection faciale, et les filtres usagés seront placés dans des sacs scellés.


Les fausses bonnes idées

Contrairement à d’autres transmissions par virus, jouer sur les conditions d’ambiance hydrique et thermique n’a pas d’impact sur les coronavirus. Ceux-ci résistent sans difficultés jusqu’à des humidités au-delà de 80% et des températures au-delà de 30°C, soit au-delà des zones de confort. L’humidification et le traitement d’air ne sont donc pas des moyens de prévention efficaces, et il n’y a pas lieu de modifier les consignes habituelles. Néanmoins, l’ASHRAE recommande de maintenir une humidité relative supérieure à 40%, notamment pour limiter le stress au niveau des systèmes respiratoires des occupants ((ASHRAE, COVID-19 (CORONAVIRUS) PREPAREDNESS RESOURCES, juin 2020,
disponible sur https://www.ashrae.org/technical-resources/resources)).

De la même façon, le nettoyage des conduits de ventilation ne limite pas les risques de contamination. Les particules sont soit trop lourdes pour être aspirées dans les conduits, soit trop légères (aérosols) que pour se déposer à leur surface. Il n’est donc pas recommandé d’augmenter la fréquence d’entretien normale.

Enfin, les remplacement de filtres au niveau des prises d’air extérieur ne doivent pas être fait plus fréquemment qu’à l’accoutumée. Ces filtres ne sont pas considérés comme des sources de contamination, et l’air extérieur est supposé sain.

Les dossiers thématiques : SmartBuilding

Les dossiers thématiques : SmartBuilding


Introduction

Le bâtiment demeure l’un des plus importants postes de consommation d’énergie en Belgique et plus généralement en Europe. Aujourd’hui plus de 80% des coûts d’exploitation du bâtiment sont liés aux personnes qui les occupent et environ 30% des coûts opérationnels d’un bâtiment sont consacrés à l’énergie. La maîtrise de l’efficacité énergétique des bâtiments permettant de réduire substantiellement la consommation énergétique et les émissions de CO2 est donc un facteur indispensable au développement du bâtiment et plus généralement de la ville de demain.

Dans ce contexte, les bâtiments tertiaires possèdent indéniablement le plus grand potentiel d’économie d’énergie de tous les secteurs d’activités. Les nouvelles technologies de l’Information et de la Communication (NTIC) offrent notamment de nouvelles perspectives par une amélioration du contrôle et de la gestion de l’énergie. La possibilité d’accéder directement à des données interconnectées au sein d’un même bâtiment permet d’intervenir rapidement sur les installations et équipements afin de corriger un dysfonctionnement ou une surconsommation détectée. Dans un futur très proche, le développement d’une maintenance prédictive permettra par ailleurs, grâce à l’analyse des données, de prévoir ces dysfonctionnements et d’agir en amont, avant que l’équipement ne tombe en panne, réduisant ainsi les coûts de maintenance et la consommation énergétique globale des bâtiments. Ces principes ont pour ambition de transformer le bâtiment, tant dans sa conception que dans la façon d’y vivre ou d’en gérer la consommation. Cet écosystème ouvert s’articule aujourd’hui autour du concept de « SmartBuilding ».


Contenu

Théories

Techniques

Stockage d’énergie

Flexibilité électique

Réglementations

Passerelles réseau

Passerelles réseau


La passerelle est un élément du réseau de communication qui permet de lier des branches utilisant des protocoles différents. Ces éléments sont extrêmement importants dans la réalisation d’un Smartbuilding car ils permettent à différents écosystèmes de fonctionner ensemble en assurant la traduction d’un protocole vers l’autre.

En plus d’assurer la continuité du réseau, la passerelle analyse l’ensemble des données qui transitent. Tout d’abord pour pouvoir les traduire mais également pour les filtrer. Si une requête ne rentre pas dans le cadre fixé par l’intégrateur, cet évènement sera filtré et n’aura pas lieu mais sera tout de même consigné dans un historique. Les passerelles assurent donc un niveau supplémentaire de sécurité au réseau.

SRI (Smart Readiness Indicator) ou Indicateur de Potentiel d’Intelligence

SRI (Smart Readiness Indicator) ou Indicateur de Potentiel d'Intelligence

SRI (Smart Readiness Indicator) ou Indicateur de Potentiel d’Intelligence.

Ce nouveau paramètre facultatif introduit par la directive européenne 2018/884 sur la performance énergétique des bâtiments vise à quantifier la capacité d’un bâtiment à intégrer et utiliser les nouvelles technologies et systèmes électroniques pour répondre aux besoins des occupants, optimiser les performances et interagir avec le réseau.

À l’instar des certificats PEB, le SRI (Smart Readiness Indicator) a également pour objectif de permettre aux occupants (locataires et propriétaires) de rendre palpable, tangible l’intelligence d’un bâtiment.

L’indicateur vise donc à conscientiser les acteurs de la construction, propriétaires et occupants des bénéfices des technologies dites intelligentes mais aussi à accélérer le déploiement de ces dernières, particulièrement dans la perspective de la performance énergétique en utilisant le SRI comme vecteur de plus-value.

La méthode d’évaluation du SRI est basée sur une inspection des services « smart ready » qui sont présents dans le bâtiment. Par exemple, pour l’éclairage, cela peut aller du simple interrupteur on/off jusqu’aux systèmes qui peuvent moduler l’intensité lumineuse artificiel en fonction de la disponibilité en éclairage naturel.

Pour commencer, le SRI concerne tous les domaines du bâtiment :

  • Le chauffage,
  • Le refroidissement,
  • L’ECS,
  • La ventilation,
  • L’éclairage,
  • Les parties mobiles de l’enveloppe,
  • L’intégration du renouvelable local,
  • La flexibilité et la gestion de la demande,
  • L’intégration du chargement de véhicules électriques dans le système du bâtiment
  • Le monitoring et le contrôle du bâtiment…

Chaque domaine comprend des sous-domaines appelés services, par exemple, pour les véhicules électriques :

  • Capacité de recharge
  • Information à l’occupant et connectivité
  • Capacité à équilibrer le réseau (peut se charger/décharger sur le bâtiment)

Pour chaque service, un degré d’intelligence ou de fonctionnalité devra être donné, par exemple, pour la capacité de recharge :

  • 0 : absente
  • 1 : faible capacité
  • 2 : capacité moyenne
  • 3 : grande capacité

Et pour chaque degré d’intelligence de chaque service, le(s) impact(s) positif(s) seront quantifiés et pondérés en fonction de plusieurs critères comme :

  • L’économie d’énergie,
  • La flexibilité énergétique vis-à-vis du réseau,
  • L’intégration d’énergie renouvelable,
  • Le confort,
  • La commodité, ergonomie,
  • Le bien-être et santé,
  • La maintenance et la prévention des pannes
  • L’information des occupants

Exemple :

Pour le domaine chauffage, 12 services sont proposés :

  1. Contrôle des émissions de chaleur
  2. Contrôle des émissions pour les TABS (mode de chauffe)
  3. Contrôle du réseau de distribution d’eau chaude
  4. Contrôle des pompes de distribution en réseau
  5. Contrôle intermittent des émissions et/ou de la distribution – Un contrôleur peut contrôler différentes pièces/zones
  6. Stockage d’énergie thermique pour le chauffage
  7. Contrôle de la préchauffe du bâtiment
  8. Contrôle du générateur de chaleur (combustion)
  9. Contrôle du générateur de chaleur (pompes à chaleur)
  10. Mise en séquence de différentes sources de chaleur
  11. Contrôle du système de chaleur en fonction de signaux extérieurs (prix des énergies, charge réseau…)
  12. Systèmes de récupération de chaleur

Pour le service 1 : contrôle des émissions de chaleur, plusieurs niveaux d’intelligences/fonctionnalités sont possibles :

  1. Pas de contrôle automatisé ;
  2. Thermostat central ;
  3. Contrôle pièce par pièce (vanne thermostatique ou contrôleur électronique) ;
  4. Contrôle pièce par pièce et communication entre les vannes/contrôleurs et le système centralisé de contrôle et d’automatisation « BACS » (building automation and control system) ;
  5. Contrôle pièce par pièce avec communication et détection de présence.

En fonction du niveau choisi, les points suivants seront par exemple considérés pour chaque impact dans le calcul :

Niveau d’intelligence/fonctionnalité Impacts
Économies d’énergie Flexibilité pour le réseau et le stockage Favorise les énergies renouvelables Confort Commodité Ergonomie/ Facilité Santé et bien-être Entretien et prédiction des pannes Affichage des informations pour l’occupant
0 Pas de contrôle automatisé 0 0 0 0 0 0 0 0
1 Thermostat central 1 0 0 1 1 0 0 0
2 Contrôle pièce par pièce (vanne thermostatique ou contrôleur électronique) 2 0 0 2 2 0 0 0
3 Contrôle pièce par pièce et communication entre les vannes/contrôleurs et le système centralisé de contrôle et d’automatisation « BACS » (building automation and control system) 2 0 0 2 3 0 1 0
4 Contrôle pièce par pièce avec communication et détection de présence 3 0 0 2 3 0 1 0

Pour chaque domaine (somme de ses services), le score obtenu sera comparé au score maximal pouvant être obtenu par le bâtiment et donnera une valeur en %. Par exemple, pour un bâtiment de logement sans ventilation, sans refroidissement, sans enveloppe mobile et sans renouvelable :

Domaines Scores
Économies d’énergie Flexibilité pour le réseau et le stockage Favorise les énergies renouvelables Confort Commodité Ergonomie/ Facilité Santé et bien-être Entretien et prédiction des pannes Affichage des informations pour l’occupant SRI
0 Général pondéré

 

71% 0% 0% 77% 33% 17% 20% 19% 45%
1 Chauffage 75% 0% 0% 85% 64% 0% 25% 75%
2 ECS 100% 0% 0% 0% 0% 0% 50% 67%
3 Refroidissement Non-applicable
4 Ventilation Non-applicable
5 Éclairage 0% 0% 0% 0% 0% 0% 0% 0%
6 Enveloppe Non-applicable
7 Renouvelable Non-applicable
8 Gestion de la demande 0% 0% 0% 0% 0% 0% 0% 0%
9 Véhicules électriques 0% 0% 0% 0% 20% 0% 0% 0%
10 Monitoring et contrôle 60% 100% 0% 67% 38% 33% 17% 14%

 

electrolyse de l'eau

Stockage Power-To-Fuel : l’électrolyse

Stockage Power-To-Fuel : l'électrolyse


Le principal représentant de ce type de stockage est l’électrolyse de l’eau qui permet de produire de l’hydrogène.

Contrairement au stockage thermique ou en accumulateurs, ce type de système permet une conservation plus longue, inter-saisonnière, de l’énergie sous forme d’hydrogène.

31. LE STOCKAGE POWER-TO-FUEL : L’ÉLECTROLYSE

L’hydrogène comme carburant peut ensuite être valorisé de différentes manières :

  • Comme carburant combustible directement via le réseau de gaz,
  • Soit dans une centrale à gaz adaptée. Dans ce cas, in fine, de l’électricité sera reproduite à partir du carburant.
  • Par production de méthane : en faisant réagir 4 molécules de H2 avec du CO2 du méthane et de l’eau sont produits.
  • Via une pile à combustible qui fera réagir 2 molécules de H2 avec une molécule de dioxygène pour produire de l’électricité avec un rendement de ±60% et rejeter de l’eau. Ce rendement sera meilleur si la pile à combustible est utilisée en cogénération pour valoriser le dégagement de chaleur.
STOCKAGE ÉLECTROCHIMIQUE : LES BATTERIES

Stockage Power-To-Power

Stockage Power-To-Power


Le stockage électrochimique : les batteries

Les batteries ou accumulateurs électrochimiques sont les moyens de stockage les plus connus. Nous en avons dans nos smartphones, nos appareils photos et de plus en plus souvent dans nos bâtiments.

Les accumulateurs de ce type profitent des propriétés électrochimiques de certains matériaux, notamment des couples oxydant-réducteur comme le Nickel et le Cadmium.

Lors de la phase de charge, l’électricité induit un flux d’électron entre les bornes qui va polariser les électrodes. La borne négative va alors attirer les protons (+) d’un côté de la membrane. Ces protons vont s’accumuler et l’électrolyte qui était initialement neutre et homogène va se polariser: un côté va se charger positivement et l’autre, orphelin de ses protons(+), négativement.

Lorsque tous les protons (+) ont migré d’un côté, l’accumulateur est chargé à 100%.

Schéma stockage électrochimique : les batteries.

Dans la phase de décharge (utilisation de l’énergie stockée), cette différence de polarité est utilisée pour mettre des électrons en mouvement dans le sens inverse et produire de l’électricité. Cette circulation en sens inverse des protons va progressivement rétablir l’équilibre de polarité entre les parties chargées positivement et négativement. À partir d’un moment, la tension électrique induite deviendra trop faible et l’accumulateur sera considéré comme « vide ».

Plusieurs matériaux sont utilisables pour réaliser ce principe. En fonction du type d’anode, de cathode et d’électrolyte la densité énergétique, la vitesse de charge, le coût et la stabilité seront variables.

Parmi les technologies les plus courantes, les densités énergétiques sont les suivantes :

Parmi les technologies les plus courantes, les densités énergétiques sont les suivantes

Les autres caractéristiques principales de différentes technologies:

  Vitesse de charge Vitesse de décharge naturelle Nombre de cycles EFFET mémoire* Recyclabilité Coût Commentaire
Plomb-acide Moyenne ±500 Extrêmement faible Très bonne faible Supporte mal les cycles trop amples
Ni-Cd ± rapide ±2000 Oui Toxique
NiMH ± rapide ±1000 Oui mais faible Peu polluant
Li-Ion ++ négligeable ±750 Extrêmement faible Mauvaise, coûteuse
Ni-Zn + rapide ±300 Oui mais faible correcte Moyen
Li-po ++ négligeable ±300

L’effet mémoire est un phénomène physique et chimique qui se manifeste dans certaines technologies d’accumulateurs plus que dans d’autres. S’il se manifeste, ces derniers doivent être déchargés complètement avant d’être rechargés sous peine d’observer une réduction de la capacité de la batterie difficilement récupérable.


Le stockage thermique

Le stockage d’électricité sous forme de chaleur est généralement utilisé tel quel sous forme d’énergie thermique pour l’eau chaude sanitaire ou le chauffage mais peut également être reconvertie et restituée sous forme d’électricité par l’intermédiaire d’une turbine.

Le principe général consiste à chauffer un matériau à haute densité calorifique (de l’eau, de la pierre réfractaire, un matériau à changement de phase, …) dans un milieu clos fortement isolé thermiquement. Le chauffage de la masse à lieu lorsqu’il y a surplus d’électricité.

Schéma stockage thermique.

À l’inverse lorsque l’électricité vient à manquer, la chaleur est libérée et va produire de la vapeur qui continuera son chemin dans une turbine haute température, comme dans une centrale TGV. La turbine va alors se mettre en mouvement et alimenter un alternateur qui pourra injecter du courant alternatif sur le réseau ou dans le bâtiment une fois qu’il sera passé par le transformateur adéquat.


Le stockage En « STEP »

Il s’agit probablement du système de stockage à grand échelle le plus connu. La STEP (Station de transfert d’énergie par pompage) fonctionne par pompage-turbinage. Lorsque le réseau ou le bâtiment est en état de surproduction, pour ne pas gaspiller cette précieuse énergie, une pompe sera actionnée. La pompe élevera alors de l’eau pour la stocker dans un bassin en hauteur (sur la toiture, en haut d’une coline, …).

Cette eau située en hauteur réprésente une énergie potentielle considérable. Ensuite, le fonctionnement est le même que pour un barrage hydroélectrique : au moment opportun, l’eau sera libérée et turbinée pour produire de l’électricité avant de rejoindre le bassin inférieur.

L’énergie disponible est alors égale à :

[La masse] x [la gravité] x [la hauteur de la masse]

Soit, pour un bassin de 1000 m³ (un cube de 10 mètres de côté) situé sur terre (g=9,81 m/s²) à une hauteur moyenne de 20 m par rapport au bassin bas :

1.000.000 kg   x   9,81 m/s²   x   20 m  =  196.200.000 Joules

Soit 54 kWh

Schéma stockage En « STEP ».


Autres systèmes de stockage

Le stockage d’électricité est probablement le Graal du XXIème siècle. C’est pourquoi les ingénieurs rivalisent de créativité pour inventer la solution la plus abordable, verte et performante.

Parmi les solutions que nous rencontrons aujourd’hui, citons le stockage par air comprimé.

Le principe est simple : on profite d’une cavité étanche existante ou on en crée une. Cette cavité sert alors d’espace de stockage pour notre air comprimé. Lorsqu’il y a surproduction, l’électricité va actionner un compresseur, ce dernier va alors faire monter la pression dans notre cavité. Si celle-ci est parfaitement étanche, l’énergie potentielle contenue dans la haute pression peut être conservée très longtemps. Seule la chaleur produite lors de la compression sera perdue en cours de route.

Schéma autres systèmes de stockage.

Ensuite, lorsque le bâtiment ou le réseau a besoin d’électricité, cette pression sera libérée et turbinée afin de produire de l’électricité.

Ce système est à la fois relativement simple et compact (l’essentiel se passant en sous-sol) mais nécessite la présence d’une cavité suffisamment grande, étanche, solide et profonde pour résister aux fortes pressions sans se déformer de manière sensible, ce qui provoquerait des désordres à l’installation et son environnement.

Un autre système qui a de beaux jours devant lui dans le secteur des transports et des énergies renouvelables notamment est celui du stockage d’électricité par volant d’inertie. Ici, le système est encore plus simple. L’électricité OU un mouvement rotatif (roue de voiture, éolienne, …) entraine à la rotation un cylindre extrêmement lourd. Ce surplus d’énergie va accélérer la rotation du cylindre à des vitesses pouvant atteindre les 10.000 tours par minute ! Afin de limiter les frottements et donc l’auto-décharge, ce cylindre est monté sur des roulements performants et confiné sous vide.

Ensuite, lorsque le réseau aura besoin d’énergie, le moteur va se transformer en générateur (une dynamo) et produire de l’électricité en freinant électromagnétiquement le volant d’inertie.

Ce type de système est notamment utilisé dans les autobus et certaines voitures hybrides afin de récupérer l’énergie de freinage. Plutôt que de freiner les roues par frottement, les roues sont embrayées progressivement au volant d’inertie. L’inertie du bus en mouvement est alors transmise au volant d’inertie qui prend de la vitesse et ralenti le bus jusqu’à son arrêt complet. À ce moment, le volant est débrayé et le cylindre tourne à vive allure avec peu de frottement. Lorsque les passagers sont tous à bord, le volant d’inertie va être progressivement ré-embrayé au système de traction du bus et lui restituer la quasi-totalité de son énergie de freinage mais sous forme d’accélération cette fois-ci.

Dans le cadre des énergies renouvelables, ce type de système est envisagé comme stockage tampon entre le dispositif de production renouvelable et le bâtiment afin d’éviter que, nous n’ayons à rebasculer sur le réseau au moindre nuage ou manque de vent.

Types de stockage

Types de stockage


Les différents types

Il existe 5 vecteurs principaux pour le stockage d’énergie :

  • Electrochimique (Batteries) ;
  • Thermique (Ballons d’eau chaude, inertie du bâtiment) ;
  • Cinétique (Volant moteur) ;
  • Gravitaire, potentielle (Station de pompage turbinage) ;
  • Chimique (électrolyse > hydrogène).

En fonction de la nature de l’énergie restituée par le système de stockage, on parlera plutôt tantôt de :

  • « Power to power » : La production électrique est convertie en énergie intermédiaire puis restituée sous forme d’électricité.
  • « Power to fuel » : La production électrique est convertie en combustible.
Bornes de recharge pour véhicules électriques (VES)

Bornes de recharge pour véhicules électriques (VES)

Bornes de recharge pour véhicules électriques (VES)

Dans les années à venir, la densité de bornes de recharge pour les VEs devrait drastiquement augmenter sous la pression de l’Europe via la directive EPBD 2018/884. En 2025, les nouvelles constructions et les rénovations lourdes (non-résidentielles) dont le parking fait plus de 10 emplacements devront être équipé d’une borne de recharge et 1 emplacement sur 5 pré-câblée pour pouvoir accueillir une borne dans le futur. Pour les bâtiments existants, la Belgique est invitée par l’Europe à fixer un nombre minimal de points de recharge pour les parkings non résidentiels de plus de 20 emplacements.


Les différentes puissances disponibles

D’un point de vue technique, les bornes de recharge et prises murales les plus courantes des constructeurs sont disponibles en : monophasé et en triphasé, en 16A, 32A et 64 Ampères pour des puissances allant jusqu’à 43 kW pour les bornes rapides.

Les puissances généralement disponibles sont donc les suivantes :

Type de borne Monophasé Triphasé
10A (prise classique) 2.3 kW   [pour dépanner]
16A 3.7 kW   [très lent : +15 à 25 km/hcharge] 11 kW
32A 7.4 kW   [Lent : +30 à 45 km/hcharge] 22 kW  [Moyen : +60 à 80 km/hcharge]
62A 43 kW   [Rapide : +100 à 140 km/hcharge]
Remarque 1 : certaines voitures ont une limite de vitesse de chargement

Remarque 2 : en hiver, la charge peut être ralentie si la batterie est froide

Des « superchargers » voient également le jour sur les aires d’autoroutes. Dans ce cas, les puissances dépassent déjà les 100 kW !

Pour avoir un ordre de grandeur, un véhicule électrique consomme autour de 20 kWh/100 km et leurs batteries ont une capacité allant de ± 20 kWh pour les micro-citadines à 40 kWh pour les petites citadines et jusqu’à 100 kWh pour les plus grosses berlines. Ces « super-chargeurs » sont donc capables de prolonger l’autonomie des VEs compatibles de plus de 200 km en moins de 20 minutes, soit le temps d’une pause-café !

Il est également bon de savoir que les derniers 20-30 % de la charge d’un VE s’effectuent jusqu’à 2 fois plus lentement.

Comme le coût de l’installation d’une borne est proportionnel à sa puissance, le choix de la puissance devra être judicieux. La décision d’opter pour une borne plutôt qu’une autre dépendra du temps de charge disponible et de l’autonomie attendue après recharge (dans les limites de la capacité de la batterie).

EXEMPLE : Quelle puissance mettre en place dans le cas de bornes à destination des employés d’une grande entreprise dont la durée du chargement sera étalée sur 8 heures (de 9 h à 17 h) ?

Comme les employés de cette entreprise travaillent à moins de 100 km de leur domicile mais que tous n’ont pas la possibilité de charger leur véhicule au domicile, une autonomie de 200 km peut, par exemple, être prévue pour assurer le retour au domicile le soir mais également le trajet vers le bureau le lendemain matin. Dans ce cas, les bornes lentes de 7,4 kW sont déjà largement suffisantes. Néanmoins, un électricien avisé pourrait favoriser le triphasé pour des puissances si importantes afin de réduire le courant pour une puissance similaire en augmentant la tension (de 230 v à 400 v). Le choix de la borne triphasé de 11 kW est donc également un bon choix.

Si l’entreprise emploie des consultants devant réaliser une série d’aller-retours sur la journée, quelques bornes rapides de 43 kW pourront s’avérer nécessaire mais uniquement pour cette flotte de véhicules-là !


Les types de connecteurs côté point de charge

Pour raccorder le véhicule à la borne, plusieurs types de fiches de raccordement existent. Pour les recharges lentes et normales (≤ 43 kW), côté borne, ce sont les fiches domestiques et les fiches de « type 2 » qui sont présentes. Tandis que pour les charges rapides (> 50 kW), celle-ci s’effectuent en courant continu avec prises spécifiques.

Les fiches et prises domestique permettent une puissance de 2,3 kW, ce sont celles que nous retrouvons couramment dans nos bâtiments :

Prise domestique. Source : Zeplug.com

Prise domestique. <

Source : Zeplug.com

Dans ce cas-là, pas besoin de borne en tant que tel mais attention tout de même, pour utiliser ce type de prise murale pour le chargement il est impératif d’avoir une installation pouvant supporter 16 ampères au moins sur ce circuit. Il ne faudra également pas utiliser des rallonges en cascade ou un câble trop long ou de section faible sous peine de courir un dangereux risque d’échauffement.

Les fiches de types 2 correspondent au standard Européen et sont les plus courantes. Elles sont utilisées pour les puissances courantes de 3,7 kW à 43 kW, en mono et triphasé, elles se présentent comme ceci :

Prise type 2. Source : Zeplug.com

Prise type 2.
Source : Zeplug.com

En ce qui concerne les bornes rapides, il existe trois autres types de connecteurs.

À partir de 2025, les bornes rapides devront être équipées de connecteurs CCS Combo (pour fonctionner avec les voitures européennes) et CHAdeMO (pour les voitures asiatiques et TESLA avec un adaptateur)

Bornes de recharge pour véhicules électriques (VES)

Prise et connecteur CCS Combo.
Source : engie-electrabel.be

 

Bornes de recharge pour véhicules électriques (VES)

Prise et connecteur CHAdeMO.
Source : engie-electrabel.be

 

Enfin, en dehors des standards Européens, il existe également la prise propriétaire TESLA SuperCharger

Bornes de recharge pour véhicules électriques (VES)

Prise et borne TESLA SUPERCHARGER.
Source : engie-electrabel.be

SmartBuilding : programmation des plages horaires

SmartBuilding : programmation des plages horaires


La programmation de plage horaire permet principalement de couper les appareils et systèmes aux moments où ceux-ci sont inutiles. C’est de cette manière et avec peu d’efforts que des économies peuvent être réalisées. Mais cela, une GTC classique peut également s’en charger.

Un Smartbuilding va plus loin, des consignes beaucoup plus précises peuvent être attribuées pour chaque tranche horaire (éclairage à 100% pendant les cours, éclairage à 80% pendant les pauses, …). Mais, surtout, la programmation « de base » s’auto-adapte en fonction de l’information remontée par les capteurs :

  • Déduction de l’absence/présence par :
    • Géolocalisation des smartphones des utilisateurs,
    • État du système d’alarme,
    • Détection de présence,
    • Activation d’équipements

Généralement le système de gestion permet la mise en place d’un planning différent pour chaque jour de la semaine, peut tenir compte des vacances et, éventuellement, d’évènements ponctuels (portes-ouvertes le weekend, réception le soir, …). Pratiquement, l’utilisateur définit une série de journées types (couramment de 5 à 7), comme sur l’exemple ci-dessous. Il décide des horaires et des régimes pour chaque sous-système pilotable par le centre de gestion.

Schéma planning

Dans un second temps, il spécifie quel jour de la semaine correspond à quel planning journalier type. Plusieurs « semaines types » peuvent ainsi être paramétrées.

Schéma planning journalier.

Une fois que la semaine type est planifiée, la gestion dite « calendrier » permet ensuite de corriger manuellement pour les exceptions (vacances, évènements, …).

calendrier de programmation

Mais, comme l’humain est imprévisible, il arrive que les heures s’allongent ou qu’un samedi puisse servir pour rattraper un cours ou son retard dans la remise d’un dossier. Pour éviter de se retrouver dans des locaux froids, sans éclairage et avec un pc qui refuse de s’allumer (et oui, toutes les charges sur les prises et appareils en veille sont chassées !), il existe généralement une fonction permettant d’introduire une exception pour une certaine période grâce à laquelle il n’est pas nécessaire de modifier le réglage normal et risquer d’oublier de le rétablir.


La programmation des consignes et des niveaux

Jouer avec les consignes de température ou les niveaux d’éclairement (pour ne citer qu’eux) pour réaliser des économies d’énergie est souvent un énorme défi si l’on ne veut pas affecter le confort des occupants. Dans un bâtiment classique mono-zone ou insuffisamment zoné, disposant de peu de points de mesure et d’une seule température de consigne générale, la marge de manœuvre pour réaliser des économies d’énergie est très faible si l’on veut éviter les plaintes.

Heureusement, dans un smartbuilding, le nombre de zones peut être très élevé, évolutif et leur dimension réduite permettant une détermination plus adaptée des niveaux et une gestion plus fine de la régulation.

Grâce à cela ainsi qu’à la multitude de capteurs et au centre de gestion, les consignes pourront évoluer et dépendre, entre autres, du :

  1. Moment de la journée (voir « programmation des plages horaires »),
  2. La présence et le nombre d’occupant dans une zone,
  3. L’activité des occupants (mesurée ou planifiée),
  4. L’humidité,
  5. La dimension de la zone,
  6. L’exposition solaire de la zone,
  7. L’inertie et la latence à la relance spécifique de la zone,
  8. Les charges internes de la zone…
  9. D’un éventuel contrôleur local d’ajustement pour chaque zone (par exemple, pour déroger de ±2°C à la température prévue par le système)

Grâce à ces nouvelles possibilités, la régulation pourra s’adapter afin que chaque occupant de chaque espace soit dans une situation de confort adaptée à son activité et sa localisation dans le bâtiment. Par ailleurs, l’inoccupation sera planifiée ou détectée et les consignes seront adaptées (extinction de la lumière, réduction du taux de renouvellement horaire de la ventilation hygiénique, …)

Schéma programmation des plages horaires

Dans certains bâtiments, les plus intelligents, l’historique des mesures et des actions est conservé et analysé par le centre de gestion pour s’ajuster continuellement. Ainsi, si les occupants d’un local diminuent systématiquement la température de leur zone dans certaines conditions (une plage horaire, un type d’ensoleillement, un certain jour de la semaine, …), le centre de gestion, s’il est suffisamment « smart », s’auto-adaptera progressivement en diminuant la température de consigne lorsque ces conditions sont réunies ou, encore mieux, lorsqu’elles sont sur le point d’être réunies.

Cliquez Ici pour avoir plus d’information sur les principes de régulation


Les alarmes

Les alarmes sont un des aspects les plus importants concernant les fonctionnalités des smartbuilding. Une alarme dans le monde de la domotique, du smart building ou objets connectés n’est pas à comprendre uniquement comme l’expression un problème mais dans un sens plus large comme un « évènement » pouvant déclencher une ou des actions.

Les alarmes sont des dérogations automatisées (préprogrammées) qui vont temporairement produire des exceptions autonomes dans le déroulement planifié des choses en fonction d’évènements.

Bien sûr il s’agit aussi de reporter les suspicions d’avarie d’un système (coupure, baisse de rendement, …), les capteurs défaillants, les ruptures de communication/connexion entre appareils …

Mais une avarie reste un évènement au sens large avec des actions conséquentes, par exemple :

  1. Compte tenu des conditions climatiques et de la puissance demandée à la chaufferie, le système détecte que la température des locaux monte anormalement lentement pendant plus d’une heure. Il y a donc un problème, l’alarme X est déclenchée.
  2. L’Alarme X déclenche des actions :
    1. Action Y1 : coupure de protection des organes de chauffe
    2. Action Y2 : notification au gestionnaire
    3. Action Y3 : affichage du message d’erreur adéquat
    4. Action Y4 : activation d’un système de dépannage si présent

Cet aspect est fondamental et c’est par ce système d’alarme que des systèmes différents peuvent avoir des relations du type « si X alors Y ». Ceci pouvant être agrémenté de conditions de manière quasiment illimitée.

Par exemple, une alarme peut être programmée de la manière suivante : si le taux de CO2 excède 1500ppm dans une pièce, alors, lors du déclenchement de cette alarme, l’ordre est donné à la ventilation de doubler le débit d’air. Une seconde alarme pourra être programmée : Si le niveau de CO2 repasse sous les 1000ppm, alors, le débit peut retrouver son niveau normal. Lorsque le système est plus perfectionné, plutôt que de fonctionner par paliers, celui-ci aura la possibilité de moduler le débit en continu.

Pour enrichir notre chaîne, nous pourrions, en cas de dépassement de 2000ppm, demander au système de l’inscrire dans un registre accompagné de l’heure, du lieu et de la durée, par exemple. Nous pourrions également paramétrer le système pour qu’il envoie une notification au gestionnaire du bâtiment lors du dépassement de ce seuil pendant une durée supérieure à 2 heures.

Ce type de logique peut s’appliquer à pratiquement toutes les sondes et tous les systèmes. Ce n’est plus qu’une affaire d’imagination.

Pour conclure et résumer, le flux d’informations traitées par le centre de gestion ne peut être suivi par le gestionnaire du bâtiment ou son responsable énergie. Comme il ne peut pas être partout, il lui est très pratique de placer des alarmes pour une série de conditions (valeur(s) supérieures à, statut(s) de certains appareils, …). De cette manière, le système n’attire son attention qu’en cas de situation anormale ou le notifie d’une dérogation automatique.


Les sécurités

Les sécurités sont des actions déclenchées automatiquement conséquemment à des alarmes pour protéger les équipements, les appareils, le bâtiment ou les occupants.


Monitoring et analyse des tendances

Pour assurer leur bon fonctionnement et fournir une information suffisante à la mise en place d’automatisme et d’alarmes, les smartbuildings sont dotés d’un grand nombre de sondes diverses. En analysant leur tendance et la manière dont les données évoluent en fonction des actions, le centre de gestion peut vérifier le fonctionnement des équipements et les performances de ceux-ci.

Idéalement, les informations suivantes sont mesurées et enregistrées :

  • Températures (de l’air dans chaque zone, des circuits d’eau, de l’extérieur, …),
  • Pression (par exemple, des circuits d’eau),
  • La position de certaines équipements (clapet ou valve ouverte/fermée, interrupteurs, …)
  • Statut allumé/éteint
  • Statut des alarmes

Et, plus rarement car ces sondes sont plus chères :

  • Débits,
  • La consommation,
  • La puissance,
  • Le nombre de tours par minute (ventilateur, moteur, compresseur, …)

Avec ces données, il y a deux solutions pour l’enregistrement :

  • Soit, systématiquement, chaque paramètre sera enregistré à une fréquence définie (utile pour les températures de l’air, par exemple),
  • Soit ce sont les variations entre la donnée mesurée et la donnée mesurée à l’intervalle de temps précédent qui sont calculées. Dans ce cas, nous pourrons choisir de n’enregistrer que les variations excédant un seuil défini. Ces évènements seront également accompagnés d’un horodatage. Ce type d’enregistrement est notamment pratique pour des mesures comme le taux de CO2 ou la pression atmosphérique car elle permet, par exemple, de détecter indirectement l’ouverture d’une fenêtre.

Toutes ces données peuvent servir à conserver une mémoire du bâtiment mais également, régulièrement, elles pourront être affichées sous forme de graphique et analysées par le gestionnaire pour détecter d’éventuelles anomalies évitables ou consommations anormales.


La modulation de la demande

Un smartbuilding peut parfois se résumer à des consignes, des plages horaires, des paramètres et des séquences d’actions qui vont déterminer le succès ou non de l’ensemble pour améliorer le confort, la santé, la sécurité et l’efficacité énergétique.

Mais, dans un smartbuilding, tout n’est pas ON/OFF, tout ou rien … Le système est également capable de moduler la puissance demandée (chauffage, refroidissement, ventilation) de la manière la plus adaptée et économe en énergie possible.

Un tel système sera capable d’optimiser les cas suivants :

La coupure (ou réduction) nocturne ou du weekend

Trouver le bon équilibre entre d’une part, une réduction forte de la température de consigne la nuit ou le weekend pour économiser de l’énergie et d’autre part, le besoin de ne pas trop la baisser pour éviter une relance difficile et consommatrice d’énergie le matin

La relance

Matinale

Cette relance sera optimisée en tenant compte de la température intérieure de chaque zone et la température extérieure. Le but sera alors d’atteindre la température de consigne à l’heure prévue avec le moins d’énergie possible. Ceci est rendu possible en évitant le dépassement de la consigne dû à une mauvaise modulation (les chaudières se coupent quand la température est atteinte mais malgré tout l’eau reste chaude dans les canalisations et les chauffages continuent à chauffer l’espace.

Schéma programmation relance matinale.

Pour encore améliorer les performances à la relance, pendant que le bâtiment n’est pas encore occupé, le système de gestion peut fermer les clapets de ventilation entre l’intérieur et l’extérieur et activer une circulation de l’air à l’intérieur du bâtiment (mode air recyclé) de manière à ne pas perdre d’énergie par la ventilation hygiénique (inutile, car les occupants ne sont pas encore là) tout en faisant circuler l’air et la chaleur dans l’ensemble du bâtiment !

La coupure (ou réduction) en soirée

Le système de gestion détermine le moment optimal (le plus précoce) pour couper ou baisser le régime des systèmes et tirer profit de l’inertie du bâtiment pour conserver un niveau de confort acceptable.

Schéma coupure (ou réduction) en soirée.

Ceci concerne dans une moindre mesure les systèmes de ventilation qui ne disposent pas d’autant d’inertie. En effet, si l’air est maintenu à un taux confortable de 800ppm de CO2 durant la journée et qu’on estime que le taux acceptable maximal est de 1000 ppm, alors, en fonction du taux d’occupation lors de la coupure des systèmes de ventilation, il faudra parfois moins de 10 minutes pour que la concentration en CO2 passe de 800ppm à 1000ppm dans les locaux ! Il en va de même, et c’est évident, avec l’éclairage.

coupure (ou réduction) en soirée

Adaptation en continu

En fonction des informations fournies par les différents capteurs et systèmes, le centre de gestion peut adapter la puissance des systèmes. Par exemple, si le taux de CO2 est bas, on peut supposer que l’occupation est plus faible (ou nulle) ou encore que des fenêtres ont été ouvertes (des capteurs pouvant éventuellement le confirmer).

Quelle qu’en soit la raison, le débit de la ventilation hygiénique pourra alors être réduit. Rien ne sert en effet de climatiser de l’air neuf et de le pulser dans un local si l’air de celui-ci est déjà sain, à bonne température et ne se dégrade pas.

Découvrez cet exemple de pilotage des installations au Centre Hospitalier de Mouscron.

SmartBuilding : champ d’application

SmartBuilding : champ d'application

Bien qu’il n’existe pas réellement de règle pour déterminer où commence le smartbuilding (une simple ampoule avec détection de présence suffirait-elle à rendre une pièce ou un bâtiment « smart » ?) et où finit son champ d’application, une série de fonctions de « base » sont presque universelles et concernent presque tous les systèmes connectés du bâtiment intelligent :

  1. Programmation des plages horaires,
  2. Programmation des consignes,
  3. Définition des alarmes,
  4. Mise en place de sécurités,
  5. Monitoring et analyse des tendances,
  6. Contrôle et optimisation des énergies et de la demande,
  7. Affichage des données et interface utilisateur
stockage logistique energie+

Stockage logistique

Stockage logistique


Définition

Un stockage logistique est l’ensemble des systèmes spatial, mobilier, technique et/ou organisationnel permettant à un processus ou une activité de ne pas s’effectuer en flux tendu grâce à l’ajout d’un stockage tampon à l’interface de plusieurs processus.

Sans cela, le produit qui passe par la ligne de production A devrait directement être envoyé sur la ligne de production B sous peine de bloquer la ligne de production A. Ceci imposerait un fonctionnement continu des deux lignes pour assurer le bon fonctionnement de l’ensemble.

Le stockage logistique permet au processus A de fonctionner même si le processus B ne suit pas derrière en stockant les produits entre les processus A et B. À l’inverse, si le processus A doit être arrêté, le processus B peut continuer en puisant dans le stock à l’interface de lignes A et B.

La présence d’un tel stockage permet une plus grande flexibilité dans la gestion énergétique et logistique. Les processus pouvant dès lors être lancés indépendamment aux moments opportuns sans impacter la performance globale de la production.

Le stockage logistique se fait partout et tout le temps, que ce soit votre vendeur de sandwich qui prépare à la chaine des clubs jambon fromage le matin et profite d’un large frigo comme stockage logistique ou encore votre postier qui utilise votre boîte aux lettres pour ne pas avoir à attendre votre venue pour effectuer sa tâche.

Avec la nécessité croissante de flexibilité électrique : la planification des activités consommatrice d’énergie et le stockage logistique entre la consommation énergétique et l’utilisation du service énergétique devrait tendre à se généraliser.

Demain, qui sait, peut-être que notre café du matin sera préparé la nuit quand l’électricité est propre et abondante puis stocké dans des ballons de café chaud pour être savouré toute la journée !

Fuel switching

Changement de vecteur énergétique ou Fuel-Switching

Changement de vecteur énergétique ou Fuel-Switching


Le changement de vecteur énergétique représente un levier important de flexibilité électrique pour un certain nombre d’industrie. Par exemple, si, dans votre entreprise, vous utilisez un sécheur, celui-ci peut fonctionner grâce à de la chaleur issue de gaz naturel combinée au courant d’air provenant de ventilateurs électriques. Le pouvoir séchant dépendant de la combinaison chaleur asséchante + débit d’air, le gestionnaire peut, à la demande et pour un même pouvoir séchant, faire varier cette combinaison :

  • Si l’électricité est abondante et peu chère, il pourra faire tourner les ventilateurs à pleine puissance et réduire la puissance thermique pour une consommation de gaz naturel moindre.
  • À l’inverse, si l’électricité manque et coûte cher, il aura tout intérêt à réduire au minimum la puissance des ventilateurs et compenser en augmentant la puissance des bruleurs au gaz.

Cette technique présente l’avantage de n’avoir aucun impact sur l’organisation de l’entreprise et la gestion des processus. Elle est également automatisable et donc peu contraignante au quotidien. En revanche, elle nécessite un processus adapté et un système technique redondant et capable de réaliser cette modulation ou ce basculement entre différents vecteurs. Il faudra néanmoins évaluer le bilan environnemental final d’une telle redondance des systèmes. De plus, l’utilisation d’énergies fossiles dans le cadre d’une volonté de décarbonisation de nos sociétés à l’horizon 2050 doit faire l’objet d’un regard critique.

Cette logique peut, par exemple, être transposée, avec ses qualités et ses défauts précités, au chauffage tertiaire que nous pourrions imaginer combiné et/ou switchable entre une chaudière à gaz et une pompe à chaleur.

planification des charges

(Re)Planification des charges

(Re)Planification des charges

Les entreprises disposant d’activités ou de processus pouvant être interchangés ou disposant d’un stockage logistique le permettant ont la possibilité d’adapter la planification de leurs processus consommateurs d’électricité pour optimiser leur facture (en cas de tarification ¼ horaire) et participer à l’équilibre des charges sur le réseau.

re planification des charges

Effacement énergétique

Effacement énergétique

Source : Enerdigit, opérateur d’effacement.


Définition

L’effacement énergétique consiste, pour un utilisateur du réseau (dans une plus forte mesure les industries), à réduire sa consommation en fonction de l’offre énergétique.

Ceci se traduit par la mise en sous-régime ou hors tension d’un équipement et/ou d’une activité en réponse à une baisse de la production énergétique. La baisse de régime ou l’extinction de l’équipement est effectuée :

  • Indirectement, via un message (e-mail, appel, sms) envoyé à l’entreprise détaillant le délai, la durée et la puissance à réduire. L’entreprise agissant ensuite en fonction de ces instructions,
  • Directement, à distance pour le gestionnaire du réseau par l’intermédiaire d’un boitier installé sur site permettant de moduler la consommation d’un ou plusieurs équipements.

Cette source de flexibilité sur le réseau, contrairement aux autres, ne demande que peu de moyens techniques et financiers. Elle peut même baisser la facture et être source de recettes supplémentaires pour les entreprises participantes.

Le système NextFlex permet à votre entreprise de prendre part à la flexibilisation du réseau !

En Belgique, le potentiel de charges flexibles a été estimé à 1,56 GW (2013).

Pour avoir quelques références en Belgique (2017) :

  • la puissance installée est de ± 22 GW
  • la puissance pic demandée en hiver est de l’ordre de 13 à 14 GW
  • la puissance moyenne demandée est de 9 à 10 GW.

Ce potentiel de charge flexible est réparti comme suit :

schéma de l'éffacement énergétique en Belgique

Potentiel de charges flexibles en Belgique (SOURCE : SIA Partners, 2013)

Nous pourrions donc flexibiliser jusqu’à 15 % de notre demande !

Tous secteurs confondus, l’installation de compteurs intelligents (permettant une tarification variable de quarts d’heures en quarts d’heure) devrait rendre techniquement possible d’inciter les consommateurs d’énergie à s’adapter à la disponibilité énergétique du moment.

Le développement concomitant des technologies de la communication dans le secteur de l’énergie (smartgrid) et dans le secteur du bâtiment (smartbuilding) ouvre un potentiel important pour mobiliser cette flexibilité.

Plus un réseau sera flexible, plus il pourra faire la part belle aux énergies renouvelables et réduire le risque de black-out.


Les 3 types de réserves en cas de déviation de la fréquence du réseau

La réserve primaire

Lorsque la fréquence du réseau commence à dévier des 50 Hz habituels de 100 mHz à 200 mHz soit 0,002 % à 0,004 % ELIA active la réserve primaire pour rétablir l’équilibre sur le réseau et écarter tout risque de black-out. Ce service est ouvert à tout qui :

  • Dispose d’un fréquencemètre,
  • Est disponible en permanence
  • Peut proposer seul ou par regroupement plus d’1MW
    • Pendant 15 minutes,
    • En moins de 30 secondes
    • Dont déjà la moitié en 15 secondes
    • Pouvant être réglé automatiquement

Les grands types de contrats sont au nombre de 3 en fonction de votre capacité à consommer ou fournir de l’électricité à la demande. La rémunération est liée à la mise à disposition à l’année et non à la fréquence de l’activation de votre effet levier. Ces contrats sont :

  • Le contrat « UP »
    • Ce contrat est passé avec les clients qui disposent de flexibilité permettant d’alléger la demande du réseau en effaçant une partie définie de sa consommation ou fournissant de l’électricité.
    • Rémunéré à hauteur de ± 16 000 € (2019) par an et par MW mis à disposition.
  • Le contrat « DOWN »
    • Ce contrat est passé avec les clients qui disposent de flexibilité permettant de doper la demande du réseau en cas de surproduction (comme un évènement climatique imprévu) ou de surestimation de la demande dans les prévisions en étant capable d’augmenter sa consommation ou diminuer la fourniture sur le réseau. Les entreprises métallurgiques sont par exemple d’excellents clients grâce à leurs énormes résistances électriques.
    • Rémunéré à hauteur de ± 60 000 € (2019) par an et par MW mis à disposition
  • Le contrat symétrique (UP & DOWN) 100 mHz ou 200 mHz :
    • Ce contrat est passé avec les clients qui disposent de flexibilité permettant à la demande :
      • De doper la demande et/ou de fournir moins d’énergie au réseau.
      • De réduire la consommation et/ou de fournir plus d’énergie au réseau.
    • En fonction du type (100 mHz ou 200 mHz), la rémunération peut aller de ± 150 000 € à plus de 300 000 € (2019) par an et par MW mis à disposition dans les deux sens (up et down).
    • Ce type de contrat est généralement passé avec des centrales thermiques.

La réserve secondaire

Lorsque la fréquence du réseau commence à dévier des 50 Hz habituels encore plus sévèrement, ELIA active la réserve secondaire pour rétablir l’équilibre sur le réseau et écarter tout risque de black-out. Ce service est activé en cas de problème majeur et exceptionnel et rencontre les mêmes exigences que la réserve primaire à la différence que cette réserve peut éventuellement être un peu plus lente au démarrage.

La réserve tertiaire

Contrairement aux deux premières, la réserve tertiaire ne vise qu’à réduire la pression sur le réseau :

  • Soit par injection par client sur le réseau,
  • Soit par réduction du prélèvement du client.

La mise en action de ces puissances n’a lieu qu’en cas de déséquilibre important. Pour cette raison, ce n’est pas un rééquilibrage automatique mais manuel (ELIA prend la décision, ce n’est pas automatique ; puis le client est mis au courant et agit) tandis que pour les réserves primaires et secondaires cette gestion est complètement automatisée. Ce service est ouvert via des enchères mensuelles pour les candidats qui :

  • Sont disponibles en permanence pour activer à la demande d’ELIA minimum 1 MW,
  • Peuvent mobiliser 50 % de leur puissance en moins de 7 minutes et 30 secondes et la totalité en moins de 15 minutes.

Les grands types de contrats sont au nombre de 2 en fonction de la fréquence et la durée pendant laquelle cette puissance peut être mobilisée :

  • Contrat Standard :
    • Jusqu’à 8 heures par jour, 365 jours par an.
      • Les 8 h pouvant être utilisées librement en une fois ou par petites périodes fréquentes
    • La rémunération est liée à la mise à la puissance et au nombre d’activations.
      • ± 3 600 €/MWdisponible/mois + rémunération par activation.
  • Contrat Flex :
    • Jusqu’à 2 heures par jour, 365 jours par an.
      • Maximum 8 périodes d’activation par jour.
    • La rémunération est liée à la mise à la puissance et au nombre d’activations.
      • ± 2300 €/MWdisponible/mois + rémunération par activation.
protocole de communication

Principaux protocoles et leurs caractéristiques

protocole de communication


Présentation

Les protocoles les plus populaires dans le smartbuilding sont :

  • Le KNX (Multi-supports, Multi-techniques, normalisé)
  • Le BACNet (Multi-technique, normalisé)
  • Le Protocole Dali (dédié à l’éclairage, non normalisé mais DALI2 arrive)
  • Modbus (Dérivé du BACNet : HVAC & contrôle de l’éclairage)
  • MBus (Compteurs intelligents)

D’autres protocoles sont utilisés couramment dans le bâtiment, dont notamment :

  • Wi-Fi,
  • Bluetooth,
  • Zigbee,
  • Z-Wave,
  • EnOcean,
  • Thread,
  • Opentherm
  Protocole Réseau Domaine Portée (m) Consommation Interopérabilité Normalisé Commentaire
Wi-Fi 2,4Ghz ou 5Ghz Polyvalent 10-250 Très élevée Oui OUI Gros débits de données
Bluetooth 2,4Ghz Polyvalent 5-125* faible Oui Facilité de configuration
Zigbee 2,4Ghz Polyvalent 20-50* Très faible Oui Max 65000 appareils
Z-Wave 868Mhz Polyvalent 20-50* Très faible Oui Max 232 appareils, plus stable que Zigbee,
EnOcean Ondes Remote control 30-60 nulle*** Oui Zéro énergie
Thread Ondes Polyvalent 40*
KNX Câbles / CPL / Ondes / Ethernet Polyvalent 350-700 Oui Oui
BACnet Câbles et dernièrement ondes radio (BACnet over Zigbee) Polyvalent 350-700 Oui Standard international normalisé très lent mais plus rapide en version IP.
Dali Câbles Éclairage 500 Non, DALI-2 le sera
Modbus Câbles HVAC, parfois éclairage 1200 Lent, dérivé du BACnet
Opentherm Câbles ou ondes Chauffage Refroidissement /
W-Mbus Ondes (LoRa**) Compteurs Sans-fil : 1000-5000

 

Très faible Bonne
*Maillage possible permettant aux appareils de jouer le rôle de nœuds pour étendre la portée du réseau.

**Réseau sans fil étendu à longue portée.

*** Bouton piézoélectrique qui fournit l’énergie nécessaire à l’envoie de l’information.


KNX

knx dans passerelle de communication

Le KNX, également appelé KONNEX, est né sur les cendres des protocoles EHS, EIB et Bâtibus avec la volonté de favoriser la standardisation et l’interopérabilité dans les Smartbuildings grâce à un protocole normé et ouvert.

Il s’agit d’un protocole de communication commun à différents équipements tant au niveau de l’éclairage comme les boutons-poussoirs, les détecteurs de présence, … qu’au niveau HVAC  comme les vannes motorisées, les moteurs de protection solaire, …

Il s’agit d’un protocole qui peut être véhiculé sur plusieurs supports : sans-fil, par bus terrain, par courant porteur en ligne ou par câble Ethernet.

Le Protocole KNX est développé en partenariat fort avec le BACNET mais veille également à l’interopérabilité de son protocole avec les autres protocoles comme le DALI ou le Modbus pour ne citer que les principaux.

En 2016, les spécifications KNX sont devenues gratuites.

Les dernières informations techniques en date peuvent être trouvées sur leur site.


Bacnet

bacnet dans passerelle de communication

Le Bacnet est un protocole de communication international et normalisé très répandu. Le Bacnet est plus lent que le KNX mais profite également d’un large champ d’application (bien qu’il soit principalement orienté HVAC).

Les dernières informations techniques en date peuvent être trouvées sur leur site.


Protocole Dali

dali dans protocole de communication

Rien à voir avec Salvador ! DALI est un protocole de communication dédié exclusivement à la gestion d’éclairage.

DALI (Digital Addressable Lighting Interface) est une interface standard développée et soutenue par différents grands constructeurs de ballasts électroniques. DALI permet de gérer, commander et réguler numériquement une installation d’éclairage par l’intermédiaire d’un bus de communication deux fils communément appelé « ligne DALI ».

Fini, en théorie, les soucis de compatibilité d’équipement !

En effet, quels que soient les composants de l’installation d’éclairage :

  • un détecteur de présence,
  • une cellule photo électrique,
  • un bouton poussoir,
  • un interrupteur gradable à mémoire,
  • un ballast électronique,

et pour autant qu’ils possèdent l’appellation DALI, toutes marques confondues, ils sont capables de communiquer entre eux via la ligne DALI.

Mais qu’apporte exactement DALI ?

> Une gestion flexible de l’éclairage par :

  • un adressage individuel des ballasts électroniques, et par conséquent des luminaires,
  • la facilité de découper les espaces en zones indépendantes,
  • la simplicité de programmation, de modification de programmation sans devoir intervenir physiquement sur l’installation.

> Un confort et une simplicité :

  • de mise à disposition de multiples scénarios de commande et de gestion pour l’utilisateur et le gestionnaire technique,
  • de mise en œuvre pour le maître d’œuvre.

Modbus

modbus dans protocole de communication

Le protocole Modbus est un protocole de communication dérivé du BACnet faisant partie du domaine public. Le protocole peut utiliser l’Ethernet ou des bus terrain comme support physique (RS232, RS485 par exemple).

Ce protocole date des années 1979 et ne permet pas à plusieurs appareils d’émettre en même temps sur une branche. Le protocole fonctionne selon le principe du maitre-esclave : l’esclave n’ayant la « parole » que lorsque l’équipement maitre le demande.

Les dernières informations techniques en date peuvent être trouvées sur leur site.


M-Bus

Le MBus est un bus de terrain pour l’acquisition de données de consommation de compteurs d’électricité, de compteurs de chaleur, de compteurs de gaz, …

 

Protocole de communication

Protocole de communication


Définition

Un protocole de communication est un ensemble de règles et de codes de langage qui définissent comment se déroule la communication entre un émetteur et un récepteur.


Rôle

Pour qu’un bâtiment intelligent puisse fonctionner, il faut que tous les sous-systèmes puissent communiquer entre eux et se comprennent. Pour se faire, il faut un réseau physique (des câbles) ou sans fil (émetteur, ondes, récepteur) pour acheminer l’information mais il faut aussi que ces informations soient émises dans un langage bien codifié pour qu’elles puissent être reçues et interprétées par les autres appareils du réseau.

Le rôle du protocole est donc de régir la manière dont l’émetteur et le récepteur vont échanger des informations et donner une signification commune aux données brutes qu’ils s’échangent.


Fonctionnement général

Les systèmes doivent donc parler un langage commun mais aussi connaitre quelques codes simples d’émission et de réception des données. C’est par l’utilisation d’un protocole que l’on cadre et définit cela. En plus d’un langage commun, le protocole fixe notamment :

  • La manière d’indiquer qu’un appareil est prêt à recevoir de l’information,
  • Le contexte de la communication (update, action à réaliser, demande d’un état, …)
  • La façon de s’assurer que le message a bien été reçu et compris,
  • Les procédures en cas d’anomalies ou de ruptures de la communication,
  • La procédure de fin de communication.

Pour expliquer le fonctionnement, l’analogie de l’appel téléphonique est souvent utilisée car là aussi, un protocole codifie la communication et permet la compréhension mutuelle :

  • Le récepteur indique qu’il est prêt à recevoir (le récepteur décroche et dit « Allô ») ;
  • L’émetteur situe la communication dans son contexte (« Je suis Sergio. Je t’appelle pour la raison suivante … ») ;
  • Par exemple, l’émetteur commande une action et identifie un éventuel destinataire final (« Peux-tu prévenir la Reine Mathilde que … ») ;
  • Le récepteur s’assure d’avoir bien compris le message (« Peux-tu me répéter le nom ? ») ;
  • Les procédures en cas d’erreur sont mises en place (« Je te rappelle si je n’arrive pas à la joindre. ») ;
  • Les parties se mettent d’accord sur la fin de la communication (« Au revoir. »).

Mais la communication ci-dessus a aussi implicitement enclenché d’autres actions avec d’autres protocoles : une autre couche de communication :

  • Quand l’interlocuteur de Sergio préviendra la Reine Mathilde, celui-ci utilisera un autre protocole de communication, adapté à sa réceptrice couronnée.
  • Aussi, avant même de dire « Allô », les téléphones ont dû communiquer entre eux (tonalité, sonnerie, …) pour ouvrir la ligne selon un protocole qui leur est propre.

Au final, ce sont autant de protocoles, parfois différents, superposés ou en chaînes qui peuvent être utilisés dans la cadre d’une simple requête.

Pour faire le lien entre deux protocoles différents, l’utilisation de ponts ou passerelles est nécessaire.


 L’enjeu de l’Interopérabilité

Pour qu’un smartbuilding fonctionne de manière optimale, l’interopérabilité des systèmes est primordiale.

L’interopérabilité des protocoles et des systèmes ne s’annonce pas être une chose facile dans la dynamique actuelle poussant à la création « d’environnements dédiés » pour chaque produit ou famille de produits pour des raisons purement économiques et de marketing.

Il faudra éviter autant que possible la fragmentation des protocoles. Mais, heureusement, la Commission électrotechnique internationale (IEC en anglais) veille à assurer la sécurité et l’interopérabilité des systèmes.

L’autre enjeu est celui de la normalisation des protocoles. Certains protocoles très courants comme le DALI n’est pas normé (heureusement, le DALI-2 devrait bientôt voir le jour et sera normé).

Il reste que les protocoles de communication les plus populaires sont encore nombreux mais bien souvent interopérables. Ouf !

Supports de communication dans le bâtiment

Supports de communication dans le bâtiment


Les « bus terrain » (les câbles)

Les bus informatiques sont des éléments câblés portant l’information dans le bâtiment. Dès les débuts de la GTC et jusqu’à aujourd’hui c’est dans la plupart des cas via ce type de support que les informations des systèmes techniques sont transportées.

support de communication

L’utilisation de câbles plutôt que d’ondes radios pour la communication possède plusieurs avantages. Le réseau :

  • Est stable, robuste, sans perte de connexion,
  • Durable dans le temps,
  • Peut traverser les murs, même épais,
  • Frais de maintenance réduits,
  • Ne peut-être infiltré à distance.
  • Généralement plus véloce que les réseaux sans-fil.
  • Aucune suspicion d’impact sur la santé, contrairement aux ondes (favorise l’acceptation).

Mais également certains désavantages :

  • Coût jusqu’à 5-15% plus cher qu’un réseau déployé par ondes radio((En 2019, dans la majorité des cas, selon les intégrateurs que nous avons pu consulter.)).
  • Complexité de mise en place, demande d’être méticuleux et organisé pour ne pas s’y perdre, notamment en cas de travaux de rénovation.
  • Peuvent prendre de la place,
  • Inesthétiques.

Par défaut, ce sont des câbles qui sont utilisés dans la majorité des cas, tandis que les ondes radios sont utilisés pour répondre à des exceptions pour lesquelles du câblage ne serait pas adapté : télécommande mobile, appel infirmier,  considérations esthétiques et techniques (par exemple : pour éviter de traverser une paroi en verre dans une salle de réunion sans espace technique), …

Dans certains cas, pour des questions de cybersécurité et de protection de données, l’utilisation de câblage est rendue obligatoire. Les systèmes anti-intrusion sont ainsi obligatoirement câblés. Dans un avenir proche, le raccordement des caméras de sécurité devra également être réalisé en filaire.

Déjà actuellement, les caméras, souvent nombreuses et de haute résolution représentent des flux de données considérables plus facilement gérable en filaire.


Les ondes radio

onde radio

 

Les ondes radios sont utilisés par des protocoles de communication comme le zigbee, le Wifi, le bluetooth. Les réseaux sans-fils présentent plusieurs avantages :

  • Celui, majeur, de permettre aux appareils d’être libres de tout fils et donc mobiles ou portables (bouton poussoir d’éclairage EnOcean, télérelevé de comptage, appel infirmier, télécommandes…)
  • Réduction de l’impact visuel et du nombre de percements.
  • Simplifier et réduire le nombre de branchements (points de contacts) lorsqu’un grand nombre d’appareils sont circonscrits dans un espace relativement restreint (portiques d’entré,…).
  • Généralement moins cher à mettre en œuvre.

Mais, également, certains désavantages :

  • le réseau est plus facilement soumis à des perturbations,
  • Le coût de maintenance est plus élevé,
  • Les suspicions d’impact des ondes sur la santé peuvent constituer un frein à l’acceptation,
  • Le réseau créé autour des points d’émissions pourrait ne pas être circonscrit à l’enceinte physique du bâtiment et, donc, mettre à mal la cybersécurité du bâtiment. Quand bien même le réseau serait borné à l’enceinte du bâtiment, il sera plus facile d’accéder de l’intérieur à un réseau sans fil diffusé dans l’espace qu’à un réseau câblé moins accessible.
  • Débit pouvant-être plus faible que les réseaux câblés.

Le courant porteur en ligne (CPL)

Dans certains cas, généralement dans le cadre domestique, le réseau électrique en place pourra servir d’infrastructure de support à la communication. Ce support a l’avantage de préexister et permet donc le déploiement d’un réseau à moindre coût.

Le principe est simple, on émet des hautes fréquences (ondes courtes) sur le réseau de courant électrique, ces ondes vont se superposer aux basses fréquences du courant alternatif. En bout de course, les récepteurs situés sur le réseau vont décoder le signal en soustrayant les fréquences liées au courant électrique alternatif de manière à retrouver le signal émis.

courant continu

Ce type de support a cependant certaines limites :

  • Le câblage électrique est conçu pour les basses fréquences à haute énergie (l’électricité circule à une fréquence de 50Hz dans nos contrées tandis que le CPL utilise des hautes fréquences à faible énergie au-delà de 9kHz). De ce fait, les gaines ne sont généralement pas blindées ce qui augmente le risque de brouillages et d’interférences.
  • Certains éléments du réseau comme les onduleurs peuvent couper les hautes fréquences,
  • Une panne de courant empêche le fonctionnement de la communication dans la plupart des cas,
  • Si l’intensité électrique du réseau varie fortement, le signal devient plus difficilement lisible et la communication s’en trouve gênée.

Internet des objets (IOT : Internet Of Things)

Internet des objets (IOT : Internet Of Things)

Si nos bâtiments, au sens de leurs systèmes techniques, deviennent intelligents, il en va de même de pratiquement tous nos objets du quotidien pour lesquels il existe en variante dite « smart » : montres connectées, ampoules, frigo, matelas, aspirateurs, tondeuses à gazon, balances, réveils, radios, télévisions, serrures, gamelles du chien, compteurs, pots de fleur, caméras, enceintes à reconnaissances vocales, etc…

internet des objets

Cette explosion récente du « smart » dans tous les domaines et l’avènement de plateformes ouvertes (applications, logiciels, …) qui rendent possibles l’interopérabilité entre un très grand nombre de ces objets ont permis de lier tous ces composants, a priori sans points communs, pour donner la possibilité aux utilisateurs de les faire interagir au sein d’un grand écosystème.

Ce n’est pas clair pour vous ? Voyez plutôt : Si vous possédez, à tout hasard, une ampoule connectée et une poubelle connectée, il est possible pour vous de paramétrer les choses suivantes en quelques clics :

Si nous sommes un jeudi ET qu’il est 19h00 ET que la poubelle n’est pas vide,

ALORS Allumer la lumière de la cuisine en rouge ET recevoir une notification sur le smartphone disant « sortir les poubelles ».

Ou encore si vous possédez une sonde de qualité de l’air (CO/CO2/Humidité), des ampoules connectées et une enceinte connectée :

Si CO supérieur à 500 ppm,

ALORS allumer toutes les lumières en rouge ET allumer les enceintes à 100 % ET faire sonner le téléphone ET envoyer un sms « help » au voisin

Les objets peuvent-être utilisés d’un grand nombre de manières que ce soit pour des économies d’énergie, plus de commodité, de confort ou encore pour sa sécurité.

C’est donc cet ensemble d’objets physiques (une poubelle, une ampoule, une enceinte, une sonde CO) ou virtuels (une horloge en ligne, la météo, …) connectés directement ou indirectement (via des passerelles de connexion) à un même réseau et pouvant interagir entre eux qu’on appelle l’internet des objets ou IOT.

L’Union internationale des télécommunications((Dans sa note de recommandation UIT-T Y.2060 URL : https://www.itu.int/rec/dologin_pub.asp?lang=e&id=T-REC-Y.2060-201206-I!!PDF-F&type=items)) en donne la définition suivante : « infrastructure mondiale pour la société de l’information, qui permet de disposer de services évolués en interconnectant des objets (physiques ou virtuels) grâce aux technologies de l’information et de la communication interopérables existantes ou en évolution ».

D’après la note de recommandation UIT-T Y.2060

Avec cette interconnexion galopante et le développement des technologies de la communication, les frontières entre l’utilisateur, les « wearables », les objets connectés et les systèmes techniques s’amenuisent et ces différentes échelles s’intègrent, s’assimilent mutuellement.

SmartBuilding : définition

SmartBuilding : définition


Définition

Un bâtiment intelligent ou « Smartbuilding » est un bâtiment qui cherche à répondre aux enjeux généraux de confort, de bien-être, de sécurité et de performance énergétique et environnementale par l’exploitation des technologies liées au monde numérique.
Architecture et Climat – Janvier 2019

Intelligence artificielle dans le smartbuilding

Pour chacun de ces enjeux, le Smartbuilding poursuit 4 objectifs majeurs :

  • La flexibilité énergétique,
  • La commodité et l’ergonomie,
  • L’optimisation et l’efficacité,
  • La maintenance et la prévention des pannes.

Le bâtiment intelligent cherche à atteindre ces 4 objectifs pour chacun des enjeux en faisant communiquer et coopérer les systèmes du bâtiment entre eux tout en incluant l’occupant.

Le bâtiment, désormais smart, dispose ainsi de nouveaux outils numériques pour (s’)informer, contrôler, prévoir, optimiser et simplifier la gestion du bâtiment.

Le Building Performance Institute Europe [BPIE] ajoute qu’un bâtiment intelligent :

  • « Conduit à une décarbonisation plus rapide des systèmes énergétiques par l’utilisation du stockage d’énergie et l’amélioration de la flexibilité de la demande énergétique ;
  • Habilite et responsabilise ses usagers et occupants en leur offrant le contrôle des flux d’énergie ;
  • Reconnait et réagit aux besoins des occupants et des usagers en termes de confort, de santé, de qualité de l’air intérieur, de sécurité mais aussi d’exigences pratiques. « 

Mais cette « surcouche SMART » présente également des risques et de nouveaux défis pour le secteur du bâtiment. Principalement, ces risques sont : l’échec de la symbiose avec les occupants, la cybersécurité, l’obsolescence des équipements, le surcoût économique et environnemental à rentabiliser (voir plus loin).


Quelle différence avec la GTC ?

Le smartbuilding se différencie de la GTC (Gestion Technique Centralisée) :

  • par son champ d’application plus large, allant bien au-delà de la HVAC en intégrant d’autres systèmes (accès, ascenseur, renouvelable, sécurité, …)
  • Par son niveau d’interaction plus élevé et plus complexe entre les différentes techniques. Ceci permet à la HVAC, l’éclairage, les protections solaires, le contrôle d’accès,… de fonctionner de concert pour améliorer le confort et la performance du bâtiment.
  • par sa philosophie et son caractère beaucoup plus flexible et ouvert. Ces qualités se manifestent vers l’utilisateur qui dispose désormais d’interface conviviales pour configurer ses systèmes à souhait mais également entres les différents systèmes techniques. Dans un Smartbuilding, les éléments ne sont liés entre eux que par un réseau et de la programmation : un détecteur ou un interrupteur n’est pas structurellement relié à une lampe plutôt qu’à une autre. La manière dont les différents éléments d’un smartbuilding interagissent entre eux est désormais flexible et modifiable à souhait.

GTC dans smartBuilding

Finalement, alors que le « cerveau » de la GTC est centralisé dans un centre de gestion, celui d’un Smartbuilding est réparti entre les différents systèmes et est présent à plusieurs échelles dans chaque sous-système.

Par exemple, chaque ampoule embarque un logiciel métier mais c’est également le cas de la passerelle qui gère les interactions entre les interrupteurs, les ampoules et le réseau. Un cloud peut également intervenir sur la gestion du système et constituer une source de service supplémentaire. Cette configuration décentralisée et parfois distribuée de la gestion améliore la résilience des systèmes.


Quels sont les systèmes intégrés dans le bâtiment intelligent ?

Concrètement, grâce à l’interopérabilité et à la standardisation lente mais croissante des protocoles de communication, les Smartbuildings sont capables de monitorer, analyser et faire coopérer une variété de systèmes techniques de plus en plus large. La seule limite étant la créativité du concepteur et/ou de l’intégrateur pour répondre aux besoins de l’occupant.

La liste des sous-systèmes pouvant coopérer au sein d’un smart building est sans limite. Nous citerons donc à titre non exhaustif les systèmes principaux les plus souvent intégrés que sont :

  • Le système de raccordement au réseau et les compteurs intelligents,
  • Le système de production de chaleur,
  • Le système de refroidissement,
  • Le système de production d’ECS,
  • Le système de ventilation,
  • Le système de production et d’intégration d’énergie renouvelable,
  • Le système de stockage d’énergie,
  • Le système d’éclairage,
  • La motorisation des parties mobiles de l’enveloppe (stores, fenêtres motorisées…),
  • Le système de protection incendie,
  • Le système de gestion des eaux,
  • Les ascenseurs,
  • Le système d’accès et de sécurité,
  • La recharge et l’intégration des véhicules électriques,
  • Le monitoring et le contrôle du bâtiment,
  • Les appareils électroménagers.

Mais aussi, pourquoi pas : la détection de fuites, les livraisons, les déchets (poubelles connectées), l’inventaire, l’agenda partagé (peut coopérer avec les systèmes des salles de réunion, etc…), l’arrosage automatique, …


Gadget ou vraiment « smart » ?

Dans la vie de tous les jours, qu’est-ce qu’un bâtiment intelligent, qu’a-t-il de vraiment smart ?

Gadget : Objet, appareil, dispositif, projet etc…, qui séduit par son caractère nouveau et original, mais qui n’est pas d’une grande utilité.

Smart : Se dit d’un bien dont la maintenance ou le fonctionnement sont assurés par un dispositif automatisé capable de se substituer, pour certaines opérations, à l’intelligence humaine.

LAROUSSE – 2018

Si le concept et l’imaginaire qui entoure le smartbuilding peut sembler un peu « geek » ou gadget au premier abord, la différence entre un bâtiment « non-smart » des années 60’ et un bâtiment intelligent correspond à peu près à la différence qu’on peut retrouver entre un tracteur « full manuel » des années 60 et une voiture hybride semi-autonome d’aujourd’hui !

Le tracteur est composé d’une série d’éléments (phares, moteur, direction, freins…) actionnés et régulés indépendamment par des commandes individuelles, directes et manuelles.

tracteur dans la catégorie smartbuilding

 

À contrario, et même si nous y sommes habitués et que nous ne le remarquons peut-être plus, nos voitures actuelles sont en réalité des « smartcars » avec tout ce que cela comporte d’aspects positifs, ou pas.

voiture du futur

Rendez-vous compte : la voiture hybride choisi seule si c’est le moteur électrique ou thermique qui doit être utilisé en fonction de l’état de la batterie, du réservoir, de la vitesse et du type de conduite ; la voiture ne se déverrouille que lorsque la clé se trouve à proximité, la lumière intérieure s’allume à l’ouverture de la porte ; les phares s’allument automatiquement quand la nuit tombe ; les vitesses passent automatiquement et de manière adaptée à notre conduite du moment ; le volume de la musique baisse lorsque le GPS s’exprime, l’alarme pour la ceinture sonne dès que le siège détecte la présence d’un passager non ceinturé ; le moteur s’éteint au feu rouge, etc…

Tiens, tiens, … entre notre tracteur et notre voiture dernier cri, tout ne serait-il pas devenu interconnecté via un réseau d’information et partiellement automatisé pour faciliter la vie à bord, améliorer le confort, la sécurité et économiser de l’énergie ?

Dans le secteur automobile comme dans le bâtiment, pour être réellement smart, il est important de trouver le bon équilibre entre automatisation et suggestion en fournissant de l’information exploitable par l’utilisateur (entretien à venir, limitation de vitesse, pression des pneus, bouchons, présence d’un obstacle, …) lui suggérant telle ou telle action.

Ainsi, nous ne sommes pas à l’abri de certaines fonctions « gadget » mais, dans leur ensemble, les bâtiments intelligents le sont vraiment et ont un impact mesurable sur l’efficacité énergétique, le confort, le bien-être, la santé et la sécurité des occupants((Vincent Bonneau & Tiana Ramahandry, I. a.-A. (2017, 10). Commission Européenne. (E. Union, Éd.) Consulté le 06 2019, sur https://ec.europa.eu: https://ec.europa.eu/growth/tools-databases/dem/monitor/sites/default/files/DTM_Smart%20building%20-%20energy%20efficiency%20v1.pdf)).

Dans la littérature, nous pouvons observer des réductions de consommation des bâtiments allant de 5-15% pour la HVAC et jusqu’à 60% pour l’éclairage((Vincent Bonneau & Tiana Ramahandry, I. a.-A. (2017, 10). Commission Européenne. (E. Union, Éd.) Consulté le 06 2019, sur https://ec.europa.eu: https://ec.europa.eu/growth/tools-databases/dem/monitor/sites/default/files/DTM_Smart%20building%20-%20energy%20efficiency%20v1.pdf)) en fonction du niveau (très variable) d’intelligence, d’automatisation et d’intégration des systèmes.

Pour conclure, tout n’est évidemment pas mauvais ou inutile dans le smartbuilding mais, comme dans les autres secteurs, il vaudra toujours mieux privilégier les alternatives passives et la sobriété énergétique, plutôt que consommer de manière « Smart ».

vélo dans la catégorie smartBuiling


Quels sont les risques liés au smartbuilding ?

Les risques inhérents à la mise en œuvre sont au nombre de 4 :

  • Risque d’échec de la symbiose avec les occupants,
  • Risque de faille informatique, cybersécurité,
  • Risque d’obsolescence des équipements et softwares,
  • Risque de surcoût économique et environnemental non rentabilisé.

Échec de la symbiose avec les occupants :

Si le projet va trop loin dans l’automatisation, l’optimisation et la prédiction tout en réduisant les possibilités de déroger et d’interagir avec les systèmes, alors l’occupant perd la maitrise de son bâtiment. Il pourrait se retrouver sans levier d’action et ne plus comprendre pourquoi en plein hiver les stores se ferment au premier rayon de soleil alors que lui, en plein « blue monday », est à la recherche de Vitamine D !

domotique

 

Il faudra à tout prix éviter ce décalage entre d’un côté, une sombre optimisation énergético-économique opérée par une machine et de l’autre, les envies et besoins impulsifs éminemment humains des occupants. Pour éviter ce clash, la « machine » devra fait preuve de transparence, flexibilité, interactivité et convivialité !

Plus généralement, pour qu’un projet de smartbuilding soit positivement adopté par les utilisateurs, celui-ci devra répondre de façon proche et avec tact aux besoins de ces derniers. Pour donner toutes ses chances au projet de Smartbuilding, le concepteur et l’intégrateur (qui sont parfois une même entité) devraient être impliqués dans le projet et échanger avec les occupants et les acteurs de la construction (Architecte, entrepreneur, électricien, …) dès les premières esquisses puis tout au long du projet.

C’est notamment lors de ces discussions que les « fourchettes » d’action (borner le chauffage entre 16°C et 22°C par exemple) et que les limites de la paramétrisation laissées à l’occupant via les diverses interfaces sont définies. À l’issue de ces discussions, un équilibre devra être trouvé entre, d’une part :

  • garantir la robustesse du système et éviter que l’occupant puisse toucher à trop d’éléments techniques, ce qui risque d’engendrer des dysfonctions
  • et, d’autre part, lui permettre d’ajuster, de déroger sur suffisamment de paramètres pour qu’il conserve le contrôle et la maitrise de son bâtiment.

Risque de faille informatique, la cybersécurité

numérique dans la catégorie smartbuiling

L’autre risque qui survient quant on mandate des machines pour prendre des décisions à notre place et qu’on les interconnecte entre elles est celui de la cybersécurité : « Et si quelqu’un s’infiltre et prend les commandes de mon bâtiment ? Ou pire, s’il utilise la connection d’une ampoule comme passerelle pour s’infiltrer sur mon serveur d’entreprise et voler mes données ? »

Bien que les inquiétudes soient légitimes, bien que la vigilence soit de mise, il n’y a pas de raison de s’en inquiéter irrationnelement ou, en tous cas, plus que nous le faisons déjà avec notre réseau Wifi, notre smartphone, mots de passes ou nos clés d’appartement.

Étant donné qu’aucun système de sécurité n’est fiable à 100%, que ce soit les serrures de votre bâtiment ou son alarme, la bonne pratique en matière de (cyber)sécurité est d’agir proportionnellement. Cela commence en évaluant la valeur des données et/ou des biens que renferme le bâtiment pour définir un niveau de sécurité adapté à atteindre et l’appliquer partout : à son smartbuilding, au réseau wifi, aux serrures physiques du bâtiment, aux mots de passes des adresses mail, …

Par analogie : « Installer une porte blindée ne sert à rien si la fenêtre reste ouverte. »

Il faut donc prendre la question de la cybersécurtié au sérieux et faire réaliser un audit pour définir le niveau de protection à atteindre mais également garder à l’esprit que d’importants progrès en la matière sont réalisés jour après jour et que les cas de cyberattaques directement liées à une faille d’un Smartbuilding sont relativement rares. Si les données que renferment le bâtiment ont de la valeur, il est toujours possible d’étanchéifier le réseau « smartbuilding » du/des réseaux qui renferment des données sensibles.

Si, au départ, le cloud avait une place importante dans le smartbuilding, suite à la révélation de certaines failles informatiques conséquentes, il est de moins en moins utilisé. Aujourd’hui, le remote controling du smartbuilding est réalisé par réseau privé virtuel ou VPN. Sans entrer dans les détails, un VPN fonctionne comme un tunnel temporaire et étanche qui permet de se connecter directement à distance à un ordinateur situé dans le bâtiment. Contrairement au Cloud qui « discute » tout le temps avec le bâtiment, ici un tunnel n’est ouvert qu’en cas de besoin et l’ensemble se déconnecte quand il n’y a plus d’échanges.

Le risque d’obsolescence des équipements et des softwares.

Les premiers smartbuilding sont relativement récents de sorte que les retours sont peu nombreux et ne permettent pas de déterminer avec certitude si ces bâtiments feront face à un phénomène d’obsolescence ou non. Néanmoins, quelques éléments de réponses peuvent être apportés.

Tout d’abord, l’interopérabilité et la structure du réseau « plug and play » décentralisé ou parfois distribué des systèmes du smartbuilding est un gage de résilience et donc de durabilité. Dans ces systèmes peu hiérarchisés et non-linéaires, chaque élément ou presque peut-être remplacé ou retiré individuellement. D’autres éléments peuvent éventuellement être ajoutés. C’est un système évolutif, ce qui facilite grandement les réparations, adaptations, remplacements.

cnetralisé et décentralisé

Cependant, qui dit systèmes évolutifs, dit également systèmes qu’on aura envie de faire évoluer. La tentation de compléter son système avec des équipements « gadgets » superflus ou par la nouvelle version de l’un ou l’autre équipement peut indirectement être source de gaspillage et d’obsolescence.

Si la GTC appartient progressivement au passé, celle-ci avait la qualité de pouvoir accompagner un bâtiment plus de 15 ans sans modification ou encombre majeure.

Quand nous observons les durées de vies couramment observées des softwares, objets connectés et autres tablettes, nous pouvons légitimement douter de la pérennité de l’ensemble des composants du smartbuilding.

  • >30-50 ans pour un bâtiment,
  • >15-20 ans pour un équipement de technique,
  • ±8-10 ans pour un objet connecté,
  • ±4-6 ans pour un système d’exploitation
  • Et ±2-4 ans pour une application

Risque de voir le surcout économique et environnemental non rentabilisé sur la durée de vie

La Smartbuilding poursuit, entre autres, un objectif d’efficacité environnementale et de rationalisation de la consommation d’énergie. Le Maitre d’ouvrage cherche de surcroit à réaliser des économies en réduisant la consommation et l’empreinte environnementale de son bâtiment.

Le premier risque d’un smartbuilding est d’observer une optimisation énergétique et une baisse de la facture énergétique insuffisamment conséquente pour compenser le surcoût « smart » lors de la construction du bâtiment.

graphe sur le smartbuilding

Ensuite, comme les nombreuses sondes, équipements, puissances de calcul, … sont sous-tension et communiquent 24h/24, 7j/7, ils engendrent une consommation d’électricité non négligeable. Ces équipements supplémentaires ont également une empreinte en énergie grise liée à leur fabrication dont il faut tenir compte. Le second risque serait que cet « investissement environnemental supplémentaire » ne soit pas au moins compensé par l’économie et la rationalisation énergétique que ces équipements génèrent au cours de leurs vies.

On estime qu’en 2025 les objets connectés auront une consommation équivalente à un pays comme le Canada.

Basé sur les chiffres de l’AIE (Agence Internationale de l’Énergie) – 2013


Le « smart » : un progrès (in)contournable ?

Un faisceau d’incitants directs et indirects comme le « SRI », l’intégration croissante du renouvelable, l’encouragement à l’autoconsommation, le choix européen d’orienter la mobilité vers l’électrique, des attentes et des normes de confort et de commodité croissantes vont pousser chaque jour un peu plus à « smartiser » nos bâtiments.

Si la volonté est de se doter des dernières technologies pour profiter des fonctionnalités et services les plus à la pointe, alors le Smart et l’interconnexion deviendront incontournables.

L’automatisation de certaines tâches et l’optimisation du bâtiment nous permet alors de multiplier les fonctionnalités, les services, rationnaliser la consommation d’énergie et améliorer le confort tout en nous soulageant d’une partie de la gestion et de la programmation.

Néanmoins, nous observons également combien la course au progrès se fait régulièrement au détriment du bon sens et de la maitrise de son environnement. C’est pourquoi nous pensons qu’il nous revient, au cas par cas, de définir si un tel progrès est de nature à répondre à un besoin réel ou non. Plutôt que d’offrir des solutions à un problème qui n’existe pas, le smartbuilding se devra de répondre sur-mesure aux besoins et aux attentes propres à chaque groupe d’occupant.

D’un point de vue uniquement énergétique, si nous devions positionner l’intégration du « smart » dans une stratégie de conception telle que la trias-energetica, elle trouverait assurément sa place en queue de peloton :

  • lorsque les besoins sont réduits au maximum rationnel (Optimisation de l’enveloppe, des comportements…),
  • que la plus grande part possible des besoins est couverte par des énergies renouvelables,
  • et que le complément (fossile) est produit avec le meilleur rendement possible

Alors seulement, comme dernier effort, le smartbuilding devrait être envisagé et intégré au bâti de manière à rationnaliser toujours plus les besoins, optimiser l’autoconsommation, perfectionner le confort et améliorer l’efficacité et la gestion énergétique.

Il serait hautement souhaitable que l’utilisation de cette force de calcul puisse, paradoxalement (?), se mettre au service des solutions Low-Tech et passives en les rendant plus autonomes et intelligentes de manière à les rendre aussi efficaces que certains systèmes actifs complexes, lourds et consommateurs d’énergie.

En effet, des éléments architecturaux « basiques » comme les fenêtres ouvrantes ou les volets sont des composants formidablement simples et efficaces pour refroidir ou ventiler un bâtiment. Leur unique « défaut » réside éventuellement dans leur mauvaise utilisation : faute d’information et de capacité d’anticipation de l’occupant mais également dans l’impossibilité d’être actionné en dehors des horaires d’occupation.

Avec un peu d’IA et quelques sondes simples, l’utilisateur peut, par exemple, être informé anticipativement par une simple diode LED de l’intérêt ou non d’actionner tel ou tel dispositif de manière à adapter et optimiser son utilisation des ouvrants.

Dans certains cas judicieux, pour aller plus loin, ces éléments peuvent être connectés et motorisés de sorte que, lorsque l’utilisateur est absent, le smartbuilding pourra prendre le relais et actionner ces systèmes simples avec très peu de moyens techniques et énergétiques.

Architecture et Climat  – Janvier 2019

Intelligence artificielle (IA) appliquée aux bâtiments

Intelligence artificielle (IA) appliquée aux bâtiments

Aujourd’hui, l’intelligence artificielle (IA) s’immisce partout, jusque dans nos bâtiments… Mais au-delà du mythe, de la crainte ou encore du fantasme, qu’est-ce que réellement l’intelligence artificielle et quel rapport entretient-elle avec les bâtiments ? De quoi s’agit-il ?

L’intelligence artificielle regroupe l’ensemble des technologies (les programmes, codes, machines, techniques…) capable de reproduire un ersatz d’intelligence. Il s’agit donc pour ces outils, programmes ou techniques de simuler des processus cognitifs, parfois plus vite qu’un humain, parfois de façon originale. Néanmoins, l’intelligence artificielle ne peut naître d’elle-même ou apprendre d’elle-même sans supervision humaine. L’IA n’a pas de « volonté » ou de « conscience », il ne s’agit que d’une chaine de petits calculs et algorithmes relativement « simples » qui, combinés bout à bout et itérés, permettent d’accomplir des processus cognitifs complexes (reconnaitre des caractères, convertir une voix en texte, …). Ce haut niveau de complexité peut parfois semer le trouble et faire croire « qu’il y a quelqu’un là de-dedans » mais il n’en est rien !


Les limites d’une intelligence informatique supervisée

Si, du côté du matériel (le « hardware »), les « machines de calcul » atteignent des sommets (augmentation des puissances, cloudcomputing, …), la limite la plus forte se situe dans la formalisation, la programmation des tâches : comment expliquer à une machine qu’elle doit effectuer une tâche déterminée ?

C’est en effet une chose d’avoir de la puissance et une endurance à toute épreuve mais si on ne sait pas qu’il faut mettre un pied devant l’autre pour courir, toute cette puissance ne sert à rien. Ainsi, la programmation informatique des tâches est aussi ardue que la logique d’une machine est éloignée de celle d’un humain : une machine a plus de facilité à énumérer des nombres premiers qu’à reconnaitre un chat ou, simplement, marcher. Pour une machine tout est mathématique et logique, rien n’est « inné », tout doit rentrer dans des cases.

Aussi, jusqu’à présent, aucune machine n’apprend par elle-même à partir de rien. Systématiquement, l’humain doit spécifier les paramètres à prendre en compte, les règles du jeu et l’objectif à atteindre.

La performance de la machine dépend donc de ses composants mais surtout de la capacité de l’humain à en tirer parti et savoir « expliquer » (programmer) les règles du jeu de manière efficace et, le cas échéant, à fournir des données en quantité et qualité suffisante pour que la machine puisse les analyser et s’optimiser pour répondre au mieux aux objectifs. La machine peut donc s’entrainer ou optimiser un processus, parfois à des niveaux de complexité très élevés mais ne peut pas, à l’origine, faire preuve d’intelligence ou d’initiative pure par elle-même.

Si nous observons en bref le fonctionnement d’un thermostat « dernier cri » dit « smart » ou « intelligent », on se rend compte que ce n’est pas un génie. Il s’agit d’une machine à qui on a expliqué (programmé) que, pendant son exploitation, elle allait devoir optimiser sa manière d’agir sur la chaudière en fonction d’une série de paramètres (température extérieure, ensoleillement, température intérieure, …) de manière à ce que la température mesurée des espaces intérieurs réponde au mieux aux attentes planifiées de l’occupant.

Cette machine enregistre les différents paramètres qu’elle mesure et adapte son fonctionnement logique si elle manque son objectif (selon un processus d’itération préprogrammé par le concepteur). En effet, si le nouveau thermostat « intelligent » que vous avez depuis 3 jours déclenche par défaut la chaudière 30 minutes avant le réveil de l’occupant pour atteindre 20°C à 7h du matin, il va arriver un jour où les températures extérieures vont baisser et où la pièce aura besoin de bien plus de 30 minutes pour chauffer. Ce jour-là, la machine va se tromper et atteindre la température de consigne en retard mais surtout elle va le mémoriser et tenir compte de son erreur. Ainsi, si elle est bien programmée, elle « se souviendra », la prochaine fois qu’il fera aussi froid, qu’elle n’y était pas parvenue et elle lancera la chaudière un peu plus tôt et ainsi de suite. Au fil du temps, des erreurs et des corrections, le thermostat perfectionnera son algorithme pour répondre au mieux à sa mission. Plus le programmeur aura fait intervenir des paramètres dans l’algorithme plus la machine pourra se perfectionner et corriger son calcul au fil du temps.

Dans tous les cas, la machine restera limitée par son hardware (le nombre et la qualité de ses capteurs) mais aussi et surtout par la qualité de sa programmation. En effet, il ne faudrait pas que le jour où vous oubliez une fenêtre ouverte toute la nuit avec pour effet de biaiser le comportement de la relance de votre chauffage, le thermostat se dérègle et désapprenne tout. Seul un programmeur intelligent qui aurait anticipé ce genre de cas pourra permettre au thermostat de comprendre que ce matin-là était anormal et qu’il ne doit pas en tenir compte pour la suite.


Quelle place dans le bâtiment ?

Le numérique, les technologies de la communication et l’IA, prennent une place de plus en plus importante grâce aux évolutions dans les domaines des TICs (technologies de l’information et de la communication), de l’informatique, de l’électronique, … Avec l’automatisation croissante, ces progrès ont permis l’introduction dans nos bâtiments de systèmes techniques plus complexes et finement régulés sans pour autant augmenter proportionnellement la difficulté de la gestion quotidienne pour les occupants.

Ainsi, les systèmes du bâtiment ont pu devenir de plus en plus nombreux, interconnectés, perfectionnés et complexes individuellement. Cette complexité est en voie de s’accroitre dans les prochaines années avec l’intégration croissante des énergies renouvelables et la mise en réseau lente mais progressive des systèmes entre eux de sorte qu’il y aura encore une augmentation considérable du nombre de prise de mesures, de décisions et d’actions à automatiser et optimiser pour réguler tous ces systèmes en continu de manière optimale et coordonnée.

L’intégration de ces technologies dans ce qu’on appelle désormais un « smartbuilding » représente une opportunité unique d’amélioration de la performance énergétique et du confort dans les bâtiments.

Les dossiers thématiques : Le QZEN

Les dossiers thématiques : Le QZEN


Connaitre les tenants et aboutissants de la nouvelle exigence QZEN, anticiper en communiquant autour de cette exigence afin d’aiguiller les acteurs du secteur de manière appropriée, tels sont les objectifs de cette page thématique consacrée au QZEN.

Dans cette optique, nous nous sommes concentrés sur la compréhension du QZEN : C’est quoi le QZEN ? Évolution ou révolution ? QZEN= renouvelable ?

Ensuite, l’accent a été mis sur la conception énergétique des bâtiments « Quasi Zéro Énergie » : Quelle approche de conception pour le QZEN ?

Finalement, nous avons poursuivi la mise à jour du contenu sur les énergies renouvelables, le stockage énergétique dans le bâtiment et les réseaux intelligents.


Qu’est-ce que le QZEN ?


Quelle approche de conception pour le QZEN ?


Vous pourriez également être intéressé par les thématiques suivantes

Les énergies renouvelables

Le photovoltaïque

L’éolien

 

Le stockage et les réseaux

Stratégie de conception d’un bâtiment Q-ZEN (Quasi Zéro Energie)

Stratégie de conception d’un bâtiment Q-ZEN


Stratégie globale

Quelle stratégie de conception utiliser et quel « niveau d’effort sur la performance énergétique » doit-on réaliser pour répondre aux exigences du Q-ZEN Wallon ?

Pour rappel les exigences principales du Q-ZEN sont :
  • Les Umax des différentes parois du volume protégé de 0,24W/m².K sauf pour :
    • Les vitrages (1,1 W/m³.K) ;
    • Les fenêtres (1,5 W/m³.K) ;
    • Les façades légères et les portes (2,0 W/m².K).
  • Un niveau K35;
  • Le niveau Ew inférieur à 45. (90 pour les bâtiments non résidentiels autres que les parties fonctionnelles bureau et enseignement)

Pour plus de détails, allez voir notre page sur les exigences de la réglementation Q-ZEN.
Pour Energie+, la meilleure énergie reste celle que l’on ne consomme pas. Pour cette raison les priorités dans la stratégie de conception d’un bâtiment Q-ZEN sont les suivantes :

  • La première chose à faire sera de chercher à réduire les besoins d’énergie du bâtiment à leur minimum [par l’isolation thermique, un volume réduit et rationnel, un rapport entre les parois opaques et transparentes équilibré, des pare-soleil, …].
  • Lorsque les besoins du bâtiment sont réduits à leur minimum raisonnable, le concepteur devra veiller à répondre à ces besoins thermiques et électriques avec des systèmes techniques efficaces, adéquats, bien dimensionnés, bien régulés et correctement mis en place, tant au niveau de la production thermique que de la distribution des fluides, le choix des émetteurs et la régulation globale.
  • Finalement, le concepteur envisagera de produire le maximum des besoins résiduels de manière renouvelable.

Schéma sur la stratégie globale du Q-Zen wallon.

Il est important d’agir dans cet ordre [Réduire les besoins > utiliser des systèmes efficaces > exploiter des sources locales et renouvelables d’énergie] et de se pencher sur l’aspect suivant une fois que l’optimum est atteint pour chaque étape de la conception.

Les exigences Q-ZEN ne recouvrent qu’une partie des postes de consommation, pour diminuer la consommation totale du bâtiment, visitez notre page consacrée à la Stratégie de conception « soft énergie » à tous les niveaux.


Une géométrie compacte

Pour commencer, il faudra trouver l’optimum entre une grande compacité pour limiter les pertes de chaleur et une faible compacité (augmenter les surfaces de façade) pour profiter du maximum d’éclairage naturel. Selon les cas, le juste compromis sera en faveur de l’une ou de l’autre solution.

Aujourd’hui, dans les bâtiments isolés au niveau du Q-ZEN, la consommation d’éclairage représente environ ¼ des consommations.

Il convient donc, a priori, de favoriser autant que possible l’éclairage naturel en limitant la profondeur des locaux. On recommande de limiter la profondeur des bureaux au double de la hauteur du local, soit à environ 6 m. Ainsi, si deux rangées de bureaux sont séparées par un couloir central, cela donne une profondeur de bâtiment d’environ 15 m.

Pour tous les cas, à l’exception des bâtiments majoritairement composés de façades légères vitrées, une bonne pratique consiste à vérifier que le bâtiment respecte l’exigence sur le niveau K lorsque les valeurs U des parois respectent strictement les valeurs Umax.

Si le bâtiment nécessite d’aller au-delà des exigences Umax sur les parois pour atteindre le niveau K35, le concepteur doit considérer que la compacité du projet pourrait poser problème et agir sur la forme du bâtiment ou encore revoir la quantité de parois transparente à la baisse.

Lorsque le bâtiment est majoritairement composé de vitrage ou de façades légères et que le respect strict des valeurs Umax ne permet pas d’atteindre le niveau K35, la compacité ne sera alors pas nécessairement la seule à incriminer. Il faudra également envisager d’aller bien au-delà des exigences Q-ZEN sur la valeur U des façades légères pour que le niveau K puisse être respecté.

Généralement, aller en deçà du niveau K20 n’apporte que peu de gains énergétiques, car les économies sur la production de chaleur sont en bonne partie compensées par l’augmentation de la consommation pour le refroidissement et l’éclairage.

En effet, la consommation pour l’éclairage artificiel peut augmenter car, à volume égal, plus le bâtiment à un niveau K « performant », plus il est opaque (le ratio parois opaques/paroi transparentes augmente) et/ou moins il dispose de surfaces d’enveloppe extérieure. De surcroît, plus les vitrages sont isolants et plus la protection contre la surchauffe devient importante, moins leur transmission lumineuse sera bonne.

Le schéma ci-dessous illustre cette problématique. Toutefois, ces courbes ne représentent qu’une tendance générale et d’un bâtiment à l’autre, en fonction des choix techniques, du type d’occupation, de l’environnement, de la géométrie, ces tendances peuvent varier.

Courbe sur l'évolution des postes de consommation en fonction du niveau K de projets existants.
Évolution des postes de consommation (hors énergie renouvelable) en fonction du niveau K basé sur l’étude de 9 projets existants répondant aux exigences Q-ZEN

Plus d’information : Optimaliser le volume du bâtiment

Un rapport équilibré entre parois opaques et les parois translucides

Ce n’est un secret pour personne, bien que les progrès techniques soient impressionnants, les fenêtres sont moins isolantes que les parois opaques. Ainsi, un bon triple vitrage récent sera toujours trois à quatre fois plus déperditif qu’un mur opaque respectant les exigences Q-ZEN.

Alors on ne met plus de fenêtre ? NON, l’occupant a besoin d’éclairage naturel et de vues vers l’extérieur pour son confort et son bien-être. Il s’agit plutôt de trouver un équilibre optimal entre maîtrise des déperditions thermiques et bien-être. Attention, lorsqu’un bâtiment est très vitré, celui-ci risque de surchauffer. Dans ce cas, il faudra réduire le facteur de transmission solaire (facteur g) et/ou penser à la mise en œuvre de pare-soleil.

Conseil : la taille des vitrages n’est pas la seule donnée importante concernant l’éclairage. La disposition et l’orientation de ceux-ci sont tout aussi importantes. Par exemple, plus un vitrage sera haut, plus la lumière qui la traverse se diffusera profondément au sein de la bâtisse.

Opter pour une proportion de vitrage comprise entre 30 et 45 % de la surface de la façade constitue une bonne première estimation qu’il faudra affiner ensuite en fonction du programme, des orientations et de la géométrie. Pour aller au-delà de ces valeurs indicatives, il est nécessaire de porter une attention accrue sur le niveau d’isolation des vitrages, leur facteur solaire et la présence d’éventuels pare-soleil.

Plus d’information : Choisir la position et la dimension de la fenêtre

Un bon niveau d’isolation des parois

Lorsque la forme de l’édifice est définie, vient le moment de déterminer le niveau d’isolation des différents éléments constructifs du bâtiment…Dans tous les cas, les éléments devront respecter les exigences concernant les Umax . Améliorer le niveau d’isolation est vraisemblablement une des manières les plus durables et abordable de réduire les besoins en énergie du bâtiment.

De plus, en réduisant les besoins, nous pouvons nous contenter de systèmes de climatisation plus petits et donc moins coûteux (ou plus efficaces pour le même montant).

Au-delà des 10 à 15 cm d’isolant généralement requis pour répondre à l’exigence sur les Umax, chaque centimètre d’isolant supplémentaire permet de gagner parfois jusqu’à 1 point sur le niveau Ew ! Vous savez maintenant comment empocher quelques points supplémentaires !

Dans les murs récents, 95 % de la résistance thermique du mur est réalisée par la présence d’un matériau isolant dédié à cette fonction. Les matériaux isolants les plus utilisés (Laines minérales, XPS…) ont une conductivité thermique (λ) de 0,035 W/m.K. Le schéma suivant ne tient pas compte des autres matériaux constituant la paroi et donne une idée de la valeur U atteinte en fonction de l’épaisseur d’isolant « courant » qui pourra être mis en œuvre.

Courbe représentant la valeur U de la paroi en fonction de l'épaisseur de l'isolant.

Pour atteindre le standard Q-ZEN, plus le niveau d’isolation sera élevé, plus il sera facile de l’atteindre sans faire appel à des technologies complexes de production de chaud ou de froid.

Avec des valeurs U inférieures à 0,15 W/m².K pour les parois opaques et des fenêtres performantes (U<0,8 W/m².K), le bâtiment que vous concevez est déjà en bonne voie pour répondre aux 3 exigences principales du Q-ZEN (Umax, K35 et EW45) sans même avoir à y installer des technologies coûteuses ou devoir produire des énergies renouvelables sur place.

Mais maintenant que les besoins sont réduits, les systèmes nécessaires seront plus petits et donc moins coûteux !

Plus d’information : Concevoir l’isolation

Attention à l’étanchéité !

Avec des bâtiments toujours mieux isolés, la proportion des pertes par infiltration dans le total de déperdition devient non-négligeable ! Un débit de fuite à 50 Pa par unité de surface inférieur à 2 m³/h.m² doit être visé. Afin de valoriser cet effort dans le cadre d’un encodage PEB, un test Blowerdoor devra être réalisé.

Plus d’information : Concevoir l’étanchéité à l’air

Valoriser la fraîcheur de l’environnement

Le renforcement de la performance énergétique d’hiver augmente parfois le risque de surchauffe en mi-saison ou en été. Or, dans notre climat, le recours au refroidissement mécanique devrait rester exceptionnel. Des stratégies de rafraîchissement naturel, par ventilation nocturne ou par géocooling notamment, permettent de limiter ou d’éviter la consommation en été de l’énergie économisée en hiver.

Plus d’information : Valoriser la fraicheur de l’environnement


Des systèmes adaptés

La ventilation et la récupération de chaleur

Si les bâtiments étanches représentent un gros atout énergétique, les occupants ont quant à eux besoin d’air frais en grande quantité. L’atout de ventilation double flux est de pouvoir réguler la quantité d’air frais injecté dans le bâtiment pour l’adapter aux besoins du moment et répondre à la norme en matière de ventilation hygiénique pour les bâtiments non résidentiels NBN EN 13779 [2]. La présence d’un récupérateur de chaleur sur ce type de ventilation est aujourd’hui incontournable dans les immeubles de bureau désireux d’atteindre le standard Q-ZEN. Leur rendement peut atteindre les 90 % (!). Pour un coût relativement faible, 75 à 90% des pertes par ventilation peuvent ainsi être évitées !

Plus d’information  Choisir le système de ventilation.

Le système de chauffage

Un bâtiment Q-ZEN n’exclut par l’utilisation de systèmes « classiques » et permet généralement l’utilisation d’une chaudière au gaz à condensation, tout en conservant un niveau Ew répondant aux exigences Q-ZEN. Néanmoins, pour que cette solution soit viable, il faudra répondre à l’une de ces conditions :

  • Le niveau d’isolation des parois opaque atteint 0,15 W/m².K et/ou le niveau K est inférieur à 20 ;
  • OU le bâtiment est équipé d’une surface de panneaux PV équivalent à 10 % de la surface de plancher chauffé.

Par contre, lorsqu’un tel niveau d’isolation ne peut être atteint et que l’on ne dispose pas d’une surface permettant d’accueillir des panneaux photovoltaïques le concepteur des installations devra se pencher sur des techniques plus complexes et coûteuses (à la construction) comme la cogénération, une pompe à chaleur performante…

Plus d’information : Concevoir le chauffage

Le système de refroidissement

Dans les bâtiments récents, compacts et bien isolés, le problème de la surchauffe et de la consommation de froid prend de plus en plus d’importance par rapport à celui de la consommation de chauffage.

Courbe sur la tendance de l'évolution du niveau EW en fonction du niveau K pour 8 bâtiments.
Tendance de l’évolution du niveau EW en fonction du niveau K pour 8 bâtiments.

Les bâtiments ayant un niveau K inférieur à 20 auront une consommation pour le froid pouvant être équivalente voir supérieure à la consommation pour le chaud ! Et le changement climatique va renforcer cette tendance.

Comme pour le chauffage, Q-ZEN ne veut pas nécessairement dire High-tech. Dès lors que les risques de surchauffe sont bien gérés, que le bâtiment est bien isolé et que l’inertie du bâtiment est adaptée, un système de refroidissement « classique » comme une machine à compression électrique pourra dans certains cas suffire à atteindre le standard Q-ZEN. Néanmoins, dans les bâtiments fortement isolés, la part de consommation concernant le refroidissement est élevée de sorte qu’il sera toujours intéressant d’installer un système adapté et performant.

Dans le cas des bâtiments moins isolés et à défaut de panneaux photovoltaïques présents, le concepteur devra agir au moins sur la production de chaleur ou de froid pour atteindre un niveau Ew acceptable. S’il agit sur le refroidissement, il devra alors étudier la possibilité d’installer un système de : nightcooling, géocooling ou une pompe à chaleur à absorption performante selon les opportunités du projet.

Les systèmes passifs de maitrise de la surchauffe seront toujours à prescrire avant toute intervention active sur le refroidissement.

Plus d’information : Concevoir la climatisation

L’éclairage

Pour atteindre le niveau Ew de 45 exigé par la réglementation Q-ZEN pour les parties fonctionnelles bureau et enseignement, le concepteur devra valoriser au maximum la lumière naturelle et veiller à réduire le plus possible les besoins d’éclairage artificiels. La présence de détecteur de présence, d’une gestion par petite surface, de luminaires économiques et bien dimensionnés permet de gagner un grand nombre de points sur le niveau Ew à moindres frais.

Nécessité : Encodez les valeurs réelles dans le logiciel PEB : Dites non aux valeurs par défaut ! Voyez plutôt : entre les valeurs par défaut pour l’éclairage et un système bien conçu et correctement encodé, un gain de 30 à 45 points (!) sur le niveau Ew est régulièrement observé ! Autant dire que sans cela il faudra se lever tôt pour que notre bâtiment soit Q-ZEN !

Plus d’information : Concevoir l’éclairage


Produire et autoconsommer de l’énergie renouvelable

Produire de l’énergie renouvelable

Lorsque les besoins sont limités au maximum raisonnable et que les systèmes sont choisis de manière adaptée, la faible quantité d’énergie consommée pourra être partiellement ou totalement produite sur site.

Si idéalement le renouvelable devait être considéré comme un moyen, en bout de chaîne, permettant de réduire la consommation d’énergie issue du réseau, force est de constater qu’aujourd’hui les panneaux solaires photovoltaïques sont particulièrement avantageux… tant d’un point de vue économique que de leur rendement énergétique.

En effet, sans effort particulier sur l’isolation et les systèmes, la simple installation de 10 à 15 Wc/m² de surface de plancher chauffée permet dans 95 % des cas d’atteindre le standard Q-ZEN pour peu que leur exposition soit satisfaisante. Ainsi, lorsque l’on dispose d’une surface permettant l’installation de PV équivalente à ±10 % de la surface de plancher chauffée, être Q-ZEN ne sera jamais un souci, comme le montre notre étude.

Faut-il pour autant évacuer les considérations sur l’isolation et l’efficacité des systèmes ? Faut-il approcher la conception énergétique d’un bâtiment en faisant le minimum sur l’isolation et les systèmes et chercher à compenser par du PV ensuite ?

Pour qu’elle soit durable et « future-proof », la conception énergétique d’un bâtiment Q-ZEN doit être vue comme un ensemble équilibré entre performance de l’enveloppe, performance des systèmes passifs, performance des systèmes actifs et finalement consommation d’énergie produite sur site.

Le Q-ZEN ne doit pas être vu comme un objectif en soi, mais plutôt comme un minimum acceptable.
De plus, avec l’arrivée du tarif prosumer, le faible taux autoconsommation et la levée de la prime Qualiwatt sur le photovoltaïque, la solution solaire gagnera à s’inscrire dans une démarche de performance énergétique du bâtiment qui soit globale.

Plus d’information sur :

  • le photovoltaïque
  • le solaire thermique
  • l’éolien
  • la cogénération

Et n’oublions jamais que produire sa propre électricité c’est bien, la consommer : c’est mieux !

 

Isoler les parois d’un entrepôt transformé en bureaux

Comment isoler les murs et toitures d’un entrepôt existant pour le transformer en bureaux passifs ?

Isoler les parois d’un entrepôt transformé en bureaux

Les nouveaux locaux du bureau d’études écoRce à Liège.

Un entrepôt situé à Liège a été transformé en bureaux. Le maître de l’ouvrage souhaitait atteindre les valeurs du standard passif. Quelles solutions a-t-il adoptées pour isoler les parois extérieures ?


Introduction

Le bâtiment a été réalisé à partir d’un entrepôt existant en pleine ville de Liège à proximité de la gare des Guillemins. Il a été conçu en 2013 par le bureau d’architecture FHW Architectes et le bureau d’études écoRce sprl qui est également le maître de l’ouvrage.

L’extérieur du bâtiment avant les travaux.

L’intérieur du bâtiment avant les travaux.

Il a été complètement transformé. Seule la structure en béton et les murs mitoyens ont été maintenus. Le bâtiment peut donc être considéré comme une construction neuve dans le cadre de la réglementation PEB. Les éléments conservés ont provoqué des contraintes qui ont dû être résolues notamment en matière d’isolation de l’enveloppe.

Le bâtiment compte, après travaux, trois niveaux.

  • Au rez-de-chaussée accessible depuis une cour intérieure d’îlot, se trouvent l’accueil, une salle de réunion et les sanitaires. Un carport occupe une partie de ce niveau. Il abrite une zone de parking pour vélos et une zone de tri pour les déchets.
  • Le premier étage, est occupé par des bureaux paysagés, une salle de réunion ainsi qu’un petit local réservé à l’impression et à la copie des documents.
  • Le deuxième étage est réservé à la détente : réfectoire, cuisine, terrasse et jardin.

Plans du projet (document architecte).

Le maître de l’ouvrage avait pour objectif de limiter au maximum les besoins d’énergie de façon à en réduire les consommations. Il concentra donc, entre autres, ses efforts sur la réduction des déperditions thermiques tant par transmission à travers les parois de l’enveloppe du volume protégé que par manque d’étanchéité à l’air de celles-ci.


Respect des exigences Q-ZEN

L’analyse du bâtiment à l’aide du logiciel PEB montre que celui-ci répondait déjà lors de sa conception aux exigences Q-ZEN de la réglementation qui devront être respectées en 2021.

Le nouveau bâtiment a comme fonction bureaux.
Il ne comporte qu’un seul volume protégé, une seule unité PEB, une seule zone de ventilation et deux parties fonctionnelles :

  • une partie fonctionnelle « bureaux » qui occupe la totalité du rez-de-chaussée et du 1er étage ;
  • une partie fonctionnelle « rassemblement – cafétéria/réfectoire » au 2e étage.

Les conditions à respecter pour que le bâtiment respecte les exigences Q-ZEN 2021 en Région wallonne sont les suivantes :

  1. Respecter les Umax.
  2. Ne pas dépasser le niveau K maximum en tenant compte de l’impact des nœuds constructifs.
  3. Ne pas dépasser le niveau EW maximum spécifique au bâtiment concerné.
  4. Respecter les règles de ventilation décrites dans l’annexe C3 de l’AGW du 15/05/2014 tel que modifié par l’AGW du 15/05/2016.
  5. Installer un comptage énergétique pour chaque unité PEB.

1. Respect des Umax

Comme il s’agit d’une transformation, même si le bâtiment n’est pas très grand, le nombre de parois différentes est élevé.

Le tableau ci-dessous montre que cette exigence a été respectée partout.

Nom de la paroi U (W/m²K) Umax (W/m²K)
Fenêtres 0.74 1.50 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Vitrage fenêtres 0.50 1.10 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Fenêtre de toiture 1.36 1.50 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Vitrage fenêtre de toiture 1.10 1.10 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Toiture sur 1er étage 0.09 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Toiture sur 2ème étage 0.08 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Mur isolé par l’intérieur 0.23 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Mitoyen non bâti côté voisin 0.12 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Mur extérieur 0.18 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Façade bureau 0.13 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Autres façades 0.19 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Pied de façade 0.22 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Dalle sur sol 0.09 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Dalle sur extérieur 0.08 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Porte 1.00 2.00 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Mitoyens bâtis côté voisins < 0.63 1.00 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]

2. Respect du critère K ≤ K35

Le bâtiment répond largement à ce critère malgré les difficultés inhérentes à ce type de travaux (transformation). Le niveau K calculé est K20.

3. Respect du critère EW ≤ (90/45)

Le niveau EW calculé est de EW38 < EW45 qui est l’exigence la plus sévère pour les bâtiments non résidentiels. Le critère est donc clairement respecté.

4. Respect des règles de ventilation

La ventilation du bâtiment est assurée par un système D grâce à une centrale double flux avec récupération de chaleur. Le choix de cette centrale de traitement d’air s’est fait suite au calcul du débit nécessaire dans ce bâtiment conformément à l’annexe C3 de l’AGW du 15/05/2014 tel que modifié par l’AGW du 15/05/2016. Elle répond donc aux exigences PEB Q-ZEN de 2021.

La centrale double flux, qui se situe dans un local technique intérieur, a un rendement de 85 % et assure un débit de 1 556 m³/h qui sera distribué dans l’ensemble du bâtiment.

5. Respect de la règle de comptage énergétique.

Le bâtiment ne compte qu’une seule unité PEB. Cette règle est donc très facile à respecter puisque la présence des compteurs des sociétés distributrices (gaz et électricité) suffit.

Des compteurs électriques supplémentaires ont été placés pour mesurer :

  • la consommation du groupe de ventilation ;
  • la production de l’installation photovoltaïque (1 700 Wc) ;
  • la consommation de l’éclairage.

Le respect des exigences a été permis, entre autres, par ne niveau d’isolation thermique des différentes parties de l’enveloppe du volume protégé.


Les parois de l’enveloppe du volume protégé

Comment sont isolées les parois extérieures neuves et existantes ?

Coupe de localisation des détails (document architecte).

  1. Mur existant isolé par l’extérieur
  2. Toiture existante isolée par l’extérieur et végétalisée
  3. Nouveau mur à ossature bois
  4. Nouvelle toiture compacte
  5. Nouveau mur isolé par l’intérieur et l’extérieur
  6. Mur extérieur existant isolé par l’intérieur
  7. Sol existant isolé par le haut

1. Un mur existant isolé par l’extérieur

La façade avant a été partiellement conservée et isolée par l’extérieur. L’isolant est protégé par un bardage en bois. L’isolation thermique d’un bâtiment existant par l’extérieur réduit considérablement les risques de ponts thermiques et de condensation interstitielle, le pare-pluie extérieur étant très perméable à la vapeur d’eau.

Coupe mur existant isolé par l’extérieur (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.14 W/m²K en partie courante et 0.11 W/m²K à l’endroit de la structure en béton où l’épaisseur d’isolant est plus importante pour des raisons technologiques.

Calcul du U des parties courantes à l’aide du logiciel PEB.

Calcul du U des parties situées devant les poutres en béton à l’aide du logiciel PEB.


2. Toiture existante isolée par l’extérieur et végétalisée

La toiture plate existante a été isolée selon le principe de la toiture chaude. L’isolant est posé au-dessus de la dalle en béton. La membrane d’étanchéité bitumineuse existante a été conservée. Elle contribue à la protection de l’isolant assurée par le nouveau pare-vapeur contre la vapeur d’eau provenant de l’intérieur du bâtiment. Une nouvelle membrane d’étanchéité en EPDM est posée sur l’isolant. Elle lestée par une toiture verte extensive.
Cette technique est courante. Elle ne pose pas de problème de condensation interstitielle et permet d’éviter les ponts thermiques.

Coupe toiture existante isolée par l’extérieur et végétalisée (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.09 W/m²K.
Le faux plafond acoustique n’a aucun impact sur la performance thermique de la paroi.
Le lestage que constitue la couche végétalisée n’a pas été pris en compte. Son influence sur le U est négligeable en comparaison de celle de la couche d’isolant. Elle protège cependant la membrane d’étanchéité du rayonnement direct extérieur.

Calcul du U des toits existants isolés par l’extérieur à l’aide du logiciel PEB.


3. Nouveau mur à ossature bois

La façade à ossature bois permet la pose d’une grande épaisseur d’isolant sans augmenter exagérément l’épaisseur de la paroi elle-même, celui-ci étant posé à l’intérieur de la structure. La structure interrompt la couche isolante. L’impact de celle-ci sur les performances thermiques est pris en compte dans le calcul.
Autant que possible la paroi est composée d’éléments de plus en plus ouverts à la diffusion de vapeur de l’intérieur vers l’extérieur de manière à se prémunir contre la condensation à l’intérieur du mur.

Ainsi, le pare-vapeur  situé du côté chaud de l’isolant sera le plus étanche possible à la vapeur d’eau en hiver et le pare-pluie situé du côté froid de l’isolant sera, par contre, le plus perméable possible à celle-ci.
Le pare-vapeur aura une perméabilité à la vapeur d’eau variable en été et en hiver. En été il sera plus ouvert à la vapeur pour permettre à la paroi de sécher. C’est ce que l’on appelle un freine vapeur à µ (sd) variable.
L’auteur de projet a pris en compte le comportement hygrométrique de la paroi de manière à s’assurer de la pérennité du bâtiment. Il a réalisé une simulation dynamique à l’aide du logiciel WUFI® afin de valider la paroi du point de vue de la diffusion de vapeur d’eau.

Coupe nouveau mur à ossature bois (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.13 W/m²K.
Les deux couches d’isolant ont été considérées comme une seule couche dans le calcul, L’isolant étant identique et les structures en bois occupant les mêmes proportions d’espace.

Calcul du U de la façade à ossature bois à l’aide du logiciel PEB.


4. Nouvelle toiture compacte

La toiture compacte désigne la toiture plate dont l’isolant est placé à l’intérieur du support en bois sans lame d’air entre les différentes couches. Un écran pare-vapeur étanche à l’air doit être placé sous le support. Ce n’est pas une toiture froide, car il n’y a pas de couche d’air ventilée au-dessus de l’isolant. Cette technique est délicate à cause des risques de condensation interne.

Principe de fonctionnement : séchage par utilisation de freine-vapeurs hygrovariables.

  • En hiver, la pression de la vapeur dans les locaux est généralement supérieure à celle régnant dans le complexe toiture, ce qui crée un flux de vapeur se déplaçant de bas en haut.
  • En été, cette diffusion de vapeur est inversée : de haut en bas.
  • On suppose que l’action du freine-vapeur assèche le complexe toiture durant les périodes plus chaudes tandis que l’apparition d’humidité peut être limitée dans les périodes plus froides grâce à la fermeture du freine-vapeur.

Certaines règles doivent être respectées.

  • L’étanchéité doit absorber le plus possible les rayonnements solaires.
  • La toiture doit être totalement ensoleillée.
  • La pente doit être d’au moins 2 % (pas de stagnation d’eau pluviale).
  • La pente ne peut pas être de plus de 40° pour des versants orientés vers le Nord, l’Est et l’Ouest.
  • L’isolant doit être très ouvert à la vapeur (µ le plus petit possible)
  • Le freine-vapeur doit être du type hygrovariable.
  • La finition intérieure sous le freine-vapeur doit être perméable à la vapeur.
  • Il faut éviter toute convection entre l’air intérieur et le complexe de toiture (blower door test).
  • Le taux d’humidité du bois doit être limité avant la mise ne place du système.
  • La classe de climat intérieure ne peut pas dépasser la classe III ou même la classe II lorsque la toiture est végétalisée.

Le maître de l’ouvrage (bureau d’études spécialisé dans ce domaine) a réalisé des simulations hygrothermiques pour évaluer le risque d’apparition de problème d’humidité dans la toiture compacte de son bâtiment. C’est une tâche délicate, car il y a énormément de paramètres inconnus à entrer et il est souvent très difficile d’interpréter correctement les résultats finaux.

Deux solutions ont été envisagées.

Les deux solutions analysées par des simulations hygrothermiques.

La simulation hygrothermique a clairement montré que c’est la solution B qui devait être adoptée.

Coupe nouvelle toiture compacte (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.08 W/m²K.

Malgré que l’épaisseur d’isolant soit plus importante que celle de la toiture présentée plus haut au point 2, le U atteint est proche. Cela est dû aux caractéristiques des matériaux utilisés.

  • Mousse phénolique -> λi = 0.021 W/mK
  • Cellulose et laine de bois -> λi = 0.039 W/mK

Calcul du U de la toiture compacte à l’aide du logiciel PEB.


5. Nouveau mur mitoyen isolé par l’intérieur et l’extérieur

Pour que le mur mitoyen neuf donnant sur l’air extérieur soit thermiquement le plus performant possible tout en n’empiétant pas trop sur l’espace intérieur, il a été isolé à la fois par l’intérieur et l’extérieur.
Le maître de l’ouvrage a réalisé des simulations hygrothermiques pour évaluer le risque d’apparition de problème d’humidité dans ce mur. Les résultats furent rassurants.

Coupe nouveau mur mitoyen isolé par l’intérieur et l’extérieur (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.12 W/m²K.

Calcul du U du mur mitoyen isolé par les deux côtés à l’aide du logiciel PEB.


6. Un mur existant isolé par l’intérieur

Isoler un mur existant par l’intérieur est, dans certains cas, la seule solution possible bien que la gestion des ponts thermiques et des condensations internes soit délicate.
Le maître de l’ouvrage après avoir réalisé quelques simulations dynamiques a opté pour la solution ci-dessous.

Coupe mur existant isolé par l’intérieur (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.23 W/m²K. Nous sommes toujours en-dessous de Umax =  0.24 W/m²K pour un mur extérieur.

Calcul du U du mur extérieur isolé par l’intérieur à l’aide du logiciel PEB.


7. Sol existant isolé par le haut

Comme dans bien des cas, la solution la plus économique pour isoler un plancher posé sur le sol est de poser l’isolant sur la dalle en béton existante et de tirer une nouvelle chape armée sur l’isolant.
C’est la technique qui a été choisie.

Coupe plancher sur sol existant isolé par le haut (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.14 W/m²K.

Calcul du U de la dalle sur sol isolée par le haut à l’aide du logiciel PEB.


Informations complémentaires

Cette étude de cas a été développée à l’aide des informations et documents fournis par le bureau d’architecture ayant conçu le bâtiment FHW Architects et le maître de l’ouvrage écoRce sprl dans le cadre de l’action Bâtiments exemplaires Wallonie 2013.

NetZEB : bâtiments Nets Zéro-Énergie

NetZEB : bâtiments Nets Zéro-Énergie


Définition

Dans la famille des concepts de performance énergétique des bâtiments, je demande le bâtiment net zéro-énergie !

Mais qu’est-ce qu’un bâtiment « net » zéro-énergie ?

Les NetZEB pour « Net Zero Energy Building » (bâtiments nets zéro-énergie, ou « à bilan énergétiques neutres ») ne sont en rien des bâtiments autonomes ou zéro émissions. Ils peuvent être définis comme produisant autant d’énergie qu’ils n’en consomment sur une période de temps. Le bâtiment peut consommer ou non sa production et consommer de l’énergie issue du réseau ou de sa propre production (autoconsommation). Le bilan s’établi sur une année, généralement en énergie primaire et la production énergétique doit être renouvelable, cela va de soi !

Ainsi, un tel bâtiment compense sa consommation du mix énergétique sur le réseau en déversant sa surproduction renouvelable sur le réseau lorsqu’il ne peut l’autoconsommer. Généralement, le bâtiment sera consommateur en hiver et producteur en été. L’indication « Net » devant « zéro-énergie » vise à souligner cet équilibre entre consommation et production, calculé en énergie primaire. [Schéma central, ci-dessous]

Pour les bâtiments qui produisent plus d’énergie qu’ils n’en consomment, on parlera de bâtiments à énergie positive [schéma de droite, ci-dessous] tandis que ceux dont la production est proche de leur consommation mais inférieure on utilisera le terme « Quasi zéro énergie ». [Schéma de gauche, ci-dessous]

Schémas sur les 3 définitions bâtiments basse énergie.

* Si en 2018 aucune exigence wallonne ne porte sur le net zéro-énergie ou l’énergie positive, la directive Européenne 2010/31/UE impose néanmoins aux États-membres que toutes les nouvelles constructions soient quasi zéro-énergie dès le 1er Janvier 2021. Chaque État-membre est néanmoins libre de définir jusqu’à quelle écart entre production et consommation d’énergie primaire il considère qu’un bâtiment est « quasi » zéro-énergie. Pour la Wallonie, toutes les valeurs réglementaires en fonction du type de bâtiment se trouvent sur notre page dédiée.

On comprend donc bien que ce qui est mesuré au niveau de la balance énergétique ne concerne que les échanges entre le réseau et le bâtiment, ce qui se passe à l’intérieur du bâtiment n’est pas repris dans le bilan. L’éventuelle part d’autoconsommation n’est ainsi pas directement comptabilisée ou valorisée dans cet équilibre. L’égalité se fait par comparaison entre consommation sur le réseau et surproduction remise sur le réseau.

Schéma sur l'équilibre entre consommation sur le réseau en hiver et surproduction injectée sur le réseau en été.
Équilibre entre la consommation sur le réseau en hiver et la surproduction injectée sur le réseau en été.

Ces bâtiments sont toujours dépendants du réseau car ils y puisent une partie de leur consommation. Il ne faudra donc pas les confondre avec les bâtiments strictement zéro-énergie ou les bâtiments autonomes qui eux parviennent à annuler leurs besoins en énergie ou à les combler instantanément et en totalité par des énergies renouvelables produites sur place ou au sein d’un district énergétique local sans connexion au réseau.


Histoire du concept

Les premières mentions de bâtiments zéro-énergie sont la MIT Solar House I en 1933 (BUTTI,K.et PERLIN,J.(1980). A Golden Thread, 2500 Years of Solar Architecture and Technology. Van Nostrand Reinhold Company) et la Bliss House en 1955 (BLISS, R. (1955). Design and performance of the nations’ only fully solarheated house. Air conditioning, Heating and Ventilating, 52:92–97). D’autres exemples historiques sont la Vagn Korsgaard Zero energy Home au Danemark (ESBENSEN,T.et KORSGAARD,V.(1977). Dimensioning of the Solar Heating System in the Zero Energy House in Denmark. Solar Energy, 19:195– 199) et la Saskatchewan Conservation House (BESANT, R., DUMONT, R. et SCHOENAU, G. (1979). The Saskatchewan conservation house: some preliminary performance results. Energy and Buildings, 2:163–174). Les premières se concentraient sur la maximisation de la production et valorisation de l’énergie solaire, les secondes y ajoutaient des mesures de réduction de la demande de chaleur.

Ces deux axes de développement vont se croiser à la fin du XXème siècle, et résulter en une modification importante de la conception et du bilan énergétique des bâtiments. Par exemple, le double puis triple vitrage devient la norme permettant d’augmenter la surface vitrée des logements et bureaux sans augmenter les besoins de chaleur, mais en élevant les besoins de refroidissement. Ceci entraîne des réflexions plus poussées sur les protections solaires, le développement de doubles façades, etc. C’est à ce moment que se produit un glissement dans la manière de concevoir. Alors qu’avant une installation de conditionnement d’air était pensées isolément pour compenser les charges thermiques du bâtiment, quelle qu’elles soient, les concepteurs l’ont progressivement intégrée au concept global du bâtiment pour en faire un ensemble de plus en plus cohérent et complémentaire regroupant: l’enveloppe, les HVACs, les techniques passives, l’éclairage et les appareils électriques.

L’intégration croissante des systèmes et l’apparition au début des années 90’ de l’idée que techniquement le soleil pourrait suffire à répondre aux besoins d’énergie du bâtiment, contribue à renforcer la réflexion sur le zéro-énergie. Le soleil, bien utilisé et combiné à des techniques passives de régulation de l’ambiance pourrait permettre de tendre vers le zéro-énergie. Or, à ce moment, les panneaux solaires photovoltaïques et thermiques se développent, gagnent en efficacité mais surtout deviennent de plus en plus abordables.

La conjoncture d’alors entre :

  • le développement de technologies de production d’énergie renouvelable abordables,
  • l’urgence environnementale,
  • la nécessité de réduire le pic énergétique de la demande,
  • la mise en place de politiques économiques de soutien au développement des énergies renouvelables
  • la maturité des systèmes HVAC
  • l’émergence d’une vision complète et intégré des systèmes.

fut propice au développement de la perspective du Net Zéro-Énergie.

Assez vite est apparue une réflexion sur le caractère autonome (par rapport au réseau) ou non des bâtiments « zéro-énergie ». Vale et al. ont montré que l’idée d’une liaison au réseau permet une meilleure performance sur le cycle de vie du bâtiment que la recherche d’autonomie par le stockage in situ de l’énergie produite, et offre également plus de flexibilité (VALE, B. et VALE, R. (2002). The New Autonomous House : Design and Planning for Sustainability. Thames & Hudson Ltd). L’idée que le bâtiment « zéro-énergie » fasse partie intégrante d’un réseau énergétique s’est dès lors généralisée.

L’idée d’un habitat entièrement autonome est aujourd’hui limitée aux cas où les réseaux d’énergie font défaut. Pour éviter toute confusion le terme bâtiment net zéro-énergie (Net-ZEB) est utilisé de préférence à bâtiment « zéro-énergie » pour désigner un bâtiment dont la balance consommation/production est nulle sur une période déterminée (généralement un an). Il s’agit d’avoir pu produire et réinjecter sur un réseau autant d’énergie que l’on en aura consommé. Cette approche a le mérite de replacer le bâtiment dans un contexte régional (via le réseau d’électricité) ou local (via des réseaux de chaleur urbains). Notons que certains projets se présentent déjà comme plus ambitieux et prétendent à un statut de bâtiment à énergie positive.


Peut-on être NetZEB et gros consommateur d’énergie fossile?

Oui, en théorie, sans aucun doute. D’après la définition littérale d’un bâtiment NetZEB, il « suffit » simplement d’être aussi grand producteur que consommateur pour être NetZEB. Ainsi, un bâtiment mauvais du point de vue de sa performance thermique, pourrait compenser, par exemple, avec une grande surface de panneaux photovoltaïques. Celui-ci pourra alors être considéré comme « Net Zéro-Énergie ».

Définition littérale d’un bâtiment NetZEB.

Si mathématiquement la balance est vérifiée, d’un point de vue qualitatif peut on affirmer que l’énergie consommée en hiver à partir du mix énergétique (majoritairement fossile) équivaut à la même quantité d’énergie produite en été de manière renouvelable ?

En effet, l’énergie consommée en hiver est issue du mix énergétique wallon (et donc majoritairement non-renouvelable à ce jour) et utilisée à un moment où l’énergie est plus rare tandis que celle produite en été par les panneaux PV est injectée sur le réseau à un moment où la consommation est moindre et l’énergie se fait beaucoup moins rare…

Schéma sur le concept Net zéro-énergie, précisions (1).

Si les cas 1 et 2 sont tous deux Net zéro-énergie (la balance entre la surproduction injectée sur le réseau en été et la consommation sur le réseau en hiver étant à l’équilibre), on remarque que même avec ce « label », un bâtiment peut rester un grand consommateur d’énergie issue du mix énergétique du réseau (cas 2). Les deux balances sont mathématiquement à équilibre mais il reste qu’au bout de l’année une plus grande quantité d’énergies fossiles auront été consommées pour ce bâtiment (cas 2)… La meilleure énergie est et sera toujours celle qu’on ne consomme pas.

Schéma sur le concept Net zéro-énergie, précisions (2).

Pour avoir un sens environnemental et énergétique, les concepteurs de bâtiments Net zéro énergie ne peuvent se limiter au seul critère de l’équilibre production/consommation mais devraient aussi, dès le début de la conception, veiller à réduire les besoins au minimum rationnel et pertinent avant d’entreprendre les démarches de compensation des besoins résiduels via la production d’énergie renouvelable in situ. En ce sens, les exigences thermiques régionales sur la performance des parois (Umax) et le niveau d’isolation thermique global (niveau K) constituent des garde-fous.

Pour aller plus loin, n’hésitez pas à visiter nos pages sur les stratégies de conception !

Pour augmenter la part d’autoconsommation et réduire l’empreinte environnementale du bâtiment, le concepteur de l’installation peut également penser à déployer des moyens locaux de stockage d’énergie journalier et/ou saisonnier de manière à ne plus considérer le réseau comme un moyen de stockage infini.


Une approche intégrée

Ce nouveau statut du bâtiment alternativement ou simultanément producteur, consommateur, auto-consommateur induit des bouleversements sur la manière dont ceux-ci sont intégrés au réseau électrique et dans la manière de concevoir les bâtiments. En voici une synthèse traduite du livre « Modeling, Design and optimization of Net-Zero Energy Buildings » :

Systèmes, Conception et Utilisation Bâtiment “classique” Bâtiment NetZEB
Enveloppe Passive, pas conçue comme faisant partie du système énergétique global Optimisé pour la conception passive et l’intégration des systèmes solaires actifs
HVAC Systèmes surdimensionnés (côté sécurité) Petits systèmes contrôlés et optimisés, intégrés avec les systèmes solaires, les systèmes combinant chaleur et électricité, stockage journalier et/ou saisonnier, systèmes partagés dans le quartier.
Systèmes solaires (PV, ST), renouvelable, cogénération Pas d’intégration systématique, on y pense après, on rajoute après. Pleinement intégré : lumière naturelle / solaire thermique / Photovoltaïque / solaire hybride / géothermique / biomasse / connexion à un microSmartGrid
Système d’automatisation Systèmes utilisés de manière peu efficace. Contrôle prédictif, Optimisation du confort et des performances énergétiques.
Conception et utilisation Considéré séparément Intégré et optimisé pour satisfaire le confort.

Notons qu’une clarification est à faire entre les notions zéro-énergie et zéro-carbone. Le « Common Language for sustainable construction » propose les définitions reproduites ci-dessous (ref. : Europeann Concrete Platform Et Architects Council of Europe).

On constate une différence d’approche entre des objectifs exprimés en termes de carbone ou d’énergie primaire, selon que l’on se concentre sur l’impact climatique ou sur une approche plus large de l’enjeu énergétique. L’expression d’objectifs selon l’un ou l’autre terme est importante dans la mesure où les solutions techniques privilégiées sont différentes. Des solutions de chauffage à la biomasse ou à l’électricité nucléaire seront par exemple favorisées dans un bilan carbone, mais plus nuancées dans une approche énergétique.

« Net zero carbon buildings : Buildings that, by virtue of the materials of which they are constructed and by virtue of the fact that they produce surplus energy from renewable sources, ensure that, over their Design Life, they compensate for all carbon emissions associated with the construction and use of the building. »

« Net zero Energy : The goal of Net Zero Energy is to become a community that produces its own energy. Net Zero Energy Buildings […], for instance, rely on efficiency to reduce energy needs and allow the balance to be supplied with renewables. NetZEBs produce as much energy on-site as they use annually. The reason NetZEBs are referred to as ’net zero’ is that they are still connected to the grid. Sometimes they produce more power than they are consuming and feeding power to the grid and running the meter back. Sometimes they consume more power than they are producing and pulling power from the grid. But for a NetZEB, the energy given to the grid is equal to the amount of energy pulled from the grid on an annual basis. It is important to note that net zero refers to energy use, and does not necessarily mean zero carbon emissions from energy use. »


Un concept qui reste vague

Les définitions usuelles du NetZEB restent très vagues et reflètent le manque de consensus international sur la notion de bâtiment net zéro-énergie. La Tâche 40 « Vers des bâtiments nets zéro-énergie » de l’Agence Internationale de l’Energie (AIE) a dès lors compilé les différentes définitions existantes et leurs critiques (AGENCE INTERNATIONALE DE L’ENERGIE (2010). Task 40). Il ressort de cette tâche quatre éléments vis à vis desquels toute définition des NetZEB devrait se positionner.

Premièrement, le niveau de spécification des paramètres de calcul doit être clarifié. L’évaluation doit-elle préciser quelles conditions climatiques intérieures réaliser? Les charges internes doivent-elles être forfaitaires ? Pour quel climat doit se faire l’évaluation ?

Deuxièmement, le type d’indicateur et les règles de pondération entre formes d’énergie doivent être explicités. Si l’énergie primaire est l’indicateur généralement préféré, elle soulève des questions telles que l’évolution dans le temps des coefficients de conversion et la façon de prendre en compte les énergies renouvelables. Les émissions de CO2 sont une alternative possible, tout comme un bilan financier ou exergétique. Ces deux dernières possibilités sont cependant respectivement instables dans le temps et peu compréhensibles par le public.

Troisièmement, le caractère « net » de la définition doit être précisé : quels éléments sont pris en compte et sur quelle période de temps ? L’échelle de temps privilégiée est souvent l’année, ou un multiple d’années. Des divisions temporelles plus fines sont peu populaires car plus contraignantes, mais une tendance existe pour réaliser des évaluations sur le cycle de vie complet du bâtiment. La question du type d’énergie considéré est également importante. A côté de l’énergie nécessaire au maintien du climat intérieur, il n’y a pas de consensus sur la prise en compte des énergies liées à l’occupant ou aux matériaux. Ces deux aspects souffrent d’un manque de précision des méthodes d’évaluation et d’une divergence de point de vue selon l’utilité que l’on donne à la définition des NetZEB. D’un point de vue gestion des réseaux énergétiques, l’énergie grise n’a pas d’impact, mais l’occupation bien. Du point de vue du constructeur, l’inverse est plus vrai. L’importance relative de ces deux aspects est croissante au vu de la diminution des consommations d’énergie liées au maintien des ambiances intérieures. Il existe également un débat relatif aux énergies renouvelables, entre la limitation aux énergies produites sur site et l’intégration de crédits carbones.

Quatrièmement, les conséquences en termes de réseau énergétique sont à considérer. Les approches NetZEB considèrent souvent le réseau comme une forme de stockage infini, ce qui n’est pas la réalité. Des évaluations plus fines sont nécessaires, notamment au niveau de l’utilisation effective de l’énergie délivrée au réseau et des écarts entre les puissances maximales demandées et délivrées, ce qui devrait générer des indicateurs spécifiques à intégrer dans la démarche NetZEB. Ceci doit se faire à la lumière des évolutions que connaîtront les réseaux énergétiques à l’avenir, avec la part croissante d’énergie renouvelable qu’ils devront intégrer.

Cinquièmement, les procédures de monitoring et d’accompagnement doivent être précisées et devraient faire partie intégrante de la définition des NetZEB, pour garantir que les performances visées en conception sont bien rencontrées en pratique.


Un concept pragmatique ?

Aux critiques et limitations présentées ci-dessus, nous pensons utile d’ajouter que la définition des bâtiments zéro-énergie doit avant tout être un outil pratique destiné à guider le concepteur dans ses choix. Il en découle que cette notion doit répondre à trois caractéristiques : (1) la rigueur scientifique indispensable, (2) l’expression d’un niveau d’ambition proportionnel à l’enjeu et (3) le pragmatisme, compris comme sa cohérence avec la pratique de terrain. Le concept NetZEB n’offre pas forcément une réponse optimale à cette triple exigence. Et ce pour deux raisons.

Premièrement, les critiques relevées plus haut ont mis en évidence qu’une limitation aux besoins de chauffage et de refroidissement n’était pas adéquate. Il y a aujourd’hui consensus pour considérer que la notion des NetZEB devrait intégrer les consommations d’énergie liées au maintien des ambiances thermiques, à l’éclairage et aux auxiliaires HVAC, comme le fait la réglementation Q-ZEN. L’intégration de l’énergie grise liée aux matériaux et composants mis en œuvre est souvent mentionnée comme un élément à intégrer. Pour mieux refléter la réalité, l’évaluation devrait également intégrer d’autres consommations telles que l’énergie consommée par le chantier et le processus de conception en tant que tel, ou encore l’impact du projet sur l’énergie dépensée en transports et infrastructures ou son influence éventuelle sur les comportements énergétiques des habitants.

Sans trancher sur la liste des paramètres à intégrer, force est de constater que nous sommes face à une tendance qui pousse à agréger en une seule évaluation une série d’impacts énergétiques différents. D’une part, l’agrégation des différentes consommations rend la valeur finale difficilement compréhensible. Il devient difficile de se représenter concrètement ce qu’elle représente et quel est le poids de chaque mesure de performance énergétique dans le résultat final. D’autre part,il est difficile d’obtenir une valeur réaliste avant d’atteindre un stade d’avancement poussé du projet, vu que des choix préliminaires doivent avoir été faits pour chaque élément intervenant dans le calcul. Or, ce sont souvent les premières étapes qui déterminent la performance énergétique, ainsi que la combinaison de la performance énergétique avec la performance économique. La tendance à l’exhaustivité du calcul énergétique pourrait donc à terme rendre l’évaluation netzéro-énergie inopérante comme guide de conception.

Deuxièmement, la recherche d’un niveau « zéro-énergie » reflète une approche sectorielle de l’impact énergétique des bâtiments. Cette ambition peut être acceptée en tant que projection à l’échelle du secteur d’un équilibre énergétique global de nos sociétés, mais rien n’indique que l’équilibre annuel entre production et consommation soit pertinent à l’échelle d’un projet d’architecture. Au contraire, le niveau net zéro-énergie génère une iniquité flagrante au niveau des projets individuels, notamment entre les sites bénéficiant d’un fort potentiel d’énergies renouvelables et les autres, ou entre les projets permettant une réduction drastique des besoins et ceux qui ne le peuvent du fait de contraintes propres et justifiées (pensons aux questions de patrimoine remarquable, de capacité d’investissement, etc.). Un niveau d’ambition unique ne peut pas être considéré a priori comme applicable partout. Certaines situations de projet nécessiteront de revoir les ambitions à la baisse face aux contraintes techniques, économiques ou patrimoniales, tandis que d’autres permettrons d’aller plus loin que l’équilibre énergétique.


Tous Nets zéro-énergie ?

Bien qu’incontournable aujourd’hui, la notion de bâtiment net zéro-énergie apparait assez éloignée de l’architecture, tant dans ses fondements que dans son ambition. Les critiques qui lui sont faites par la communauté scientifique portent principalement sur la rigueur physique de sa définition, tandis que nous lui voyons un manque de pragmatisme de par sa volonté (louable en soi) d’exhaustivité.

Face à ses limites, il pourrait être intéressant de rouvrir la question du caractère autonome du bâtiment. D’une part il force à contextualiser l’approche, d’autre part il implique des formes de conservation de l’énergie dans le bâtiment et donc la nécessité d’analyses de comportements dynamiques sur base saisonnière et journalière. L’objectif d’autonomie totale pose également différemment la question des formes d’énergie valorisables et nécessite de repenser la notion de confort thermique.

Cette piste n’est à ce jour pas un objectif rationnel à l’échelle collective, notamment d’un point de vue économique. Dès lors, visons le NetZEB, mais de façon critique.

logo plan air, climat, énergie.

En Wallonie, un cap important a été franchi le 19 juillet 2018 avec l’approbation du Plan Wallon Énergie Climat (lié au PNEC 2030 : Plan National Énergie Climat). Ce plan prévoit de définir ce que sera le zéro énergie wallon. Cette définition devrait être d’application à partir de 2025. Dans la suite logique du QZEN (Quasi Zéro ENergies), ces bâtiments porteront l’acronyme ZEN (Zéro ENergies).

 

Bâtiment nearlyZEB ou « Quasi » zéro-énergie et son application en Wallonie (Le Q-ZEN)

Bâtiment nearlyZEB ou « Quasi » zéro-énergie et son application en Wallonie (Le Q-ZEN)
Copyright https://energie.wallonie.be/.

1. Définition d’un bâtiment « quasi » zéro énergies d’après la directive Européenne

Un bâtiment « Quasi » zéro-énergie est « un bâtiment qui a des performances énergétiques très élevées […]. La quantité quasi nulle ou très basse d’énergie requise [pour le chauffage, le refroidissement, l’éclairage, l’eau chaude sanitaire et la ventilation] devrait être couverte dans une très large mesure par de l’énergie produite à partir de sources renouvelables, notamment l’énergie produite à partir de sources renouvelables sur place ou à proximité ». [Directive 2010/31/CE] Ces bâtiments peuvent également se retrouver au sens large sous les acronymes NZEB/NearlyZEB (nearly Zero Energy Building) ou Q-ZEN (Quasi Zéro Énergie) pour son application en réglementation régionale wallonne.

Chaque État-membre est tenu de fixer la définition des bâtiments dont la consommation d’énergie est quasi nulle, qui tient compte des conditions nationales, régionales ou locales.

Voir les exigences Q-ZEN 2019 (bâtiments publics uniquement) & 2021


2. A ne pas confondre !

Les Bâtiments Quasi zéro énergie sont à différencier des immeubles autonomes et des constructions Net Zéro Énergie : NetZEB (Net Zero Energy Buildings) ou Q-ZEN en Wallonie (Quasi Zéro ENergies). Contrairement à ces deux approches, dans le Quasi zéro-énergie, les besoins d’énergie primaire sur le réseau ne sont ni nuls (Bâtiment autonome), ni nécessairement totalement contrebalancés par une forte production d’énergie renouvelable sur place ou à proximité (Net Zéro Énergie). Ici, les besoins en énergie primaire nécessaires au fonctionnement normal du bâtiment sont fortement réduits et, parfois, partiellement contrebalancés par de l’énergie produite à partir de sources renouvelable pour répondre aux exigences variables selon les états-membres et les régions.


3. Le Q-ZEN en Wallonie, dans la continuité

logo QZEN

Si les premiers tâtonnements en termes de règlementations thermiques wallonnes datent de 1985 [Arrêté du 29 février 1984], ce n’est que depuis le début du millénaire que le monde politique prend pleinement conscience de l’importance d’une lutte active pour l’économie d’énergie et contre le changement climatique. C’est ainsi qu’en 2002, l’Europe ratifie le protocole de Kyoto [cop23.unfccc.int] scellant ainsi son engagement à réduire ses émissions de certains gaz à effet de serre.

Dans la foulée, une première directive européenne voit le jour (Directive 2002/91/CE). Elle sera ensuite transposée en décret (2007) et arrêtés (2008, 2009 et 2012) qui furent les premières exigences thermiques issues de directives européennes que nous ayons connus.

Plus récemment, en 2010, la directive a été révisée (directive 2010/31/UE) et trois ans plus tard cette version de la directive a été transposée en droit interne sous la forme d’un décret mis en application l’année suivant via l’arrêté d’application de 2014 modifié en dernier lieu par l’arrêté de 2017.

Pour honorer leurs engagements et respecter les directives européennes, les états membres ont renforcé les exigences en matière de performance énergétique d’années en années. Dans le secteur tertiaire, le niveau K est ainsi soumis à des exigences croissantes depuis 1985 tandis que le niveau Ew l’est depuis 2010 et a fait l’objet d’un renforcement croissant.

Schéma sur l'évolution de la réglementation thermique en wallonie.
Les Umax (coefficient de transmission thermique maximum des parois) sont pour leur part apparus en 1996.

schéma sur les Umax en wallonie.

Dernièrement, en vue de la transposition dans le droit interne de l’article 9 de la Directive européenne de 2010 relative à la performance énergétique des bâtiments, les états membres ont eu pour obligation de faire en sorte qu’au 1ier janvier 2021 tous les nouveaux bâtiments (y compris les bâtiments résidentiels) soient quasi Zéro Énergie. Pour les nouveaux bâtiments occupés et possédés par les pouvoirs publics, cette obligation est déjà valable à partir du 1er janvier 2019 !

schéma sur l'évolution du Q-ZEN en Wallonie.

Le Q-ZEN, se positionne donc dans la continuité des exigences précédentes. L’exigence est à la fois progressiste, réaliste et rationnelle. Les Umax sont conservés, le niveau K et les exigences pour la ventilation également. Le renforcement notable concerne le renforcement des exigences en matière de consommation d’énergie primaire EW (-30%) pour les parties fonctionnelles de bureau et d’enseignement ainsi que pour les bâtiments résidentiels.

Une réduction de – 27% sur le niveau Espec qui ne concerne lui que les bâtiments résidentiels est également à noter.

Vous l’aurez compris : pas de panique ! Le bâtiment Q-ZEN n’est pas nécessairement high-tech ou hors de prix, avec une stratégie passive adaptée et des technologies simples, les exigences pourront déjà être rencontrées.

Plus d’information sur la conception d’un bâtiment Q-ZEN !

Night colling

Maîtrise de la surchauffe grâce au Night Cooling

L’administration wallonne montre l’exemple en rénovant à Jambes un bâtiment sans climatisation, mais rafraîchi naturellement.


Introduction

En 2012, le service public de la Région wallonne décide de rénover un immeuble de bureau inoccupé à Jambes pour y installer certains de ses services, à savoir la direction générale de l’aménagement du territoire, logement, patrimoine et énergie (DGATLPE).

Dans le contexte actuel d’une utilisation responsable des ressources énergétiques, le maître de l’ouvrage a souhaité que le bâtiment soit particulièrement performant en matière de consommation d’énergie. Celle-ci sera bien inférieure aux consommations d’un immeuble de bureau classique, tout en garantissant un confort très élevé.

Le bâtiment se veut exemplaire et doit servir de modèle en vue d’encourager les autres acteurs de la construction à entreprendre le même type de démarche.

Les travaux ont été terminés en 2015. Le bâtiment est une réussite !

 

Nouveau bâtiment de la DGATLP à Jambes.

Parmi les nombreuses mesures prises pour améliorer les performances énergétiques du bâtiment, il a été décidé de maîtriser la surchauffe des locaux sans faire appel à des groupes de refroidissement dans une partie du bâtiment. Comment a-t-on fait et est-ce que cela fonctionne ?


Le bâtiment

Situation préexistante

Avant les travaux, le bâtiment construit dans les années 1960 comptait un rez-de-chaussée et 3 étages de bureaux, le tout surmonté d’un étage sous toiture à versants non aménagé.

 

Le bâtiment avant les travaux.

La structure du bâtiment est en béton armé : planchers nervurés et façades portantes à colonnes.

 

Structure en béton.

  Ancienne façade.

La toiture est à structure métallique légère.

 

La structure de l’ancienne toiture à versants.

Transformations

Le bâtiment a été complètement transformé de deux manières différentes :

  • La structure en béton armé des trois étages et du rez-de-chaussée a été conservée et cette partie a été complètement rénovée.
  • La toiture a été enlevée et un nouvel étage à toiture plate a été construit.

Ces deux parties sont très différentes et dans le cadre de la réglementation sur la performance énergétique des bâtiments PEB sont considérées comme des unités distinctes.

Le quatrième étage

Cet étage constitue à lui seul un bâtiment neuf construit sur le bâtiment existant après enlèvement de la toiture à versant. Il comprend principalement des espaces de réunion.

Bien que thermiquement très performant par rapport aux critères de l’époque (2011), il ne sera pas décrit dans la présente étude de cas.

En résumé :

  • la transmission thermique à travers les parois ne dépasse pas les maximums autorisés ;
  • le niveau d’isolation thermique global K = 36 ;
  • le niveau de performance énergétique EW = 72.

La gestion du confort d’été de ce quatrième étage à faible inertie thermique est assurée par un groupe de refroidissement adiabatique par évaporation indirecte suivi par un refroidissement mécanique de type pompe à chaleur. Les fenêtres sont munies de stores extérieurs à commande automatique.

Le rez-de-chaussée et les trois premiers étages

Cette partie du bâtiment comprend principalement des bureaux. Elle est particulièrement compacte et bien isolée thermiquement. Son confort thermique en été sera étudié en détail.

Sa compacité est très élevée (presque 6 m) grâce à un volume important et une surface de façades relativement réduite. Il n’y a pas de déperdition :

  • vers les bâtiments mitoyens ;
  • vers le bas là où se trouvent les bureaux de la poste ;
  • vers le haut là il est couvert par le nouveau 4e étage.

 

Le niveau d’isolation thermique de la surface de déperdition du volume protégé est élevé.

Façades

La façade avant a été recouverte par l’extérieur de caissons préfabriqués en bois remplis de 12 cm de laine de roche. Ce qui confère à celle-ci un coefficient de transmission thermique U de 0.31 W/m²K.

La façade arrière a été isolée par l’extérieur à l’aide de 12 cm de laine de roche recouverte d’un enduit. Le coefficient de transmission thermique U de cette façade est de 0.27 W/m²K.
Ces valeurs de U répondent aux exigences de Performance Energétique des Bâtiments (PEB) de l’époque de la demande de permis de bâtir. Depuis 2014, le U des façades ne peut pas dépasser 0.24 W/m²K (= Umax).

De par le choix de la méthode, le risque de ponts thermiques entre l’intérieur et l’extérieur est quasiment nul et la structure lourde de la façade située à l’intérieur participe à la stabilité thermique des locaux.

 

Isolation thermique de la façade avant.

Isolation thermique de la façade.

> Fenêtres

Les châssis sont en aluminium à coupure thermique et sont munis de double vitrage acoustique basse émissivité performant dont le coefficient de conductivité thermique Ug vaut 1.1 W/m²K.
Suivant leur configuration, les fenêtres ont un coefficient de conductivité thermique Uw compris entre 1.6 et 1.8 W/m²K.

Ces valeurs de U répondent aux exigences de Performance Energétique des Bâtiments (PEB) de l’époque de la demande de permis de bâtir. Depuis 2018, le UW des fenêtres ne peut pas dépasser 1.5 W/m²K (= Umax).

Les fenêtres sont de type oscillo-battant. Motorisées, elles s’entrouvrent automatiquement lorsque le système de gestion du night-cooling le commande.
Elles sont munies de stores extérieurs automatiques.

 

Fenêtre en aluminium à coupure thermique.

> Toitures plates

Les toitures plates sont du type « toiture chaude« . Elles sont végétalisées. La couche isolante est constituée de 20 cm de laine de roche. Elle confère à ces toitures un coefficient de transmission thermique de 0.19 W/m²K. Cette valeur est inférieure au maximum toléré jusqu’en janvier 2021 : Umax = 0.24 W/m²K.

 

La toiture plate végétalisée.

> Inertie thermique

L’inertie thermique de la partie rénovée du bâtiment a été conservée grâce à l’enrobage par l’isolant du côté extérieur de la structure lourde existante. La masse thermique est ainsi accessible.
Il n’y a pas (ou peu) de faux plafonds. Les dalles en béton sont donc apparentes. Leur forme nervurée augmente leur capacité d’échange thermique avec l’air ambiant.
Par contre, des faux planchers ont été posés sur les dalles en béton, ce qui réduit l’échange thermique au sol.

La masse thermique est disponible.

 

Les nervures sous les dalles en béton restent accessibles

> Protections solaires

La façade avant est orientée au Sud-Est.
Des coursives et des panneaux solaires photovoltaïques verticaux fixes ont été placés pour permettre la gestion des apports solaires et limiter les surchauffes en période estivale. Ils ont été complétés par des stores extérieurs mobiles devant les fenêtres.

> Le système de chauffage

Le chauffage des locaux est assuré par des convecteurs alimentés en eau chaude par une chaudière à gaz à condensation d’une puissance de 120 kW.

 

La (petite) chaudière à condensation au gaz.

Cette puissance est largement suffisante. Nous avons installé des appareils de mesure dans divers bureaux en plein hiver et constaté que la température de confort était atteinte en permanence.

Évolution de la température durant la période froide.

> Le système de refroidissement

Le refroidissement des plateaux se fait par ventilation naturelle. Elle fonctionne grâce  à des fenêtres commandées automatiquement.

Nous nous intéresserons dans la présente étude de cas à la maîtrise de surchauffe dans la partie du bâtiment qui a été rénovée (rez-de-chaussée et étages 1, 2 et 3).


La maîtrise de la surchauffe

Les apports de chaleur internes sont très importants dans les immeubles de bureaux. Aussi, différents éléments ont été mis en œuvre pour limiter les risques de surchauffe en été et les inconforts qui en découlent.

> Protections solaires

Pour réduire les apports solaires en été, des protections ont été placées à l’extérieur de la façade Sud-Est.

Des protections fixes :

  • coursives en planchers métalliques ajourés ;
  • panneaux solaires photovoltaïques fixes en partie translucide. Ils sont orientés au Sud pour une meilleure efficacité et décalés par rapport aux fenêtres. De cette manière, ils permettent une meilleure vue vers l’extérieur et ombragent les fenêtres à midi.

 

Protections solaires fixes : panneaux PV et coursives.

Des protections mobiles :

  • les fenêtres sont équipées de stores extérieurs automatiques.

Protections solaires mobiles : stores automatiques.

> Fonctionnement des stores :

Tous les stores d’une même façade et d’un même étage s’ouvrent et se ferment en même temps.
Ils sont soit complètement ouverts, soit complètement fermés sans position intermédiaire.
Entre 20h00 et 06h00 ils sont toujours relevés.

> Inertie thermique :

 

Ventilation intensive (night-cooling) 

Les fenêtres des bureaux sont munies d’ouvrants motorisés. Elles s’ouvrent en oscillant vers l’intérieur. Le moteur de marque ROTO est encastré dans la traverse haute du dormant et est complètement invisible lorsque les fenêtres sont fermées.

  

Fenêtre à ouverture motorisée en façade.

Des ouvertures de transfert sont prévues entre les bureaux et les couloirs. Elles peuvent être refermées la journée pour des raisons acoustiques.

   

Ouvertures de transfert obturables entre les bureaux et les couloirs.

Les escaliers servent de cheminées de ventilation verticales

 

La ventilation intensive de nuit se fait via les escaliers et la gaine qu’ils entourent.

Des ouvrants (louvres) sont situés au-dessus des cages d’escaliers afin de permettre la ventilation naturelle.

   

 

Un de ces ouvrants est muni d’un ventilateur destiné à forcer la ventilation en cas de nécessité.

   

Le ventilateur installé dans une des tourelles de ventilation.


Le night-cooling

 

Schéma de principe du night cooling.

 

Application au 3e étage.

Fonctionnement

En été, lorsque le ciel est dégagé et que le rayonnement direct du soleil atteint les sondes d’ensoleillement, les stores se ferment. Ils se relèvent automatiquement à 20h00.

Le soir, toutes les ouvertures de transfert entre les couloirs et les bureaux sont ouvertes manuellement, soit par l’occupant qui a terminé de travailler soit par le service de gardiennage lors de sa première ronde. Parfois les portes des bureaux sont également laissées ouvertes.

Par contre, les portes de chaque étage communiquant avec d’autres bâtiments se ferment automatiquement la nuit pour qu’il n’y ait pas d’interférence de ceux-ci sur le fonctionnement du night cooling.

Chaque étage fonctionne indépendamment des autres. Tous les ouvrants de l’étage vont s’ouvrir en fonction de certaines conditions :

  • l’heure ;
  • la température de l’air intérieur ;
  • la température du béton ;
  • la température de l’air extérieur ;
  • l’ouverture des stores ;
  • la vitesse du vent.

En fonctionnement naturel, tous les ouvrants situés au-dessus des cages d’escaliers sont complètement ouverts et le tirage de l’air extérieur se fait naturellement à travers les étages dont les fenêtres sont ouvertes, via les cages d’escalier.

Si à minuit, les consignes de température ne sont pas atteintes par le night cooling naturel, tous les ouvrants situés au-dessus des escaliers se referment sauf celui qui est équipé d’un ventilateur d’extraction forcée. Ce dernier se met alors en route et fait circuler l’air mécaniquement.

La sonde de température intérieure à chaque étage est placée dans un bureau type. Ce bureau choisi est celui qui est orienté le plus défavorablement et qui présente le risque de surchauffe le plus important. L’ouverture de transfert de ce bureau vers le couloir doit être ouverte en permanence afin de permettre une représentation réaliste du refroidissement du bâtiment.


Le confort thermique

Lors de la mise en service du bâtiment, le système de night cooling du bâtiment n’était pas encore au point et certains occupants se plaignirent de températures trop élevées en été. De plus l’impossibilité d’ouvrir les fenêtres accentuait encore la sensation d’inconfort.
Les causes de dysfonctionnement ont été rapidement définies et les réglages nécessaires ont été effectués. Par la suite, plus personne ne s’est plaint d’un excès de chaleur.
Des sondes enregistreuses ont été placées dans certains bureaux en été pour vérifier la température et l’humidité de l’air. Les résultats confirment l’efficacité du système pendant trois semaines de forte chaleur.

 

Résultats des relevés dans un des bureaux entre le 06 et le 26 juillet 2017.

Les bons résultats obtenus découlent notamment de l’utilisation des stores durant la journée.
S’ils sont très efficaces de ce point de vue, par contre leur fonctionnement amène certaines contraintes. En effet, lorsqu’ils sont fermés, les bureaux sont plongés dans une pénombre qui parfois enclenche l’éclairage artificiel. La vue vers l’extérieur est également empêchée.  Cela entraîne une dépense d’énergie et un inconfort pour les utilisateurs des bureaux qui se plaignent de l’ambiance ainsi créée.
Des solutions sont à l’étude : programmation du fonctionnement ; dérogations par les utilisateurs ; fermeture partielle ; protections distinctes contre l’éblouissement ; etc.


Conclusion économies d’énergie

L’usage du night cooling, lorsqu’il est possible et efficace est particulièrement économique. La consommation électrique est très faible. Elle est limitée à la programmation, à la manœuvre des stores et fenêtres et à l’usage peu fréquent du ventilateur dans les conditions les plus contraignantes.


Informations complémentaires

Cette étude de cas a été développée à l’aide des informations et documents fournis par le Service Public de Wallonie.

Nos interlocuteurs furent :

  • Madame Amélie Paris de la Direction des études, des Marchés et des Travaux patrimoniaux, département de la Gestion immobilière.
  • Monsieur Didier Herman du SPW territoire, logement patrimoine et énergie, direction fonctionnelle et d’appui,  et logistique.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Choisir le système de ventilation : critères généraux

© Architecture et climat 2023.

La qualité d’air intérieur dépend notamment de :

  1. L’air extérieur ;
  2. le mobilier et matériel de bureau ;
  3. les produits et matériaux de construction ;
  4. la ventilation ;
  5. le comportement des usagers.

Les normes recommandent une ventilation de base permanente ayant pour but d’évacuer les odeurs, l’humidité et les éventuelles substances nocives. Pour ce faire, différents systèmes de ventilation existent.


Aperçu des normes

En région wallonne, depuis le 1er mai 2010, tous les bâtiments neufs et assimilés doivent répondre à des exigences particulières. Les bâtiments non résidentiels (hors habitation et appartement) doivent respecter l’Annexe C3 de la PEB (elle-même basée sur la norme européenne EN 13 779 (Ventilation dans les bâtiments non résidentiels – Spécifications des performances pour les systèmes de ventilation et de climatisation).  Celle-ci impose une qualité d’air au moins égale à la catégorie INT 3 (débit minimum de 22 m³ par heure et par personne).

De plus, elle impose un taux d’occupation minimum (m² par personne) à prendre en compte pour le dimensionnement en fonction de l’usage de la pièce.

Pour déterminer le débit d’air neuf minimal à assurer dans chaque local, il faut donc multiplier le taux d’occupation (de conception ou minimum imposé) par le débit de ventilation (INT 3 minimum).

De plus, il faut respecter un débit de conception minimal pour les sanitaires : 25m³/h par WC ou urinoir ou 15m²/h par m² de surface si le nombre de WC n’est pas connu lors du dimensionnement.

Pour les hôpitaux, selon la norme NF S90-351, dans les zones à risques 1, c’est-à-dire concrètement sans risque d’aérobiocontamination (hospitalisation sans risque d’infection, certaines consultations, radiologie, ergothérapie, …), la ventilation se traite, en principe, sans exigence particulière en terme de filtration et de pression.

Dans les autres locaux (médico-techniques par exemple), la ventilation est organisée dans le même local où l’on retrouve à la fois des bouches de pulsion et d’extraction.


Typologie des systèmes de ventilation

Différentes dénominations sont utilisées pour caractériser des systèmes de ventilation.

Relativement au flux d’air, on distingue ventilation hygiénique et intensive sur base du débit:

  • Ventilation hygiénique, ou « de base » : il s’agit de la ventilation minimale nécessaire pour garantir une qualité de l’air suffisante, pour réduire la concentration des odeurs et de l’humidité. Elle requiert des débits d’air limités, appliqués de manière permanente. Ordre de grandeur : <1 renouvellement horaire de l’air.
  • Ventilation intensive : ventilation temporaire à grand débit (ordre de grandeur : >4 renouvellements horaires de l’air) nécessaire uniquement dans des circonstances plus ou moins exceptionnelles, comme lors d’activités générant une production élevée de substances nocives ou d’humidité (travaux de peinture, de nettoyage, certains loisirs,…), lors de chaleur persistante ou d’ensoleillement intensif qui provoque une surchauffe, ou lors d’une occupation extraordinaire, par exemple une fête, un nombre de fumeurs élevé, …

On distingue également infiltrations et ventilation sur base du caractère volontaire ou fortuit du mouvement d’air :

  • Infiltration : mouvement d’air involontaire et incontrôlé au travers des faiblesses de l’enveloppe d’un bâtiment
  • Ventilation : mouvement d’air volontaire et partiellement ou totalement contrôlé au travers de dispositifs spécifiques

Dans le logement, la norme NBN D50-001 parle de systèmes A, B, C ou D selon que l’amenée et/ou l’évacuation d’air est naturelle ou mécanique. Bien qu’exclusivement réservée aux logement, ces appellations sont parfois généralisées aux systèmes mis en œuvre dans les bâtiments tertiaires. Nous parlerons ici plus largement de :

Les ventilations double flux peuvent ou non intégrer une récupération de chaleur sur l’air extrait.

Enfin, on parlera de ventilation hybride lorsqu’elle recours aux principe de la ventilation naturelle mais prévoit ponctuellement le support de ventilateurs et d’éléments réseaux de ventilation mécanique. Typiquement, il s’agit d’une ventilation naturelle dans laquelle un ventilateur d’appoint vient renforcer le tirage lorsque les forces naturelles font défaut.

Le premier choix à réaliser est donc, pour faire simple, entre une ventilation naturelle ou mécanique simple ou double flux. en conception neuve ou rénovation, c’est très souvent une ventilation mécanique qui sera choisie. Se posent alors deux autres questions :

  • faut-il créer un réseau de ventilation unique desservant tout le bâtiment (système de ventilation centralisé) ou distinguer les équipements de chaque local ou groupe de locaux (système de ventilation décentralisé) ?
  • A-t-on intérêt à utiliser ce système de ventilation pour traiter l’air neuf et/ou climatiser le local?

Concevoir

Pour départager les ventilation naturelles et mécaniques, cliquez ici !

Concevoir

Pour départager les systèmes de ventilation centralisés ou décentralisés, cliquez ici!

Concevoir

Pour examiner l’intérêt d’une combinaison de la ventilation avec le traitement thermique des locaux, cliquez ici

Système de refroidissement [Concevoir l’avant projet ]

Système de refroidissement


Stratégie de choix

Un système technique, notamment de refroidissement, ne devrait pas se choisir uniquement sur base de critères technologiques et économiques, même s’ils sont essentiels. Le choix doit intégrer toute la complexité du bâtiment, son programme, ses besoins énergétiques de chaud et de froid, son site, son occupation,…

Pour s’y retrouver, il est nécessaire de se donner une stratégie. Un exemple de stratégie de choix peut être d’identifier des groupes de critères jugés prioritaires sur base desquels faire une première sélection peut s’effectuer. Par exemple, dans une approche orientée vers la performance énergétique, on mettra en avant les critères liés :

  • Aux propriétés thermiques et constructives du projet :
    Quelle est l’inertie du bâtiment ? Quelles sont les puissances demandées et les besoins d’énergie en chaud et en froid, en fonction des charges internes et solaires, des performances de l’enveloppe ? Quels sont les débits d’air hygiéniques ? Quelle est la modularité envisagée (possibilité de modifier fréquemment les cloisons) ?
  • Aux ressources énergétiques disponibles sur le site :
    Dans notre climat, un bâtiment peut être rafraîchi la plus grande partie de l’été en ventilant naturellement le bâtiment par de l’air extérieur. Si le site est trop bruyant ou pollué, une ventilation mécanique adaptée utilisée en mode free cooling sera également efficace. L’air extérieur peut en outre être rafraichi par des aménagements paysagers (parcs, bassins) ou technologiques (humidification). Si l’air extérieur reste malgré tout chaud la journée, la température nocturne tombe suffisamment pour permettre de décharger la chaleur accumulée à l’intérieur. Si l’air extérieur n’est pas valorisable sur le site du projet, peut-être une ressource hydrique l’est-elle (sans aller jusqu’à solliciter la nappe phréatique, un étang par exemple constitue une masse d’eau fraiche impressionnante) ? La capacité thermique du sol peut également être sollicitée, si sa composition permet des forages à un coût raisonnable.
  • Au profil de l’occupant :
    Selon qu’il souhaite ou non avoir un rôle actif dans la conduite du bâtiment, les choix techniques ne seront pas les mêmes. Est-il disposé à ouvrir ses fenêtres en été ? Les choix dépendront également des profils d’occupation : sont-ils stables ou variables ? Enfin, les attentes de confort sont un critère majeur : les occupants exigent-ils une température constante réglable selon leurs envies, ou sont-ils prêts à accepter une évolution raisonnable, mais moins maîtrisée des conditions intérieures ?

Une fois que l’on s’est donné une liste de critères principaux, il faut faire l’inventaire des choix possibles, et s’orienter vers celui qui offre la meilleure performance énergétique. Cette première sélection doit ensuite être discutée sur base des autres critères : impact financier, contraintes d’entretien, risque de nuisance acoustique, etc.

Choisir une production de froid « alternative » (freechilling, refroidissement adiabatique, géothermie, climatisation solaire)

Choisir une production de froid "alternative" (freechilling, refroidissement adiabatique, géothermie, climatisation solaire)


Quand opter pour un freechilling ?

Le free-chilling consiste à refroidir l’eau glacée de l’installation frigorifique par « contact » avec l’air extérieur lorsque la température de celui-ci est suffisamment basse.

Qu’est-ce qu’une installation adaptée au free-chilling ?

Au départ, il faut que des besoins de froid soient prévus en hiver.
L’intérêt est augmenté si les échangeurs des unités terminales qui seront choisis travaillent à « haute » température : ce sera le cas de plafonds froids (régime 15-17 °C), de poutres froides ou de ventilos-convecteurs surdimensionnés pour travailler au régime 12-17 °C ou 14-19 °C,… À noter qu’un tel dimensionnement diminue les pertes du réseau et la consommation liées à la condensation de la vapeur d’eau contenue dans l’air des ambiances, ce qui amplifie l’économie d’énergie.

Si l’installation demande une puissance de refroidissement faible en mi-saison ou en hiver (de l’ordre de 50 W/m²), on pourrait faire travailler les plafonds froids au régime 17 ° – 19 °C, ce qui permet un refroidissement par l’air extérieur tant que la température de l’air est inférieure à 14 °C. On peut alors imaginer une modulation de la température de consigne de l’eau des plafonds froids en fonction de la température extérieure.

Enfin, le projet se présente très favorablement si un condenseur à eau est prévu : on pourra utiliser la tour de refroidissement pour refroidir l’eau glacée directement par l’air extérieur. Dans la tour, grâce à l’évaporation partielle de l’eau, la température de l’air extérieur sera encore diminuée. Ainsi, de l’air à 15 °C et 70 % HR permet de créer de l’eau de refroidissement à 12 ° (limite basse théorique appelée température « bulbe humide »). Malheureusement, un échangeur sera nécessaire entre le circuit de la tour (eau glycolée) et le circuit d’eau glacée du bâtiment. Une partie de l’avantage est donc perdu…

Le problème du gel…

De l’eau glacée refroidie par l’air extérieur pose le problème du gel dans la tour. La solution la plus courante est l’addition de glycol, mais :

  • le glycol coûte cher,
  • le glycol diminue les capacités d’échange thermique et augmente la densité du liquide, ce qui entraîne une augmentation de puissance des pompes,
  • en général, on limite le circuit glycol au dernier tronçon en contact avec l’extérieur (l’eau de la boucle d’eau glacée n’est pas glycolée car, en cas de vidange, c’est l’entièreté du circuit qui est à remplacer),
  • un échangeur supplémentaire doit alors être prévu, entraînant une consommation électrique liée à sa perte de charge et un écart de température qui diminue la période de fonctionnement du free-chilling…
  • Attention lorsque l’on rajoute de l’eau ultérieurement…

Il est aussi possible de placer des cordons chauffants (mais peut-on protéger totalement ainsi une tour ?) ou de prévoir un circuit de chauffage spécifique qui se met en place en période de gel, mais on risque de manger le bénéfice !

 Le free-chilling : une solution miracle pour toutes les installations ?

Certainement pas. De nombreuses contraintes apparaissent.

Quelques exemples :

  • Lorsque l’installation travaille à charge partielle, il y a intérêt à ce que la température moyenne de l’eau « glacée » soit la plus élevée possible pour favoriser l’échange avec l’air extérieur. On appliquera donc une régulation des échangeurs par débit variable pour augmenter l’écart de température entre départ et retour.
  • Une tour de 300 kW pèse 3 à 4 tonnes et une tour de 1 000 kW pèse 9 à 12 tonnes, ce qui génère parfois des frais d’adaptation du génie civil.
  •  …

Adapter cette technique nécessite donc toujours une étude particulière (cadastre des énergies de froids prévues avec leur niveau de température, répartition été/hiver, …) pour apprécier la rentabilité.

Mais il est en tous cas impératif d’y penser lors d’une nouvelle installation !


Quand opter pour un refroidissement adiabatique

Le refroidissement adiabatique permet de rafraîchir de l’air en centrale par humidification. Cet air humide et frais est ensuite utilisé directement dans l’ambiance ou indirectement par un échangeur de chaleur.

Ce système basé sur des équipements existants (groupe de ventilation, tour de refroidissement) apporte un rafraichissement naturel bienvenu lorsque des techniques plus « lourdes » (fenêtres motorisées, etc.) ne peuvent être mises en œuvre. Il peut également servir d’appoint à ces techniques passives lorsque celles-ci ne suffisent plus à assurer le confort.

Le refroidissement adiabatique a cependant une efficacité limitée à trois niveaux,

  • comme tout système de transfert thermique basé sur l’air, la faible capacité calorifique de l’air bride la puissance disponible. Des débits d’air importants sont nécessaires pour que le refroidissement soit réellement sensible.
  • La température minimale à laquelle l’air peut être abaissé est la température de bulbe humide, qui correspond à la saturation. Cette température est plus élevée que celle obtenue par une machine frigorifique « classique ».
  • Le système ne fonctionne que lorsque l’air que l’on souhaite humidifier est suffisamment sec que pour présenter un potentiel de rafraichissement intéressant. Si c’est de l’air intérieur, le refroidissement adiabatique sera plus pertinent dans des locaux faiblement occupés (moins de dégagement d’humidité dans l’ambiance). Si c’est de l’air extérieur, le système ne sera pas très efficace les jours chauds et humides.

La figure ci-dessous montre, heure par heure, les conditions climatiques d’Uccle, et la zone de conditions T° et Humidité favorable à un système évaporatif direct. A l’évidence, notre climat humide n’est pas le plus favorable pour cette technique.

Elle n’est pas pour autant à dédaigner complètement. Considérons par exemple un air extérieur à 22 °c et 60 % d’humidité relative, une condition qui n’a rien d’exceptionnel en été. Pour peu qu’il y ait un peu de soleil, beaucoup de bâtiments seront en demande de refroidissement. Par humidification, cet air peut être  abaissé jusqu’à environ 17 °C. Ce gain de 5 °C, sur un débit d’air hygiénique d’environ 3 m³/(hm²) dans des bureaux représente 5 W/m² de puissance frigorifique. C’est presque équivalent à la chaleur dégagée par les occupants (70 W/personne, 10 à 15 m²/personne). C’est peu, mais non négligeable.

Quand donc opter pour ce type de système ?

Dans notre climat, un refroidissement adiabatique direct est limité par l’humidité extérieure, et surtout d’une efficacité très variable en fonction de la météo.  On évitera donc de se fier uniquement sur eux pour traiter une ambiance. Par contre, sa simplicité fait qu’il trouvera presque toujours une place en complément de stratégies de refroidissement sur boucle d’eau.

Les systèmes indirects, basés sur l’humidification de l’air extrait, seront pertinents lorsque l’air extrait peut être fortement refroidi. Pour cela, il faut qu’il ne soit ni trop chaud, ni trop humide. La condition « pas trop chaud » fait penser à des locaux disposant déjà d’un système de refroidissement  par boucle d’eau. On est alors sur de plafonner à 24-25 °C. La condition « pas trop humide » se rencontre lorsque la surchauffe du local est liée à des gains solaires et internes sans dégagement d’humidité. Autrement dit dans les locaux dont l’occupation humaine est relativement limitée. Problème : dans ces cas-là, le débit d’air a tendance à l’être aussi, ce qui limite la puissance disponible. Faut-il surdimensionner le réseau de ventilation ? C’est un calcul économique à réaliser au cas par cas.

En conclusion, le refroidissement adiabatique apparait chez nous comme un appoint intéressant à d’autres systèmes plus que comme une technique autonome de refroidissement.

Et si on reformulait les objectifs de la conception des bâtiments de façon à atteindre un niveau de maîtrise des charges thermiques au point de rendre cet appoint suffisant ?

Techniques

Pour en savoir plus sur le refroidissement adiabatique, cliquez ici !

Concevoir

Pour en savoir plus sur la façon de valoriser la physique de l’air humide, cliquez ici !

Quand opter pour une climatisation solaire ?

La climatisation solaire est une technique basée sur l’utilisation de machines frigorifiques à ab/adsorption  ou de roues dessicantes. L’énergie solaire sert alors de source de chaleur pour régénérer le sorbant.

Dans le cas des machines frigorifiques à adsorbtion, la possibilité d’utiliser le soleil pour cet usage est limité par la demande d’une température d’eau minimale qui se situe entre 70 et 95°C en fonction du couple solvant-réfigérant. Dans les roues dessicante, cette température est également supérieure à 70°C. Pour atteindre cette température, l’emploi de capteurs performants est indispensable (sélectifs, sous vide, à faible concentration), ce qui induit un coût d’investissement assez important.

Il faut aussi tenir compte de ce que, en l’absence de soleil, si les besoins de froid sont toujours présents, une autre source de chaleur doit prendre le relais. L’intérêt de la machine frigorifique à absorption couplée avec des capteurs solaires doit donc être évalué sur base d’une moyenne annuelle, en tenant compte des heures d’ensoleillement exploitables. Cette évaluation dépend de nombreuses valeurs à estimer :

  • rendement de la chaudière ;
  • rendement de la machine frigorifique à absorption ou des différents échangeurs de la roue dessicante ;
  • proportion de la demande de froid qu’on peut produire avec l’énergie solaire (X) qui dépend du nombre d’heures d’ensoleillement exploitables ;
  • rendement moyen de la production électrique en centrale ;
  • COP de la machine frigorifique à compression.

Avec les hypothèses prises dans le schéma ci-dessus, le bilan au niveau de la consommation d’énergie primaire est favorable au système de refroidissement solaire si au moins 51 % de la demande de froid peut être satisfaite par l’énergie solaire. Pour évaluer la rentabilité économique du système, il faudrait tenir compte des prix de l’énergie et des coûts d’investissement.

Est-il envisageable d’atteindre ce ratio ? A priori non : dans notre climat peu ensoleillé, les surchauffes sont en grande partie liées aux dégagements intérieurs de chaleur. Encore plus si le bâtiment est équipé de protections solaires.

Faisons l’exercice inverse : pour que la climatisation solaire soit pertinente, il faudrait que :

  • Les locaux soient peu sujets à des gains internes : des grands espaces peu occupés.
  • Les locaux soient sujets à une surchauffe au moment où le soleil brille : donc des espaces qui présentent une faible inertie thermique.
  • Les locaux disposent d’une stratégie alternative lorsque cette surchauffe apparait pour un ensoleillement moyen (en mi-saison, quand la température dans le capteur ne sera pas suffisante) : locaux que l’on peut ventiler intensivement en été.

Cela pourrait nous faire penser à des espaces d’exposition, pour autant que l’éclairage artificiel n’y représente pas une charge trop importante, ou à des atriums. On le voit, la climatisation solaire doit, chez nous, être considérée comme un produit de ‘niche’, pour lequel une étude technico-économique détaillée est indispensable.

Techniques

Pour en savoir plus sur les machines frigorifiques à ad/absorption

Techniques

Pour en savoir plus sur les roues dessicantes

Quand opter pour un geocooling ?

Le geocooling est une technique de valorisation de la fraicheur du sol grâce à un réseau véhiculant un fluide caloporteur. En principe, le champ d’application du geocooling est large. Tout bâtiment qui présente un besoin de froid pourrait théoriquement en bénéficier, quitte à compléter cette source d’un appoint par une machine frigorifique plus traditionnelle.
Les limites d’utilisation du geocooling seront :

  • Réglementaires : les forages doivent faire l’objet d’une demande de permis unique en Région Wallonne, pour laquelle il faut fournir notamment une coupe géologique probable du puits avec profondeur estimée de la nappe aquifère, la description des méthodes de forage et les équipements du puits avec coupe technique, un rapport technique sur la nature de la nappe aquifère éventuelle et un plan de situation des puits. Le sens de cette demande de permis est bien évidemment d’éviter tout risque de pollution d’une nappe aquifère, ce qui peut limiter le développement de cette technologie dans certaines zones sensibles.
  • Technologiques : Décharger d’année en année une quantité d’énergie dans le sol mène à son échauffement progressif. Il en découle une perte de performance liée à des moindres écarts de température entre le sol, la boucle d’eau et le bâtiment. On privilégiera donc le geocooling dans les situations où le sol est également utilisé comme source de chaleur en hiver (géothermie), t en particulier lorsque les besoins de chauffage et de refroidissement du bâtiment sont dans une certaine proportion. Puisqu’en géothermie l’énergie utile (la demande de chaud) = l’énergie extraite du sol + l’énergie consommée au compresseur de la pompe à chaleur, alors qu’en geocooling, l’énergie utile (la demande de froid) = l’énergie injectée dans le sol, on déduit que le geocooling sera particulièrement pertinent lorsque la demande de froid = la demande de chaud / (1-(1/COPpac)). Autrement dit, si on considère qu’une pompe à chaleur à un COP de l’ordre de 4, il faut que les besoins de froid soient environ 133 % des besoins de chaleur.

Schéma évolution de la température du sol sur 20 ans.

Simulation de la température d’un sol dont on retire du froid chaque été. Après 240 mois (20 ans), la température moyenne a grimpé de 3°C, rendant difficile la production d’eau froide à destination du système de climatisation du bâtiment.

  • Économiques : La pertinence économie qu’un geocooling dépend de la nature du sol et de l’équilibre entre besoins de chaleur et de froid. Pour ce qui est de la nature du sol, il est évident qu’un forage dans une roche demandera un investissement plus important qu’un forage dans du sable. Certains sols offrent également une plus grande diffusivité thermique, ce qui améliore leur rôle de tampon thermique. Un test de réponse thermique (TRT) permet de chiffrer la qualité d’un sol relativement à des applications thermiques. L’équilibre chaud-froid dans les proportions discutées au point précédent permet de limiter le recours à des technologies d’appoint (chaudière ou machine frigorifique à compression) pour valoriser au maximum l’investissement fait au niveau du forage.

Pour illustrer tout cela, voici un exemple de bilan réalisé pour un bâtiment de bureaux (source : MATRIciel sa). Il s’agit de la comparaison entre la géothermie/geocooling et des installations de production traditionnelles, pour plusieurs combinaisons d’enveloppe (coefficient de déperdition des murs de 0,2 à 0,4 W/m²K et facteur solaire des vitrages de 22 à 39 %). Certaines combinaisons ne sont pas possibles si on désire installer une géothermie, car elles entraînent un trop grand déséquilibre entre les besoins de chauffage et de refroidissement et donc une mauvaise dynamique du sol d’une saison à l’autre. Dans ces cas, la stabilité de la température du sol à long terme n’est pas garantie. Globalement, lorsqu’elle est possible, la valorisation du sol permet une division par 2 des émissions de CO2 et une économie d’un tiers de l’énergie primaire liée au chauffage et refroidissement. Mais, on constate que la combinaison qui minimise la consommation d’énergie primaire pour des techniques traditionnelles ne permettait pas, pour ce cas-là, d’opter pour le geocooling ! Même si cela peut paraître paradoxal, il est alors préférable d’aller un peu moins loin dans la réduction des besoins (de froid dans ce cas-ci) pour rendre possible l’investissement dans une technique qui minimisera l’impact global du bâtiment.

Schéma comparaison entre la géothermie/geocooling et des installations de production traditionnelles.

Schéma comparaison entre la géothermie/geocooling et des installations de production traditionnelles.

Techniques

Pour en savoir plus sur les techniques de geocooling, cliquez ici !

Influence du régime de température

Le régime de température d’un système de climatisation influence directement la quantité d’énergie produite en valorisant la fraicheur de l’environnement. À titre d’exemple, le tableau suivant reprend les gains énergétiques potentiels par free-chilling et par géocooling qui ont été simulés en fonction du régime de température, pour un bâtiment de bureaux nécessitant 302 MWh de besoin en froid.

  Géocooling
Régime 09°C-14°C 15°C-17°C 17°C-19°C
Gain énergétique potentiel 33% 66% 75%

Free-chilling

Régime 09°C-14°C 15°C-17°C 17°C-19°C
Gain énergétique potentiel 0.5% 8.6% 15.5%

Le géocooling consiste à refroidir directement l’eau avec le sol, la température du sol  doit donc être inférieure à la température de départ de l’eau. Dans cette exemple, le choix d’un régime 17-19 °C au lieu de 9 °C – 14 °C permet bénéficier de 2 fois plus d’énergie gratuite et d’ainsi couvrir 75 % des besoins en froid du bâtiment !

Pour un régime de température de 9 °C – 14 °C, l’utilisation d’énergie gratuite de l’air est quasi nulle (0.5 % de la consommation annuelle).  Dans cet exemple, l’augmentation du régime de température de 2 °C (17-19 au lieu de 15-17) permet d’utiliser 1.8 fois plus d’énergie gratuite.

En outre, un régime plus élevé diminue fortement le risque de condensation et peut permettre de se passer de la déshumidification de l’air. Il est dès lors possible d’utiliser des émetteurs de types plafond froid.

Géothermie et géocooling [Climatisation]

Géothermie et géocooling


Principe

À l’état naturel, le sous-sol garde une température constante de l’ordre de 10 … 12 °C à partir d’une profondeur d’une dizaine de m.

graphe principe géothermie.

On peut donc logiquement imaginer que celui-ci puisse servir de source naturelle de froid. Il suffirait qu’un réseau véhiculant un fluide caloporteur le parcoure pour produire de l’eau à température adéquate pour refroidir un bâtiment.

On appelle cela du « géocooling ».

De même, une température de 10 .. 12 °C plus élevée et plus stable que la température extérieure hivernale est une température intéressante pour servir de source froide à une pompe à chaleur, en l’occurrence sol/eau, pour chauffer le bâtiment en hiver.

On parle alors de « géothermie ».

Refroidissement en été et chauffage en hiver vont d’ailleurs souvent de pair. En effet, si en été on extrait du « froid » du sol, ce dernier se réchauffe progressivement. Si cette opération se répète d’année en année, sans autre perturbation, le sol verra sa température moyenne augmenter jusqu’à ne plus être exploitable.

Dès lors pour éviter ce phénomène, il s’agit de régénérer le sol chaque hiver en extrayant la chaleur accumulée en été grâce à une pompe à chaleur.

On parle alors de « STOCKAGE GEOTHERMIQUE » : la chaleur du bâtiment est transférée dans le sol en été quand elle est gênante pour être utilisée en hiver quand elle est nécessaire.


Technologie des sondes géothermiques

Les systèmes fermés et ouverts

On parle de système fermé si un fluide caloporteur circule dans le sol dans un circuit fermé.

On retrouve principalement 3 types de systèmes fermés : les forages ou sondes géothermiques, les pieux géothermiques et les nappes horizontales.


3 types d’échangeur géothermique : les pieux, les sondes et les nappes.

Source : Rehau.

On parle de système ouvert lorsque c’est l’eau de la nappe phréatique ou du lit d’une rivière qui est pompée pour échanger sa chaleur avec le bâtiment et réintroduite en aval du sens d’écoulement souterrain.

Forages géothermiques

Dans ce cas les « échangeurs géothermiques » ou « sondes géothermiques » sont pour la plupart constitués de forages verticaux (diam 150 mm) d’une profondeur de 50 à 400 m (souvent 100 .. 150 m). Chaque forage contient des conduites, le plus souvent en polyéthylène (DN 32) disposées en double U et enrobées d’un coulis de ciment/bentonite (le « grout ») assurant la protection mécanique tout en permettant une certaine souplesse indispensable pour résister aux mouvements de sol.

Source : REHAU.

L’ensemble des forages forme ainsi un champ de sondes espacées entre elles de 6 à 10 m, pour limiter les interférences thermiques. Les sondes sont raccordées entre elles via des collecteurs, en série ou en parallèle ou un mix des deux.

Le champ de sondes peut être disposé à côté du bâtiment ou même sous le bâtiment (par exemple en ville).

Variantes : Sondes coaxiales en acier

Les forages géothermiques présentent une série de contraintes comme :

  • la nécessité d’espace pour effectuer les forages;
  • la gestion du forage au travers de couches de sous-sol parfois hétérogènes;
  • la nécessité de maximiser l’échange de chaleur tout en garantissant la tenue mécanique des sondes,
  •  …

Cela conduit les fabricants à proposer des alternatives aux sondes traditionnelles en « double U ».

Il existe ainsi des sondes coaxiales : l’eau en provenance du bâtiment circule dans la périphérie de la sonde et revient par le cœur pour délivrer son énergie au bâtiment.

Exemple de sonde coaxiale en PE : le fabricant annonce que les performances d’une sonde de dimension 63 mm / 40 mm
correspondent à une sonde géothermique double U de dia. 32 mm.

Source : www.hakagerodur.ch

Pour encore augmenter l’échange thermique avec le sol les sondes peuvent être réalisées en acier (avec protection cathodique) ou en inox, sans enrobage : le tube périphérique est en métal et le tube intérieur en PE.

L’augmentation du transfert de chaleur, permet alors réduire le nombre de forages et la longueur des sondes. Ainsi des tests de réponse thermique montrent qu’en moyenne, les sondes coaxiales en inox ont une résistance thermique 2 fois moindre qu’une sonde avec doubles U en PE. Cela permettrait une puissance d’extraction de 10 à 20 % supérieure.

Exemple de sondes en acier, à visser (longueur de 3 m).

Source : Thermo-pieux.

Exemple de sonde en inox introduite par forage ou « vibro-fonçage ».  La profondeur peut atteindre une centaine de mètres.

Source : geo-green.

La technologie des sondes coaxiales ouvre la porte à des installations avec des forages en étoile au départ d’un point d’entrée unique dans des lieux où l’accès pour des forages parallèles espacés n’est pas possible (par exemple, une cour intérieure dans un site existant).

 

Forages en « étoile » : on parle dans la littérature de « racines géothermiques ».

Pieux géothermiques

Une alternative aux forages consiste à intégrer les échangeurs géothermiques aux pieux de structure d’un bâtiment. Cela se justifie parce que ceux-ci sont souvent nécessaires dans des sous-sols humides, sous-sols favorables aussi à la géothermie.

On justifie cette technique par un souci de rationaliser les techniques en les combinant. Cependant, la pratique ne prouve pas que les coûts soient inférieurs par rapport à des installations distinctes. La mise en œuvre des pieux se complique également. La gestion de l’installation doit également interdire que les pieux de fondation ne gèlent en mode de chauffage hivernal.

 

Exemples de réalisation : La crèche de l’île aux oiseaux, ville de Mons : 16 pieux géothermiques de 10 m.

La crèche de l’ile aux oiseaux de Mons.

Aéroport de Zurich : 350 pieux géothermiques de 30 m de profondeur.

Nappes horizontales

La géothermie se décline également sous la forme de nappes de tuyaux déployés horizontalement à faible profondeur (0,6 à 1,2 m).

Le système est peu applicable dans le secteur tertiaire. En effet,

  • Il demande une surface de terrain très importante : de 28 à 100 m²/kW de puissance de chauffage nécessaire.
  • En hiver, elle peut conduire à un refroidissement excessif du sol préjudiciable à la végétation.
  • L’utilisation en refroidissement n’est guère possible, la température du sol étant fortement soumise à l’environnement extérieur.

Alternative pour les bâtiments de taille réduite : les sondes de faible profondeur.

Pour les petits projets, pour lesquels un forage n’est pas autorisé et où les systèmes horizontaux ne disposent pas de surface suffisante, certains fabricants proposent des sondes de petite taille constituées d’un échangeur spiralé. Ce système permet notamment de limiter l’influence que peut avoir la géothermie sur la couche de sol où se développe la végétation.

Source : SANA FONDATIONS sprl.

Cas particulier : le puits canadien

Le puits canadien ou puits provençal constitue une forme de géothermie puisque l’air neuf de ventilation est prétraité (chauffé ou refroidi) par son passage dans le sol.

Techniques

 Pour en savoir plus sur le puits canadien.

Schémas de principe

Traditionnellement, on retrouve 2 types de schéma de principe, selon que le froid est produit par échange direct avec le sol soit par la pompe à chaleur réversible utilisant le sol comme source chaude. Une troisième configuration se retrouve lorsqu’on puise directement l’eau de la nappe phréatique.

Free cooling direct

En été : le froid est produit par échange direct avec le sol et distribué via un échangeur vers les unités terminales. Le géocooling est ainsi mis en œuvre moyennant uniquement la consommation de pompes. Si on compare cette consommation à l’énergie frigorifique produite, on calcule un ESEER équivalent du système de l’ordre de …12…, voire plus en fonction des dimensionnements des équipements. Souvent une machine de production de froid vient en appoint pour satisfaire les demandes de pointes ou pour alimenter des utilisateurs demandant des températures d’eau plus basses (comme les groupes de traitement d’air).

En hiver, le sol sert de source froide à une pompe à chaleur sol/eau. Le coefficient de performance saisonnier obtenu varie entre 4,5 et 5,5. Une chaudière est utilisée en appoint pour couvrir les pointes de puissance par grands froids. Généralement, le système est dimensionné pour que la PAC couvre environ 70 % du besoin de chaud grâce à environ 30 % de la puissance totale nécessaire.

Recharge du sol par pompe à chaleur réversible

La pompe à chaleur sol/eau est réversible. En été, elle fonctionne comme un groupe de production d’eau glacée en utilisant le sol pour évacuer la chaleur de son condenseur régénérant ainsi ce dernier.

L’avantage d’un tel système est de mieux gérer la recharge du sol et peut-être de pouvoir se passer d’un groupe de froid d’appoint et d’un échangeur intermédiaire. L’investissement est donc moindre.

En contrepartie, alors que l’on peut toujours parler de stockage géothermique, il ne s’agit plus réellement de géocooling naturel puisqu’il est nécessaire de faire fonctionner une machine thermodynamique pour extraire le « froid » du sol. Le bilan énergétique global est donc moins favorable.

Systèmes ouverts

Si la nappe phréatique se situe près de la surface du sol, on peut envisager de puiser directement l’eau dans cette dernière plutôt que de la parcourir avec un échangeur et un fluide caloporteur. On parle de système ouvert. Dans ce cas, l’eau de la nappe sert par l’intermédiaire d’un échangeur :

  • En mode chauffage, de source froide à une pompe à chaleur.
  • En mode refroidissement, de source de froid directe pour une boucle d’eau.

L’eau puisée est ensuite réinjectée dans la nappe à une certaine distance créant ainsi 2 zones dans la nappe phréatique à températures différentes, l’eau passant de l’une à l’autre en fonction de la saison :

  • En hiver une zone se refroidit par l’eau réinjectée après échange avec la pompe à chaleur.
  • En été l’eau est pompée en sens inverse de cette zone et réinjectée plus chaude dans la zone de puisage hivernal.

Étant donné les mouvements dans les nappes phréatiques et en fonction de la distance entre les zones chaude et froide, l’influence d’un éventuel déséquilibre entre les besoins de chauffage et de refroidissement est nettement moindre dans le cas d’un système ouvert par rapport à un système fermé.

En outre, il est également possible de produire du chaud et du froid en même temps dans le bâtiment. En effet, si nécessaire, l’eau pompée de la nappe peut être dirigée à la fois vers la pompe à chaleur et vers l’échangeur de géocooling ou vers un échangeur commun entre les productions de chaud et de froid.

Exemples d’installations

Le schéma ci-dessous est proposé par un constructeur allemand. Il permet le chauffage par pompe à chaleur, le refroidissement libre par un échangeur vers les sondes géothermiques, éventuellement assisté par le fonctionnement réversible de la pompe à chaleur.

Le schéma ci-après, plus complet, permet un fonctionnement mixte en mi-saison : une chaudière alimente la zone périphérique en chaleur, alors que simultanément, la zone centrale est refroidie par l’échangeur dans le sol via la pompe à chaleur. Attention cependant à la destruction d’énergie qui pénalise l’intérêt énergétique de ce système.


Unités terminales associées

Les performances de la pompe à chaleur et du géocooling sont fortement dépendantes du régime de température des unités terminales :

Plus la température de l’eau de distribution est basse en saison de chauffe (température max de l’ordre 50 .. 55 °C), meilleur sera le rendement de la PAC et plus elle est élevée en été (température min de l’ordre de 15 .. 17 °C) plus grande sera la quantité d’énergie extractible directement du sol.

On doit donc choisir des unités terminales compatibles avec ces températures :

  • Plafonds refroidissants ou ilots rayonnants
    • avantages : peu d’inertie thermique et donc rendement de régulation élevé, contrôle facile de la température ambiante, réversible chaud/froid;
    • inconvénients : puissance plus limitée (plafonds).

Exemple d’îlot rayonnant.

(Source : Interalu).

  • Dalles actives
    • avantages : stockage de nuit et donc limitation de la puissance à installer;
    • inconvénients : inertie thermique importante et donc contrôle difficile de la température et rendement de régulation dégradé. Peu de flexibilité spatiale et difficulté d’utilisation en chauffage (nécessité d’un second système). Absence de faux plafond (gestion des techniques et de l’acoustique).

Étude d’un projet de géothermie

Un projet de géothermie consiste à mettre en corrélation le comportement thermique du bâtiment et celui du sous-sol. Tout cela se passe de façon dynamique : les besoins varient, le sol se charge, se décharge, échange avec son voisinage tout cela sur une échelle de temps quotidienne, mais aussi saisonnière. Cela justifie l’utilisation d’outils de simulation thermique dynamique prenant en compte la variabilité des besoins, des échanges et l’inertie du système.

Étapes de l’étude d’un projet de géothermie :

  • Définir les besoins par simulations dynamiques en évaluant différentes variantes de manière à trouver le bon équilibre entre le besoin de chaud et de refroidissement du bâtiment (niveau d’isolation, type de vitrage, protections solaires, …).

Besoins simulés de chauffage et de refroidissement d’un bâtiment, h par h ou 1/4h par 1/4 h.

  • Connaître la nature du sol par études géologique et hydrogéologique pour préévaluer les caractéristiques physiques et thermiques du sous-sol et pour évaluer les éventuels risques liés aux forages (présence de nappes phréatiques, de couche argileuse,  de quartzites, …). Cela permet de prédéfinir la pertinence et la configuration des forages (par exemple, leur longueur minimale et maximale en fonction des couches de sous-sol susceptibles d’être rencontrées).

Pour exemple, voici quelques données moyennes :

Caractéristiques du sol Puissance spécifique d »extraction
Sur 1 800 heures de fonctionnement Sur 2 400 heures de fonctionnement
Valeurs indicatives générales
Sous-sol de mauvaise qualité (sédiment sec) (λ < 1,5 W/m²K) 25 W/m 20 W/m
Sous-sol rocheux normal  et sédiment  saturé en eau (λ < 1,5 – 3.0 W/m²K) 60 W/m 50 W/m
Roche compacte à conductibilité  thermique élevée (λ < 3,0 W/m²K) 84 W/m84 W/m 70 W/m
Minéraux respectif
Gravier et sable secs < 25 W/m <20 W/m
Gravier et sable aquifères 65 – 80 55 – 65 W/m W/m
Dans le cas de fort courant des eaux souterraines dans le gravier ou le sable et d’installations uniques 80 – 100 80 – 100 W/m
Argile et glaise humides 35 – 50 W/m W/m 30 – 40 W/m
Calcaire (massif) 55 – 70 W/m 45 – 60 W/m
Grès 65 – 80 W/m 55 – 65 W/m
Roche magmatique acide (par ex. granit) 65 – 85 W/m 55 – 70 W/m
Roche magmatique basique (par ex. basalte) 40 – 65 W/m 35 – 55 W/m
Gneiss 70 – 85 W/m 60 – 70 W/m

Puissances traditionnelles extractibles.

Source Rehau.

  • Effectuer un test de réponse thermique (« TRT »). Il s’agit de réaliser un forage en taille réelle et de le soumettre à une sollicitation thermique pour pouvoir calculer la conductibilité et la capacité thermique du sol et la résistance thermique des sondes, en moyenne sur toute la longueur de la sonde. Cette sonde test pourra ensuite être valorisée dans le champ de sondes final.

Source : Group Verbeke.

  • Dimensionner le champ de sondes au moyen d’un logiciel de simulation dynamique du sous-sol : simulation du comportement du sol compte tenu des besoins du bâtiment (heure par heure) et des caractéristiques  thermiques des sondes prévues et du sol (définies par le TRT) ; optimalisation de la puissance de la PAC, du nombre et de la profondeur des sondes en s’assurant de l’équilibre à long terme de la température du sol.

Dimensionnement de l’échangeur de sol

Pour le dimensionnement des collecteurs de sol, des réfrigérateurs de plaques de fond ou de réservoirs de fondations, il est possible de consulter la DIN ISO EN 13370 « Transmission de chaleur par le procédé de calcul terrestre ».

L’objet de cette norme est l’examen du transfert de la chaleur en tenant compte des paramètres (tuyaux, isolation, masse géométrique du bâtiment, etc.) et de la conduite d’exploitation. La ligne directrice VDI 4640 « Utilisation thermique du sous-sol » convient pour l’évaluation du rendement (puissance) d’un chauffage. De plus, elle fournit des indices de planification concernant les permissions et les conditions additionnelles liées à l’environnement, mais (à notre connaissance en octobre 2003) elle n’aurait pas encore été adaptée sous l’aspect « été » du réfrigérateur.

D’après la norme DIN ISO EN 13370 (traduction non officielle !), les tableaux suivants donnent une vue d’ensemble sur les capacités d’extraction des collecteurs de chaleur et des sondes géothermiques (capacité des pompes de chaleur jusqu’à max. 30 kW) :

>  S’il s’agit de collecteurs situés à côté du bâtiment (en W/m²) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sol sec, non cohérent 10 8
Humide, cohérent 20…30 16…24
Sable, gravier, imbibés d’eau 40 32

>  S’il s’agit de sondes géothermiques (en W/m courant) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sédiments secs et peu conducteurs (Lambda < 1,5 W/m.K) 25 20
Roche, sédiments imbibés d’eau
(Lambda > 1,5 … 3 W/m.K)
60 50
Roche dure très conductrice
(Lambda > 3 W/m.K)
84 70

L’adaptation des calculs détaillés est de plus indiquée dans les cas suivants :

  • Modification des heures de services des pompes à chaleur par rapport aux hypothèses de base;
  • plus grande nécessité de chaleur pour la préparation d’eau chaude;
  • effet régénérateur du sol suite à un apport de chaleur par réfrigération de locaux ou à un rechargement thermique solaire;
  • grande influence des eaux souterraines (nappe phréatique).

Les valeurs de référence pour les capacités d’extraction de chaleur en hiver ne sont pas directement applicables à l’activité en été. Différentes causes sont à la base des écarts entre les capacités d’extraction et d’incorporation :

  • Lors du fonctionnement en hiver, une couche de glace se forme autour de la sonde ou des tuyaux, et influence favorablement la transmission thermique par conduction. En été, le sol peut au contraire sécher davantage, ce qui est défavorable.
  • Les couches terrestres proches du sol sont soumises à de si fortes influences climatiques qu’il faudrait parler non pas d’éléments de construction thermiques, mais plutôt d’éléments de construction solaires thermiques dans le cas de collecteurs de terre classiques non bâtis.

Pour l’évaluation de la capacité de sondes géothermiques et de pieux d’énergie dans le processus de réfrigération, un constructeur conseille :

  • Vu les raisons énoncées précédemment, de mettre les capacités d’incorporation (été) égales à 70 % des capacités d’extraction de chaleur énoncées dans la VDI 4640.
  • De valoriser si possible l’existence d’une nappe souterraine, qui suite à l’humidification des couches terrestres en dessous des fondations, améliore la conductibilité thermique. Il en résultera également des capacités de réfrigération plus constantes.
  • Une distance de pose entre les tuyaux ne dépassant pas 15 cm.
  • Des phases de régénération (suite à l’arrêt du système en journée ou suite à une réduction de la nécessité de froid (journées fraîches d’été)) qui améliorent la capacité de rendement.

Aspect réglementaire lié à la réalisation du projet

(Rédaction : 2014)

En région wallonne

En Wallonie, tout projet de réalisation de puits destiné à la géothermie doit faire l’objet d’un permis unique : Permis d’environnement (installations classées, conditions intégrales et sectorielles) + Permis d’urbanisme.

Selon l’Arrêté du Gouvernement wallon du 4/7/2002, annexe I, les systèmes géothermiques fermés sont classés dans la rubrique 45.12.01 : « Forage et équipement de puits destinés au stockage des déchets nucléaires ou destinés à recevoir des sondes géothermiques », classe de permis 2.

D’autres rubriques existent pour classer les systèmes ouverts en fonction des techniques de puisage et de rejet d’eau souterraine utilisé.

Les forages d’essais (TRT) et de l’installation définitive doivent faire l’objet d’une demande de permis propre comprenant :

  • Le formulaire général de demande de permis d’environnement et de permis unique – Annexe I.
  • Le formulaire relatif aux forages – Annexe XVIII (rubrique 45.12.01) ou le formulaire relatif aux prises d’eau – Annexe III (rubrique 41.00.03.02).

Le formulaire XVIII doit notamment comprendre :

  • Une coupe géologique probable du puits avec profondeur estimée de la nappe aquifère;
  • la description des méthodes de forage et les équipements du puits avec coupe technique;
  • un rapport technique sur la nature de la nappe aquifère éventuelle;
  • un plan de situation des puits.

Chronologiquement, étant donné les délais d’obtention, il est souvent difficile d’attendre les résultats du TRT et le dimensionnement final du champ de sondes avant l’introduction de la demande de permis pour ce dernier. De même, étant donné que le choix de l’enveloppe du bâtiment et l’équilibre géothermique sont intimement liés, il apparaît difficile de dissocier chronologiquement les demandes de permis pour le bâtiment neuf, le TRT et le champ de sondes. Dans ces différents cas, la pratique veut que les permis soient introduits en parallèle en mentionnant les hypothèses de prédimensionnement effectués.

En région bruxelloise

Il n’existe actuellement pas de législation spécifique à la géothermie en RBC. Les systèmes géothermiques sont néanmoins presque toujours composés d’installations classées soumises à déclaration ou à permis d’environnement.

Dans le cas de systèmes géothermiques fermés, les installations classées concernées sont les suivantes :

  • Pompe à chaleur < 10 kWelec  et < 3 kg de substance appauvrissant la couche d’ozone : Installation non classé et donc non soumise à autorisation (rubrique 132).
  • Pompe à chaleur > 10 kWelec mais < 100 kWelec  ou > 3  kg de substance appauvrissant la couche d’ozone : Installation classée de classe 3 et donc soumise à déclaration (rubrique 132).
  • Pompe à chaleur > 100 kWelec : Installation classée de classe 2 et donc soumise à Permis d’Environnement (rubrique 132).
  • Pompes électriques > à 100 kVA (rubrique 55).

Les forages ne sont, eux, pas classés.

Dans le cas de systèmes géothermiques ouverts, les captages d’eau souterraine sont des installations classées de classe 2 ou de classe 1B (rubrique 62) et sont donc soumis à Permis d’Environnement. En plus comme pour les captages d’eau « classiques », les systèmes géothermiques ouverts sont soumis à une « autorisation de pompage » de la part de l’IBGE.

De plus la réglementation urbanistique (COBAT) stipule que les forages géothermiques sont soumis à rapport d’incidence. Il semblerait donc que les systèmes géothermiques sont soumis à Permis d’Urbanisme (PU). Dans la pratique, il semblerait néanmoins que les systèmes géothermiques ne fassent pas l’objet d’une demande de PU à part entière. Il est donc conseillé de se renseigner auprès du service urbanisme de la commune concernée pour savoir si un PU est nécessaire.

La demande de permis d’environnement doit comprendre une série de renseignements.

Pour les systèmes géothermiques fermés (sondes verticales) :

  • Le cadre du projet de géothermique (industrie, tertiaire, logements collectifs, privés, ….
  • Le profil géologique et hydrogéologique de la zone où sont prévus les forages (et plus particulièrement déterminer les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.

Il y a lieu de motiver la profondeur des sondes envisagée sur base de ce profil.

  • La technique de forage prévue pour le placement des sondes.
  • La description technique de l’installation géothermique :
    • puissance électrique de la pompe à chaleur (PAC) et rendement;
    • nombre de puits ou forage prévus + nombre de sondes verticales prévues;
    • profondeur des sondes;
    • type de sondes (simple boucle en U, double boucle en U, coaxiale, autre);
    • type de matériaux utilisés pour les sondes et les différentes connexions;
    • systèmes prévus pour isoler les sondes (ou les groupes de sondes) en cas de fuite (vannes d’isolement, …);
    • fluide caloporteur prévu dans les sondes;
    • surface prévue pour l’implantation des sondes (et surface disponible si différente);
    • matériaux de remplissage sont prévus pour le scellement des trous de forages (espace interstitiel).
    •  …
  • Le plan reprenant de manière claire l’emplacement des installations (PAC et champ de sondes).
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • L’évaluation des besoins énergétiques :
    • la demande en chaud du bâtiment (kWh/an);
    • la demande en froid du bâtiment (kWh/an);
    • la puissance de pointe en chaud du bâtiment (kW);
    • la puissance de pointe en froid du bâtiment (kW);
    • l’énergie (chaud) soutirée au sol (kWh/an);
    • l’énergie (froid) soutirée au sol (kWh/an);
    • % de la demande en chaud couvert par la géothermie;
    • % de la demande en froid couvert par la géothermie.

Dans la mesure du possible, un (des) graphique(s) (histogramme) reprenant les besoins mensuels du bâtiment en froid et en chaud sur un an et distinguant la part produite par la géothermie de la part produite par les systèmes complémentaires (système de production de chaud et froid classiques) sera fourni.

  • Dans le cas ou un test de réponse thermique (TRT) a été réalisé : les conclusions du test.
  • La comparaison du gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation (réduction d’énergie primaire (%)).
  • L’évaluation du déséquilibre thermique du sous-sol et l’évolution de la performance de la PAC sur 20 ans en tenant compte de ce déséquilibre thermique.
  • Quant au rapport d’incidences, il doit également évaluer les nuisances et impacts environnementaux liés au système géothermique ainsi que les mesures prises pour éviter, supprimer ou réduire les nuisances répertoriées.  (Ex : test de mise sous pression des bouclages, mise en place d’un système de détection de fuites, étanchéité des puits,…).

Pour les systèmes géothermiques ouverts :

  • Le type de système géothermique prévu : captage/réinjection réversible (stockage chaud froid) ou captage réinjection non réversible.
  • La description technique de l’installation géothermique :
    • nombre de puits de pompage et de réinjection prévus ;
    • profondeur des puits (+ facteurs ayant servi à la détermination de la profondeur) ;
    • zone de filtre (crépine) ;
    • distance séparant les puits de captage et de réinjection ;
    • type de compteurs et nombre de compteurs prévus (+ emplacement) ;
    • puissance électrique de la pompe à chaleur (PAC) et son rendement ;
    • liquide utilisé dans le circuit secondaire ;
    • type d’échangeur – circuit primaire / circuit secondaire (double parois, simple paroi, …) ;
    • Éventuel système de détection de fuite dans le circuit secondaire.
    • plan reprenant l’emplacement de la PAC, des différents puits de captage et de réinjection.
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • Le profil géologique et hydrogéologique des zones de captage et de réinjection (et plus particulièrement déterminer l’aquifère ou les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.
  • Le débit maximum capté (m³/h, m³/j), le volume total capté par an ou par saison (m³) et si la totalité de l’eau captée est réinjectée dans la nappe. Si l’eau souterraine est utilisée à d’autres fins que la géothermie, il y a également lieu de préciser les utilisations alternatives et le débit capté (m³/j).
  • La température de réinjection maximale prévue.
  • Le dossier doit comporter une évaluation de :
    • la demande en chaud du bâtiment (kWh/an);
    • (la demande en froid du bâtiment (kWh/an)), si utilisation des puits pour refroidir;
    • la puissance de pointe en chaud du bâtiment (kW);
    • (la puissance de pointe en froid du bâtiment (kW)) → Si utilisation des puits pour refroidir;
    • l’énergie (chaud) soutirée de la nappe (kWh/an);
    • (l’énergie (froid) soutirée de la nappe (kWh/an)), si utilisation des puits pour refroidir;
    • % de la demande en chaud couvert par la géothermie;
    • (% de la demande en froid couvert par la géothermie), si utilisation des puits pour refroidir.
  • Le gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation  (réduction d’énergie primaire (%)) doit également être évalué.
  • Le rapport d’incidence doit évaluer le déséquilibre thermique de l’aquifère  et l’évolution de la performance de la PAC sur 20 ans en tenant compte du déséquilibre thermique.
  • Le rapport d’incidence doit évaluer la possibilité technique de mettre en place le système géothermique sur le site.
  • Le rapport d’incidence doit enfin évaluer l’impact et les nuisances du système géothermique et notamment :
    • l’impact éventuel du projet sur des captages voisins (impact hydraulique);
    • l’impact éventuel du projet sur la stabilité des constructions voisine;
    • le risque d’inondation au niveau des puits de réinjection et des constructions voisine;
    • l’impact thermique éventuel du système sur les eaux souterraines.
  • Ainsi que les mesures particulières de protection du sol et des eaux souterraines prévues (Rehaussement du puits, étanchéité des puits de forages, mesures prévues pour éviter la connexion éventuelle d’aquifères différents, mesures prévues pour éviter une contamination de l’eau pompée et réinjectée dans la nappe (type d’échangeur utilisé, système de détection de fuite, surpression du circuit secondaire (eau pompée) par rapport au circuit primaire (de la PAC), …)).

Analyser les besoins thermiques en fonction du climat

Évolution des besoins selon les saisons

Dès le stade de l’avant-projet, le profil thermique du bâtiment doit être évalué. Une analyse logique, intégrant les spécificités du programme (grand dégagement de chaleur intérieur ou non, large ouverture solaire ou non), permet déjà une première analyse. L’organigramme ci-dessous présente un canevas général pour aider à réaliser cet exercice : au départ des 3 saisons qui caractérisent notre climat, les priorités différentes de conception architecturale et technique sont mises en évidence.

  • En période de chauffe, soit lorsque la température en journée est inférieure au point d’équilibre du bâtiment et qu’il y a peu de soleil, il convient de minimiser à la fois le besoin et la consommation de chauffage. Minimiser le besoin fait appel aux techniques passives d’isolation, compacité, etc. et aux techniques actives de récupération de chaleur et de modulation des débits d’air. Minimiser la consommation passe par le choix d’émetteurs base température et de mode de production efficace.

 

  • En mi-saison, soit lorsque la température extérieure diurne est entre le point d’équilibre du bâtiment et la température de confort, lorsqu’il y a peu de soleil, il est prioritaire de valoriser les sources gratuites de chaleur : gains solaires, même limités, et gains internes. Le transfert d’énergie au sein du bâtiment, par les réseaux de ventilation ou VRV est alors pertinent. En période ensoleillée, c’est la maîtrise des charges solaires qui devient prédominante, pour limiter les surchauffes précoces : gestion des stores et free cooling.

 

  • En été, soit lorsque la température extérieure diurne atteint ou dépasse la température de confort, auquel cas l’ajout des charges internes et solaires crée un besoin de refroidissement, c’est la température nocturne qui deviendra le pivot de la stratégie. Si cette température est basse, la combinaison d’inertie thermique et de free cooling permet de retarder ou d’éviter le recours au refroidissement mécanique. Le dimensionnement et la gestion des réseaux de ventilation est centrale. Le choix de techniques de top cooling est également important. Si la température nocturne reste élevée (canicules), on peut partir de l’a priori qu’un refroidissement mécanique est nécessaire. On veillera alors à maximiser son efficacité, par le choix des températures d’émission et des modes de dissipation de la chaleur (géocooling par exemple).




Simulation numérique

Une fois une première analyse logique et qualitative réalisée, et après une première itération sur  l’architecture et les choix de techniques, une simulation numérique du comportement thermique du projet est à envisager. Les logiciels dits de STD (simulation thermique dynamique) les plus souvent utilisés en Wallonie sont EnergyPlus et Trnsys. Une telle simulation :

  • Fera apparaître les besoins de chaleur et de refroidissement du bâtiment.
  • Évaluera la part de simultanéité de besoins de chaud et de froid dans des locaux différents.
  • Informera de la valeur de la température extérieure au moment où la demande de refroidissement apparaît.
  •   …

Exemple de profil pour un immeuble de bureaux-type, avec locaux de réunion et salle de conférence (l’énergie frigorifique demandée alors que la température est inférieure à 10°C provient du local informatique) :

Cette analyse peut permettre :

  • De préciser les options de l’avant-projet.
  • De prendre en compte le fait qu’une zone demande un refroidissement alors que sa voisine demande du chauffage.
  • De quantifier l’énergie de refroidissement demandée alors que … c’est l’hiver dehors ! (possibilité de free-chilling).
  • D’orienter le choix du système de refroidissement (naturel ou mécanique, à Débit de Réfrigérant Variable,…).
  • De grouper des locaux avec des charges importantes.
Découvrez 3 exemples de bâtiment dont les besoins thermiques ont été intégrés dés l’avant-projet : école passive de Louvain-la-Neuve (premier bilan), école passive de Louvain-la-Neuve (proposition d’équipements), et le projet ECOFFICE.

Déterminer les performances thermiques à atteindre [Concevoir]

Déterminer les performances thermiques à atteindre [Concevoir]


La réglementation

Outre un niveau de performance global à atteindre (Kglobal et E), la PEB en matière d’isolation exige des valeurs maximales pour le coefficient de transmission thermique Umax des parois faisant partie de la surface de déperdition.

En rénovation, ces valeurs doivent être respectées pour toute paroi qui fait l’objet d’une reconstruction ou qui est ajoutée.

Il se peut également que ces valeurs (ou même des valeurs plus sévères) doivent être atteintes, et ce même si une paroi n’est pas directement touchée par la rénovation, lorsqu’il y a changement d’affectation du bâtiment, de manière à atteindre le niveau global d’isolation (K).


Les recommandations

Si l’on s’en tient à la réglementation, un coefficient de transmission thermique U est requis pour les parois délimitant le volume protégé. Mais il faut comprendre cette valeur comme l’exigence de qualité minimale à respecter, sorte de garde-fou que la Région a voulu imposer aux constructeurs.

L’épaisseur est le résultat d’un compromis :

  • Plus on isole, plus la consommation diminue (chauffage et climatisation), et avec lui le coût d’exploitation du bâtiment.
  • Plus on isole, plus le coût d’investissement augmente.

On peut aujourd’hui aller plus loin dans l’isolation des parois sans pour autant générer de grandes modifications dans la technique de construction. On peut aussi vouloir atteindre certains labels qui donnent parfois droit à des subsides. A titre d’exemple, pour une certification « passive » une isolation des parois approchant un U de 0.15 W/m²K est recommandée.

Elle permet de satisfaire de manière plus aisée l’exigence de niveau d’isolation globale (K).
Quelques considérations complémentaires :

  • Souvent c’est une logique de rentabilité financière qui détermine l’épaisseur d’isolant mis en place. Si une logique de rentabilité écologique était prise, la lutte contre le CO2 nous pousserait vers une isolation plus forte !
  • Le prix de l’énergie sur lequel on détermine la rentabilité varie sans cesse mais la tendance est clairement à la hausse. Cette évolution doit donc être prise en compte dans l’évolution de la rentabilité. Si le litre de fuel est un jour à 3 €, la rentabilité de l’isolation ne sera même plus discutée !
  • Maintenir 20°C dans un bâtiment, c’est un peu comme maintenir un niveau de 20 cm d’eau dans un seau percé. Aux déperditions du bâtiment correspondent des fuites dans la paroi du seau. En permanence nous injectons de la chaleur dans le bâtiment. Or, si en permanence on nous demandait d’apporter de l’eau dans le seau pour garder les 20 cm, notre premier réflexe ne serait-il pas de boucher les trous du seau ?

  • Expliquez aux Scandinaves, aux Suisses,. que nous hésitons entre 6 et 8 cm d’isolant, vous les verrez sourire, eux qui placent couramment 20 cm de laine minérale, sans état d’âme !

Pourquoi une isolation moins poussée sur le sol ?

En hiver la température du sol est plus élevée que la température extérieure. La « couverture » peut donc être moins épaisse.

Pourquoi une isolation plus poussée en toiture que dans les murs ?

Si la température extérieure est cette fois identique dans les 2 cas, le placement de l’isolant en toiture est plus facile à mettre en œuvre en forte épaisseur. Le coût est proportionnellement moindre. La rentabilité de la surépaisseur est meilleure.


Épaisseur d’isolant

L’épaisseur d’isolant (ei) peut être calculée par la formule :

1/U = Rsi + e11 + eii + e22 + Rse

ei = λi [1/U – (Rsi + e11 + e22 + Rse)]

avec,

  • λi : le coefficient de conductivité thermique de l’isolant (W/mK),
  • U : le coefficient de transmission thermique de la paroi à atteindre (W/m²K),
  • Rse et Rsi : les résistances thermiques d’échange entre le mur et les ambiances extérieure et intérieure. Ils valent respectivement 0,04 et 0,13 m²K/W,
  • e1/λ1, e22 : la résistance thermique des autres couches de matériaux (m²K/W).

Dans le tableau ci-dessous, vous trouverez les épaisseurs minimales d’isolant à ajouter sur la face interne ou externe du mur plein pour obtenir différents coefficients de transmission.

Hypothèses de calcul :

  • Les coefficients de conductivité thermique (λ en W/mK) ou les résistances thermiques (Ru en m²K/W) des maçonneries utilisées et des isolants sont ceux indiqués dans l’annexe VII de l’AGW du 17 avril 2008.
  • La maçonnerie est considérée comme sèche et le coefficient de conductivité thermique de celle-ci correspond à celui du matériau sec. En effet, on a considéré que le mur isolé par l’intérieur ou par l’extérieur avait été protégé contre les infiltrations d’eau, comme il se doit.
  • La face intérieure de la maçonnerie est recouverte d’un enduit à base de plâtre d’1 cm d’épaisseur.

Remarques.

  • Lorsqu’on utilise un isolant disposant d’un agrément technique (ATG), on peut se fier au coefficient de conductivité thermique certifié par celui-ci; celui-ci est , en général, plus faible que celui indiqué dans dans l’annexe VII de l’AGW du 17 avril  2008 et on peut ainsi diminuer l’épaisseur d’isolant, parfois de manière appréciable.
  • Les épaisseurs calculées doivent être augmentées de manière à obtenir des épaisseurs commerciales.
  • A épaisseur égale et pour autant que l’isolant soit correctement mis en œuvre, la présence d’une lame d’air moyennement ventilée entre l’isolant et sa protection (enduit ou bardage), permet de diminuer le coefficient de transmission thermique U de 2,5 à 5 %.
Composition du mur plein Masse volumique (kg/m³) λ(W/mK) ou Ru (m²K/W) Épaisseur du mur plein (cm) Coefficient de transmission thermique du mur plein sans isolant (W/m²K) Épaisseur de l’isolant (en cm) à ajouter pour obtenir Umax :
Umax (W/m²K) Nature de l’isolant
MW/EPS XPS PUR/PIR CG
Maçonnerie de briques ordinaires

 

1 000 à 2 100

 

0.72

 

19

 

2.22

 

0.60 5.47 4.86 4.25 6.69
0.40 9.22 8.20 7.17 11.27
0.30 12.97 11.53 10.09 15.85
0.15 27.97 24.86 21.76 34.19
29

 

1.69

 

0.60 4.84 4.31 3.77 5.92
0.40 8.59 7.64 6.68 10.50
0.30 12.34 10.97 9.60 15.09
0.15 27.34 24.3 21.26 33.41
39

 

1.37

 

0.60 4.22 3.75 3.28 5.16
0.40 7.97 7.08 6.20 9.74
0.30 11.72 10.42 9.12 14.32
0.15 26.72 23.75 20.78 32.65
Maçonnerie de moellons

 

2 200

 

1.40

 

29

 

2.54

 

0.60 5.73 5.09 4.45 7.00
0.40 9.48 8.42 7.37 11.58
0.30 13.23 11.76 10.29 16.16
0.15 28.23 25.09 21.96 34.5
39

 

2.15

 

0.60 5.40 4.80 4.20 6.60
0.40 9.15 8.14 7.12 11.19
0.30 12.90 11.47 10.04 15.77
0.15 27.91 24.81 21.71 34.11
Blocs creux de béton lourd

 

> 1 200

 

0.11

 

14

 

3.36

 

0.60 6.16 5.48 4.79 7.53
0.40 9.91 8.81 7.71 12.12
0.30 13.66 12.14 10.63 16.70
0.15 28.66 25.48 22.29 35.03
0.14

 

19

 

3.06

 

0.60 6.03 5.36 4.69 7.37
0.40 9.78 8.69 7.60 11.95
0.30 13.53 12.02 10.52 16.53
0.15 28.53 25.36 22.19 34.87
0.20

 

29

 

2.58

 

0.60 5.76 5.12 4.48 7.04
0.40 9.51 8.45 7.39 11.62
0.30 13.26 11.78 10.31 16.20
0.15 28.26 25.12 21.98 34.53
Blocs de béton mi-lourd

 

1 200 à 1 800

 

0.75

 

14

 

2.67

 

0.60 5.82 5.17 4.52 7.11
0.40 9.57 8.50 7.44 11.69
0.30 13.32 11.84 10.36 16.28
0.15 28.31 25.17 22.02 34.61
19

 

2.27

 

0.60 5.52 4.90 4.29 6.74
0.40 9.27 8.24 7.21 11.33
0.30 13.02 11.57 10.12 15.91
0.15 28.02 24.90 21.79 34.24
29

 

1.74

 

0.60 4.92 4.37 3.82 6.01
0.40 8.67 7.70 6.74 10.59
0.30 12.42 11.04 9.66 15.18
0.15 27.41 24.37 21.32 33.51
Blocs de béton moyen

 

900 à  1 200

 

0.40

 

14

 

1.86

 

0.60 5.08 4.52 3.95 6.21
0.40 8.83 7.85 6.87 10.80
0.30 12.58 11.18 9.79 15.38
0.15 27.58 24.52 21.45 33.71
19

 

1.51

 

0.60 4.52 4.02 3.52 5.52
0.40 8.27 7.35 6.43 10.11
0.30 12.02 10.68 9.35 14.69
0.15 27.02 24.02 21.02 33.02
29

 

1.10

 

0.60 3.39 3.02 2.64 4.15
0.40 7.14 6.35 5.56 8.73
0.30 10.89 9.68 8.47 13.32
0.15 25.91 23.03 20.15 31.67
Blocs de béton léger

 

600 à 900

 

0.30

 

14

 

1.53

 

0.60 4.56 4.05 3.54 5.57
0.40 8.31 7.38 6.46 10.15
0.30 12.06 10.72 9.38 14.74
0.15 27.06 24.05 21.05 33.07
19

 

1.22

 

0.60 3.81 3.38 2.96 4.65
0.40 7.56 6.72 5.88 9.24
0.30 11.31 10.05 8.79 13.82
0.15 26.31 23.39 20.46 32.16
29

 

0.87

 

0.60 2.31 2.05 1.79 2.82
0.40 6.06 5.38 4.71 7.40
0.30 9.81 8.72 7.63 11.99
0.15 24.83 22.07 19.31 30.34
Blocs creux de béton léger

 

< 1 200

 

0.30

 

14

 

2.05

 

0.60 5.31 4.72 4.13 6.49
0.40 9.06 8.05 7.04 11.07
0.30 12.81 11.38 9.96 15.65
0.15 27.8 24.72 21.63 33.98
0.35

 

19

 

1.86

 

0.60 5.08 4.52 3.95 6.21
0.40 8.83 7.85 6.87 10.80
0.30 12.58 11.18 9.79 15.38
0.15 27.58 24.52 21.45 33.71
0.45

 

29

 

1.57

 

0.60 4.63 4.12 3.60 5.66
0.40 8.38 7.45 6.52 10.25
0.30 12.13 10.78 9.44 14.83
0.15 27.13 24.12 21.10 33.16
Blocs de béton très léger

 

< 600

 

0.22

 

14

 

1.21

 

0.60 3.79 3.37 2.95 4.64
0.40 7.54 6.71 5.87 9.22
0.30 11.29 10.04 8.78 13.80
0.15 26.28 23.36 20.44 32.12
19

 

0.95

 

0.60 2.77 2.46 2.16 3.39
0.40 6.52 5.80 5.07 7.97
0.30 10.27 9.13 7.99 12.55
0.15 25.26 22.46 19.65 30.88
29

 

0.66

 

0.60 0.73 0.65 0.56 0.89
0.40 4.48 3.98 3.48 5.47
0.30 8.23 7.31 6.40 10.05
0.15 23.18 20.61 18.03 28.33
Blocs de béton cellulaire

 

< 500

 

0.18

 

15

 

0.98

 

0.60 2.91 2.58 2.26 3.55
0.40 6.66 5.92 5.18 8.14
0.30 10.41 9.25 8.09 12.72
0.15 25.41 22.59 19.76 31.05
20

 

0.77

 

0.60 1.66 1.47 1.29 2.03
0.40 5.41 4.81 4.21 6.61
0.30 9.16 8.14 7.12 11.19
0.15 24.16 21.47 18.79 29.52
30

 

0.54

 

0.60
0.40 2.91 2.58 2.26 3.55
0.30 6.66 5.92 5.18 8.14
0.15 21.67 19.26 16.85 26.48
Blocs de terre cuite lourds

 

1 600 à 2 100

 

0.90

 

14

 

2.92

 

0.60 5.96 5.30 4.63 7.28
0.40 9.71 8.63 7.55 11.86
0.30 13.46 11.96 10.47 16.45
0.15 28.46 25.3 22.13 34.78
19

 

2.51

 

0.60 5.71 5.07 4.44 6.98
0.40 9.46 8.41 7.36 11.56
0.30 13.21 11.74 10.27 16.14
0.15 28.21 25.07 21.94 34.48
29

 

1.96

 

0.60 5.21 4.63 4.05 6.36
0.40 8.96 7.96 6.97 10.95
0.30 12.71 11.30 9.88 15.53
0.15 27.70 24.63 21.55 33.86
Blocs de terre cuite perforés

 

1 000 à 1 600

 

0.54

 

14

 

2.24

 

0.60 5.49 4.88 4.27 6.71
0.40 9.24 8.21 7.19 11.29
0.30 12.99 11.55 10.10 15.88
0.15 27.99 24.88 21.77 34.21
19

 

1.86

 

0.60 5.07 4.51 3.95 6.20
0.40 8.82 7.84 6.86 10.79
0.30 12.57 11.18 9.78 15.37
0.15 27.58 24.52 21.45 33.71
29

 

1.38

 

0.60 4.24 3.77 3.30 5.18
0.40 7.99 7.10 6.22 9.77
0.30 11.74 10.44 9.13 14.35
0.15 26.74 23.77 20.80 32.68
Blocs de terre cuite perforés

 

700 à 1 000

 

0.27

 

14

 

1.42

 

0.60 4.32 3.84 3.36 5.29
0.40 8.07 7.18 6.28 9.87
0.30 11.82 10.51 9.20 14.45
0.15 26.83 23.85 20.87 32.79
19

 

1.12

 

0.60 3.49 3.10 2.72 4.27
0.40 7.24 6.44 5.63 8.85
0.30 10.99 9.77 8.55 13.43
0.15 25.98 23.10 20.21 31.76
29

 

0.79

 

0.60 1.82 1.62 1.42 2.23
0.40 5.57 4.95 4.34 6.81
0.30 9.32 8.29 7.25 11.40
0.15 24.30 21.60 18.90 29.70
Blocs silico-calcaire creux

 

1 200 à 1 700

 

0.60

 

14

 

2.38

 

0.60 5.61 4.98 4.36 6.85
0.40 9.36 8.32 7.28 11.44
0.30 13.11 11.65 10.19 16.02
0.15 28.11 24.99 21.86 34.36
19

 

1.98

 

0.60 5.23 4.65 4.07 6.40
0.40 8.98 7.98 6.99 10.98
0.30 12.73 11.32 9.90 15.56
0.15 27.73 24.65 21.57 33.89
29

 

1.49

 

0.60 4.48 3.98 3.49 5.48
0.40 8.23 7.32 6.40 10.06
0.30 11.98 10.65 9.32 14.65
0.15 26.98 23.98 20.98 32.98

Source : Isolation thermique des murs pleins réalisée par le CSTC à la demande de la DGTRE.

Il est également possible d’utiliser le fichier Excel pour calculer le U d’une paroi en contact avec l’extérieur.

Choisir une PAC en fonction de la performance de l’enveloppe

Choisir une PAC en fonction de la performance de l'enveloppe


Stratégie de chauffage et de refroidissement

Lorsque la performance de l’enveloppe d’un bâtiment augmente, pour une même surface nette ou un même volume de bâtiment, la quantité d’énergie nécessaire au chauffage devient faible.

« On peut passer d’une valeur de 200 kWh/m².an à 15 kWh/m².an lorsqu’on tend vers un bâtiment passif ! ».

Source : PMP (Plateforme Maison Passive).

De même, la puissance à mettre à disposition pour assurer les besoins de chaleur du bâtiment se voit réduite de manière significative.

« Les puissances mises en jeu pour combattre les déperditions au travers des parois et par ventilation et pour assurer la relance en cas d’intermittence (ou ralenti nocturne), passent de l’ordre de 70 W/m³ à 20 W/m³ voire moins encore ! ».

Le renforcement de l’isolation et de l’étanchéité d’un bâtiment interagit donc sur la puissance du système de chauffage. À première vue, pour autant que les fabricants de systèmes de chauffage  puissent proposer des équipements de faible puissance, il n’y a pas de restriction quant au choix de tel ou tel type de système de chauffage par rapport à la puissance.

Cependant, si le concepteur n’y prend pas garde, l’isolation d’un bâtiment n’engendre pas seulement que des réductions des besoins de chauffage. Il risque de générer aussi une augmentation des besoins de rafraichissement. D’un point de vue énergétique, si c’est le cas, il est primordial de produire du froid gratuitement ou à peu près !

La manière de produire le plus écologiquement du froid dans notre bonne Belgique est de faire appel au « free cooling » par ventilation naturelle. Ce n’est pas toujours possible !

En effet :

  • Le confort, dans certains cas, ne peut pas être assuré en permanence. On image difficilement qu’une chambre d’isolé dans un hôpital, de surcroit occupée la nuit, puisse être ventilée naturellement.
  • Certains maîtres d’ouvrage ne voient pas d’un bon œil de laisser des fenêtres ouvertes la nuit par souci de sécurité (même grillagée).
  • Les coûts d’une automatisation des systèmes d’ouvertures risquent d’être importants.
  • La régulation des systèmes d’ouverture n’est pas toujours évidente.

Le choix du « géocooling » comme moyen de refroidissement naturel s’impose donc. Cela tombe bien puisqu’avec le même système, on pourra produire du chaud par « géothermie » et du froid par « géocooling ». En effet, par le choix d’une pompe à chaleur géothermique eau/eau, réversible ou pas suivant le besoin de froid, on peut envisager la stratégie suivante :

  • En hiver,  la chaleur sera « pompée » du sol par la pompe à chaleur en travaillant en mode « chaud », le sol se refroidissant par la même occasion.
  • En été, le froid accumulé en hiver sera extrait du même sol soit par la pompe à chaleur travaillant en mode froid, soit par 2 pompes de circulation permettant de travailler de manière satisfaisante au niveau énergétique (c’est la seule consommation des pompes qui permet de refroidir le bâtiment).

Cependant, le choix de la géothermie, comme source froide pour des bâtiments à forte isolation, est dépendant aussi de l’équilibre entre les besoins de chaud et de froid de l’immeuble.
Un bâtiment en demande de chaleur :

  • Qui nécessite peu de besoins de froid sous forme de « géocooling », ne permettra pas de recharger le sol en chaleur en été. Il s’en suivra, dans certains cas, d’un appauvrissement de la capacité du sol à fournir de la chaleur. Dans certaines études (simulation PileSim), on remarque qu’après 15 à 20 ans, la température du sol reste très basse. Dans ces conditions, l’énergie du sol sera plus difficilement exploitable. Si c’est possible, le refroidissement pourra être pris en charge par un système de « free-cooling » de nuit sur l’air par exemple.
  • Équilibré par la même demande en refroidissement permettrait de pérenniser la source froide.

En pratique, un équilibre 50/50 entre les besoins de chaud et de froid permettra de garantir une géothermie optimale à long terme.


Influence sur le choix du type de source froide et son dimensionnement

Pour une même emprise au sol, un bâtiment tertiaire dont l’enveloppe est performante est moins gourmand en besoin de chauffage qu’un bâtiment de type « passoire ». Par conséquent, il « pompera » moins d’énergie à la source froide.

Source froide : l’air ou aérothermie

L’air est en quantité « infinie » autour du bâtiment ; ce qui signifie que l’influence du niveau d’isolation du bâtiment sur le choix de l’air comme source froide reste faible. Bien que ! Si on pousse le raisonnement à l’absurde, une concentration de bâtiments peu isolés dont le choix de leur système de chauffage se porterait sur une PAC air/eau par exemple, contribuerait à créer un micro climat plus froid qu’il ne serait si les bâtiments étaient peu isolés.

Donc, la performance de l’enveloppe du bâtiment influence l’air comme source froide, mais il faut pousser le raisonnement très loin !

Pour un bâtiment bien isolé, la taille de l’évaporateur pourra être plus petite. Attention toutefois que les évaporateurs sont une source de nuisance sonore dont il faudra tenir compte.

Source froide : le sol ou géothermie

Le sol est une ressource limitée en quantité et en temps. Pour des bâtiments peu « déperditifs », la géothermie peut être intéressante dans le sens où, pour une même empreinte au sol du bâtiment, plus celui-ci est isolé :

  • Moins il sera gourmand en puissance disponible et plus petite sera l’installation de géothermie.
  • Plus grande sera la disponibilité d’énergie dans le sol.

Influence de la performance du bâtiment sur la source froide géothermique.

L’augmentation de la performance de l’enveloppe d’un bâtiment permet de mieux exploiter un même volume de sol, c’est vrai ! Mais il est nécessaire de tenir compte comme décrit ci-avant de l’équilibre entre les besoins de chaleur et les besoins de refroidissement.

Une fois n’est pas coutume, c’est la source froide qui risque de conditionner le niveau d’isolation de l’enveloppe du bâtiment !

En effet :

  • Une enveloppe de bâtiment très performante entraine un déséquilibre entre les besoins Chaud/froid en faveur du besoin de froid : la source froide risque de se réchauffer au cours des années. Il s’ensuit une interrogation au niveau de l’écologique, de l’autorisation d’exploiter le sol, …
  • Une enveloppe de bâtiment peu performante inverse la tendance : la source froide se refroidit.

Il n’est donc pas dit, avec une technologie comme la géothermie, que le renforcement à outrance de la performance de l’enveloppe du bâtiment soit l’idéal. Comme tout est une question de compromis, dans ce cas particulier, on ne visera pas nécessairement le passif voire mieux. Mais c’est du cas par cas !

Un bureau d’étude spécialisé permettra, par simulation thermique dynamique, de trouver le réel équilibre pour optimiser l’exploitation de la géothermie. On en tiendra compte dès l’avant projet du bâtiment.

Source froide : l’eau ou hydrothermie

Tout comme le sol, l’eau comme source froide (hydrothermie) est une ressource limitée qui dépend, entre autres, du débit de renouvellement du volume d’eau pris comme source froide (plan d’eau, …). Le fait de rendre les bâtiments performants permettra de disposer d’une source froide de taille plus petite (le lac de Genval plutôt que l’Eau d’heure par exemple). Cependant, s’il existe un besoin de refroidissement du bâtiment, l’eau devra être en mesure d’absorber la chaleur extraite du bâtiment par le système de pompe à chaleur réversible. Ceci implique qu’en été :

  • le débit de renouvellement de la source froide soit suffisant ;
  • les réglementations en vigueur permettent un rejet de chaleur à température plus élevée que la température moyenne de la source froide.

Influence sur le choix du type de source chaude et son dimensionnement

Régime de température

Les émetteurs à eau

Pour une même volumétrie des locaux dans un bâtiment bien isolé, la puissance d’émission nécessaire sera plus faible. On pourra donc prévoir un régime de température plus faible, et par conséquent la performance énergétique de la PAC associée pourra être améliorée (de l’ordre de 3 % par °C de température de  gagné).

Exemple

On considère que la température de l’eau au niveau du condenseur se situe entre 35 et 45 °C pour – 8 °C extérieur dans le cas d’un bâtiment K45. Si on décide d’opter pour la conception d’un bâtiment plus performant (basse énergie ou passif), on pourrait avantageusement passer à des températures de condensation entre 25 et 30°C, soit un gain théorique de l’ordre de 30 % des consommations énergétiques.

Les émetteurs à air

Tout dépend du type d’émetteur :

  • En détente directe sur l’air hygiénique, les températures de condensation risque de devoir être aussi hautes que pour un bâtiment non isolé sachant que c’est de l’air externe que l’on réchauffe. Dans ce cas, le niveau de performance de l’enveloppe du bâtiment ne joue pas.
  • Pour des ventilo-convecteur à eau, cela revient au même que pour les radiateurs classiques : les températures de condensation seront sensiblement les mêmes (entre 25 et 30 °C par – 8 °C extérieur).

Inertie de l’émetteur

Dans un bâtiment dont l’enveloppe est performante, la faible inertie de l’émetteur est primordiale. En effet, en mi-saison, la surchauffe risque d’être dommageable si l’inertie de l’émetteur est importante. En effet, en cas de nuit froide, la dalle se chargera pour anticiper la journée qui suit. Malheureusement, le stockage de chaleur risque de ne servir à rien si les apports solaires pendant la journée sont élevés. La combinaison des apports solaires au travers des parois vitrées et des apports internes générés par la dalle de sol chauffante ne peuvent être évacués. Il s’ensuit une surchauffe importante des locaux.

Pour pallier à ce problème, on pense, par exemple, au plancher chauffant qui doit nécessairement être à faible inertie. L’émetteur dynamique à faible inertie, comme montré ci-dessous, permet de bien répondre aux besoins de réactivité d’un bâtiment performant. Tout dépendra naturellement du type de revêtement qui sera placé en finition au-dessus du plancher chauffant. Un matériau thermiquement isolant impliquera une augmentation de la température de l’eau de l’émetteur entrainant une dégradation de la performance de la pompe à chaleur. On rappelle qu’une augmentation de 1 °C de la température de condensation de la PAC entraine une dégradation de sa performance de l’ordre de 3 %.

Schéma principe du plancher chauffant.

Photo plancher chauffant.

Source Opal-système.


Influence sur le choix du type de compresseur

Les bâtiments qui présentent un niveau d’isolation important permettront le choix de pompe à chaleur de puissance raisonnable dans une gamme plus élargie. Au point que pour certains bâtiments tertiaires de petite taille, on pourrait même envisager d’étendre la gamme aux pompes à chaleur domestiques.

Quand on est en présence d’un bâtiment performant, le système de chauffage, quel qu’il soit, doit être très réactif à la relance et pouvoir moduler sur une plage de puissance large. On considère que la plage de variation de puissance des PAC (taux de charge) peut raisonnablement varier entre 30 et 100 %. L’idéal est donc de choisir des pompes à chaleur avec compresseur à vitesse variable (technologie INVERTER).

Délimiter le volume protégé [concevoir]

 


Définition

Dans le cadre de la réglementation sur la Performance Energétique des Bâtiments (PEB) le volume protégé est défini.

« Volume de tous les espaces d’un bâtiment qui est protégé du point de vue thermique, de l’environnement extérieur (air ou eau), du sol et de tous les espaces contigus qui ne font pas partie du volume protégé (chapitre 2 de l’Annexe A1 de l’AGW du15 mai 2014 : définitions).

Le volume protégé doit comprendre au moins tous les espaces chauffés (et/ou refroidis) (en continu ou par intermittence) qui font partie du bâtiment considéré … Les espaces du bâtiment considéré, qui ne sont pas repris dans le volume protégé, sont donc non chauffé par définition (article 5.2 de l’Annexe A1 de l’AGW du15 mai 2015 : subdivision du bâtiment) ».

La détermination du volume protégé permet de déduire quelles sont les parois qui déterminent son enveloppe et qui doivent donc être performantes du point de vue thermique (pour ne pas laisser passer la chaleur).

Les caractéristiques de l’environnement du côté froid sont aussi définies : Espace Adjacent Non Chauffé (EANC), cave, vide sanitaire, sol ou air extérieur. Cela permet de calculer avec précision les performances thermiques (U et R) de ces parois.


Délimitation du volume protégé des nouveaux bâtiments

Lorsque le bâtiment doit encore être construit, le maitre d’œuvre choisit les locaux qu’il souhaite intégrer dans le volume protégé.

Il veillera à donner au bâtiment la forme la plus compacte possible, à exclure du volume protégé tous les locaux qui ne nécessitent pas d’être chauffés et à coller ces derniers contre le volume protégé pour en augmenter la protection.

Les parois de l’enveloppe du volume protégé devront au moins répondre aux exigences réglementaires.

Il ne pourra pas chauffer les espaces qui n’appartiennent pas au volume protégé.

Délimiter le volume protégé d’un bâtiment existant

 


Définition

Dans le cadre de la réglementation sur la Performance Energétique des Bâtiments (PEB) le volume protégé est défini.

« Volume de tous les espaces d’un bâtiment qui est protégé du point de vue thermique, de l’environnement extérieur (air ou eau), du sol et de tous les espaces contigus qui ne font pas partie du volume protégé (chapitre 2 de l’Annexe A1 de l’AGW du15 mai 2014 : définitions).

Le volume protégé doit comprendre au moins tous les espaces chauffés (et/ou refroidis) (en continu ou par intermittence) qui font partie du bâtiment considéré … Les espaces du bâtiment considéré, qui ne sont pas repris dans le volume protégé, sont donc non chauffé par définition (article 5.2 de l’Annexe A1 de l’AGW du 15 mai 2014 : subdivision du bâtiment) ».

La détermination du volume protégé permet de déduire quelles sont les parois qui déterminent son enveloppe et qui doivent donc être performantes du point de vue thermique (pour ne pas laisser passer la chaleur).

Les caractéristiques de l’environnement du côté froid sont aussi définies : Espace Adjacent Non Chauffé (EANC), cave, vide sanitaire, sol ou air extérieur. Cela permet de calculer avec précision les performances thermiques (U et R) de ces parois.


Délimitation du volume protégé des bâtiments existants

Lorsque le bâtiment existe et que l’on souhaite l’améliorer, il est nécessaire de déterminer le volume protégé en se basant sur certaines caractéristiques du bâtiment. L’amélioration de ce dernier peut aussi nécessiter de modifier le volume protégé.

Indices montrant l’appartenance ou non d’un local au volume protégé :

  • Lorsqu’il y a au moins un corps de chauffe (poêle, radiateur, sol chauffant, …) dans un local, celui-ci appartient nécessairement au volume protégé ;
  • Lorsque le local abrite une activité qui nécessite un confort thermique (chauffage ou refroidissement) celui-ci appartient nécessairement au volume protégé ;
  • Lorsqu’il y a une intention d’isoler thermiquement le local de l’environnement extérieur par l’isolation d’au moins une des parois de ce local. Les indices d’isolation de la paroi sont la présence d’une couche isolante (λ < 0.08 W/mK) ou d’un double vitrage ;
  • Lorsque des locaux contigus sont ouverts l’un sur l’autre (baies sans porte ou fenêtre), soit ils appartiennent tous au volume protégé, soit aucun n’appartient au volume protégé ;
  • Lorsqu’un local est ouvert sur l’environnement extérieur (baies sans porte ou fenêtre) il n’appartient PAS au volume protégé ;
  • Lorsqu’une paroi isolée sépare deux locaux on peut supposer qu’on a voulu protéger l’un d’entre eux  des déperditions thermiques. On peut donc en déduire que l’un appartient au volume protégé et l’autre pas ;
  • En l’absence des indices ci-dessus, on peut considérer qu’un local appartient au volume protégé lorsqu’il est majoritairement entouré par des espaces appartenant au volume protégé. C’est-à-dire que la surface des parois qui le sépare de ces espaces est plus grande que la surface de ses autres parois.

Si on veut améliorer les performances thermique d’un bâtiment, il peut être judicieux d’intégrer certains locaux au volume protégé (exemple : fermer un passage ouvert à tous vents sous un bâtiment) ou de les en exclure (exemple : suppression des radiateurs dans un local périphérique où la chaleur est inutile).

Le maître d’œuvre peut également isoler une paroi qui sépare deux locaux appartenant au volume protégé lorsque l’un d’entre eux n’est que rarement chauffé alors que l’autre l’est en permanence (exemple : conciergerie d’une salle de fête).

Enveloppe


Le choix d’un niveau d’isolation correct

L’isolation doit faire partie intégrante de tout projet de construction et de rénovation où l’ambiance intérieure est destinée à être chauffée ou climatisée. Cette technique doit être intégrée dès le début du projet pour au final respecter au minimum la réglementation en vigueur ou, mieux, les objectifs fixés par différentes labellisations.

Une attention particulière doit aussi être portée aux différents nœuds constructifs (raccords entre les parois) qui présentent plus de risques de ponts thermiques.


Le choix de la fenêtre

Le choix de la fenêtre, sa position, son orientation, son type de vitrage a également un grand impact sur la qualité du projet au niveau énergétique.

Une fenêtre doit être vue comme :


Le choix de la protection solaire

Le choix d’une protection solaire est fonction des objectifs que l’on se donne :

  • les objectifs principaux sont de limiter les surchauffes et l’éblouissement ;
  • les objectifs secondaires sont d’augmenter le pouvoir isolant de la fenêtre, d’assurer l’intimité des occupants ou d’occulter un local et de décorer la fenêtre.

Valoriser la fraîcheur de l’environnement [Esquisse du projet]

Valoriser la fraîcheur de l'environnement


Valoriser la fraicheur de l’air extérieur

Le potentiel lié à la fraicheur extérieure

L’isolation des bâtiments élargit la période de refroidissement en mi-saison et en été. Ce besoin peut être pour une bonne part résolu en valorisant l’air extérieur lorsqu’il est plus frais que la consigne intérieure.

En moyenne, la température extérieure à Uccle est 98 % du temps inférieur à 24°C et ne dépasse 27° que 40 heures par an. En outre, en été, dans notre pays, la température nocturne minimale est inférieure de plus de 8°C à la température maximum diurne, et cette température extérieure nocturne est toujours inférieure aux plages de confort. Il existe donc un pouvoir rafraîchissant naturel important de l’air extérieur, sans traitement et donc sans coût énergétique autre que son transport.

Les profils de températures moyennes à Uccle montrent que la température extérieure est généralement inférieure à la température de confort.

Ce pouvoir rafraîchissant est cependant limité par deux facteurs : la faible capacité frigorifique de l’air extérieur et la quantité d’air pouvant être valorisée, qui est limitée par l’encombrement des gaines de ventilation, la taille des ouvertures en façade, le risque de générer un courant air.

Ainsi, imaginons un local à 26°C avec une charge thermique (élevée) de 60 W/m² (ordinateur, éclairage, occupants, ensoleillement, …) ou 20 W/m³ (si la hauteur sous plafond est de 3 m). La température de l’air extérieur est de 20°C. Calculons le débit nécessaire pour évacuer la chaleur d’un m³ du local :

débit = 20 [W/m³] / (0,34 [W/(m³/h).K] x 6 [K]) = 9,8 [renouv./h]

où,

  • 0,34 W/m³.K est le pouvoir calorifique de l’air et 6 K est la différence de température entre l’intérieur et l’extérieur

Il faudrait donc un taux de renouvellement horaire de 9,8 : chaque heure, l’air du local serait renouvelé 10 fois ! en dehors de la difficulté technique, cela génère un climat peu confortable…

En pratique, la fraîcheur de l’air extérieur peut être valorisée de trois façons : par une ventilation intensive naturelle (free cooling naturel), par l’intégration d’air frais dans le système de conditionnement d’air (free cooling mécanique), et par le refroidissement direct des boucles d’eau froide (free chilling).

Données

En savoir plus sur le climat belge ?

L’exploitation de l’air extérieur par ventilation naturelle (free cooling naturel)

La  ventilation intensive estivale (ou free cooling naturel), vise le refroidissement passif du bâtiment par l’ouverture de sa façade. L’objectif est soit de compenser en journée les charges internes et solaires, soit de « décharger » et refroidir pendant la nuit la masse du bâtiment, afin que cette masse puisse limiter la montée en température le lendemain.

La ventilation intensive est efficace en journée si l’air extérieur n’excède pas la température intérieure, mais n’est pas non plus trop froid, pour éviter la sensation de courant d’air, ce qui limite son usage en mi-saison. De plus, il restera toujours les 40 heures, soit de 5 à 10 journées de travail par an, où la ventilation ne ferait qu’empirer les choses puisque la température extérieure est supérieure à la température intérieure. Le refroidissement par ventilation de jour peut donc être une solution en mi-saison, mais a ses limites en été.

Le refroidissement par ventilation de nuit par contre conserve son efficacité toute l’année, sauf canicule extrême. Malgré tout, pour qu’un free cooling permette de se passer de climatisation en journée, il faut assurer durant la nuit, un taux de renouvellement d’air nettement plus important que le taux de ventilation hygiénique : au minimum 4 [vol/h] par rapport à 1 [vol/h].

Au-delà de l’économie d’énergie qui en résulte, c’est une certaine qualité de vie qui est recherchée : absence de système sophistiqué de climatisation, … et plaisir de pouvoir ouvrir sa fenêtre et d’entrer plus en contact avec l’environnement extérieur.

Techniques 

En savoir plus sur la ventilation intensive d’été ?

L’intégration  de l’air frais dans le système de conditionnement d’air (free cooling mécanique)

La climatisation est parfois nécessaire (charges thermiques élevées, consignes intérieures strictes de température et d’humidité, …).

On sera alors attentif au fait que le système installé n’exclue pas le refroidissement naturel : dès que la température extérieure descend, elle doit pouvoir supplanter la climatisation mécanique. Idéalement, celle-ci ne devrait plus servir que dans les périodes de canicule.

Tout particulièrement, dans les locaux refroidis toute l’année (locaux intérieurs, locaux enterrés, …) et dans les locaux à forte occupation de personnes (salles de conférence, locaux de réunion, …), il est dommage de faire fonctionner la climatisation en hiver et en mi-saison. On privilégiera les systèmes « tout air » à débit variable.

Durant les nuits d’été, le bâtiment peut facilement être refroidi par le balayage de l’air extérieur (l’installation fonctionne alors en « tout air neuf »). Et en mi-saison, l’air extérieur assure seul le refroidissement par mélange avec l’air recyclé.

Bien sûr, la consommation du ventilateur ne doit pas dépasser celle de la machine frigorifique ! La perte de charge du réseau de ventilation (pulsion, extraction et recyclage) doit rester faible. Il faut prévoir la place pour de larges conduits.

Concevoir

En savoir plus sur le choix du mode de gestion du débit d’air neuf ?

L’utilisation de l’air frais comme source froide d’une installation de refroidissement (free chilling)

Aussi curieux que cela puisse paraître, de nombreuses machines frigorifiques fonctionnent en hiver. Pour assurer le refroidissement de la salle informatique, pour refroidir le cœur du bâtiment surchauffé par les équipements, …

La première réaction est d’imaginer de scinder la production de froid : une petite machine couvre les besoins permanents de la salle informatique, par exemple. Et la grosse machine est mise à l’arrêt en hiver, tout en pouvant jouer le rôle de groupe de sécurité en cas de défaillance de la première.

La deuxième réaction est d’analyser si le circuit d’eau glacée ne pourrait pas être refroidi directement par l’air extérieur, en by-passant la machine frigorifique. Si le fonctionnement est continu tout l’hiver, cela en vaut sûrement la peine (c’est le cas pour un groupe qui refroidirait des locaux de consultations situés en sous-sol d’un hôpital, par exemple).

Lorsque la température extérieure descend sous les 8 à 10°C, on peut fabriquer de l’eau glacée sans utiliser le groupe frigorifique. L’eau peut-être directement refroidie par l’air extérieur. La machine frigorifique est alors  mise à l’arrêt.

L’économie d’énergie est évidente ! La rentabilité du projet est d’autant plus élevée que les besoins de refroidissement sont importants en hiver et que l’installation s’y prête.

Toutes sortes de configurations sont possibles en intercalant dans la boucle d’eau glacée soit un aérorefroidisseur (en parallèle ou en série avec le groupe frigorifique) soit une tour de refroidissement (ouverte ou fermée) ou encore un échangeur à plaque couplé avec une tour de refroidissement.

Aérorefroidisseur monté en série avec un évaporateur

Concevoir

En savoir plus sur la mise  en place d’un free-chilling ?

Valoriser la fraicheur du sol

Le sol présente un potentiel important pour rafraichir les bâtiments. Sa température est, en été, moins élevée et surtout plus stable que celle de l’air extérieur. Une masse de sable, d’argile ou de roche présente en outre une capacité calorifique importante.

La température moyenne mensuelle est amortie et déphasée par rapport aux températures extérieures. Le sol présente donc un potentiel de rafraichissement particulièrement intéressant au printemps et en été, lorsque la température extérieure est plus élevée.

Les propriétés thermiques du sol dépendent des propriétés de ses constituants et de leurs proportions. Quelques ordres de grandeur :

nature des constituants Conductivité thermique (W/m°c) Capacité calorifique volumique Cp(Wh/m3°c) Diffusivité thermique (m2/h
constituants minéraux 2,92 534 0,0054
constituants organiques 0,25 697 0,00036
eau 0,59 1 163 0,00050
air 0,025 0,34 0,0756

Frédéric Chabert « Habitat enterré » (1980).

La conductivité thermique des sols varie de 1 à 5 selon qu’il est sec ou saturé. La capacité thermique moyenne des sols varie elle de 1 à 3.
L’exploitation de la fraicheur du sol se fait en y organisant un échange de chaleur par le passage contrôlé d’air ou d’eau. Lorsqu’il s’agit d’un échangeur air-sol, on parle de puits canadiens ou provençaux. Lorsqu’il s’agit d’un échangeur eau-sol, on parle de geocooling, une appellation qui, strictement, devrait également recouvrir les puits canadiens.

Parmi les diverses solutions d’échangeur eau-sol, notons l’exploitation du sol sous la dalle de fondation (attention à la puissance qui peut rester alors faible…),

ou dans les pieux de fondation :

Des échangeurs de type forage vertical, indépendants de la structure du bâtiment, sont également possibles.

Une autre possibilité est d’utiliser l’eau des nappes phréatiques souterraine au moyen, en la pompant pour la conduire vers un échangeur de chaleur eau-eau, mais cette technique peut générer des problèmes de nature hydraulique dans le sol (déséquilibres des nappes phréatiques, pollutions).

Un des grands intérêts des techniques de geocooling est que le niveau de température concerné (de 5 à 15°C) est intéressant tant :

  • Pour le refroidissement direct : un échange de chaleur, par l’intermédiaire de boucles d’eau, entre le bâtiment est le sol), en vue d’alimenter un système de refroidissement par dalle ou par plafond froid.
  • Pour le refroidissement indirect : valoriser le sol comme source froide de la machine frigorifique, quel que soit le système de distribution et d’émission dans le bâtiment.
  • Que pour le chauffage par pompes à chaleur. En pratique, on n’envisagera pas de valorisation thermique du sol uniquement pour le refroidissement estival. L’investissement en pompages ou forage ne se fera que si le sol peut être valorisé au maximum de son potentiel, c’est-à-dire tant en refroidissement l’été qu’en chauffage l’hiver. Le géocooling est donc intimement lié à la géothermie.

Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : geocooling

Concevoir

Choisir un système rayonnant sur boucle d’eau froide : plafond froid et dalle active.

Concevoir

Le choix de la source de chaleur du chauffage par pompe à chaleur.

Techniques

Le géocooling.

Valoriser la physique de l’air humide

Le contenu énergétique de l’air est lié à la fois à sa température et à son humidité. En effet, la présence de vapeur d’eau dans l’air représente une forme d’énergie latente, égale à la quantité d’énergie nécessaire pour vaporiser ou condenser cette eau. La somme de l’énergie sensible (liée à la température) et de l’énergie latente (liée à l’humidité) est appelée enthalpie. Cette quantité d’énergie est importante, puisque la chaleur de vaporisation d’un litre d’eau est de 2 257 kJ/kg (à la pression atmosphérique et à 100 °C). Soit 5,4 fois plus que pour chauffer le litre d’eau de 0 à 100 °C ! Elle est cependant limitée par la quantité maximale de vapeur que l’air peut contenir, qui dépend de sa température.

Le diagramme psychrométrique est l’outil indispensable pour visualiser et mesurer ces quantités d’énergie. L’enthalpie est représentée sur l’axe diagonal à gauche du diagramme. On constate que le niveau d’enthalpie est équivalent pour un air à 30 °C et 30 % d’humidité relative et pour un air à 17 °C et 100 % d’humidité relative. Autrement dit, si l’on arrive à créer des transferts entre l’énergie sensible et l’énergie latente d’une masse d’air, on devrait être en mesure de créer de l’air froid (et humide) au départ d’air chaud (et sec). Et cela sans grande consommation d’énergie, puisque l’enthalpie de l’air serait conservée.

Comment réaliser ce petit miracle ? Simplement en humidifiant l’air.
En pratique, deux types d’applications ont été développées pour valoriser ce principe physique.
Le premier dispositif se trouve dans l’architecture vernaculaire de nombreuses cultures, mais fut particulièrement développé par les Perses. Ils combinaient des tours à vent (« bagdir ») avec locaux servant de glacières (« yakh-chal ») souvent reliées à un canal souterrain (« qanat »). Par cet ensemble de dispositifs, ils étaient capables de conserver des aliments et rafraîchir des bâtiments dans un climat particulièrement chaud. Marco-Polo, lors de son premier voyage en orient, se serait vu offrir des glaces en plein été !

Plus récemment, l’idée de refroidir de l’air par humidification a été appliquée dans des groupes de traitement d’air. On parle alors de refroidissement adiabatique. Une différence majeure avec la solution imaginée par les Persans : ici c’est l’air extrait du bâtiment que l’on refroidit par humidification. Un échangeur de chaleur air-air permet ensuite de rafraîchir l’air neuf au contact de l’air extrait. Nos ambiances sont déjà suffisamment humides en été que pour éviter d’y pulser un air saturé !
Pour en savoir plus :

Théories

Les grandeurs hygrométriques.

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.


Valoriser le soleil

Paradoxalement, la chaleur du soleil peut être utilisée pour rafraichir un bâtiment… pour autant que l’on dispose de l’équipement adéquat.

Généralement, produire du froid implique l’usage d’une machine frigorifique. Celle-ci se compose de deux échangeurs de chaleur (condenseur et évaporateur), d’un détendeur et d’un compresseur électrique. Pas de place pour l’énergie solaire là-dedans, si ce n’est au travers de capteurs photovoltaïques.

Mais il existe un autre type de machine frigorifique, dit « à ab/adsorption« . Là, l’échange thermique est basé à la fois sur la vaporisation d’un réfrigérant (de l’eau) et sur la capacité de certaines substances à absorber la vapeur d’eau pour la restituer à un niveau de pression différent lorsqu’ils sont échauffés. Le cycle de cette matière absorbant joue le rôle du compresseur dans une machine frigorifique traditionnelle, tout en demandant une alimentation en chaleur plutôt qu’en électricité. Or, qui dit soleil dit chaleur ! La combinaison de capteurs solaires thermiques et d’une machine frigorifique à ab/adsorption constitue ce que l’on appelle une « climatisation solaire », une idée séduisante si les besoins de froid du bâtiment sont liés aux gains solaires.

Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.

Principes de base de la ventilation

 

© Architecture et climat 2023.

La qualité d’air intérieur dépend notamment de :

  1. L’air extérieur
  2. Le mobilier
  3. Les produits et équipements de construction
  4. La ventilation
  5. Le comportement des usagers

Pourquoi faut-il ventiler ?

Pour maitriser l’énergie

La ventilation hygiénique fait partie du trio indissociable formé avec l’étanchéité à l’air et l’isolation thermique permettant le bon achèvement d’un bâtiment confortable et performant énergétiquement. L’un ne va pas sans l’autre. En effet, augmenter l’isolation sans penser aux pertes dues au niveau d’étanchéité à l’air du bâtiment n’a pas de sens… Et dès lors que le bâtiment est suffisamment étanche à l’air, il devient impératif de ventiler pour assurer une bonne qualité de l’air intérieur et garantir des ambiances intérieures confortables.

Pour garantir une bonne qualité de l’air intérieur

Ainsi, l’être humain passe entre 80% et 90% de son temps dans un espace intérieur clos et y respire de l’air intérieur bien souvent plus pollué que l’air extérieur. Pour évacuer ces polluants présents dans l’air et garantir une bonne qualité de l’air pour notre confort respiratoire et notre santé, il est nécessaire de ventiler les locaux dans lesquels nous vivons. De même, il peut être nécessaire d’évacuer le surplus d’humidité des bâtiments afin d’éviter tous dégâts dus à la condensation et garantir la bonne santé du bâtiment autant que celle des occupants.

Pour oxygéner le bâtiment

Dès lors que le bâtiment est un tant soit peu étanche à l’air et que les appareils de combustion se trouve à l’intérieur du volume protégé, il devient nécessaire d’assurer l’alimentation en air et donc en oxygène du bâtiment pour permettre la combustion utile au système de chauffage.


Comment ventiler ?

Pour atteindre les débits d’air et les renouvellements d’air prévus par les normes ou ceux nécessaires afin de garantir le confort respiratoire et la santé des occupants et du bâtiment, un système de ventilation hygiénique de base doit prévoir :

  • une amenée d’air frais dans les locaux dits « secs » : bureaux, salle de réunion, salle de séjour, chambre…
  • une évacuation de l’air vicié et humide dans les locaux dits « humides » : sanitaires, vestiaires, cuisine, salle de bain…
  • un transfert de l’air des locaux secs aux locaux humides
  • une gestion efficace pour garantir les débits voulus tout en limitant les pertes énergétiques

Les locaux où l’air doit être fournit doivent donc disposer d’une alimentation en air et ceux où l’air doit être enlevé, d’une extraction. Celles-ci peuvent être naturels (simple ouverture vers l’extérieur) ou mécanique (équipée d’un ventilateur). Ceci donne lieu à une classification des systèmes de ventilation en 4 modes principaux :

Évacuation Alimentation
Naturelle Mécanique

Naturelle

Système A ou Ventilation naturelle Système B ou Simple flux par insufflation

Mécanique

Système C ou Simple flux par extraction
Système D ou Double flux

Les dénominations A, B, C et D proviennent de la norme NBN D50-001 qui traitent des dispositifs de ventilation dans les bâtiments d’habitation et sont donc propres au milieu résidentiel. Cette norme distingue également trois type d’ouverture nécessaire à la ventilation correcte des locaux :

OAR

Ouverture d’amenée d’air réglable ou entrée d’air naturelle comportant au minimum 3 positions de réglage entre la position fermée et l’ouverture maximum (grille, vasistas, …).

OER

Ouverture d’évacuation d’air réglable ou évacuation naturelle d’air comportant au minimum 3 positions de réglage entre la position fermée et l’ouverture maximum (conduit vertical), la position fermée laissant passer un débit de fuite de 15 à 25 % du débit en position complètement ouverte.

OT

Ouverture de transfert ou ouverture permettant le transfert naturel d’air entre deux locaux (grille, interstice sous les portes, …)

Quels types de ventilation ?

  • La ventilation naturelle se fait par les interstices (infiltration) et par les ouvertures (ventilation) du bâtiment. L’air circule sous l’effet du vent, des différences de températures et des jeux de pressions. L’ouverture des grilles, bouches ou fenêtres peut se faire manuellement ou mécaniquement.
  • La ventilation mécanique utilise des composants motorisés, ventilateurs, pour forcer la circulation l’air à l’intérieur du bâtiment. On parle de simple flux par extraction si le ventilateur sert à faire sortir l’air du bâtiment, de simple-flux par insufflation s’il sert à faire entrer l’air ou de double flux si le système combine les deux.
  • La ventilation hybride correspond à une ventilation naturelle assistée ou remplacée mécaniquement sur certaines périodes de fonctionnement.
  • La ventilation de base consiste à alimenter le bâtiment en air frais en permanence durant les activités normales.
  • La ventilation intensive est nécessaire en cas d’occupation et de besoins particuliers comme une surchauffe exceptionnelle, un ensoleillement intensif, des activités exceptionnellement polluantes, … afin que le climat reste dans des limites acceptables.

Exemple de ventilation naturelle – Cas de l’hébergement


© Architecture et climat 2023.

  1. Amenées d’air naturel
  2. Grille de transfert
  3. Bouche d’extraction
  4. Evacuation naturelle

L’air est introduit naturellement dans les chambres par des ouvertures en façade et évacué naturellement par des conduits verticaux dans les sanitaires.


Exemple de ventilation simple flux (pulsion) – Cas de l’hébergement

© Architecture et climat 2023.

  1. Prise d’air extérieur
  2. Filtre
  3. Préchauffage
  4. Ventilateur
  5. Gestion des débits
  6. Evacuation naturelle
  7. Bouche d’extraction
  8. Bouche de pulsion
  9. Grille de transfert

L’air est pulsé dans les chambres et évacué naturellement par des conduits verticaux dans les sanitaires.


Exemple de ventilation simple flux (extraction) – Cas d’une école

© Architecture et climat 2023.

  1. Amenée d’air naturelle
  2. Grille de transfert
  3. Gestion des débits
  4. Ventilateur
  5. Bouche d’extraction
  6. Conduit

L’air est introduit naturellement dans les classes par des ouvertures en façade et évacué mécaniquement (en tout ou en partie) dans les sanitaires.


Exemple de ventilation double flux – Cas d’un immeuble de bureaux

© Architecture et climat 2023.

  1. Prise d’air extérieur
  2. Filtre
  3. Préchauffage
  4. Ventilateur
  5. Gestion des débits
  6. Bouche d’extraction
  7. Conduits
  8. Grille de transfert

L’air est pulsé dans les bureaux évacué mécaniquement (en tout ou en partie) dans les sanitaires.

Free-chilling

Free-chilling


Principe de base

Le principe de base est simple

Lorsque la température extérieure descend sous les 8 à 10 °C, on peut fabriquer de l’eau glacée sans utiliser le groupe frigorifique. L’eau est directement refroidie par l’air extérieur et la machine frigorifique est mise à l’arrêt.

L’économie d’énergie est évidente ! La rentabilité du projet est d’autant plus élevée que les besoins de refroidissement sont importants en hiver et que l’installation s’y prête. Étudions cela en détail.

Qu’est-ce qu’une installation adaptée au free-chilling ?

Au départ, il faut que des besoins de froid soient prévus en hiver.

L’intérêt est augmenté si les échangeurs des unités terminales qui seront choisis travaillent à « haute » température : ce sera le cas de plafonds froids (régime 15-17 °C), de poutres froides ou de ventilos-convecteurs surdimensionnés pour travailler au régime 12-17 °C ou 14-19 °C,… À noter qu’un tel dimensionnement diminue les pertes du réseau et la consommation liée à la condensation de la vapeur d’eau contenue dans l’air des ambiances, ce qui amplifie l’économie d’énergie.

Si l’installation demande une puissance de refroidissement faible en mi-saison ou en hiver (de l’ordre de 50 W/m²), on pourrait faire travailler les plafonds froids au régime 17° – 19 °C, ce qui permet un refroidissement par l’air extérieur tant que la température de l’air est inférieure à 14 °C. On peut alors imaginer une modulation de la température de consigne de l’eau des plafonds froids en fonction de la température extérieure.

Enfin, le projet se présente très favorablement si un condenseur à eau est prévu : on pourra utiliser la tour de refroidissement pour refroidir l’eau glacée directement par l’air extérieur. Dans la tour, grâce à l’évaporation partielle de l’eau, la température de l’air extérieur sera encore diminuée. Ainsi, de l’air à 15 °C et 70 % HR permet de créer de l’eau de refroidissement à 12° (limite basse théorique appelée température « bulbe humide »). Malheureusement, un échangeur sera nécessaire entre le circuit de la tour (eau glycolée) et le circuit d’eau glacée du bâtiment. Une partie de l’avantage est donc perdu…

Le problème du gel…

De l’eau glacée refroidie par l’air extérieur pose le problème du gel dans la tour. La solution la plus courante est l’addition de glycol, mais :

  • le glycol coûte cher,
  • le glycol diminue les capacités d’échange thermique et augmente la densité du liquide, ce qui entraîne une augmentation de puissance des pompes,
  • en général, on limite le circuit glycol au dernier tronçon en contact avec l’extérieur (l’eau de la boucle d’eau glacée n’est pas glycolée car, en cas de vidange, c’est l’entièreté du circuit qui est à remplacer),
  • un échangeur supplémentaire doit alors être prévu, entraînant une consommation électrique liée à sa perte de charge et un écart de température qui diminue la période de fonctionnement du free-chilling…
  • attention lorsque l’on rajoute de l’eau ultérieurement…

Il est aussi possible de placer des cordons chauffants (mais peut-on protéger totalement ainsi une tour ?) ou de prévoir un circuit de chauffage spécifique qui se met en place en période de gel, mais on risque de manger le bénéfice !

Le free-chilling : une solution miracle pour toutes les installations ?

Certainement pas. De nombreuses contraintes apparaissent.
Quelques exemples :

  • Lorsque l’installation travaille à charge partielle, il y a intérêt à ce que la température moyenne de l’eau « glacée » soit la plus élevée possible pour favoriser l’échange avec l’air extérieur. On appliquera donc une régulation des échangeurs par débit variable pour augmenter l’écart de température entre départ et retour.
  • Une tour de 300 kW pèse 3 à 4 tonnes et une tour de 1 000 kW pèse 9 à 12 tonnes, ce qui génère parfois des frais d’adaptation du génie civil.
  •  …

Adapter cette technique nécessite donc toujours une étude particulière (cadastre des énergies de froids prévues avec leur niveau de température, répartition été/hiver, …) pour apprécier la rentabilité.

Mais il est en tous cas impératif d’y penser lors d’une nouvelle installation !


Schémas de réalisation

Différents systèmes de refroidissement par free-chilling sont possibles :

  • via un aérorefroidisseur à air spécifiqueDeux schémas sont possibles :
> Soit un montage en série avec l’évaporateur, où l’aérorefroidisseur est monté en injection (la température finale est alors régulée par la machine frigorifique, qui reste en fonctionnement si la température souhaitée n’est pas atteinte).

> Soit par un montage en parallèle avec basculement par une vanne à 3 voies en fonction de la température extérieure (aucune perte de charge si la machine frigorifique est à l’arrêt mais fonctionnement en tout ou rien de l’aérorefroidisseur).
  • via un appareil mixteCertains fabricants proposent des appareils qui présentent 2 condenseurs : un échangeur de condensation du fluide frigorifique et un aérorefroidisseur pour l’eau glacée, avec fonctionnement alternatif suivant le niveau de température extérieure (attention à la difficulté de nettoyage des condenseurs et aux coefficients de dilatation différents pour les 2 échangeurs, ce qui entraîne des risques de rupture).
  • via la tour fermée de l’installationDans le schéma ci-dessous, l’installation fonctionne sur base de la machine frigorifique. Lorsque la température de l’air extérieur est suffisamment froide, la vanne 3 voies bascule et l’eau glacée prend la place de l’eau de réfrigération du chiller. Dans une tour fermée, l’eau n’est pas en contact direct avec l’air extérieur; c’est un circuit d’eau indépendante qui est pulvérisée sur l’échangeur et qui refroidit par évaporation. Mais le problème de la protection au gel reste posé : il est difficile d’envisager de mettre du glycol dans tout le réseau d’eau glacée (échange thermique moins bon, densité plus élevée donc diminution des débits, …) .
  • via la tour ouverte de l’installationDans ce cas, l’eau glacée est pulvérisée directement face à l’air extérieur. Elle se charge d’oxygène, de poussières, de sable,… Ces impuretés viennent se loger dans les équipements du bâtiment (dont les vannes de réglage des ventilos !). Les risques de corrosion sont tels que cette solution est à proscrire.
  • via un échangeur à air placé devant les orifices d’aspiration d’une tour de refroidissement Ceci permet de réutiliser les ventilateurs de la tour mais crée une perte de charge permanente.
  • via un échangeur à plaques traditionnel L’échangeur se place entre le réseau d’eau glacée et le circuit de la tour de refroidissement. Cette solution est simple, elle minimise la présence du glycol dans le circuit de la tour mais, en plus de l’investissement à réaliser, elle entraîne un écart de température supplémentaire de minimum 2°C dans l’échangeur entre l’eau glacée et l’eau de la tour, ce qui diminue la plage de fonctionnement du refroidissement par l’air extérieur. C’est le choix qui a été fait au Centre Hospitalier du Bois de l’Abbaye.

L’installation de free-chilling au Centre Hospitalier du Bois de l’Abbaye

Monsieur Tillieux, gestionnaire technique de l’hôpital, avait conscience que des besoins de froid existaient durant toute l’année, donc également pendant l’hiver :

  • des cabinets de consultation installés dans les niveaux inférieurs à refroidir en permanence.
  • ainsi que des locaux techniques utilisant le réseau glacée en hiver (salle de radiographie, blocs opératoires, salle informatique,…).

Profitant de la rénovation d’une tour de refroidissement, il adopta la technique du free-chilling sur le circuit d’eau glacée. Il adapta également les émetteurs pour que ceux-ci puissent travailler au régime 12-17°C. Il favorisa le refroidissement nocturne des locaux, ce qui ne crée pas d’inconfort pour les occupants et valorise mieux le free-chilling puisque la température est plus basse la nuit.

En collaboration avec la société de maintenance, il adopta le schéma de principe suivant :

Le schéma de gauche représente le circuit classique de refroidissement de l’eau glacée dans l’évaporateur. L’eau du condenseur est refroidie dans la tour de refroidissement.

Schéma groupe frigo en fonctionnement.Schéma groupe frigo à l'arrêt et free-chiling.

Sur le premier schéma, le groupe frigo est arrêté et l’eau glacée est by-passée dans un échangeur. L’eau de refroidissement est envoyée directement dans la tour de refroidissement.

Un jeu d’électrovannes permet le basculement d’un système à l’autre, dès que la température extérieure descend sous les 8°C. Le dimensionnement de la tour a été calculé en conséquence.

Problème rencontré lors de la mise en route

Lorsque le système basculait du mode « free-chilling » vers le mode « machine frigorifique », celle-ci déclenchait systématiquement !

Pourquoi ? Un condenseur traditionnel travaille avec un régime 27/32°C par 10° extérieurs. Or en mode free-chilling, la température du condenseur est nettement plus basse. La pression de condensation aussi. Le détendeur ne l’accepte pas : il a besoin d’une différence de pression élevée (entre condensation et évaporation) pour bien fonctionner et laisser passer un débit de fluide frigorifique suffisant vers l’évaporateur. Le pressostat Basse Pression déclenche…

Solution ? Une vanne trois voies motorisée a été installée : lors du ré-enclenchement de la machine frigo, le débit d’eau de la tour était modulée pour s’adapter à la puissance de refroidissement du condenseur.

Quelle rentabilité ?

Faute d’une mesure effective, nous allons estimer l’économie réalisée par l’arrêt du groupe frigorifique de 300 kW. Si le fichier météo de Uccle annonce 3.550 heures sous les 8°C, on peut estimer que le refroidissement effectif se fait durant 2.000 heures.

Sur base d’un COP moyen de 2,5, c’est donc 120 kW électriques qui sont évités au compresseur. Une consommation supplémentaire de 5 kW est observée pour le pompage de l’eau au travers de l’échangeur et dans la tour. Soit un gain de 115 kW durant 2 000 heures. Sur base de 0,075 €/kWh, c’est 17 000 € qui sont économisés sur la facture électrique.

L’investissement a totalisé 60 000 €, dont moitié pour la tour fermée de 360 kW, le reste en tuyauteries, régulation et génie civil.

Le temps de retour simple est donc de l’ordre de 4 ans.

Séquences de régulation de la tour

  • si T° < 2°C, échange eau-air non forcé.
  • si 2°C < T°ext < 4°C, échange eau- air forcé.
  • si T°ext > 4°C, échange eau-air humide par pulvérisation.

Chauffage [Concevoir l’avant-projet]

Chaudière à brûleur radiant modulant avec ventilateur ?
Circulateur à vitesse variable ?

Plafond chauffant ?
Vanne thermostatique ?


Décomposer la réflexion en 4 postes

Pour faciliter la tâche, décomposons l’installation de chauffage en 4 parties :

  1. production de chaleur,
  2. distribution de chaleur,
  3. émission de chaleur,
  4. régulation.

Cela permet de visualiser directement les qualités à atteindre par l’installation, en termes de pertes à minimiser :

Objectifs d’une installation de chauffage de qualité : cliquez sur les boutons ci-dessus pour visualiser les différentes pertes, et donc les objectifs de qualité.


La production de chaleur

Production de chaleur
Une réflexion préalable, faut-il investir dans une cogénération chaleur + électricité ? Oui, si les besoins de chaleur du bâtiment sont élevés.

Un cogénérateur produit simultanément de l’énergie électrique et de la chaleur pour le bâtiment. Le premier avantage de la cogénération est d’ordre énergétique : entre 15 et 30 % d’économie d’énergie primaire sur les besoins totaux. Mais l’avantage de la cogénération est aussi financier, dans la mesure où elle permet à l’utilisateur de réduire sa facture électrique.

Photo cogénérateur.

La cogénération : pour qui ?

Incontestablement, le premier secteur concerné par la cogénération est le secteur hospitalier. Les besoins thermiques d’un hôpital sont élevés et relativement constants. Il faut en effet produire de l’eau chaude sanitaire tout au long de l’année et bien souvent chauffer les chambres même en été. De plus, la demande électrique d’un hôpital est relativement importante. Le secteur hospitalier permet dès lors d’envisager la mise en place d’unités de cogénération puissantes dont le prix d’installation par kW est intéressant.

Le secteur hôtelier présente des caractéristiques similaires, seules les tailles des installations varient.

Un autre secteur qui mérite un intérêt particulier est le secteur sportif et plus particulièrement le secteur des piscines. Le profil de leurs besoins thermiques et électriques est intéressant pour une cogénération. Malheureusement, les tailles de ces installations sont faibles et demandent des moteurs de faible puissance dont les coûts sont élevés. Ce handicap est compensé, dans certains cas très largement, par les subsides auxquels peuvent prétendre les piscines (Infrasport, AGEBA dans certains cas).

L’intérêt de la cogénération pour les nouveaux immeubles de bureaux (banques, administrations,…) est beaucoup plus faible. La difficulté réside dans le peu de demande de chaleur en journée (dans un bâtiment bien isolé, le chauffage est essentiellement concentré sur la relance du matin, alors que les besoins électriques sont répartis tout au long de la journée). Mais chaque cas est particulier et mérite d’ être étudié avec soin.

Concevoir

Pour plus d’informations sur la mise en place d’une cogénération, cliquez ici !

Production de chaleur
Quel choix de combustible ? Le gaz sort gagnant.

Le débat se situe généralement entre le fuel et le gaz naturel.

Raccordement au gaz ou placement de citernes à mazout ?

Pour notre part, nous pouvons résumer le choix comme ceci :

  • Si la priorité est donnée à l’efficacité énergétique et à la réduction de l’émission de gaz à effet de serre, le gaz naturel, en particulier avec les chaudières à condensation, est largement gagnant.
  • Si la priorité est donnée à la rentabilité de l’investissement, le fuel se défend. Il a été, en moyenne, moins cher que le gaz ces dernières années. Mais son avenir est instable.
  • Si le réseau de gaz naturel n’est pas présent, la question ne se pose plus : le gaz en bonbonne est nettement plus cher à l’usage et, suite à son bilan écologique défavorable, l’électricité ne doit pas être utilisée pour le chauffage direct, ni des locaux, ni de l’eau chaude sanitaire. On sera d’ailleurs très attentif à éviter les « appoints » électriques sur les unités terminales (bouches de pulsion d’air, par exemple).

Concevoir

Pour plus d’informations sur le choix entre fuel et gaz naturel, cliquez ici !

Alternative : envisager le chauffage au bois ? Oui, en région forestière.

Le chauffage au bois d’un groupe de bâtiments dans une région boisée est écologiquement très intéressant, par exemple via l’exploitation des taillis des bois communaux. Il est par contre peu imaginable de développer un tel projet en milieu urbain.

Nous n’avons pu développer ici les techniques de chauffage au bois pour le secteur tertiaire. Nous vous recommandons de contacter une équipe spécialisée dans ce domaine :

ERBE asbl (Equipe Régionale Biomasse Énergie).
Tel : 081 627 144

L’APERe (Association pour la Promotion des Energies Renouvelables) vous conseille encore d’autres Sites web :

Alternative : envisager la pompe à chaleur ? Oui, si source de chaleur disponible.
Le bilan global d’une pompe à chaleur est « neutre » aujourd’hui :

  • En moyenne annuelle, elle produit 2,5 à 3 kWh de chaleur pour 1 kWh électrique au compresseur,
  • mais pour obtenir 1 kWh en centrale, il aura fallu utiliser 2,5 à 3 kWh de combustible ou d’énergie nucléaire,
  • et le prix du kWh électrique est 2,5 fois plus élevé que le prix du gaz naturel ou du fuel…

Mais il se peut que l’existence d’une source de chaleur particulière fasse pencher la balance dans un sens très favorable. Ainsi, il nous paraît intéressant d’étudier la pertinence du placement d’une pompe à chaleur :

  • Si l’on prévoit dans plusieurs locaux des apports internes élevés durant l’hiver : salle informatique, locaux intérieurs, locaux enterrés, locaux avec équipements forts dispensateurs de chaleur tels que salle de radiographie, imprimerie,… (la chaleur extraite de ces locaux pourra être restituée vers les locaux demandeurs en façade).
  • Si le bâtiment comprend des locaux chauds et humides (piscine, buanderie, …).
  • Si le bâtiment provoque des rejets thermiques vers l’extérieur durant tout l’hiver (process industriel, extraction d’air vicié à fort débit,…).

Concevoir

Pour plus d’informations sur les domaines d’application de la pompe à chaleur, cliquez ici !

Production de chaleur :
Opter pour les chaudières à très basse température et/ou à condensation.

Un rendement maximum de la chaudière ? La garantie d’une bonne utilisation de la chaleur du combustible est de constater … que les fumées sortent froides de la chaudière ! Et que la chaufferie reste froide elle aussi. De là, les chaudières à très basse température.

Pratiquement toutes les chaudières sur le marché sont de bonne qualité, pour le secteur tertiaire (moyenne puissance). Une technique sort du lot : la chaudière gaz à condensation. Une technique est aujourd’hui à rejeter : la chaudière gaz atmosphérique.

photo principe de l'échangeur d'une chaudière à condensation. Depuis quelques années, on développe des « chaudières à condensation » : les fumées passent au travers d’un échangeur alimenté par l’eau froide revenant des radiateurs. Or les fumées contiennent de l’eau, à l’état de vapeur. Cette vapeur va condenser, former des gouttes (à évacuer vers l’égout) et préchauffer l’eau froide. Cette technique peut apporter en pratique de 6 à 9 % d’amélioration de rendement. Mais elle n’est courante que pour le gaz.

Pour le fuel, la présence de soufre va rendre les gouttes très corrosives et demander l’usage de chaudières inox, très coûteuses. Mais on en parle de plus en plus.

Photo d'un brûleur de chaudière atmosphérique. Une chaudière atmosphérique est une chaudière dont le brûleur ne possède pas de ventilateur : la flamme bleue est visible directement.

Problème : cette chaudière reste en contact avec l’air ambiant une fois la flamme éteinte. Or le foyer est chaud et est surmonté de la cheminée !
Conclusion : l’air de la chaufferie s’engouffre dans le foyer, appelé par le tirage thermique. Et l’eau de chauffage parcourant le foyer se refroidit en pure perte…

De l’apport d’air comburant étant naturel, le réglage de la combustion est moins performant.

Quelle technologie ? Notre sélection :

Voici les orientations que nous considérons être actuellement les plus performantes (en matière de consommation énergétique et de protection de l’environnement) pour le choix d’une chaudière :

Si le gaz est disponible :

Choix d’une chaudière gaz à condensation ou la combinaison d’une chaudière à condensation avec une chaudière traditionnelle,

  • équipée d’un brûleur modulant (avec une grande plage de modulation : de 10 à 100 %) et avec un dosage entre l’air comburant et le gaz le plus précis possible sur toute la plage de modulation,
  • raccordée à un circuit hydraulique favorisant au maximum la condensation (c’est-à-dire le retour d’eau très froide) et le plus simple possible de manière à éviter les erreurs de conception et de régulation (chaudière ne nécessitant pas de débit minimal),
  • avec les émissions de NOx les plus faibles possible, et en tout cas < 150 [mg/Nm³].

Si le gaz n’est pas disponible :

  • pouvant travailler à très basse température,
  • équipée d’un brûleur « Low NOx » à 2 allures,
  • équipée d’un compteur fuel.

S’il est imaginé que l’occupation puisse être très variable :

Si certaines personnes restent le soir pour prolonger leur travail, si une garde est organisée (conciergerie), … une production spécifique (décentralisée) pourra être imaginée dès le départ du projet (convecteur gaz indépendant, par exemple).

Production de chaleur :
quel dimensionnement ?

Avec les chaudières modernes performantes, dont le brûleur est vendu séparément de la chaudière, le surdimensionnement de la chaudière n’est plus à combattre à tout prix. En effet, l’isolation est devenue telle que ce surdimensionnement n’apporte guère de pertes supplémentaires. Au contraire, un corps de chaudière surdimensionné par rapport à la puissance du brûleur entraîne une augmentation du rendement de combustion.

Pour la même raison, il n’est plus nécessaire de dissocier la puissance à installer en plusieurs chaudières. S’il n’y avait le souhait d’assurer en permanence du chauffage en cas de panne, on recommanderait de placer une grosse chaudière unique équipée d’un brûleur 2 allures ou modulant, ce qui diminuerait l’investissement tout en permettant un rendement optimal.

La puissance utile de l’installation sera dimensionnée sur base de la norme NBN B62-003. L’application de cette norme conduit en outre à un surdimensionnement suffisant pour permettre une relance en cas de chauffage intermittent, ce, même dans la cas d’un bâtiment très isolé. Il ne sert donc à rien de prévoir une réserve de puissance complémentaire pour la chaudière et son brûleur.

Concevoir

Pour plus d’informations sur le choix de la production de chaleur, cliquez ici !

La distribution de chaleur

Distribution de chaleur : favoriser l’eau

Le fluide caloporteur (entre chaudière et émetteurs) sera de préférence l’eau : plus flexible, demandant moins d’énergie de transport que l’air, et permettant un passage éventuel futur d’une énergie à une autre (contrairement à l’électricité).

Distribution de chaleur : sept critères de qualité

1° – Le réseau sera décomposé en zones thermiquement homogènes (même horaire d’occupation, même nécessité de dérogation, même orientation, même type de corps de chauffe) : à chaque zone son circuit et sa régulation.

Ainsi, si une bibliothèque est prévue dans une école, elle doit disposer de son propre circuit hydraulique, afin de garantir une régulation adaptée (ne chauffer que la bibliothèque le samedi matin, par exemple). De même pour la salle de gym, pour le réfectoire, pour la salle de réunion, pour la cuisine, … Cet investissement dans des tuyauteries supplémentaires permettra dans le futur d’optimiser la régulation des différentes zones.

Exemple de décomposition en zones homogènes pour une école.

De même, lors de la conception d’un immeuble de bureaux, on imaginera de pouvoir chauffer chaque étage indépendamment des autres (utilisation de WE, multi-locataires, …).

2° – Les tuyauteries et les vannes seront très bien isolées dans le sol, à l’extérieur ou dans des espaces ne faisant pas partie du volume protégé (volume chauffé) du bâtiment (chaufferie, grenier, sous-sol, …). On isolera de même toutes les conduites de chauffage se trouvant dans les faux plafonds, les locaux techniques ou les gaines techniques, même si ceux-ci font partie du volume protégé du bâtiment. De même, les circulateurs à rotor noyé seront munis d’origine d’une coquille isolante.

Ordres de grandeur :

  • Dans une ambiance à 20°C, la perte de 1 m de tuyau de 1 pouce non isolé avec de l’eau de chauffage est équivalente à la consommation d’une ampoule de 60 W !
  • L’épaisseur d’isolation sera plus ou moins équivalente au diamètre du tuyau.

3° – Un circulateur à vitesse variable sera placé sur un réseau équipé de vannes thermostatiques : il est logique que si la température est atteinte dans un local, le débit d’eau dans le radiateur soit stoppé par la vanne thermostatique (ou par une vanne 2 voies dans les ventilo-convecteurs). Mais alors, si plusieurs vannes sont fermées, la pompe de circulation doit diminuer sa vitesse de rotation : c’est le cas des circulateurs à vitesse variable.

Vanne thermostatique et circulateur à vitesse variable, deux équipements à associer…

4° – Des vannes d’équilibrage seront prévues au départ des circuits secondaires : vu le calcul très approché des tuyauteries, il est heureux de prévoir ce répartiteur global entre les différents circuits. De plus, c’est ce qui va permettre de régler les circulateurs à leur bonne vitesse nominale (en pratique, il apparaît que les circulateurs sont en moyenne 2 fois trop puissants –> la première économie générée par un circulateur à vitesse variable est de pouvoir bien régler le débit maximal). L’économie sur la consommation du circulateur amortit rapidement cet outil.

Possibilité de mesure du débit réel.

5° – Les tuyauteries seront choisies suffisamment larges : il est dommage de choisir des tuyauteries de faible section, … puis de consommer de l’énergie pour y faire passer malgré tout un débit d’eau important.
Ordre de grandeur : le dimensionnement du réseau de distribution doit être tel que la puissance électrique des circulateurs ne dépasse pas le millième de la puissance utile des chaudières.

6° – Les circulateurs seront arrêtés lorsque la demande est nulle : en fonction de la programmation (nuit, week-end, vacances) et en fonction de la température extérieure (coupure si t°ext> à 15°C, par exemple).

7° – Un circuit de réserve est placé dès le départ : l’emplacement pour un circuit supplémentaire est à prévoir sur la boucle primaire afin d’éviter des « repiquages » d’installations ultérieurs.

Distribution de chaleur : pour les chaudières à condensation, bien étudier le circuit.

Pour bénéficier de la condensation des fumées, il faut disposer d’eau de retour très froide. Toute possibilité de recyclage d’eau chaude directement vers la chaudière doit être évitée. En d’autres mots, il faut éviter les bouteilles casse-pression, les collecteurs bouclés, les soupapes de pression différentielle, les vannes 3 voies diviseuses.

Exemples de situations défavorables…

Or certains fabricants imposent un recyclage (un bypass) car leur chaudière est à faible capacité d’eau et donc nécessite un débit d’eau permanent ! C’est peu compatible avec un retour d’eau très froide …

Il vaut mieux sélectionner une chaudière dont la capacité en eau est élevée et qui ne demande pas de débit permanent. Sa chaudière est une « grosse marmite » dont la flamme peut s’enclencher sans risque s’il n’y a pas de circulation d’eau. En quelque sorte, la bouteille casse-pression est intégrée dans la chaudière.

Circuit favorable au retour d’eau froide vers la chaudière.

Un circuit primaire ouvert est alors recommandé. Et seules les pompes secondaires alimentent les réseaux. Encore une économie.

Concevoir

Pour plus d’informations sur la distribution du chauffage, cliquez ici !

L’émission de chaleur

Émission de chaleur : favoriser la basse température

Au départ, il faut se rendre compte que, dans un immeuble récent bien isolé, la performance des différents types d’émetteurs sera toujours assez bonne. Grâce à l’isolation, la température intérieure est assez homogène, quel que soit le moyen de chauffage.
Photo chauffage par le sol.

Idéalement, pour assurer le rendement optimal de la chaudière (et tout particulièrement la condensation), il faut travailler avec un fluide caloporteur à la plus basse température possible. Et donc, disposer de la surface d’émission la plus grande possible.

Ceci conduit inévitablement au chauffage par le sol. Hélas, ce système présente par ailleurs beaucoup d’inconvénients dont l’inertie, ce qui le rend inadapté lorsque les besoins sont variables dans le temps ou en intensité (à ne pas installer dans une école, ou un restaurant, ou une salle de réunion, ou dans un local avec des larges baies vitrées…).

Finalement, le radiateur réalise le bon compromis entre apport par rayonnement et par convection, et, s’il est largement dimensionné (sur base d’un régime 80° – 60°), il permettra des retours froids la majeure partie de l’année.

Bien sûr, un radiateur devant une allège vitrée ne devrait jamais exister…

Synthèse des critères de choix

Le chauffage par le sol est intéressant :

  • dans des locaux situés au-dessus de locaux chauffés,
  • non soumis à des apports de chaleur importants et variables (occupants, soleil, …),
  • à usage continu (de type hébergement).

Il peut apporter une réponse adéquate aux locaux de grande hauteur, où le chauffage à air chaud sera moins adéquat (stratification).

Le chauffage par convecteur convient dans des locaux avec une variation de charge fréquente (local ensoleillé, local de réunion).

Dans tous les autres cas, le chauffage par radiateurs est le meilleur compromis confort/consommation.

À noter qu’en rénovation, les anciens radiateurs pourront souvent être conservés vu leur surdimensionnement fréquent, favorable à un fonctionnement à basse température.

Concevoir

Pour plus d’informations sur le choix d’un émetteur de chauffage

La régulation de chaleur

Régulation de chaleur : c’est le point clef de la consommation énergétique.

Nous sommes à l’époque du « just in time » de la production de chaleur. Les régulateurs sont suffisamment intelligents que pour ne produire que la chaleur « juste nécessaire », à la température minimale souhaitée, au bon moment. Il est impératif de réserver un budget important à la qualité de la régulation. Qualité ne veut pas dire sophistication. Au contraire, la bonne gestion future sous-entend des systèmes simples.

Une sonde extérieure (complétée par une sonde d’ensoleillement au Sud)
et une sonde d’ambiance (dite « de compensation ») définissent les besoins des locaux.
Elles demandent à la vanne 3 voies mélangeuse de s’ouvrir en conséquence.

Le système de régulation doit permettre de :

  • Chauffer distinctement chaque zone de locaux dont l’usage est distinct.
    Par exemple, la bibliothèque, la cafétéria, la salle de réunion, … auront des régulateurs indépendants des bureaux qui la jouxtent. À ce titre, la vanne thermostatique n’est qu’un complément local de régulation et non l’outil de base (la vanne reste ouverte la nuit, mais une programmation centrale doit arrêter le débit d’eau dans les radiateurs).
  • Programmer le chauffage exclusif d’une zone thermique distincte.
    Par exemple, il doit être possible de chauffer la bibliothèque le samedi, sans alimenter le restant du bâtiment. Dans un immeuble de bureaux, chaque étage doit pouvoir être alimenté séparément, même si un seul exploitant est prévu… au départ.
  • Minimiser la température de l’eau en sortie de chaudières.
    La solution traditionnelle consiste à chauffer l’eau en fonction de l’évolution de la température extérieure. Mais aujourd’hui, il est possible de se limiter à la température maximale demandée par le circuit secondaire de distribution le plus demandeur. Ou encore, dans les bâtiments conditionnés, ce sera le pourcentage d’ouverture des vannes des unités terminales qui seront représentatifs des besoins locaux. Même s’il fait froid dehors, l’occupation réelle du bâtiment peut limiter les besoins… et donc la température de départ de l’eau chaude en chaufferie.
  • Gérer l’intermittence par un régulateur-optimiseur.
    Il assure une coupure complète des circuits de distribution (et éventuellement des chaudières) la nuit et le week-end, avec un contrôle anti-gel interne de sécurité, et calcule automatiquement le moment de la coupure et de la relance en fonction des températures intérieures et extérieures. Autrement dit, on abandonne le simple « ralentissement nocturne », qui fournit de l’eau tiède dans le bâtiment à minuit, … en pure perte.
  • Arrêter l’apport d’air neuf en période de relance.
    Dans un bâtiment bien isolé, le chauffage de l’air neuf représente 50 % environ des besoins. Il doit pouvoir être arrêté (ou recyclé) en période de relance, avant l’arrivée des occupants, fournissant ainsi un surcroît de puissance pour la montée en température des locaux après la coupure nocturne.
  • Imaginer dès le départ la gestion future par les occupants.
    Comment cela se passera-t-il lorsqu’une réunion sera organisée le soir ? et durant les congés entre Noël et Nouvel An, s’il gèle dehors ? Qui aura accès à quoi ? Est-ce qu’une programmation annuelle ne serait pas pratique pour encoder une fois pour toutes les congés ? et quelle dérogation à cette programmation ?… Autant y penser au départ du projet…
  • Utiliser un détecteur qui sera le témoin des besoins réels.
    Par exemple, autrefois la salle de gymnastique était chauffée du matin au soir. Qu’il y ait quelqu’un ou non dans la salle. Aujourd’hui, c’est le contact dans la serrure de la porte ou un détecteur de présence qui enclenche l’aérotherme lors de l’arrivée du groupe. Vu l’isolation des locaux, la température des locaux passera rapidement de la consigne de veille à la consigne normale.

Lister les besoins des locaux

Au départ, il est important de préciser les demandes de chaque zone. Et de trouver quel sera le témoin de la demande réelle : le thermostat d’ambiance, la température extérieure, un détecteur de présence, … Le fabricant peut répondre à toute demande… si elle est clairement exprimée.

Chaque zone d’occupation et de besoin homogènes, disposant de son propre circuit de distribution, verra la température d’eau régulée, par exemple en fonction d’un thermostat d’ambiance (dans le cas ou un local « témoin » est possible) et/ou d’une sonde extérieure.

Les locaux profitant d’apports de chaleur plus importants que les autres (soleil, occupants, …) seront équipés de vannes thermostatiques, vannes de qualité « institutionnelle » si les locaux sont ouverts au public.

Vanne institutionnelle : le réglage de la consigne n’est pas accessible à l’occupant, elle résiste au choc d’un ballon de basket et ne peut être facilement démontée.

Analogique ou numérique ?

   

Régulateurs analogique et numérique.

Aujourd’hui, une régulation numérique s’impose, car elle permet beaucoup plus facilement une adaptation de la régulation aux besoins, une modification des paramètres, une communication des informations à distance et donc un suivi à distance. 

Concevoir

Pour plus d’informations sur la régulation d’un système de chauffage

Choisir la fenêtre comme capteur d’énergie solaire [Esquisse du projet]

L’architecture participe à la juste captation des apports solaires, plus recherchés pour leur lumière que pour leur chaleur dans un immeuble tertiaire.

L’immeuble tertiaire se distingue de l’immeuble domestique

Les besoins thermiques d’un immeuble tertiaire (bureaux, écoles, …) sont très différents de ceux d’un bâtiment domestique.

Bâtiment tertiaire Bâtiment domestique

En hiver

Des apports internes élevés sont apportés par les occupants, par l’éclairage et les appareils de bureautique. Les apports internes sont limités, exceptés dans la cuisine.
Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

Lorsque le soleil arrive, le bâtiment est déjà chaud, particulièrement pour les locaux orientés à l’Ouest (soleil l’après-midi).

Dans une classe d’école par exemple, il n’est plus nécessaire de chauffer lorsque les élèves sont présents (nous parlons bien ici d’un nouveau bâtiment bien isolé).

Le profil de demande de chaleur est variable suivant l’occupation, mais il est marqué par une demande qui se prolonge en soirée, après le coucher du soleil.

Un des objectifs sera de stocker la chaleur solaire de la journée dans les parois, pour lisser la pointe de température en journée et libérer la chaleur en soirée.

En été

L’exigence de confort est importante afin d’améliorer la productivité des occupants. L’occupant accepte plus facilement un inconfort temporaire et attend la fraîcheur de la soirée.

Il peut facilement adapter sa tenue vestimentaire et son activité.

L’environnement extérieur ne permet pas toujours une ouverture des fenêtres (bruit, air pollué, …) Généralement, l’environnement permet plus facilement l’ouverture des fenêtres.

Conclusions

En hiver, le profil de demande thermique d’un immeuble tertiaire est peu en coïncidence avec le profil de l’apport solaire, surtout pour les immeubles de bureaux dont les apports internes sont élevés.

Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

En été, , et de plus en plus en mi-saison, la sensibilité du bâtiment et des occupants au risque de surchauffe est élevée.


Quelle place pour les apports solaires de chauffage ?

De ce qui est dit ci-dessus, et des conséquences de l’isolation des bâtiments sur le profil de demande, on déduit que les apports solaires sont peu recherchés pour leur appoint en chauffage dans un nouveau bâtiment bien isolé et avec des apports internes moyens ou élevés (immeubles de bureaux, par exemple).

Concrétisons par un exemple

Voici les résultats d’une simulation réalisée sur un immeuble de bureau-type.

Ramenons à 100 la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage) et analysons l’impact d’une modification de la surface vitrée :

Pourcentage
de vitrages
Demande
de chauffage
Demande
de refroidissement
0 % 77 80
50 % 100 100
70 % 110 108

Il apparaît :

  • que l’augmentation globale de la surface vitrée augmente les déperditions en hiver,
  • que l’apport solaire ne compense pas ces déperditions,
  • que la demande de refroidissement est logiquement en hausse en été.

Avec les modes constructifs actuels, le bâtiment qui aurait le moins besoin de chauffage et refroidissement est celui que n’aurait pas d’ouvertures !

À noter que cette évolution est identique quelle que soit l’orientation du local :

Local Nord Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
0 % 84 73 71 84
50 % 103 79 90 120
70 % 116 81 103 134

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

A noter :

  • L’importance de la demande de refroidissement dans les locaux au Nord, demande essentiellement liée à la présence des apports internes.
  • Une simulation des locaux avec des apports internes faibles présente la même tendance à l’augmentation des consommations avec l’augmentation de la surface vitrée.
  • Le placement de vitrages réfléchissants au Sud génère une diminution de la demande de refroidissement nettement plus forte que l’augmentation de la consommation de chauffage.

Constats (essentiellement pour des immeubles de bureaux)

  • L’idéal thermique restera toujours le vitrage clair équipé d’un store extérieur mobile : la chaleur solaire est captée si nécessaire et le store est abaissé le reste du temps. Toutefois, la convivialité intérieure et l’apport lumineux lorsque les stores sont abaissés laissent à désirer…

 

  • Dans un bâtiment tertiaire vérifiant la réglementation thermique en matière d’isolation et disposant d’apports internes normaux (> 25 W/m²), il y a peu intérêt à capter l’énergie solaire pour diminuer les besoins de chauffage et beaucoup de risque de surchauffe et d’éblouissement.

 

  • Par réalisme, le critère thermique impose une limitation des espaces vitrés dans un bâtiment tertiaire, quelle que soit son orientation; ouvrir la façade « du sol au plafond », c’est créer un problème et devoir user d’artifices coûteux pour gérer l’excédent solaire. Et finalement, c’est nier toute architecture d’une façade, comme succession de pleins et de vides…

 

  • Le pourcentage de vitrage à choisir est essentiellement fonction des besoins d’éclairage naturel et de convivialité recherchée dans le bâtiment.

 

  • Idéalement, les surfaces vitrées seront choisies avec un faible coefficient de transmission thermique pour limiter les pertes en hiver et équipées d’une protection solaire en été. Toutefois, vu la difficulté d’une bonne gestion des protections solaires et le coût des protections automatisées, il est possible également de sélectionner des vitrages avec un faible facteur solaire (FS = 0,4 au maximum) et un bon rendu lumineux (FL = 0,7).

Conclusions : quel pourcentage d’ouverture de la façade ?

Si l’on ne prend en compte que le seul critère thermique, et si une protection solaire très efficace n’est pas prévue, une limitation des espaces vitrés s’impose dans un bâtiment tertiaire bien isolé, quelle que soit son orientation.

Le pourcentage de vitrage à choisir de prime abord pourra généralement être compris entre 30 et 45 % de la surface de façade, cette fourchette variera essentiellement fonction :

  • du rapport au contexte dans lequel le bâtiment s’inscrit,
  • du besoin d’éclairage naturel,
  • du souhait de contacts visuels avec l’extérieur,
  • de la recherche de repères visuels dans le bâtiment.

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Simplement, dans le premier cas, l’architecte a introduit une ouverture vers l’extérieur pour introduire de la lumière naturelle…
C’est ce qui fait la qualité de l’ambiance intérieure.

A la limite, on peut comprendre une compagnie d’assurance anglaise, qui, vu les apports internes très élevés, a décidé de s’ouvrir principalement au Nord, réservant au Sud l’emplacement de la cafétéria.

Vue des espaces vitrés côté nord.

Remarque importante.

Dans nos conclusions, le vitrage apparaît mal adapté comme capteur d’énergie solaire dans les bâtiments tertiaires. Par contre, et tout particulièrement lorsque le bâtiment présente des besoins d’air neuf élevés (laboratoires, salles de conférence, salles de réunion,…), il est utile d’étudier la valorisation de l’apport solaire pour le préchauffage de l’air neuf. Le principe est alors de placer la prise d’air neuf dans un espace qui par lui-même récupère la chaleur solaire ou la chaleur du bâtiment. On pense tout particulièrement ici à un système de type « double-peaux », mais l’atrium ou le puits canadien sont d’autres manières d’appliquer ce principe.


Une très grande sensibilité aux apports internes

Le résultat des simulations thermiques est très variable en fonction d’un paramètre : la charge interne.

Un bâtiment actuel est souvent à l’équilibre entre ses pertes thermiques et ses apports internes. S’il faut chauffer par période de gel, et refroidir en période de canicule, entre ces 2 extrêmes il existe une large plage où le bâtiment est proche de l’équilibre thermique : les résultats seront alors fonction des hypothèses choisies.

Exemple.

Reprenons l’analyse d’un immeuble de bureau-type.

Si 100 est la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage-apports internes moyens), analysons l’impact d’une modification des apports internes :

Apports
internes
Demande
de chauffage
Demande
de refroidissement
– 50 % 146 52
moyens 100 100
+ 50 % 23 226

Exemple de diagramme énergétique établi pour cet immeuble de bureaux :

Face à une telle sensibilité, il apparaît

  • Qu’une analyse des besoins thermiques spécifique au bâtiment et à son utilisation (simulation dynamique) est indispensable pour une conception correcte du bâtiment et de ses équipements.
  • Que face à l’incertitude sur le fonctionnement réel du bâtiment (demain et après-demain), même si le refroidissement naturel du bâtiment est recommandé en priorité, l’adjonction éventuelle future d’un système mécanique de refroidissement doit être étudiée dès le début d’un projet d’immeuble de bureaux.

Exemple de situation dont les occupants se plaignent :

Une grande baie vitrée orientée au sud, une faible inertie (tapis et plafond acoustique)… … et la présence de nombreux PC génère de la surchauffe en été.


Une sensibilité aux masques solaires

Toutes les conclusions tirées ci-dessus sont en partie dépendantes de la présence d’un masque solaire éventuellement créé par les bâtiments voisins.

Par exemple, le bilan énergétique du dernier étage est sensiblement différent de celui du rez-de-chaussée.

On peut donc imaginer que le choix du vitrage puisse évoluer en fonction de l’étage.


L’influence de l’orientation de la façade

Lorsque l’apport solaire est recherché (bâtiment avec faibles apports internes), il est important de sélectionner une surface vitrée dont l’efficacité est maximale : capter un maximum d’énergie en hiver et un minimum en été.

Gains solaires par ciel serein en Belgique,
à travers un double vitrage.

(La lettre indique l’orientation et le nombre est l’inclinaison. Les orientations ouest et sud-ouest correspondent approximativement aux orientations est et sud-est.)

À première vue, la surface vitrée verticale orientée au sud (= S 90) paraît très intéressante, puisque plus d’apports en mi-saison qu’en été.

À l’opposé, on trouve la surface horizontale (coupole en toiture) dont la spécificité est de capter très peu d’énergie en hiver et de provoquer de la surchauffe en été.

Les surfaces à l’est et à l’ouest (= E 90) présentent également un bilan contraire à l’évolution des besoins du bâtiment.

Par contre, si la façade ne comporte pas de masques, un bâtiment de bureaux avec des apports internes moyens ou élevés sera en surchauffe très rapidement, dès l’arrivée du soleil.

Dans ce cas, l’apport solaire total étant plus important au Sud, c’est cette orientation qui sera la plus défavorable en matière de refroidissement annuel (malgré une légère diminution des consommations d’hiver).

C’est ce que montre notre exemple de

bureau-type :

Local Ouest Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
50 % 103 104 90 120

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

Exemple de protection architecturale très efficace sur une façade Sud… et qui participe à l’architecture de la façade !

Mais l’avantage de la façade au Sud est de profiter d’un soleil très haut sur l’horizon. Les auvents créés par l’architecture de la façade formeront une protection solaire efficace.

Au contraire, les protections architecturales ne sont pas efficaces à l’Est et à l’Ouest : le soleil est trop bas sur l’horizon pour être arrêté par le masque architectural.

Un éblouissement important en résulte.

Seuls des stores sont possibles, mais le coût et la maintenance en sont élevés.

Conclusions

Partons d’un bâtiment rectangulaire dont on se poserait la question : quelles orientations des façades des grands côtés du rectangle ?

 Sans protections solaires, le choix de l’orientation d’un bâtiment est à faible impact énergétique : la consommation totale (chaud + froid) plus importante au Sud est compensée par une consommation totale plus faible au Nord.

Il est préférable :

  • Soit de privilégier l’ouverture au nord pour favoriser l’éclairage naturel (et de limiter les espaces vitrés au sud et à l’ouest),

 

  • Soit de placer pour les orientations sud, est et ouest, des vitrages réfléchissant le rayonnement solaire toute l’année. Il existe des vitrages qui ne laissent passer que 40 % de l’énergie solaire thermique, tout en laissant passer 70 % de la lumière.

 Si des protections solaires sont prévues, les grands côtés Nord et Sud sont plus faciles à gérer : une protection architecturale fixe est très efficace au Sud et ne nécessite que peu d’entretien.

Par contre, les grands côtés est et ouest demanderaient des protections mobiles pour limiter les apports de chaleur et l’éblouissement des occupants. C’est plus coûteux, mais cela peut induire plus de vie dans le bâtiment, car la lumière est toujours présente dans les locaux.

En simplifiant, on pourrait dire que dans des locaux d’hébergement, on privilégierait les côtés est et ouest avec protections solaires, et que dans les immeubles de bureaux, on choisirait les façades nord et sud, avec avancées architecturales.


L’influence de l’inclinaison du vitrage

Ce diagramme montre évolution de l’énergie captée par une surface orientée au Sud en fonction de l’inclinaison.

Conclusions

On limitera les surfaces vitrées horizontales (coupole, toiture d’atrium, …) aux seuls besoins d’éclairage naturel des locaux situés au dessous.

Dans l’immeuble ci-contre, il paraît énergétiquement peu opportun de créer une telle surface de captation. Elle risque d’entraîner soit une surchauffe élevée, soit une consommation d’énergie frigorifique importante

concevoir

Pour plus d’informations sur le choix des vitrages.

Quelle protection contre les apports solaires d’été ?

Dans un bâtiment bien isolé et avec des apports internes élevés, la limitation des surchauffes devient une priorité du concepteur, dès le stade de l’esquisse.

La meilleure protection solaire… c’est une surface de vitrage limitée !

La façade est aujourd’hui libérée de la fonction de portance. Elle ne doit plus remplir qu’une fonction d’enveloppe. La mode est à « la transparence », à l’ouverture des façades du sol au plafond… Or la zone inférieure d’une fenêtre est très peu efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires en été).

Cette transparence totale de la façade va générer une sensibilité très forte à la surchauffe (les agriculteurs en sont bien conscients dans leur serre…). D’où la mise en place de doubles façades coûteuses, … pour gérer le problème que l’on a créé !

Double peau globale et double peau par étage.

En hiver, l’intérêt est réel grâce au préchauffage possible de l’air neuf et à la diminution des déperditions de la paroi vitrée. Mais en période de refroidissement, un store doit être placé dans la lame d’air et la double peau peut devenir alors une contrainte pour éliminer la chaleur emprisonnée (par rapport à un simple store extérieur).

Cette technique semble à réserver aux bâtiments nécessitant un apport d’air neuf fort élevé, pour lesquels la double-peau constitue un moyen de préchauffer l’air.

Les surcoûts sont importants et, sans vouloir tirer ici des conclusions trop rapides, on est en droit de se poser la question si ce budget ne serait pas mieux utilisé dans d’autres améliorations énergétiques, plus efficaces et plus simples à gérer dans le temps ? À titre d’exemple, un récupérateur de chaleur sur l’air extrait apporte lui aussi une possibilité de préchauffer l’air neuf, mais avec un coût d’installation incomparable…

Aula Magna de Louvain La Neuve.

Détail de la double peau,  qui n’est pas en communication avec l’ambiance intérieure.

La présence d’une protection solaire

On ne peut imaginer la conception d’un immeuble, climatisé ou non, sans l’organisation d’une protection solaire efficace.

Dans un bâtiment climatisé, elle permet une diminution drastique des coûts d’exploitation. Dans les autres, elle limite le risque de surchauffe.

Dans les deux cas, elle permet de gérer l’éblouissement, tout particulièrement pour faciliter le travail sur ordinateur. Des stores intérieurs compléteront utilement le dispositif.

Les éléments architecturaux (balcons, débords de toiture, décrochements, …) sont particulièrement efficaces au Sud puisque le soleil est alors haut sur l’horizon.

En été…   … et en hiver.

   

Stores verticaux, simultanément capteurs solaires photovoltaïques.

   

Bâtiment Sedilec à LLN.

Certaines protections architecturales tentent de stopper le soleil, tout en privilégiant la réflexion du rayonnement lumineux vers le plafond (« light-shelves« ).
Les stores mobiles extérieurs sont les plus efficaces pour contrôler le flux solaire en fonction du besoin réel. Mais ils sont délicats en terme de maintenance et nécessitent un contrôle automatique pour être relevés en cas de vent. La réduction du champ visuel de l’occupant en est un autre inconvénient.

Se croirait-on sur la Poztdammer Platz de Berlin ?

Panneaux de bois coulissants.

concevoir

Pour plus d’informations sur la mise en place de protections solaires.

Protections végétales ?

Des végétations plantées à proximité du bâtiment peuvent participer à la gestion des apports solaires.

Les arbres à feuilles caduques ont l’avantage de perdre leurs feuilles et de permettre ainsi l’exposition au soleil en hiver.

Mais il s’agit là d’un appoint, plutôt à vocation domestique, et non d’une solution complète, ne fut-ce que pour les étages supérieurs.


Annexe : les paramètres du bureau-type

L’immeuble de bureaux-type utilisé ci-dessus présente les caractéristiques suivantes :

Dimensions extérieures : 60 x 18 m, sur 3 plateaux, soit un total de 3 240 m².

Dans la version dite « de base » :

  • l’orientation des façades principales est Nord-Sud,
  • le pourcentage de vitrages est de 50 % sur toutes les façades,
  • le vitrage est double avec un traitement basse émissivité (k = 1,9 W/m².K),
  • l’isolation est de 6 cm en façade, 12 cm en toiture et 3 cm dans les planchers sur sol,
  • les apports internes dans les bureaux sont de 35 W/m² (un PC de 160 W, une lampe individuelle de 18 W, un éclairage généralisé de 13 W/m² et une personne dont le métabolisme apporte 81 W pour une surface de travail de 12 m²).

Valoriser la fraîcheur de l’environnement [Climatisation]

Valoriser la fraîcheur de l'environnement


Valoriser la fraicheur de l’air extérieur

Le potentiel lié à la fraicheur extérieure

L’isolation des bâtiments élargit la période de refroidissement en mi-saison et en été. Ce besoin peut être pour une bonne part résolu en valorisant l’air extérieur lorsqu’il est plus frais que la consigne intérieure.

En moyenne, la température extérieure à Uccle est 98 % du temps inférieur à 24°C et ne dépasse 27° que 40 heures par an. En outre, en été, dans notre pays, la température nocturne minimale est inférieure de plus de 8°C à la température maximum diurne, et cette température extérieure nocturne est toujours inférieure aux plages de confort. Il existe donc un pouvoir rafraîchissant naturel important de l’air extérieur, sans traitement et donc sans coût énergétique autre que son transport.

Les profils de températures moyennes à Uccle montrent que la température extérieure est généralement inférieure à la température de confort.

Ce pouvoir rafraîchissant est cependant limité par deux facteurs : la faible capacité frigorifique de l’air extérieur et la quantité d’air pouvant être valorisée, qui est limitée par l’encombrement des gaines de ventilation, la taille des ouvertures en façade, le risque de générer un courant air.

Ainsi, imaginons un local à 26°C avec une charge thermique (élevée) de 60 W/m² (ordinateur, éclairage, occupants, ensoleillement, …) ou 20 W/m³ (si la hauteur sous plafond est de 3 m). La température de l’air extérieur est de 20°C. Calculons le débit nécessaire pour évacuer la chaleur d’un m³ du local :

débit = 20 [W/m³] / (0,34 [W/(m³/h).K] x 6 [K]) = 9,8 [renouv./h]

où,

  • 0,34 W/m³.K est le pouvoir calorifique de l’air et 6 K est la différence de température entre l’intérieur et l’extérieur

Il faudrait donc un taux de renouvellement horaire de 9,8 : chaque heure, l’air du local serait renouvelé 10 fois ! en dehors de la difficulté technique, cela génère un climat peu confortable…

En pratique, la fraîcheur de l’air extérieur peut être valorisée de trois façons : par une ventilation intensive naturelle (free cooling naturel), par l’intégration d’air frais dans le système de conditionnement d’air (free cooling mécanique), et par le refroidissement direct des boucles d’eau froide (free chilling).

Données

En savoir plus sur le climat belge ?

L’exploitation de l’air extérieur par ventilation naturelle (free cooling naturel)

La  ventilation intensive estivale (ou free cooling naturel), vise le refroidissement passif du bâtiment par l’ouverture de sa façade. L’objectif est soit de compenser en journée les charges internes et solaires, soit de « décharger » et refroidir pendant la nuit la masse du bâtiment, afin que cette masse puisse limiter la montée en température le lendemain.

La ventilation intensive est efficace en journée si l’air extérieur n’excède pas la température intérieure, mais n’est pas non plus trop froid, pour éviter la sensation de courant d’air, ce qui limite son usage en mi-saison. De plus, il restera toujours les 40 heures, soit de 5 à 10 journées de travail par an, où la ventilation ne ferait qu’empirer les choses puisque la température extérieure est supérieure à la température intérieure. Le refroidissement par ventilation de jour peut donc être une solution en mi-saison, mais a ses limites en été.

Le refroidissement par ventilation de nuit par contre conserve son efficacité toute l’année, sauf canicule extrême. Malgré tout, pour qu’un free cooling permette de se passer de climatisation en journée, il faut assurer durant la nuit, un taux de renouvellement d’air nettement plus important que le taux de ventilation hygiénique : au minimum 4 [vol/h] par rapport à 1 [vol/h].

Au-delà de l’économie d’énergie qui en résulte, c’est une certaine qualité de vie qui est recherchée : absence de système sophistiqué de climatisation, … et plaisir de pouvoir ouvrir sa fenêtre et d’entrer plus en contact avec l’environnement extérieur.

Techniques 

En savoir plus sur la ventilation intensive d’été ?

L’intégration  de l’air frais dans le système de conditionnement d’air (free cooling mécanique)

La climatisation est parfois nécessaire (charges thermiques élevées, consignes intérieures strictes de température et d’humidité, …).

On sera alors attentif au fait que le système installé n’exclue pas le refroidissement naturel : dès que la température extérieure descend, elle doit pouvoir supplanter la climatisation mécanique. Idéalement, celle-ci ne devrait plus servir que dans les périodes de canicule.

Tout particulièrement, dans les locaux refroidis toute l’année (locaux intérieurs, locaux enterrés, …) et dans les locaux à forte occupation de personnes (salles de conférence, locaux de réunion, …), il est dommage de faire fonctionner la climatisation en hiver et en mi-saison. On privilégiera les systèmes « tout air » à débit variable.

Durant les nuits d’été, le bâtiment peut facilement être refroidi par le balayage de l’air extérieur (l’installation fonctionne alors en « tout air neuf »). Et en mi-saison, l’air extérieur assure seul le refroidissement par mélange avec l’air recyclé.

Bien sûr, la consommation du ventilateur ne doit pas dépasser celle de la machine frigorifique ! La perte de charge du réseau de ventilation (pulsion, extraction et recyclage) doit rester faible. Il faut prévoir la place pour de larges conduits.

Concevoir

En savoir plus sur le choix du mode de gestion du débit d’air neuf ?

L’utilisation de l’air frais comme source froide d’une installation de refroidissement (free chilling)

Aussi curieux que cela puisse paraître, de nombreuses machines frigorifiques fonctionnent en hiver. Pour assurer le refroidissement de la salle informatique, pour refroidir le cœur du bâtiment surchauffé par les équipements, …

La première réaction est d’imaginer de scinder la production de froid : une petite machine couvre les besoins permanents de la salle informatique, par exemple. Et la grosse machine est mise à l’arrêt en hiver, tout en pouvant jouer le rôle de groupe de sécurité en cas de défaillance de la première.

La deuxième réaction est d’analyser si le circuit d’eau glacée ne pourrait pas être refroidi directement par l’air extérieur, en by-passant la machine frigorifique. Si le fonctionnement est continu tout l’hiver, cela en vaut sûrement la peine (c’est le cas pour un groupe qui refroidirait des locaux de consultations situés en sous-sol d’un hôpital, par exemple).

Lorsque la température extérieure descend sous les 8 à 10°C, on peut fabriquer de l’eau glacée sans utiliser le groupe frigorifique. L’eau peut-être directement refroidie par l’air extérieur. La machine frigorifique est alors  mise à l’arrêt.

L’économie d’énergie est évidente ! La rentabilité du projet est d’autant plus élevée que les besoins de refroidissement sont importants en hiver et que l’installation s’y prête.

Toutes sortes de configurations sont possibles en intercalant dans la boucle d’eau glacée soit un aérorefroidisseur (en parallèle ou en série avec le groupe frigorifique) soit une tour de refroidissement (ouverte ou fermée) ou encore un échangeur à plaque couplé avec une tour de refroidissement.

Aérorefroidisseur monté en série avec un évaporateur

Concevoir

En savoir plus sur la mise  en place d’un free-chilling ?

Valoriser la fraicheur du sol

Le sol présente un potentiel important pour rafraichir les bâtiments. Sa température est, en été, moins élevée et surtout plus stable que celle de l’air extérieur. Une masse de sable, d’argile ou de roche présente en outre une capacité calorifique importante.

La température moyenne mensuelle est amortie et déphasée par rapport aux températures extérieures. Le sol présente donc un potentiel de rafraichissement particulièrement intéressant au printemps et en été, lorsque la température extérieure est plus élevée.

Les propriétés thermiques du sol dépendent des propriétés de ses constituants et de leurs proportions. Quelques ordres de grandeur :

nature des constituants Conductivité thermique (W/m°c) Capacité calorifique volumique Cp(Wh/m3°c) Diffusivité thermique (m2/h
constituants minéraux 2,92 534 0,0054
constituants organiques 0,25 697 0,00036
eau 0,59 1 163 0,00050
air 0,025 0,34 0,0756

Frédéric Chabert « Habitat enterré » (1980).

La conductivité thermique des sols varie de 1 à 5 selon qu’il est sec ou saturé. La capacité thermique moyenne des sols varie elle de 1 à 3.

L’exploitation de la fraicheur du sol se fait en y organisant un échange de chaleur par le passage contrôlé d’air ou d’eau. Lorsqu’il s’agit d’un échangeur air-sol, on parle de puits canadiens ou provençaux. Lorsqu’il s’agit d’un échangeur eau-sol, on parle de geocooling, une appellation qui, strictement, devrait également recouvrir les puits canadiens.

Parmi les diverses solutions d’échangeur eau-sol, notons l’exploitation du sol sous la dalle de fondation (attention à la puissance qui peut rester alors faible…),

ou dans les pieux de fondation :

Des échangeurs de type forage vertical, indépendants de la structure du bâtiment, sont également possibles.

Une autre possibilité est d’utiliser l’eau des nappes phréatiques souterraine au moyen, en la pompant pour la conduire vers un échangeur de chaleur eau-eau, mais cette technique peut générer des problèmes de nature hydraulique dans le sol (déséquilibres des nappes phréatiques, pollutions).

Un des grands intérêts des techniques de geocooling est que le niveau de température concerné (de 5 à 15°C) est intéressant tant :

  • Pour le refroidissement direct : un échange de chaleur, par l’intermédiaire de boucles d’eau, entre le bâtiment est le sol), en vue d’alimenter un système de refroidissement par dalle ou par plafond froid.
  • Pour le refroidissement indirect : valoriser le sol comme source froide de la machine frigorifique, quel que soit le système de distribution et d’émission dans le bâtiment.
  • Que pour le chauffage par pompes à chaleur. En pratique, on n’envisagera pas de valorisation thermique du sol uniquement pour le refroidissement estival. L’investissement en pompages ou forage ne se fera que si le sol peut être valorisé au maximum de son potentiel, c’est-à-dire tant en refroidissement l’été qu’en chauffage l’hiver. Le géocooling est donc intimement lié à la géothermie.

Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : geocooling

Concevoir

Choisir un système rayonnant sur boucle d’eau froide : plafond froid et dalle active.

Concevoir

Le choix de la source de chaleur du chauffage par pompe à chaleur.

Techniques

Le géocooling.

Valoriser la physique de l’air humide

Le contenu énergétique de l’air est lié à la fois à sa température et à son humidité. En effet, la présence de vapeur d’eau dans l’air représente une forme d’énergie latente, égale à la quantité d’énergie nécessaire pour vaporiser ou condenser cette eau. La somme de l’énergie sensible (liée à la température) et de l’énergie latente (liée à l’humidité) est appelée enthalpie. Cette quantité d’énergie est importante, puisque la chaleur de vaporisation d’un litre d’eau est de 2 257 kJ/kg (à la pression atmosphérique et à 100 °C). Soit 5,4 fois plus que pour chauffer le litre d’eau de 0 à 100 °C ! Elle est cependant limitée par la quantité maximale de vapeur que l’air peut contenir, qui dépend de sa température.

Le diagramme psychrométrique est l’outil indispensable pour visualiser et mesurer ces quantités d’énergie. L’enthalpie est représentée sur l’axe diagonal à gauche du diagramme. On constate que le niveau d’enthalpie est équivalent pour un air à 30 °C et 30 % d’humidité relative et pour un air à 17 °C et 100 % d’humidité relative. Autrement dit, si l’on arrive à créer des transferts entre l’énergie sensible et l’énergie latente d’une masse d’air, on devrait être en mesure de créer de l’air froid (et humide) au départ d’air chaud (et sec). Et cela sans grande consommation d’énergie, puisque l’enthalpie de l’air serait conservée.

Comment réaliser ce petit miracle ? Simplement en humidifiant l’air.
En pratique, deux types d’applications ont été développées pour valoriser ce principe physique.
Le premier dispositif se trouve dans l’architecture vernaculaire de nombreuses cultures, mais fut particulièrement développé par les Perses. Ils combinaient des tours à vent (« bagdir ») avec locaux servant de glacières (« yakh-chal ») souvent reliées à un canal souterrain (« qanat »). Par cet ensemble de dispositifs, ils étaient capables de conserver des aliments et rafraîchir des bâtiments dans un climat particulièrement chaud. Marco-Polo, lors de son premier voyage en orient, se serait vu offrir des glaces en plein été !

Plus récemment, l’idée de refroidir de l’air par humidification a été appliquée dans des groupes de traitement d’air. On parle alors de refroidissement adiabatique. Une différence majeure avec la solution imaginée par les Persans : ici c’est l’air extrait du bâtiment que l’on refroidit par humidification. Un échangeur de chaleur air-air permet ensuite de rafraîchir l’air neuf au contact de l’air extrait. Nos ambiances sont déjà suffisamment humides en été que pour éviter d’y pulser un air saturé !

Pour en savoir plus :

Théories

Les grandeurs hygrométriques.

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.


Valoriser le soleil

Paradoxalement, la chaleur du soleil peut être utilisée pour rafraichir un bâtiment… pour autant que l’on dispose de l’équipement adéquat.

Généralement, produire du froid implique l’usage d’une machine frigorifique. Celle-ci se compose de deux échangeurs de chaleur (condenseur et évaporateur), d’un détendeur et d’un compresseur électrique. Pas de place pour l’énergie solaire là-dedans, si ce n’est au travers de capteurs photovoltaïques.

Mais il existe un autre type de machine frigorifique, dit « à ab/adsorption« . Là, l’échange thermique est basé à la fois sur la vaporisation d’un réfrigérant (de l’eau) et sur la capacité de certaines substances à absorber la vapeur d’eau pour la restituer à un niveau de pression différent lorsqu’ils sont échauffés. Le cycle de cette matière absorbant joue le rôle du compresseur dans une machine frigorifique traditionnelle, tout en demandant une alimentation en chaleur plutôt qu’en électricité. Or, qui dit soleil dit chaleur ! La combinaison de capteurs solaires thermiques et d’une machine frigorifique à ab/adsorption constitue ce que l’on appelle une « climatisation solaire », une idée séduisante si les besoins de froid du bâtiment sont liés aux gains solaires.
Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.

Comprendre la sensation de froid liée à la production

Comprendre la sensation de froid liée à la production


Sous-dimensionnement du générateur de chaleur

Cela est excessivement rare mais ça arrive !

En effet, il faut savoir que la plupart des installations de chauffage existantes sont surdimensionnées, même fortement surdimensionnées.

Évaluer

On peut vérifier le dimensionnement d’une chaudière en calculant le temps de fonctionnement annuel du brûleur et en comparant ce chiffre à un temps estimé correct en fonction du type de bâtiment. Cette estimation ne peut se faire qu’en connaissant la puissance du brûleur et la consommation annuelle de combustible. Pour approfondir cette méthode d’évaluation.

Encrassement de la chaudière

L’encrassement d’une chaudière diminue l’échange de chaleur entre les fumées et l’eau. Les fumées sont donc évacuées plus chaudes vers la cheminée (1 mm de suie dans la chaudière équivaut à une augmentation de 50°C de la température des fumées). Il en résulte :

  • une perte de rendement,
  • une perte de puissance de la chaudière.

En principe, l’encrassement étant un phénomène dynamique, l’inconfort qui y serait lié doit s’amplifier en attendant l’entretien des installations.

L’encrassement excessif des installations peut avoir comme cause :

  • des démarrages de brûleur trop fréquents liés à un surdimensionnement de l’installation ou un différentiel de régulateur trop faible,
  • l’encrassement de la chaufferie, le brûleur aspirant son air dans celle-ci. Nous avons, par exemple, rencontrés des brûleurs dont l’amenée d’air est partiellement obturée par les pluches issues de la buanderie voisine,
  • un manque de ventilation de la chaufferie, entraînant une mauvaise combustion,
  • un mauvais réglage de la combustion.

Évaluer

Pour en savoir plus sur les causes de démarrage trop fréquents du brûleur

Évaluer

Pour en savoir plus sur les causes d’une mauvaise combustion

Réglementations

Pour en savoir plus sur les exigences de ventilation des chaufferies

Cas particulier de la pompe à chaleur

Un défaut de puissance

Une pompe à chaleur sur l’air extérieur présente l’important défaut de produire d’autant moins de chaleur qu’il ne fait froid à l’extérieur… Or c’est précisément à ce moment que le bâtiment demande une forte puissance de chauffe.

Si cela apparaît fréquemment en période de très grands froids, ce problème ne peut se résoudre que par l’adjonction d’un appoint, appoint électrique direct (donc coûteux à l’exploitation) ou appoint thermique par une chaudière (en mode monovalent ou bivalent).

Concevoir

Pour en savoir plus sur la conception de l’appoint de la pompe à chaleure

Le problème du dégivrage

Si le froid apparaît plutôt pour des températures extérieures avoisinant les 5°C, on soupçonnera le phénomène de dégivrage :

  1. le fluide frigorigène présente une température en dessous de 0°C
  2. la vapeur d’eau contenue dans l’air ambiant condense et puis prend en glace, obstruant alors l’échangeur
  3. le cycle est temporairement inversé pour faire fondre la glace
  4. de l’air froid est pulsé dans les locaux.

À noter que ce phénomène est moins crucial en période de gel car l’air est plus sec et la glace apparaît sous forme de cristaux qui s’envolent avec l’air pulsé.

Si l’appareil est modulaire, une solution peut consister à décaler les périodes de dégivrage des différents modules de la PAC.

Améliorer

Pour en savoir plus sur l’amélioration du fonctionnement de la pompe à chaleur

Analyser les besoins thermiques : un immeuble de bureaux

Objectif de l’analyse

Aujourd’hui, suite à l’isolation des parois et au placement de vitrages performants, le profil de la demande des bâtiments tertiaires a totalement évolué.

  1. Les besoins de chauffage sont devenus très faibles, et plus de la moitié de ces besoins est générée par le chauffage de l’air neuf hygiénique. Une régulation des débits d’air permet donc encore des économies : par exemple, des détecteurs de présence n’enclencheront la ventilation de la salle de réunion que lors de l’entrée des occupants.
  2. Le point d’équilibre s’est déplacé de 15 à 10°C, c’est-à-dire que l’on refroidit le bâtiment dès que la température extérieure dépasse 10°C.
  3. Les besoins de froid ont fortement augmenté, mais contrairement à ce que l’on pourrait penser, cette augmentation s’est faite essentiellement pour des températures extérieures comprises entre 10 et 22°C. Or, à ces températures, nous pouvons valoriser l’air extérieur frais : pour ventiler directement le bâtiment (free cooling) ou pour refroidir l’eau froide qui elle-même circulera dans les faux plafonds des locaux.
  4. Des besoins simultanés de chaud et de froid apparaissent : le cœur du bâtiment doit être refroidi en permanence alors que les locaux en façade sont à réchauffer, un local informatique demande du froid en hiver et en mi-saison alors que la préparation de l’air hygiénique demande de la chaleur,…D’accord, c’est le boulot du bureau d’études : à lui de mettre en place le système de climatisation qui valorisera ces énergies positives et négatives, qui exploitera l’air neuf extérieur disponible.Mais c’est aussi le boulot de l’architecte de créer un bâtiment qui favorise la ventilation naturelle des locaux, qui exploite la lumière naturelle tout en créant des masques solaires pour limiter la surchauffe, qui diminue tous les besoins thermiques … au point que des plafonds froids irrigués par de l’eau à 18°C suffisent pour rafraîchir les espaces, facilitant ainsi le travail de l’ingénieur !Aujourd’hui, dès la conception, une analyse des besoins du bâtiment devrait permettre de visualiser l’impact des mesures URE et d’établir une stratégie. En voici un exemple.

Qu’entend-on par analyse des besoins thermiques ?

Chaque local reçoit des apports (internes ou externes) et a besoin de chaleur ou de froid pour maintenir le confort intérieur.

Ainsi, pour un bureau, on distingue :

  • des apports :
    • solaires,
    • internes (luminaires, bureautique, occupation, etc.),
    • des parois (positifs ou négatifs selon la saison),
    • de ventilation et d’infiltration (positifs ou négatifs selon que l’air pénétrant dans le local est plus chaud ou plus froid que l’ambiance).
  • des demandes :
    • de chauffage ou de refroidissement du local,
    • de préparation de l’air de ventilation (chaud ou froid, humidification ou déshumidification) lorsque l’air pulsé est traité.

La demande thermique d’un local est donné par la relation :

Demande thermique = Puissance des équipements x Temps

La demande thermique du bâtiment regroupe ainsi les besoins thermiques des locaux, et les besoins thermiques liés à la préparation de l’air neuf pulsé.

On peut établir la puissance demandée par les équipements chaque heure de l’année et la représenter en fonction de la température extérieure qu’il fait à ce moment.

Par exemple, si l’on regarde la demande des parois, la puissance de chauffe est d’autant plus grande que la température extérieure est basse; la puissance de refroidissement est d’autant plus forte que la température extérieure est élevée. Entre les deux, il existe une zone neutre où la température ambiante évolue entre 21 et 24°C. Par exemple, pour un bureau type on aurait :

Les 8 760 heures de l’année se répartissent en fonction de la température extérieure comme suit (année type moyenne) :

En multipliant la puissance par le temps, on obtient donc un graphique du type :

La demande de chaleur est représentée en rouge sous l’axe des x, la demande de froid est représentée en bleu au dessus de l’axe des x, tout au long d’une année type moyenne.

On constate dès lors que si la puissance de refroidissement est forte pour des températures élevées, l’énergie correspondante est très faible puisque cela n’arrive (hélas !) que quelques heures par an.


Les caractéristiques du bâtiment étudié

Le bâtiment-type étudié est prévu pour 380 personnes, et a une surface de 3 000 m² répartie entre

  • bureaux (50 %),
  • salle de conférences (10 %),
  • couloirs (20 %),
  • réserves et sanitaires (12 %),
  • salle de réunions, salle informatique et cafétéria (8 %).

Les locaux sont occupés de 8h à 18h sauf pour la salle de réunions (2 X 2 heures par jour) et la salle de conférences (2 heures par jour).

Pour plus de détails sur le bâtiment étudié, consultez l’ (sous format Word).


Comparaison d’une version « années 60 » avec une version « années 2000 »

Comparons les bilans énergétiques entre une construction ancienne (simple vitrage, murs non isolés, …) avec une version plus récente (double vitrage, murs isolés, …)

Voici les bilans obtenus par simulation informatique des 2 bâtiments :

On constate logiquement que le bâtiment récent demande nettement moins de chauffage, mais plus de refroidissement. Si autrefois le bâtiment était chauffé jusque 15°C, la température d’équilibre s’établit aujourd’hui vers 12°C.

À noter que simultanément certains locaux demandent d’être refroidis (au Sud, à l’Ouest) alors que des locaux au Nord demandent encore de la chaleur.

Curieusement, l’accroissement de la demande de climatisation se fait surtout pour une température extérieure comprise entre 14 et 24°C, c’est-à-dire à un moment où de l’air frais extérieur peut être utilisé pour refroidir naturellement le bâtiment.

Alors, faut-il faire marche arrière et ne pas isoler nos bâtiments ?

Non ! La consommation totale est nettement plus faible qu’avant, surtout si le système de climatisation valorise intelligemment l’air frais extérieur !

Il restera sans doute une période où la machine frigorifique est nécessaire, mais elle ne représente proportionnellement qu’une très faible consommation : alors pourquoi se priver de ce confort ?


Profil de consommation standard aujourd’hui

Partons du bâtiment « récent » et décomposons les courbes de chauffage et de refroidissement :

Remarque : les paramètres d’exploitation ont été légèrement modifiés, aussi les demandes totales sont légèrement différentes.
Les besoins de chauffage (ancienne courbe rouge) se décomposent en 3 postes :

  • le chauffage apporté dans les locaux (rouge),
  • le chauffage de l’air neuf hygiénique (bleu clair),
  • l’humidification de l’air (mauve).

La demande de refroidissement est composée :

  • du refroidissement apporté dans les locaux (par les ventilos-convecteurs, par exemple)
  • et un peu du refroidissement de l’air neuf extérieur (lorsque le local est refroidi, l’air neuf est pulsé à 16°C).

Quelques réactions « URE » immédiates !

Le premier réflexe est de se dire que l’on a tout intérêt à maîtriser le débit d’air neuf en période de chauffage ! Par exemple, un détecteur de présence peut activer l’apport d’air neuf dans les salles de réunions uniquement lors de la présence effective des occupants, ou dans la salle de conférences, le débit d’air neuf peut être régulé en fonction de l’indication d’une sonde CO2.

Deuxième réflexion : l’humidification de l’air n’est nécessaire que par température extérieure très froide. On pourrait la supprimer au-dessus de 8°C, par exemple.

Enfin, des besoins simultanés de chaud et de froid existent. Or une machine frigorifique qui extrait du froid, libère de la chaleur à son condenseur : on pourrait donc transférer de la chaleur d’un local vers l’autre ou préchauffer l’air neuf qui entre.

Mieux : imaginons que le refroidissement se fasse par des plafonds froids. L’eau entre à 15°C et sort à 17°C. Cette eau à 17°C peut préchauffer l’air neuf directement pour éviter le fonctionnement du groupe frigorifique. L’eau se refroidit et l’air se réchauffe : le bilan énergétique est nul !

Question : n’est-ce pas curieux de refroidir le local et de simultanément réchauffer l’air neuf de ce local ? Oui, mais le problème est que l’on ne peut pulser de l’air à 10°C dans un local sans créer un désagréable courant d’air.

Il n’empêche que l’on va privilégier les bouches hélicoïdales ou à jets toriques (qui réalisent un bon brassage de l’air) afin de pouvoir pulser de l’air dans les locaux à basse température, sans devoir le réchauffer de trop préalablement.

  

Les consommations énergétiques, rendement des équipements compris

Jusqu’à présent nous n’avons regardé que les demandes de chaud et de froid. Analysons à présent les consommations réelles en tenant compte des rendements de la chaudière et de la machine frigorifique et en intégrant les consommations des équipements (éclairage, bureautique, .)

Toujours pour cet immeuble de bureaux-type, voici des ordres de grandeur

  • de la consommation du bâtiment,
  • de sa consommation en énergie primaire (en tenant compte du rendement des centrales électriques),
  • du coût des consommations.

(Pour connaître les valeurs de rendement et de coût de l’énergie, consultez l’).

Représentation graphique du bilan énergétique du bâtiment

Consom. du bât.

[kWh/m²]

Cons. nrj primaire

[kWh/m²]

Coût de la consom.

[€]

Consom. relative du bât.

Consom. Relative nrj primaire

Coût relatif de la consom.

Traitement des locaux

    – apports de chaleur

30,6 30,6 0,765 17,2 % 7,9 % 6,0 %

    – apports de froid

10,9 31,1 1,088 6,1 % 8,1 % 8,5 %

Préparation de l’air

    – énergie sensible

37 39,6 1,03 20,8 % 10,3 % 8,0 %

    – énergie latente

14,6 41,7 1,46 8,2 % 10,8 % 11,4 %

Pulsion de l’air

7,8 22,4 0,78 4,4% 5,8 % 6,1 %

Ventilo-convecteurs des locaux

6,7 19 0,66 3,8 % 4,9 % 5,2 %

Charges internes électriques

   – éclairage

27,8 79,4 2,78 15,6 % 20,6 % 21,7 %

   – équipements

42,6 121,7 4,26 23,9 % 31,6 % 33,2 %

TOTAL

178 385,5 12,83

Bilan énergétique du bâtiment initial : consommation du bâtiment,  consommation d’énergie primaire et du coût de la consommation.

À l’analyse de ce bilan énergétique, on constate que :

  • L’éclairage et l’équipement bureautique sont les postes les plus importants dans la consommation d’énergie primaire (21 et 32 % respectivement) et dans le coût de la consommation (22 et 33 % respectivement).

 

  • La préparation et la pulsion de l’air pulsé constituent le poste le plus important du conditionnement d’air (33 % de la consommation d’énergie primaire totale et 25 % du coût de la consommation).

 

  • La consommation du traitement des locaux est finalement relativement faible (8 % de l’énergie primaire et du coût pour le refroidissement; 8 % de l’énergie primaire et 6 % du coût pour le chauffage).

L’impact de différentes améliorations énergétiques

Au regard du bilan énergétique global du bâtiment, c’est dans la consommation électrique des équipements que l’on peut faire le maximum d’économies : gestion automatisée de l’éclairage, mise en veille des équipements bureautiques.

Mais au niveau des besoins de chaud et de froid du bâtiment lui-même, profitons de notre bâtiment simulé pour lui injecter quelques rénovations URE et analysons l’impact de chacune de ces mesures.

Stopper l’humidification lorsque la température extérieure dépasse 8°C > – 14 %
Placer un double vitrage à basse émissivité et avec un facteur solaire de 0,4 > – 13 %
Placer des stores extérieurs mobiles (facteur solaire de 0,2) > – 12 %
Organiser une ventilation nocturne naturelle de 4 renouvellements/heure, tout en augmentant l’inertie du bâtiment pour valoriser ce free cooling (si la ventilation était mécanique il faudrait ajouter la consommation des ventilateurs) > – 11 %
Pulser l’air neuf à 16°C dès que le local est en mode refroidissement (au lieu de 21°C) > – 10 %
Passer de 60 % de surfaces vitrées en façade à 40 % > – 8 %
Adopter une consigne de climatisation en été à 25°C au lieu de 24°C (surtout si plafonds froids rayonnants) > – 7 %
Améliorer l’étanchéité de la façade (taux d’infiltration passant de 0,3 à 0,1 vol/h) > – 2 %

Les différentes modifications ont été comparées indépendamment les unes des autres, toutes autres choses restant identiques.

Lorsqu’on cumule ces interventions, elles s’influencent l’une l’autre. Si bien que, si l’ensemble des améliorations est réalisé, la consommation thermique totale diminue de 42 % en énergie primaire, et de 44 % en coût, mais il est alors difficile de déterminer la part de chaque intervention sur la réduction totale.

Au niveau de la consommation globale du bâtiment, on constate une diminution de 26 % de la consommation en énergie primaire, et une diminution de 26 % du coût de l’énergie consommée (les consommations électriques pour la bureautique restant les mêmes).

Le cumul des interventions permet donc de diminuer de façon importante la consommation totale du bâtiment.

Demande thermique [kW/m²]

 

Consom. totale [kW/m²]

 

Énergie primaire [kW/m2]

 

Emission de CO2 [kg de CO2/m² x 10]

 

Coût de l’énergie [€]

 

Différence par rapport au bât. initial

 

Traitement des locaux

    – demande de chaud

19,8 24,8 24,8 65,3 0,62 – 19,2 %

    – demande de froid

4,6 1,8 5,3 6,2 0,185 – 83,1 %

Préparation de l’air

    – nrj sensible

21,0 23,3 25,9 62,5 0,687 – 37,1 %

    – nrj latente

9,4 9,4 26,9 90,5 0,94 – 35,6 %

Pulsion de l’air

7,8 22,4 26,4 0,78

Ventilo-convecteurs des locaux

6,7 19,0 22,4 0,66

Charges internes électriques

    – éclairage

14,1 40,3 47,5 1,41 – 49,3 %

    – équipements

42,6 121,7 143,6 4,26

TOTAL thermique

54,8 59,3 82,7 224,5 2,43

Par rapport au bâtiment initial

– 44,3 % – 36,4 % – 42,2 % – 37,1 % – 44,1 %

TOTAL global

130,4 286,1 464,4 9,54

Par rapport au bâtiment initial

– 26,7 % – 25,8 % – 27,8 % – 25,6 %

Une stratégie URE ?

> Il n’existe pas de « mesures miracles » pour faire chuter la consommation des bâtiments.
> C’est un ensemble de mesures qui permet d’améliorer progressivement le bilan final.
> Certaines de ces mesures sont du ressort de la créativité de l’architecte dès le stade de la conception (le traitement des apports solaires par exemple, ou le refroidissement naturel du bâtiment par une ventilation transversale des locaux).
> D’autres sont apportées par l’ingénieur de bureau d’études dans la gestion des équipements (la régulation de l’humidification en fonction de la température extérieure, par exemple).
> Mais lorsqu’architecte et ingénieur travaillent de concert, on peut atteindre des bâtiments de confort avec des solutions très économes.

Par exemple :

  • Si les apports solaires sont bien maîtrisés par la conception de la façade, une climatisation de 60 Watts/m² peut suffire. Des plafonds froids peuvent être prévus et alimentés au régime entrée-sortie de 17° – 19°. L’eau à 19° peut être alors récupérée pour préchauffer l’air neuf hygiénique. Et de l’eau à 17° diminue le risque de condensation sur le plafond et donc le besoin de déshumidifier l’air. Au plus fort de l’été, le régime de refroidissement 15° – 17° pourra être temporairement établi.
  • Si différentes salles de réunion sont prévues, l’architecte les disposera de telle façon qu’elles soient alimentées sur un même réseau de préparation d’air (par exemple une par étage, raccordée par une trémie commune). L’ingénieur prévoira une climatisation à débit d’air variable (VAV), avec dans chaque local une bouche de pulsion commandée par détecteur de présence. Le ventilateur travaillera à vitesse variable en fonction de la demande réelle. Le groupe de préparation sera dimensionné avec un facteur de simultanéité (défini de commun accord avec le Maître d’Ouvrage) pour tenir compte du fait que toutes les salles ne seront pas occupées en même temps.

 

  • Si un local informatique est prévu, il sera heureux de l’associer avec des locaux demandeurs de chaleur (au Nord, par exemple). Par exemple, un réseau de climatisation à débit de réfrigérant variable permettrait d’assurer le transfert entre le local donneur et les locaux demandeurs de chaleur.