Communauté d’énergie : Quel est le cadre mis en place et quels sont les outils à disposition ?

Communauté d’énergie : Quel est le cadre mis en place et quels sont les outils à disposition ?

Webinaire Energie+ – du jeudi 14 décembre 2023

Intervenants :

Philippe Judong – Renewable Energy Communities Projects – TWEED

Cliquez sur ce lien afin d’accéder à la présentation (PDF) de Philippe Judong

Basile CaprasseEco-passeur – Ville de Hannut

Cliquez sur ce lien afin d’accéder à la présentation (PDF) de Basile Caprasse

 Vidéo du Webinaire (appuyez sur « Regarder sur You Tube » afin d’accéder à la vidéo) 


Avec le soutien de :

En partenariat avec l’organisme :

Approcher globalement la question de la ventilation 

Cet article est, pour une large part, basé sur un document réalisé par la NAV (Netwerk ArchitectenVlaanderen) , l’organisation flamande des architectes, dans le cadre du projet d’amélioration de la qualité de l’air intérieur, en particulier dans les bâtiments scolaires initié par le département flamand de l’environnement en collaboration avec le VITO (Vlaamse Instelling voor Technologisch Onderzoek), l’institut flamand de recherche technologique. Cet ouvrage n’existe qu’en néerlandais et peut intégralement être téléchargé via ce lien.

Afin de concevoir un système de ventilation performant, il convient d’éviter ou de limiter drastiquement la présence d’agents tels que le CO2 et l’humidité émis par les personnes présentes, les polluants qui viennent de l’extérieur, les virus et les bactéries. Nous allons voir quelles sont les étapes et les aspects selon lesquels le type de ventilation est choisi.


1. Approche générale

Les professionnels du secteur de la construction doivent tout d’abord faire un état de la situation actuelle et/ou future du bâtiment à construire.

L’utilisateur

Le client  doit être rencontré afin :

  • de l’informer de l’intérêt d’une ventilation efficace en faisant bien la distinction entre ventilation et système de refroidissement de l’air (climatisation, ventilateur, etc.) ;
  • de lui demander son niveau d’exigence en terme non seulement de confort, mais aussi de facilité de prise en main, d’utilisation et de maintenance du (des) système(s) de ventilation proposé(s) ;
  • de s’accorder sur un budget basé sur le coût de l’appareil, son installation, son entretien, ses réparations, maintenances et sa consommation en énergie ;
  • de déterminer le type d’activités prévues selon les pièces et leur taille ainsi que le type d’utilisateurs .

La situation existante

Pour évaluer le système de ventilation adéquat pour évacuer et remplacer l’air « vicié », il faudra calculer le débit d’évacuation de l’air impropre, de renouvellement et d’amélioration de la qualité d’air sain par personne. Pour ce faire, le responsable du bâtiment (responsable énergie ou technicien) devra prendre en compte l’environnement extérieur, l’environnement intérieur ainsi que la ventilation existante.

L’environnement extérieur

Il fera un état des lieux des sources et densité d’agents extérieurs polluants tels que :

  • Les gaz d’échappement liés à un trafic lourd et fréquent de véhicules à proximité,
  • l’activité agricole ou industrielle à proximité,
  • la pollution sonore et olfactive.

Certains types de ventilation tels que des grilles d’aération ne constituent pas une solution au renouvellement de l’air sain si la densité de ces agents extérieurs est trop élevée. Par exemple, l’aération des chambres d’un internat qui surplombe une autoroute, fait face à une forêt ou un littoral sera adapté à l’environnement extérieur.

L’environnement intérieur

Selon la densité moyenne d’occupants et le type d’activités, le responsable du bâtiment doit analyser les types d’agents émis en interne :

  • Des polluants émis par les futurs matériaux de construction,
  • des polluants émis par les matières utilisées pour la décoration et le parachèvement,
  • des bactéries, virus ou émissions de CO2 émis par les occupants,
  • l’humidité de source humaine, végétale ou liée aux installations existantes.

La ventilation existante

L’analyse de ces mêmes circonstances est incontournable en cas de rénovation du système de ventilation. Y seront ajoutées des questions concernant le bâtiment dans son ensemble, le système de ventilation et l’ampleur de la rénovation.

Le bâtiment

  • Quel est l’état de son enveloppe actuelle ? (fissures et fentes impliquant tantôt une perte d’énergie tantôt de la condensation, de l’humidité et de la moisissure) ;
  • Quels sont les matériaux de construction déjà présents ?

Le système de ventilation existant

La rénovation ou l’extension du système de ventilation  déjà en place fera l’objet d’une analyse globale.

L’ampleur de la rénovation

Le responsable du bâtiment devra faire une série d’inspections de la ventilation existante afin d’y apporter des améliorations plus ou moins radicales selon l’ampleur de la rénovation prévue par l’institution concernée.

Cela passera inévitablement par un calcul des débits et flux déjà présents. Selon les superficies et les volumes, quelle quantité d’air se renouvelle chaque heure ? Quelle est la complexité du bâtiment existant ?

Pour connaître tous ces détails, il est primordial d’avoir fait le point sur les questions liées aux utilisateurs du bâtiment déjà existant. On en revient alors aux mêmes questions que celles abordées précédemment sur les futurs utilisateurs. La question est d’autant plus simple que l’usager et ses habitudes sont déjà connus. D’autres aspects tels que la possible utilisation du bâtiment pendant les travaux doivent être mis sur la table.

Enfin, une modernisation importante de la ventilation peut s’avérer coûteuse en cas de bâtiments complexes. Cela peut impliquer une décentralisation des systèmes de ventilation  pour augmenter le rythme et l’efficacité du renouvellement de l’air, en diminuer le volume sonore ou disperser des odeurs indésirables. Dans ce cas, il faut repasser par la case budget afin d’être le plus en accord possible avec l’institution concernée.


Les matériaux de construction

Que ce soit pour une rénovation ou une nouvelle construction, les matériaux doivent faire l’objet d’une analyse minutieuse avant de choisir un système de ventilation adéquat.

L’amiante

Des isolants en amiante non friable sont parfois encore présentes, notamment, pour protéger canalisations et tuyauteries. Elles dégagent ses fibres dans l’air et contaminent y compris les locaux qui n’étaient pas directement parachevés ou isolés à l’amiante.

Le retrait de l’amiante doit se faire dans de strictes conditions de sécurité pour les ouvriers, décrites par l’AGW du 17 juillet 2003 .

Les nouveaux matériaux de construction

Bien que les matériaux d’aujourd’hui soient le fruit de progrès en termes d’écologie, d’isolation et de durabilité, il subsiste encore de nombreux revêtements volatiles dont les évaporations sont tantôt minimales, tantôt significatives. Ces émissions peuvent persister jusqu’à plusieurs mois voire plusieurs années après les travaux. C’est pourquoi un choix de matériaux à faibles émissions ou un délai préalable à l’emménagement dans ces locaux sont à prévoir.

Citons deux exemples :

  • L’augmentation temporaire de concentration de polluants issus de certaines peintures va retomber à un seuil sain peu de temps après son application à condition de bien ventiler les pièces concernées.
  • Certaines résines utilisées contre l’humidité émettent des hydrocarbures qui polluent encore plusieurs années après leur installation.

Voici 2 liens utiles à consulter si vous souhaitez approfondir votre connaissance sur le sujet :

-> Les recommandations en matière de qualité et de renouvellement de l’air intérieur : comment limiter les polluants intérieurs ?


2. Concevoir le système de ventilation

Un système de renouvellement de l’air efficace doit garantir un air sain et confortable dans chaque classe, quelles que soient son utilisation, sa dimension et son occupation. Le gestionnaire du projet va calculer quels sont les débits prescrits en fonction des superficies, volumes et le type d’occupation prévu.

Il va croiser ses calculs afin de concevoir une construction à la fois étanche ET ventilée ! C’est pourquoi, pour des raisons sanitaires évidentes, il est important de passer par des experts en la matière pour contribuer à l’amélioration de la qualité de l’air dans les classes.

Vous trouverez les infos générales sur le dimensionnement des systèmes de ventilation sur la  page suivante.

Examinons ici la situation spécifique des salles de classe.

Voici un tableau récapitulatif provenant du décret flamand sur l’énergie qui prescrit les débits d’air par heure et par personne selon le volume de chaque type de pièce. Les exigences sont identiques à celles d’application en Wallonie.

Ces exigences doivent être combinées avec les prescriptions :

  • Du Code du Bien-être au travail, dont l’article 3 stipule que « L’employeur prend les mesures techniques et/ou organisationnelles nécessaires pour veiller à ce que la concentration de CO2 dans les locaux de travail soit généralement inférieure à 900 ppm ou qu’un débit minimal de ventilation de 40 m3/h par personne présente soit respecté ».
  • De la directive fédérale sur la qualité de l’air intérieur sur les lieux de travail , qui indique un débit de conception de minimum 25 m³/h par personne dans un local à pollution limitée.

De l’analyse au système de ventilation adapté

Une grille de lecture reprenant les étapes d’inspection de l’état actuel de la ventilation et des mesures à prendre en cas de besoins. Cette grille de lecture divise le processus en trois temps :

  1. La détermination du type de bâtiment – ancien ou neuf,
  2. une analyse des risques
  3. et enfin, la détermination de l’humidité de l’air idéale.

Ancien ou nouveau bâtiment

Construire un nouveau bâtiment permettra de ne pas passer par une étude de l’analyse des risques existants. Une fois les volumes, surfaces et occupations connus, on conçoit les systèmes de ventilation en parallèle.

Pour les rénovations ou les extensions, l’analyse se subdivise par zone :

  • Zones humides ;
  • espaces de circulation ;
  • zones spéciales ;
  • locales pour déchets ménagers ;
  • salles techniques ;
  • cuisine ;
  • salles de classe avec fonction spéciale.

Pour chacun de ces locaux, des valeurs sont prescrites et l’audit pourra justifier deux types de mesures à mettre en place par le pouvoir organisateur :

  1. Des actions techniques (rénovation, entretien, maintenance, réparation, etc.).
  2. Des actions organisationnelles permanentes ou l’occupation limitée d’un lieu dans le temps.

Une analyse des risques

Une première analyse de risques doit se faire sur base des sources citées plus haut : occupation, situation existante, environnement intérieur et extérieur afin de bien définir quel(s) type(s) de  ventilation est de mise selon :

  • L’occupation de personnes,
  • les matériaux existants,
  • la ventilation et traitement de l’air actuels,
  • l’entretien des ventilations,
  • le système de chauffage.

La détermination de l’humidité de l’air idéale

La stabilité d’un air ni trop humide ni trop sec dépend de l’occupation de chaque local.

On distingue :

  • L’occupation humaine : où les personnes passent le plus de temps,
  • l’occupation non humaine : où les personnes n’effectuent qu’un court passage,
  • les zones spéciales : cages d’ascenseurs, locaux techniques ou laboratoires.

Selon le Code du bien-être au travail, les valeurs usuellement retenues entre 40 et 60 % d’humidité peuvent être revues entre 35 et 70 % si le pouvoir organisateur sait justifier qu’aucun agent chimique ou biologique ne viendra atteindre la santé de ses occupants.

Par exemple, pour les locaux sanitaires, la ventilation doit prévoir un renouvellement de l’air de 25 m³/h par personne pour des urinoirs, 50 m³/h par personne pour des WC ou encore 75 m³/h par personne pour des douches.

Ces plages sont suffisamment larges pour ne pas justifier l’installation de déshumidification dans les salles de classe. A priori, il n’est pas nécessaire non plus de prévoir d’humidification. Cependant, si le groupe de ventilation n’est pas conçu pour ajuster son débit en cas, par exemple, de sous occupation des locaux, le risque d’un assèchement inconfortable est réel. Il pourrait alors être prudent de disposer, dans l’école, de quelques humidificateurs mobiles pour corriger des problèmes ponctuels.


Des mesures face aux contaminants

Suite à l’analyse des risques, des mesures doivent être prises par les instances dirigeantes ou le pouvoir organisateur dans le cas d’une école afin de démontrer que les locaux garantissent une faible émission. Pour éradiquer ou diminuer drastiquement les contaminants (virus, CO2 et bactéries) ces mesures sont prises en concertation avec le personnel compétent en matière de sécurité .

Prévoir un plan d’action

Si l’analyse des risques le justifie, un plan d’action doit être mis en place par les instances dirigeantes ou le pouvoir organisateur afin de contribuer à l’amélioration de la qualité de l’air des différentes pièces et plus généralement du bâtiment public dans son ensemble en termes de :

  • Répartition de l’air,
  • fluctuation des températures,
  • nuisances sonores ,
  • vibrations,
  • entretien des installations de ventilation.

Une fois les actions définies, le type de ventilation pourra alors être choisi parmi 4 systèmes différents :A, B, C ou D :

  • Les ventilations A et B sont naturelles, mais le contrôle limité sur leur fonctionnement engendre des pertes énergétiques.
  • La ventilation C se base sur un renouvellement naturel de l’air combiné à une ventilation mécanique. Il est généralement conseillé pour les bâtiments scolaires.
  • La ventilation D réutilise la chaleur de l’air pollué avant de le rejeter vers l’extérieur. C’est un système qui correspond aux maisons dites « passives ».

Selon nous, l’expérience montre à suffisance que seuls les systèmes de ventilation mécanique avec récupération de chaleur sont en mesure d’assurer une qualité d’air adéquate sans générer d’inconfort thermique majeur. Ils sont donc à privilégier.


3. La ventilation : son installation et son exécution

Une fois le type de ventilation défini en fonction de tous les facteurs cités plus haut, viennent les phases d’installation et d’exécution.

L’emplacement des systèmes de ventilation

Indiqué sur le plan de rénovation ou de construction, le système de ventilation doit se situer dans un endroit accessible à l’installation et à l’entretien. Son emplacement doit être choisi aussi en fonction des nuisances sonores possibles ou thermiques .

L’emplacement des entrées et sorties d’air

Les entrées et sorties d’air peuvent se faire par différents moyens :

  • Grilles d’aspiration et d’extraction de l’air vers l’extérieur,
  • ouvertures qui permettent le passage de l’air entre une pièce sèche et une pièce humide,
  • conduits en gaines galvanisées à placer dans des puits, plafonds suspendus ou apparents dans des locaux occupés ou pas. Le dimensionnement des ouvertures naturelles ou mécaniques doit être conçu afin de ne pas gêner les occupants des locaux concernés.

Aussi, un plan en 3D permettra d’estimer les conséquences du poids de l’appareillage sur la résistance structurelle du bâtiment et autres installations :

  • Plafonds, planchers et poutres,
  • canalisations,
  • murs extérieurs et porteurs,
  • installations électriques.

Le but est d’éviter l’influence des systèmes de chauffage et refroidissement sur la ventilation. Afin d’optimiser l’équilibre entre, d’une part, les extractions ou les entrées d’air et, d’autre part, les changements thermiques qui en résultent, toute l’installation doit être pensée pour compenser ou compléter le système thermique choisi.


4. Le suivi et la maintenance

Tel que nous venons de le voir, l’installation d’un système de ventilation visant à améliorer l’air dans les différentes pièces ne peut se faire qu’en passant par une série d’étapes qui impliquent des aspects aussi bien quantitatifs que qualitatifs. C’est pourquoi tous les acteurs de ce processus se doivent de connaître tous les détails de l’installation une fois terminée.

Installé dans les faux plafonds, occultés derrière des parois ou accessibles via des locaux techniques, le système de ventilation n’est pas toujours accessible à des personnes non compétentes. Parfois, le but est d’éviter aux utilisateurs de modifier l’équilibre savamment calculé par les professionnels du secteur. Ils risqueraient de provoquer des effets indésirables sur le confort, le bien-être et la santé des occupants.

Le concepteur doit donc donner à son client les éléments nécessaires afin qu’il comprenne, surveille, nettoie et entretienne convenablement son installation . Parmi eux, citons entre autres les plans d’exécution, les fiches techniques des matériaux, les rapports d’inspection, de démarrage et les schémas électriques de la ventilation. Une fiche reprenant les coordonnées des entreprises et des responsables doit également être fournie à l’utilisateur final.

Si vous souhaitez aller plus loin dans la gestion de la ventilation afin de prévenir la dispersion d’agents pathogènes , n’hésitez à consulter l’article réalisé en juillet 2020 durant la pandémie du COVID-19.

vers le 0 emissions de CO2

La démarche “Bâtiment zéro carbone”

La démarche des bâtiments zéro carbone n’est ni un label, ni une définition formelle d’objectifs à atteindre mais une démarche globale pour se rapprocher au maximum de la neutralité carbone.


La neutralité carbone : un indiscutable impératif écologique

D’ici 2050, de nombreux défis devront être relevés : d’une part, l’amélioration de la performance énergétique des bâtiments devra s’accompagner d’une amélioration de la performance environnementale, et d’autre part, le secteur de la construction devra se transformer afin d’augmenter le nombre et l’ampleur des rénovations, comme le prévoit le Green Deal européen.

Dans sa stratégie à long terme pour 2050, la Commission européenne reconnaît la nécessité d’une décarbonation quasi complète du secteur du bâtiment pour atteindre ses objectifs climatiques.

Les bâtiments dans le monde représentent jusqu’à 45 % de la consommation totale d’énergie et des émissions de carbone, ce qui indique que les bâtiments sont le principal facteur de changement climatique anthropique. Les bâtiments ont donc été identifiés comme offrant les meilleures possibilités de réduction des émissions de carbone. La construction sans carbone a été considérée comme une approche importante pour réduire les émissions de carbone associées aux bâtiments et a attiré une attention politique importante dans de nombreux pays((PAN W. (2014). System boundaries of zero carbon buildings.)).

Dans le même temps, les citoyens ont beaucoup à gagner de la décarbonation des bâtiments, notamment en termes de santé, d’emploi, de réduction de la facture énergétique des ménages et d’économies sur les coûts du système.


La nécessité d’accélérer des politiques énergétiques actuelles face à l’urgence

Un nouveau rapport publié par l’European Climate Foundation (ECF), préparé par CE Delft, montre que malgré la nécessité, les avantages et l’urgence de décarboner les bâtiments européens, le secteur n’est pas actuellement sur une trajectoire vers le zéro carbone d’ici 2050. Les politiques actuelles axées sur les incitations et l’information ne sont pas suffisantes pour atteindre cet objectif. Selon ce rapport, les politiques actuelles ne seraient capable de réduire les émissions des bâtiments que de 30% d’ici 2050((Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020)).

 

démarche 0 carbone

Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020.


La neutralité carbone

Nous considérons que la neutralité carbone consiste à atteindre un équilibre entre les émissions de CO₂ d’origine humaine et leur élimination de l’atmosphère. Cependant, dans la pratique, les possibilités d’éliminer le CO₂ de l’atmosphère étant limitées, la neutralité carbone ne sera atteinte qu’en limitant très fortement les émissions, en agissant en faveur d’une multiplication des possibilités d’élimination du CO2 et en compensant les émissions d’un secteur en les réduisant ailleurs, en investissant par exemple dans les énergies renouvelables, l’efficacité énergétique, etc…

En ce qui concerne les bâtiments, une partie des émissions de CO₂ est liée à la consommation d’énergie opérationnelle, c’est-à-dire l’énergie consommée pendant l’utilisation des bâtiments, et une autre partie est due à la fabrication, au transport et à l’application des matériaux. Actuellement, les exigences réglementaires n’incluent pas l’empreinte carbone des matériaux.

Nos Régions ont donc développé l’outil TOTEM (Tool to Optimise the Total Environmental Impact of Materials), qui vise à évaluer les impacts environnementaux de leurs projets de construction à l’aide de 17 indicateurs, dont le CO₂. (voir Les Dossiers du CSTC 2018/2.2).

En effet, on sait que :

  • l’impact environnemental des bâtiments est bien plus important que la seule énergie qu’ils consomment
  • Plus la performance énergétique des bâtiments s’améliore, plus la part des émissions de CO₂ liée aux matériaux mis en œuvre augmente (voir schéma).

QZENDeltour., N. Heijmans (2020). Du Nearly Zero Energy Building à la neutralité carbone.

Les deux voies principales pour approcher cette neutralité carbone sont donc :

  • l’ abandon quasi total des énergies fossiles (gaz, pétrole, charbon, …) car elles émettent massivement du CO₂ lors de leur combustion.
  • l’ évolution de notre régime en terme de matériaux
    • processus de fabrication/recyclage des matériaux
    • processus de construction/déconstruction des bâtiments ((Deltour., N. Heijmans (2020). Du Nearly Zero Energy Building à la neutralité carbone))

Comment approcher concrètement cette neutralité carbone ?

En se concentrant sur trois domaines où le potentiel de réduction des émissions est le plus important, à savoir la performance énergétique de l’enveloppe des bâtiments existants, les vecteurs énergétiques et les matériaux de construction, le rapport publié par l’ECF (préparé par CE Delft et Climact) recommande une toute première feuille de route à long terme des politiques visant à réaliser des réductions essentielles de carbone dans le secteur des bâtiments résidentiels. Celle-ci est, pour une large part, également valable pour les écoles.

Les mesures ont été regroupées en cinq « zones cibles d’émissions » :

  • L’enveloppe du bâtiment :
    • Améliorer l’enveloppe des bâtiments existants et nouveaux pour réduire la demande d’énergie pour le chauffage et la climatisation.
    • Réduire le niveau d’émissions intrinsèques associé aux matériaux de construction utilisés.
  • Changement de combustible de chauffage :
    • Décarbonation de la demande résiduelle de chauffage par le passage à des vecteurs énergétiques sans carbone (électricité renouvelable, chauffage urbain, gaz sans carbone, biomasse durable).
      Ce changement englobe la décarbonation du vecteur énergétique (combustible) ainsi qu’un système de chauffage différent dans le bâtiment, et souvent aussi une infrastructure énergétique nouvelle ou adaptée.
  • Efficacité des appareils ménagers :
    • Remplacement des appareils électriques par des appareils plus efficaces.
  • Électricité renouvelable :
    • Décarbonation de l’électricité résiduelle en passant à une électricité 100 % renouvelable.
  • Matériaux de construction décarbonés :
    • Utilisation de matériaux recyclés et sans carbone dans la construction et la rénovation et passer à une industrie 100 % décarboné((Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020)).

Kruit, J.Vendrik, P. van Berkel, F. van der Poll & F. Rooijers (2020) Zero carbon buildings 2050 – Background report Delft, CE Delft, june 2020.

Schéma © Architecture et Climat (UCL).

Nous avons pu également relier cette démarche à une norme déjà active au Canada depuis 2017.
Cependant, contrairement à cette norme, nous voyons la démarche des bâtiments zéro carbone comme quelque chose qui n’est :

  • ni un label
  • ni une définition formelle d’objectifs à atteindre
  • mais une démarche globale pour se rapprocher au maximum de la neutralité carbone.

Les cinq axes de réflexion principaux des bâtiments zéro carbone que nous leur empruntons seraient donc :

  • la réflexion sur le carbone intrinsèque : reconnaître l’importance des impacts des matériaux du bâtiment sur le cycle de vie
  • la diminution des émissions de gaz à effet de serre par l’ arrêt de brûler quoi que ce soit, à moins que la source soit locale, durable (biomasse gérée durablement/pompe à chaleur)
  • la compressions des besoins d’ énergie opérationnelle
    • chauffage par un travail sur l’enveloppe
    • électricité par un travail sur les talons de consommations et l’efficacité des appareillages/systèmes/luminaires
  • la couverture de ces besoins par l’ énergie renouvelable produite sur place au maximum sinon achetée au fournisseur
  • la réduction de la demande d’ énergie de pointe

Réflexion sur le carbone intrinsèque

L’analyse multicritère des impacts d’un matériau ou d’une solution est un exercice complexe.

Si on privilégie le réemploi et qu’on choisit des matériaux

  • fabriqués partir de matières premières renouvelables (et renouvelées !) et/ou ou à partir de matières recyclées ;
  • peu transformés (surtout thermiquement) ;
  • peu ou pas traité, n’utilisant pas de produits toxiques ;
  • résistants et réparables ;
  • issus de filières locales et d’entreprises qui respectent leurs travailleurs ;
  • assemblés mécaniquement ;
  • réutilisables ou recyclables en fin de vie.

Alors, on est dans le bon ! Analysons tout ceci de façon détaillée via le site « rénover mon école ».

Schéma © Architecture et Climat (UCL).


Une vision dépassant le seul domaine de la construction : concevoir avec une vision globale pour de meilleurs résultats.

En 2014, un chercheur chinois a tenté de cadrer théoriquement le terme ‘bâtiment zéro-carbone (ZCB)’ afin de pallier les manques de connaissances des fondements théoriques et des limites qu’il identifie dans ses recherches. En effet, pour lui, les ZCB sont des “systèmes sociotechniques complexes qui ne peuvent être examinés efficacement sans définir explicitement leurs limites […] car toutes les stratégies de réduction du carbone impliquent des facteurs politiques, économiques, techniques, sociaux et comportementaux qui relient de multiples parties prenantes telles que les praticiens, les occupants et les chercheurs”. Dès lors, concevoir un ZCB peut parfois s’avérer plus complexe que prévu. ((PAN W – 2014 –  System boundaries of zero carbon buildings))

Aujourd’hui, une planification urbaine de plus en plus intelligente maximise les possibilités de conception à faible émission de carbone dans les bâtiments et les infrastructures environnantes.

Lorsque les bâtiments sont considérés, par exemple, comme une source d’énergie pour les véhicules électriques, il est clair que les frontières interdisciplinaires sont franchies. La conception des bâtiments peut donc faire partie d’un ensemble plus vaste qui englobe également les transports et la planification urbaine.

Il est bon de rappeler que la conception de bâtiments à faible émission de carbone tient également compte des scénarios d’utilisation future et de fin de vie, en maximisant le potentiel d’entretien, de réparation, de rénovation et d’adaptation. Une conception intelligente pour le désassemblage et la déconstruction choisit et utilise des matériaux qui peuvent être recyclés, ou qui peuvent être extraits et séparés facilement pour être traités.

Parallèlement, les mesures de performance de dernière génération relèvent le niveau des normes de conception dans les nouvelles constructions, dans le but d’éliminer les émissions de carbone associées aux coûts d’exploitation. Dans ce contexte, l’accent est mis sur le suivi et la mesure des résultats avec une fiabilité et une rigueur accrues, et sur l’utilisation de solutions de conception intégrées pour atteindre des émissions nettes nulles aujourd’hui tout en préparant l’avenir.

 

Prévenir la dispersion d’agents pathogènes


Gouttelettes et aérosols

L’épidémie liée au coronavirus SARS-CoV2 est l’occasion de faire le point sur la dispersion des agents pathogènes dans les bâtiments, et le rôle des réseaux de ventilation.

A l’évidence, les espaces confinés et mal ventilés sont favorables à la transmission des infections respiratoires. La durée de l’exposition à ce type d’environnement semble jouer un rôle (dans ce type d’espaces, les transmissions se font de deux façons : par gouttelettes, expulsées lorsque l’on parle, éternue ou tousse, et par aérosols).

La différence entre gouttelettes et aérosols tient en leur taille et, par conséquence, leur capacité à rester plus ou moins longtemps en suspension dans l’air et à éventuellement se disperser dans un réseau de ventilation. Certaines maladies, notamment liées au coronavirus SARS-CoV2, se transmettent également par le contact de surfaces infectées. Il s’agit là d’un mode de transmission qui n’est pas lié aux aspects techniques du bâtiment et que nous n’aborderons pas.

Les gouttelettes (> 10 micron) sont relativement lourdes et tombent à 1 ou 2 mètres de la personne qui les émets en toussant ou éternuant. La transmission se fait dès lors largement par le contact des mains avec des surfaces ou objets préalablement contaminées, puis le transfert des mains vers les yeux ou le système respiratoire. Une transmission directe par inhalation est néanmoins possible entre deux personnes proches (1 à 2 mètres).

Les aérosols sont formés par l’évaporation et dessiccation de gouttelettes. Il a été montré que les particules SARS-CoV-2 peuvent rester actives près de 3 heures dans l’air après leur production ((REHVA, REHVA COVID-19 guidance document, April 3, 2020, disponible sur : https://www.rehva.eu/fileadmin/user_upload/REHVA_COVID-19_guidance_document_ver2_20200403_1.pdf)).Des particules si petites peuvent facilement être portées sur de longueurs distances par des  mouvements d’air tels que présents dans les bâtiments. La contamination se produit alors par inhalation sans contact rapproché.

Covid19 Prévenir la dispersion d’agents pathogènes

Modes de transmissions des coronavirus (inspiré de publications de l’OMS).


Recommandations

Rapidement après le début de l’épidémie de COVID19, la Fédération des Associations Européennes de Chauffage, Ventilation et Air-conditionnée (REHVA) a publié des recommandations destinées à prévenir la transmission de la maladie. Ces recommandations n’étant pas, à ce moment, appuyées par des preuves scientifiques suffisantes, il s’agissait de recommandations de prudence pour les bâtiments tertiaires, à l’exclusions des bâtiments de soins.

Il est à noter qu’au moment de la publication des recommandations du REHVA, il était supposé que la transmission du SARS-CoV2  ce faisant par gouttelettes et contact uniquement. La transmission par aérosols n’avait pas encore été mise en évidence.

Les études scientifiques avançant, le European Center for Disease prevention and Control (ECDC) a publié en juin 2020 des recommandations concernant les  systèmes de ventilation dans le cadre de la prévention du COVID19. Celles-ci sont globalement cohérentes, bien que moins détaillées, que celles du REHVA.

Globalement, ces recommandations portent principalement sur le maintien de taux de renouvellement d’air élevés.

Dans ce qui suit, sauf mention contraire, les recommandations pointées sont celles du REHVA.


Garantir des débits de ventilation élevés

L’objectif est d’assurer le plus haut taux de ventilation possible par personne, grâce à :

  • L’élargissement des plages de ventilation : commencer la ventilation hygiénique 2 heures avant l’occupation du bâtiment, et l’interrompre deux heures après.
  • La continuation d’une ventilation non-nulle en-dehors des périodes d’occupation.
  • L’adaptation des consignes de modulations, par exemple en réduisant les valeurs cibles des régulations sur base de CO2 à 400 ppm, de sorte que le débit nominal de l’installation soit assuré en permanence.

En mi-saison, ces recommandations ont un impact énergétique limité. En plein été ou hiver par contre, elles risquent d’augmenter significativement les charges thermiques. Il faut donc rester vigilant et veiller à revenir à un fonctionnement « normal » dès que la situation sanitaire le permet.

D’autres recommandations liées sont :

  • D’utiliser autant que possible de l’air extérieur, notamment par l’ouverture des fenêtres, même dans les bâtiment équipés de systèmes de ventilation mécaniques. Cela revient à valoriser les solutions de ventilation intensive mécanique  ou naturelle, comme on le fait pour éviter les surchauffes estivales.
  • De garantir la dépression dans les locaux sanitaires pour limiter les risques de transmission fécale-orale. Cela implique de ne pas y ouvrir les fenêtres lorsqu’une évacuation mécanique par cheminée est prévue, pour ne pas risques des inversions de flux d’air.

La Taksforce Ventilation du Commissariat Corona recommande de ne pas dépasser 900 ppm et en aucun cas dépasser 1200 ppm ((https://emploi.belgique.be/sites/default/files/content/documents/Coronavirus/Plan_ventilation.pdf)).


Pas de recirculation d’air

A ce jour (juillet 2020), il n’y a pas de preuve de cas de contamination COVID19 liées à des réseaux de ventilation ((ECDC, Heating, ventilation and air-conditioning systems in the context of COVID-19, juin 2020,
disponible sur : https://www.ecdc.europa.eu/sites/default/files/documents/Ventilation-in-the-context-of-COVID-19.pdf)). Néanmoins,  les aérosols sont plus fins que les filtres classiquement utilisés et peuvent donc être distribués dans un bâtiment par un système de ventilation avec recyclage d’air. Ces systèmes doivent donc être absolument évités en période d’épidémie.

La présence de filtres en amont des clapets de mélange ne change pas cette recommandation, dans la mesure où ils ne sont pas assez fins que pour éviter le passage de particules de type aérosols.

Des systèmes de refroidissement à détente directe,  tels que les climatiseurs, entrainent également des mouvements d’air important dans un local, ce qui peut favoriser la dispersion des aérosols. L’usage de ceux-ci doit également être évité. Par contre, si ces climatiseurs ne peuvent être arrêtés complètement, il est recommandé de laisser tourner leurs ventilateurs en continu, de façon à éviter une sédimentation de particules au niveau des filtres et un apport important de particules dans l’air au moment du réenclenchement.

Dans le même esprit, on évitera les pulsions  d’air directement sur les personnes pour éviter que ce jet ne devienne vecteur de transmission si la personne qui se trouve dans le flux est infectée.


Utilisation sûre de la récupération de chaleur

Des inétanchéités au sein du dispositif de récupération de chaleur peuvent engendrer des contaminations, comme le ferait un recyclage.

C’est particulièrement sensible pour les échangeurs à régénération. En théorie, et lorsque l’installation est  bien réalisée et entretenue, les inétanchéité de ces échangeurs sont de l’ordre de 1 à 2% du débit passant, similaire à celles des échangeurs à plaques. Des inétanchéités de l’ordre de 20% sont par contre possibles en cas de défaut, typiquement à cause de déséquilibres entre les débits entrant et sortant.

Pour résoudre cela à court terme, une augmentation des débits globaux est recommandée, les déséquilibres étant relativement plus important à petits débits. Un by-pass de l’échangeur de chaleur et également possible, sans conséquence énergétique importante en mi-saison.


Eventuellement prévoir une filtration spécifique

Les particules liées à la transmission du SARS-CoV2  sont dans la gamme 70-120 nm. Pour cette gamme de particule, les filtres de type HEPA ont montré leur efficacité. Il s’agit des filtres dit « absolus », ou classes H10 à H14 selon la norme EN779, à savoir les filtres généralement utilisés dans les laboratoires, salles d’opérations, industries pharmaceutiques, … bien plus fins que ceux présents habituellement dans les bâtiments tertiaires.

Néanmoins, des systèmes de filtrations autonomes spécifiques peuvent être temporairement ajouté dans les locaux, pour peu qu’ils soient équipés de filtres HEPA. Leur efficacité a été démontrée, avec des réductions de concentration d’aérosols allant jusqu’à 90% ((J. Curtius, M. Granzin & J. Schrod (2021) Testing mobile air purifiers in a school classroom: Reducing the airborne transmission risk for SARS-CoV-2, Aerosol Science and Technology, DOI: 10.1080/02786826.2021.1877257)). Attention cependant à correctement les dimensionner. Leur efficacité dépendra de leur capacité à gérer le volume d’une classe. Un outil d’aide au dimensionnement est disponible.

Les systèmes portables de filtration électrostatique ou de désinfection par ultra-violet peuvent également être efficaces, lorsqu’il n’est pas possible d’assurer un apport d’air neuf important ((Hogeling, Jaap, et al. How Can Airborne Transmission of Covid-19 Indoors Be Minimised ? Disponible sur https://scholar.colorado.edu/concern/articles/8w32r666s)).  Mais dû au faible débit que ces systèmes peuvent traiter, ils ne purifieront que des petites zones et doivent donc être placés à proximité immédiate des occupants. Attention cependant aux émissions d’ozone que ces types de purificateurs d’air engendrent.  Un rapport présentant les différentes technologies de purificateurs d’air est indiqué en bibliographie ((Kirkman, Sophie, et al. Effectiveness of Air Cleaners for Removal of Virus-Containing Respiratory Droplets: Recommendations for Air Cleaner Selection for Campus Spaces, May 2020, disponible sur https://shellym80304.files.wordpress.com/2020/06/air-cleaner-report.pdf)).

L’arrêté ministériel du 12 mai 2021 relatif aux conditions de mises sur la marché de produits purificateurs d’air donne des indications précieuses sur quelles technologies éviter et privilégier. Bien que limité dans sa durée d’application et lié au contexte spécifique de la pandémie SARS-CoV-2, nous estimons que ces règles peuvent servir de cadre plus général dans le choix des systèmes de purification. Cet arrêté rappelle la priorité à donner à l’aération des espaces sur la purification d’air, et précise dans son article 5 qu’est interdite la mise sur la marché des produits mobiles et non mobiles de purification d’air destinés à être installés dans les locaux fréquentés par le public et qui se composent d’une ou plusieurs des techniques suivantes couplées ou non à une ventilation :

  • de l’ozone, les systèmes à plasma froid ;
  • les systèmes qui utilisent des UV-C et qui ne suivent pas les conditions fixées à l’article 3, 7° et à l’article 4, 8° ;
  • la combinaison d’UV et de solides photo-catalytiques (principalement le TiO2) ;
  • l’ionisation de l’air sans capture des précipités ;
  • brumisation au peroxyde d’hydrogène.

Le même arrêté encadre les performances attendues des systèmes de purification autorisés (voir le texte de l’arrêté pour les détail des exigences) :

  • Filtres : filtres répondent aux normes HEPA de la classe H13 (efficacité de rétention de 99,95%), HEPA de la classe H14 et EPA de la classe E12 (efficacité de rétention de 99,95%, de 99,995% et 99,5% respectivement, selon les normes NBN EN 1822:2019 et EN ISO 29463). Les filtres doivent être intégrés dans un boitier au système de ventilation pour prévenir toute fuite possible de sorte que l’efficacité totale du système est égale à l’efficacité du filtre seul.
  • Précipitateur électrostatiques : l’efficacité des précipitateurs électrostatiques est au minimum celle des filtres EPA de la classe H13. Le système de collecteur de précipités doit être remplaçable et la production d’ozone affichée sur l’appareil, les lampes doivent être placées dans un boîtier d’où aucune lumière ne peut s’échapper, ou le système de purification d’air non mobile doit être conforme aux normes de sécurité EN ISO 15858.
  • lampes UVC : la longueur d’onde des lampes UVC doit être garantie, par le fabricant ou le responsable de la mise sur le marché selon leur utilisation : entre 185 et 240 nm pour générer de l’ozone et entre 220 et 280 nm pour inactiver le SARS-CoV-2, avec une efficacité au moins équivalente à celle des filtres EPA de la classe E12. Les lampes doivent être placées dans un boîtier d’où aucune lumière ne peut s’échapper et conformes aux normes de sécurité reconnues EN IEC 60335-2-65 dans le cas d’un système fermé, ou aux normes de sécurité reconnues EN IEC 62471 et IEC PAS 63313 dans le cas d’un système ouvert.

Efficacité des différents systèmes de filtration

Pour la plupart des techniques, leur efficacité n’est prouvée qu’en laboratoire. Or, les conditions réelles influent largement sur la circulation de l’air et des particules par les mouvements des personnes. L’efficacité de tous les purificateurs dépend aussi de leur CADR. 

Le CADR pour « Clean Air Delivery Rate » correspond au débit d’air purifié par un appareil en m3/heure. Certains systèmes sont dotés de plusieurs positions de CADR. Dans ce cas, elles doivent être mentionnées par le fabricant, soit sur l’appareil lui-même, soit dans son manuel technique.

En conclusion, les chercheurs et les autorités se rejoignent pour dire que l’usage des purificateurs d’air est fortement conseillé, particulièrement dans les lieux où une aération régulière n’est pas possible. Il est sûr que ces appareils ne garantissent pas un air totalement sain. Dans les recommandations principales en matière de protection contre le SARS-CoV-2 dans les lieux clos, les autorités insistent sur l’aération des pièces. Aucun dispositif de purification d’air présent sur le marché ne peut se substituer au renouvellement de l’air par aération. Au niveau français, le Haut Conseil Supérieur de la Santé (HCSP) insiste aussi sur la nécessité du respect des gestes barrières, ils réduisent fortement le risque de transmission du SARS-CoV-2((Haut Conseil de la santé publique – Avis relatif au recours à des unités mobiles de purification de l’air dans le cadre de la maitrise de la diffusion du SARS-CoV-2 dans les espaces clos – 14 mai 2021)). 

Pour les personnes souhaitant équiper leur établissement d’un purificateur d’air, une liste des appareils contrôlés est disponible sur le site du Service Public Fédéral de la Santé : https://www.health.belgium.be/fr/list-des-produits-de-ventilation-purification-contre-la-covid-19-controles-et-autorises

Afin de compléter notre propos concernant la filtration, voici également un article portant sur la classification des filtres à air.


Prendre ses précautions lors des entretiens

Les entretient normaux d’équipement techniques tels que les filtres ou ventilateurs doivent être maintenus en période d’épidémie, pour assurer leur bon fonctionnement, en particulier garantir que les débits d’air souhaités sont effectivement obtenus.

Cependant, il faut veiller à la santé des personnes qui effectuent ces entretiens. On partira donc du principe de sécurité que les équipements  faisant l’objet de l’entretien son contaminés, en particulier les filtres liés au réseau d’extraction d’air, dans des bâtiments où des cas de contamination ont été identifiés.

Le personnel interviendra dans une installation à l’arrêt, pour ne pas se trouver dans un flux d’air potentiellement contaminé, sera équipé de gants et  d’une protection faciale, et les filtres usagés seront placés dans des sacs scellés.


Les fausses bonnes idées

Contrairement à d’autres transmissions par virus, jouer sur les conditions d’ambiance hydrique et thermique n’a pas d’impact sur les coronavirus. Ceux-ci résistent sans difficultés jusqu’à des humidités au-delà de 80% et des températures au-delà de 30°C, soit au-delà des zones de confort. L’humidification et le traitement d’air ne sont donc pas des moyens de prévention efficaces, et il n’y a pas lieu de modifier les consignes habituelles. Néanmoins, l’ASHRAE recommande de maintenir une humidité relative supérieure à 40%, notamment pour limiter le stress au niveau des systèmes respiratoires des occupants ((ASHRAE, COVID-19 (CORONAVIRUS) PREPAREDNESS RESOURCES, juin 2020,
disponible sur https://www.ashrae.org/technical-resources/resources)).

De la même façon, le nettoyage des conduits de ventilation ne limite pas les risques de contamination. Les particules sont soit trop lourdes pour être aspirées dans les conduits, soit trop légères (aérosols) que pour se déposer à leur surface. Il n’est donc pas recommandé d’augmenter la fréquence d’entretien normale.

Enfin, les remplacement de filtres au niveau des prises d’air extérieur ne doivent pas être fait plus fréquemment qu’à l’accoutumée. Ces filtres ne sont pas considérés comme des sources de contamination, et l’air extérieur est supposé sain.

Les dossiers thématiques : SmartBuilding

Les dossiers thématiques : SmartBuilding


Introduction

Le bâtiment demeure l’un des plus importants postes de consommation d’énergie en Belgique et plus généralement en Europe. Aujourd’hui plus de 80% des coûts d’exploitation du bâtiment sont liés aux personnes qui les occupent et environ 30% des coûts opérationnels d’un bâtiment sont consacrés à l’énergie. La maîtrise de l’efficacité énergétique des bâtiments permettant de réduire substantiellement la consommation énergétique et les émissions de CO2 est donc un facteur indispensable au développement du bâtiment et plus généralement de la ville de demain.

Dans ce contexte, les bâtiments tertiaires possèdent indéniablement le plus grand potentiel d’économie d’énergie de tous les secteurs d’activités. Les nouvelles technologies de l’Information et de la Communication (NTIC) offrent notamment de nouvelles perspectives par une amélioration du contrôle et de la gestion de l’énergie. La possibilité d’accéder directement à des données interconnectées au sein d’un même bâtiment permet d’intervenir rapidement sur les installations et équipements afin de corriger un dysfonctionnement ou une surconsommation détectée. Dans un futur très proche, le développement d’une maintenance prédictive permettra par ailleurs, grâce à l’analyse des données, de prévoir ces dysfonctionnements et d’agir en amont, avant que l’équipement ne tombe en panne, réduisant ainsi les coûts de maintenance et la consommation énergétique globale des bâtiments. Ces principes ont pour ambition de transformer le bâtiment, tant dans sa conception que dans la façon d’y vivre ou d’en gérer la consommation. Cet écosystème ouvert s’articule aujourd’hui autour du concept de « SmartBuilding ».


Contenu

Théories

Techniques

Stockage d’énergie

Flexibilité électique

Réglementations

Passerelles réseau

Passerelles réseau


La passerelle est un élément du réseau de communication qui permet de lier des branches utilisant des protocoles différents. Ces éléments sont extrêmement importants dans la réalisation d’un Smartbuilding car ils permettent à différents écosystèmes de fonctionner ensemble en assurant la traduction d’un protocole vers l’autre.

En plus d’assurer la continuité du réseau, la passerelle analyse l’ensemble des données qui transitent. Tout d’abord pour pouvoir les traduire mais également pour les filtrer. Si une requête ne rentre pas dans le cadre fixé par l’intégrateur, cet évènement sera filtré et n’aura pas lieu mais sera tout de même consigné dans un historique. Les passerelles assurent donc un niveau supplémentaire de sécurité au réseau.

SRI (Smart Readiness Indicator) ou Indicateur de Potentiel d’Intelligence

SRI (Smart Readiness Indicator) ou Indicateur de Potentiel d'Intelligence

SRI (Smart Readiness Indicator) ou Indicateur de Potentiel d’Intelligence.

Ce nouveau paramètre facultatif introduit par la directive européenne 2018/884 sur la performance énergétique des bâtiments vise à quantifier la capacité d’un bâtiment à intégrer et utiliser les nouvelles technologies et systèmes électroniques pour répondre aux besoins des occupants, optimiser les performances et interagir avec le réseau.

À l’instar des certificats PEB, le SRI (Smart Readiness Indicator) a également pour objectif de permettre aux occupants (locataires et propriétaires) de rendre palpable, tangible l’intelligence d’un bâtiment.

L’indicateur vise donc à conscientiser les acteurs de la construction, propriétaires et occupants des bénéfices des technologies dites intelligentes mais aussi à accélérer le déploiement de ces dernières, particulièrement dans la perspective de la performance énergétique en utilisant le SRI comme vecteur de plus-value.

La méthode d’évaluation du SRI est basée sur une inspection des services « smart ready » qui sont présents dans le bâtiment. Par exemple, pour l’éclairage, cela peut aller du simple interrupteur on/off jusqu’aux systèmes qui peuvent moduler l’intensité lumineuse artificiel en fonction de la disponibilité en éclairage naturel.

Pour commencer, le SRI concerne tous les domaines du bâtiment :

  • Le chauffage,
  • Le refroidissement,
  • L’ECS,
  • La ventilation,
  • L’éclairage,
  • Les parties mobiles de l’enveloppe,
  • L’intégration du renouvelable local,
  • La flexibilité et la gestion de la demande,
  • L’intégration du chargement de véhicules électriques dans le système du bâtiment
  • Le monitoring et le contrôle du bâtiment…

Chaque domaine comprend des sous-domaines appelés services, par exemple, pour les véhicules électriques :

  • Capacité de recharge
  • Information à l’occupant et connectivité
  • Capacité à équilibrer le réseau (peut se charger/décharger sur le bâtiment)

Pour chaque service, un degré d’intelligence ou de fonctionnalité devra être donné, par exemple, pour la capacité de recharge :

  • 0 : absente
  • 1 : faible capacité
  • 2 : capacité moyenne
  • 3 : grande capacité

Et pour chaque degré d’intelligence de chaque service, le(s) impact(s) positif(s) seront quantifiés et pondérés en fonction de plusieurs critères comme :

  • L’économie d’énergie,
  • La flexibilité énergétique vis-à-vis du réseau,
  • L’intégration d’énergie renouvelable,
  • Le confort,
  • La commodité, ergonomie,
  • Le bien-être et santé,
  • La maintenance et la prévention des pannes
  • L’information des occupants

Exemple :

Pour le domaine chauffage, 12 services sont proposés :

  1. Contrôle des émissions de chaleur
  2. Contrôle des émissions pour les TABS (mode de chauffe)
  3. Contrôle du réseau de distribution d’eau chaude
  4. Contrôle des pompes de distribution en réseau
  5. Contrôle intermittent des émissions et/ou de la distribution – Un contrôleur peut contrôler différentes pièces/zones
  6. Stockage d’énergie thermique pour le chauffage
  7. Contrôle de la préchauffe du bâtiment
  8. Contrôle du générateur de chaleur (combustion)
  9. Contrôle du générateur de chaleur (pompes à chaleur)
  10. Mise en séquence de différentes sources de chaleur
  11. Contrôle du système de chaleur en fonction de signaux extérieurs (prix des énergies, charge réseau…)
  12. Systèmes de récupération de chaleur

Pour le service 1 : contrôle des émissions de chaleur, plusieurs niveaux d’intelligences/fonctionnalités sont possibles :

  1. Pas de contrôle automatisé ;
  2. Thermostat central ;
  3. Contrôle pièce par pièce (vanne thermostatique ou contrôleur électronique) ;
  4. Contrôle pièce par pièce et communication entre les vannes/contrôleurs et le système centralisé de contrôle et d’automatisation « BACS » (building automation and control system) ;
  5. Contrôle pièce par pièce avec communication et détection de présence.

En fonction du niveau choisi, les points suivants seront par exemple considérés pour chaque impact dans le calcul :

Niveau d’intelligence/fonctionnalité Impacts
Économies d’énergie Flexibilité pour le réseau et le stockage Favorise les énergies renouvelables Confort Commodité Ergonomie/ Facilité Santé et bien-être Entretien et prédiction des pannes Affichage des informations pour l’occupant
0 Pas de contrôle automatisé 0 0 0 0 0 0 0 0
1 Thermostat central 1 0 0 1 1 0 0 0
2 Contrôle pièce par pièce (vanne thermostatique ou contrôleur électronique) 2 0 0 2 2 0 0 0
3 Contrôle pièce par pièce et communication entre les vannes/contrôleurs et le système centralisé de contrôle et d’automatisation « BACS » (building automation and control system) 2 0 0 2 3 0 1 0
4 Contrôle pièce par pièce avec communication et détection de présence 3 0 0 2 3 0 1 0

Pour chaque domaine (somme de ses services), le score obtenu sera comparé au score maximal pouvant être obtenu par le bâtiment et donnera une valeur en %. Par exemple, pour un bâtiment de logement sans ventilation, sans refroidissement, sans enveloppe mobile et sans renouvelable :

Domaines Scores
Économies d’énergie Flexibilité pour le réseau et le stockage Favorise les énergies renouvelables Confort Commodité Ergonomie/ Facilité Santé et bien-être Entretien et prédiction des pannes Affichage des informations pour l’occupant SRI
0 Général pondéré

 

71% 0% 0% 77% 33% 17% 20% 19% 45%
1 Chauffage 75% 0% 0% 85% 64% 0% 25% 75%
2 ECS 100% 0% 0% 0% 0% 0% 50% 67%
3 Refroidissement Non-applicable
4 Ventilation Non-applicable
5 Éclairage 0% 0% 0% 0% 0% 0% 0% 0%
6 Enveloppe Non-applicable
7 Renouvelable Non-applicable
8 Gestion de la demande 0% 0% 0% 0% 0% 0% 0% 0%
9 Véhicules électriques 0% 0% 0% 0% 20% 0% 0% 0%
10 Monitoring et contrôle 60% 100% 0% 67% 38% 33% 17% 14%

 

electrolyse de l'eau

Stockage Power-To-Fuel : l’électrolyse

Stockage Power-To-Fuel : l'électrolyse


Le principal représentant de ce type de stockage est l’électrolyse de l’eau qui permet de produire de l’hydrogène.

Contrairement au stockage thermique ou en accumulateurs, ce type de système permet une conservation plus longue, inter-saisonnière, de l’énergie sous forme d’hydrogène.

31. LE STOCKAGE POWER-TO-FUEL : L’ÉLECTROLYSE

L’hydrogène comme carburant peut ensuite être valorisé de différentes manières :

  • Comme carburant combustible directement via le réseau de gaz,
  • Soit dans une centrale à gaz adaptée. Dans ce cas, in fine, de l’électricité sera reproduite à partir du carburant.
  • Par production de méthane : en faisant réagir 4 molécules de H2 avec du CO2 du méthane et de l’eau sont produits.
  • Via une pile à combustible qui fera réagir 2 molécules de H2 avec une molécule de dioxygène pour produire de l’électricité avec un rendement de ±60% et rejeter de l’eau. Ce rendement sera meilleur si la pile à combustible est utilisée en cogénération pour valoriser le dégagement de chaleur.
STOCKAGE ÉLECTROCHIMIQUE : LES BATTERIES

Stockage Power-To-Power

Stockage Power-To-Power


Le stockage électrochimique : les batteries

Les batteries ou accumulateurs électrochimiques sont les moyens de stockage les plus connus. Nous en avons dans nos smartphones, nos appareils photos et de plus en plus souvent dans nos bâtiments.

Les accumulateurs de ce type profitent des propriétés électrochimiques de certains matériaux, notamment des couples oxydant-réducteur comme le Nickel et le Cadmium.

Lors de la phase de charge, l’électricité induit un flux d’électron entre les bornes qui va polariser les électrodes. La borne négative va alors attirer les protons (+) d’un côté de la membrane. Ces protons vont s’accumuler et l’électrolyte qui était initialement neutre et homogène va se polariser: un côté va se charger positivement et l’autre, orphelin de ses protons(+), négativement.

Lorsque tous les protons (+) ont migré d’un côté, l’accumulateur est chargé à 100%.

Schéma stockage électrochimique : les batteries.

Dans la phase de décharge (utilisation de l’énergie stockée), cette différence de polarité est utilisée pour mettre des électrons en mouvement dans le sens inverse et produire de l’électricité. Cette circulation en sens inverse des protons va progressivement rétablir l’équilibre de polarité entre les parties chargées positivement et négativement. À partir d’un moment, la tension électrique induite deviendra trop faible et l’accumulateur sera considéré comme « vide ».

Plusieurs matériaux sont utilisables pour réaliser ce principe. En fonction du type d’anode, de cathode et d’électrolyte la densité énergétique, la vitesse de charge, le coût et la stabilité seront variables.

Parmi les technologies les plus courantes, les densités énergétiques sont les suivantes :

Parmi les technologies les plus courantes, les densités énergétiques sont les suivantes

Les autres caractéristiques principales de différentes technologies:

  Vitesse de charge Vitesse de décharge naturelle Nombre de cycles EFFET mémoire* Recyclabilité Coût Commentaire
Plomb-acide Moyenne ±500 Extrêmement faible Très bonne faible Supporte mal les cycles trop amples
Ni-Cd ± rapide ±2000 Oui Toxique
NiMH ± rapide ±1000 Oui mais faible Peu polluant
Li-Ion ++ négligeable ±750 Extrêmement faible Mauvaise, coûteuse
Ni-Zn + rapide ±300 Oui mais faible correcte Moyen
Li-po ++ négligeable ±300

L’effet mémoire est un phénomène physique et chimique qui se manifeste dans certaines technologies d’accumulateurs plus que dans d’autres. S’il se manifeste, ces derniers doivent être déchargés complètement avant d’être rechargés sous peine d’observer une réduction de la capacité de la batterie difficilement récupérable.


Le stockage thermique

Le stockage d’électricité sous forme de chaleur est généralement utilisé tel quel sous forme d’énergie thermique pour l’eau chaude sanitaire ou le chauffage mais peut également être reconvertie et restituée sous forme d’électricité par l’intermédiaire d’une turbine.

Le principe général consiste à chauffer un matériau à haute densité calorifique (de l’eau, de la pierre réfractaire, un matériau à changement de phase, …) dans un milieu clos fortement isolé thermiquement. Le chauffage de la masse à lieu lorsqu’il y a surplus d’électricité.

Schéma stockage thermique.

À l’inverse lorsque l’électricité vient à manquer, la chaleur est libérée et va produire de la vapeur qui continuera son chemin dans une turbine haute température, comme dans une centrale TGV. La turbine va alors se mettre en mouvement et alimenter un alternateur qui pourra injecter du courant alternatif sur le réseau ou dans le bâtiment une fois qu’il sera passé par le transformateur adéquat.


Le stockage En « STEP »

Il s’agit probablement du système de stockage à grand échelle le plus connu. La STEP (Station de transfert d’énergie par pompage) fonctionne par pompage-turbinage. Lorsque le réseau ou le bâtiment est en état de surproduction, pour ne pas gaspiller cette précieuse énergie, une pompe sera actionnée. La pompe élevera alors de l’eau pour la stocker dans un bassin en hauteur (sur la toiture, en haut d’une coline, …).

Cette eau située en hauteur réprésente une énergie potentielle considérable. Ensuite, le fonctionnement est le même que pour un barrage hydroélectrique : au moment opportun, l’eau sera libérée et turbinée pour produire de l’électricité avant de rejoindre le bassin inférieur.

L’énergie disponible est alors égale à :

[La masse] x [la gravité] x [la hauteur de la masse]

Soit, pour un bassin de 1000 m³ (un cube de 10 mètres de côté) situé sur terre (g=9,81 m/s²) à une hauteur moyenne de 20 m par rapport au bassin bas :

1.000.000 kg   x   9,81 m/s²   x   20 m  =  196.200.000 Joules

Soit 54 kWh

Schéma stockage En « STEP ».


Autres systèmes de stockage

Le stockage d’électricité est probablement le Graal du XXIème siècle. C’est pourquoi les ingénieurs rivalisent de créativité pour inventer la solution la plus abordable, verte et performante.

Parmi les solutions que nous rencontrons aujourd’hui, citons le stockage par air comprimé.

Le principe est simple : on profite d’une cavité étanche existante ou on en crée une. Cette cavité sert alors d’espace de stockage pour notre air comprimé. Lorsqu’il y a surproduction, l’électricité va actionner un compresseur, ce dernier va alors faire monter la pression dans notre cavité. Si celle-ci est parfaitement étanche, l’énergie potentielle contenue dans la haute pression peut être conservée très longtemps. Seule la chaleur produite lors de la compression sera perdue en cours de route.

Schéma autres systèmes de stockage.

Ensuite, lorsque le bâtiment ou le réseau a besoin d’électricité, cette pression sera libérée et turbinée afin de produire de l’électricité.

Ce système est à la fois relativement simple et compact (l’essentiel se passant en sous-sol) mais nécessite la présence d’une cavité suffisamment grande, étanche, solide et profonde pour résister aux fortes pressions sans se déformer de manière sensible, ce qui provoquerait des désordres à l’installation et son environnement.

Un autre système qui a de beaux jours devant lui dans le secteur des transports et des énergies renouvelables notamment est celui du stockage d’électricité par volant d’inertie. Ici, le système est encore plus simple. L’électricité OU un mouvement rotatif (roue de voiture, éolienne, …) entraine à la rotation un cylindre extrêmement lourd. Ce surplus d’énergie va accélérer la rotation du cylindre à des vitesses pouvant atteindre les 10.000 tours par minute ! Afin de limiter les frottements et donc l’auto-décharge, ce cylindre est monté sur des roulements performants et confiné sous vide.

Ensuite, lorsque le réseau aura besoin d’énergie, le moteur va se transformer en générateur (une dynamo) et produire de l’électricité en freinant électromagnétiquement le volant d’inertie.

Ce type de système est notamment utilisé dans les autobus et certaines voitures hybrides afin de récupérer l’énergie de freinage. Plutôt que de freiner les roues par frottement, les roues sont embrayées progressivement au volant d’inertie. L’inertie du bus en mouvement est alors transmise au volant d’inertie qui prend de la vitesse et ralenti le bus jusqu’à son arrêt complet. À ce moment, le volant est débrayé et le cylindre tourne à vive allure avec peu de frottement. Lorsque les passagers sont tous à bord, le volant d’inertie va être progressivement ré-embrayé au système de traction du bus et lui restituer la quasi-totalité de son énergie de freinage mais sous forme d’accélération cette fois-ci.

Dans le cadre des énergies renouvelables, ce type de système est envisagé comme stockage tampon entre le dispositif de production renouvelable et le bâtiment afin d’éviter que, nous n’ayons à rebasculer sur le réseau au moindre nuage ou manque de vent.

Types de stockage

Types de stockage


Les différents types

Il existe 5 vecteurs principaux pour le stockage d’énergie :

  • Electrochimique (Batteries) ;
  • Thermique (Ballons d’eau chaude, inertie du bâtiment) ;
  • Cinétique (Volant moteur) ;
  • Gravitaire, potentielle (Station de pompage turbinage) ;
  • Chimique (électrolyse > hydrogène).

En fonction de la nature de l’énergie restituée par le système de stockage, on parlera plutôt tantôt de :

  • « Power to power » : La production électrique est convertie en énergie intermédiaire puis restituée sous forme d’électricité.
  • « Power to fuel » : La production électrique est convertie en combustible.
Bornes de recharge pour véhicules électriques (VES)

Bornes de recharge pour véhicules électriques (VES)

Bornes de recharge pour véhicules électriques (VES)

Dans les années à venir, la densité de bornes de recharge pour les VEs devrait drastiquement augmenter sous la pression de l’Europe via la directive EPBD 2018/884. En 2025, les nouvelles constructions et les rénovations lourdes (non-résidentielles) dont le parking fait plus de 10 emplacements devront être équipé d’une borne de recharge et 1 emplacement sur 5 pré-câblée pour pouvoir accueillir une borne dans le futur. Pour les bâtiments existants, la Belgique est invitée par l’Europe à fixer un nombre minimal de points de recharge pour les parkings non résidentiels de plus de 20 emplacements.


Les différentes puissances disponibles

D’un point de vue technique, les bornes de recharge et prises murales les plus courantes des constructeurs sont disponibles en : monophasé et en triphasé, en 16A, 32A et 64 Ampères pour des puissances allant jusqu’à 43 kW pour les bornes rapides.

Les puissances généralement disponibles sont donc les suivantes :

Type de borne Monophasé Triphasé
10A (prise classique) 2.3 kW   [pour dépanner]
16A 3.7 kW   [très lent : +15 à 25 km/hcharge] 11 kW
32A 7.4 kW   [Lent : +30 à 45 km/hcharge] 22 kW  [Moyen : +60 à 80 km/hcharge]
62A 43 kW   [Rapide : +100 à 140 km/hcharge]
Remarque 1 : certaines voitures ont une limite de vitesse de chargement

Remarque 2 : en hiver, la charge peut être ralentie si la batterie est froide

Des « superchargers » voient également le jour sur les aires d’autoroutes. Dans ce cas, les puissances dépassent déjà les 100 kW !

Pour avoir un ordre de grandeur, un véhicule électrique consomme autour de 20 kWh/100 km et leurs batteries ont une capacité allant de ± 20 kWh pour les micro-citadines à 40 kWh pour les petites citadines et jusqu’à 100 kWh pour les plus grosses berlines. Ces « super-chargeurs » sont donc capables de prolonger l’autonomie des VEs compatibles de plus de 200 km en moins de 20 minutes, soit le temps d’une pause-café !

Il est également bon de savoir que les derniers 20-30 % de la charge d’un VE s’effectuent jusqu’à 2 fois plus lentement.

Comme le coût de l’installation d’une borne est proportionnel à sa puissance, le choix de la puissance devra être judicieux. La décision d’opter pour une borne plutôt qu’une autre dépendra du temps de charge disponible et de l’autonomie attendue après recharge (dans les limites de la capacité de la batterie).

EXEMPLE : Quelle puissance mettre en place dans le cas de bornes à destination des employés d’une grande entreprise dont la durée du chargement sera étalée sur 8 heures (de 9 h à 17 h) ?

Comme les employés de cette entreprise travaillent à moins de 100 km de leur domicile mais que tous n’ont pas la possibilité de charger leur véhicule au domicile, une autonomie de 200 km peut, par exemple, être prévue pour assurer le retour au domicile le soir mais également le trajet vers le bureau le lendemain matin. Dans ce cas, les bornes lentes de 7,4 kW sont déjà largement suffisantes. Néanmoins, un électricien avisé pourrait favoriser le triphasé pour des puissances si importantes afin de réduire le courant pour une puissance similaire en augmentant la tension (de 230 v à 400 v). Le choix de la borne triphasé de 11 kW est donc également un bon choix.

Si l’entreprise emploie des consultants devant réaliser une série d’aller-retours sur la journée, quelques bornes rapides de 43 kW pourront s’avérer nécessaire mais uniquement pour cette flotte de véhicules-là !


Les types de connecteurs côté point de charge

Pour raccorder le véhicule à la borne, plusieurs types de fiches de raccordement existent. Pour les recharges lentes et normales (≤ 43 kW), côté borne, ce sont les fiches domestiques et les fiches de « type 2 » qui sont présentes. Tandis que pour les charges rapides (> 50 kW), celle-ci s’effectuent en courant continu avec prises spécifiques.

Les fiches et prises domestique permettent une puissance de 2,3 kW, ce sont celles que nous retrouvons couramment dans nos bâtiments :

Prise domestique. Source : Zeplug.com

Prise domestique. <

Source : Zeplug.com

Dans ce cas-là, pas besoin de borne en tant que tel mais attention tout de même, pour utiliser ce type de prise murale pour le chargement il est impératif d’avoir une installation pouvant supporter 16 ampères au moins sur ce circuit. Il ne faudra également pas utiliser des rallonges en cascade ou un câble trop long ou de section faible sous peine de courir un dangereux risque d’échauffement.

Les fiches de types 2 correspondent au standard Européen et sont les plus courantes. Elles sont utilisées pour les puissances courantes de 3,7 kW à 43 kW, en mono et triphasé, elles se présentent comme ceci :

Prise type 2. Source : Zeplug.com

Prise type 2.
Source : Zeplug.com

En ce qui concerne les bornes rapides, il existe trois autres types de connecteurs.

À partir de 2025, les bornes rapides devront être équipées de connecteurs CCS Combo (pour fonctionner avec les voitures européennes) et CHAdeMO (pour les voitures asiatiques et TESLA avec un adaptateur)

Bornes de recharge pour véhicules électriques (VES)

Prise et connecteur CCS Combo.
Source : engie-electrabel.be

 

Bornes de recharge pour véhicules électriques (VES)

Prise et connecteur CHAdeMO.
Source : engie-electrabel.be

 

Enfin, en dehors des standards Européens, il existe également la prise propriétaire TESLA SuperCharger

Bornes de recharge pour véhicules électriques (VES)

Prise et borne TESLA SUPERCHARGER.
Source : engie-electrabel.be

SmartBuilding : programmation des plages horaires

SmartBuilding : programmation des plages horaires


La programmation de plage horaire permet principalement de couper les appareils et systèmes aux moments où ceux-ci sont inutiles. C’est de cette manière et avec peu d’efforts que des économies peuvent être réalisées. Mais cela, une GTC classique peut également s’en charger.

Un Smartbuilding va plus loin, des consignes beaucoup plus précises peuvent être attribuées pour chaque tranche horaire (éclairage à 100% pendant les cours, éclairage à 80% pendant les pauses, …). Mais, surtout, la programmation « de base » s’auto-adapte en fonction de l’information remontée par les capteurs :

  • Déduction de l’absence/présence par :
    • Géolocalisation des smartphones des utilisateurs,
    • État du système d’alarme,
    • Détection de présence,
    • Activation d’équipements

Généralement le système de gestion permet la mise en place d’un planning différent pour chaque jour de la semaine, peut tenir compte des vacances et, éventuellement, d’évènements ponctuels (portes-ouvertes le weekend, réception le soir, …). Pratiquement, l’utilisateur définit une série de journées types (couramment de 5 à 7), comme sur l’exemple ci-dessous. Il décide des horaires et des régimes pour chaque sous-système pilotable par le centre de gestion.

Schéma planning

Dans un second temps, il spécifie quel jour de la semaine correspond à quel planning journalier type. Plusieurs « semaines types » peuvent ainsi être paramétrées.

Schéma planning journalier.

Une fois que la semaine type est planifiée, la gestion dite « calendrier » permet ensuite de corriger manuellement pour les exceptions (vacances, évènements, …).

calendrier de programmation

Mais, comme l’humain est imprévisible, il arrive que les heures s’allongent ou qu’un samedi puisse servir pour rattraper un cours ou son retard dans la remise d’un dossier. Pour éviter de se retrouver dans des locaux froids, sans éclairage et avec un pc qui refuse de s’allumer (et oui, toutes les charges sur les prises et appareils en veille sont chassées !), il existe généralement une fonction permettant d’introduire une exception pour une certaine période grâce à laquelle il n’est pas nécessaire de modifier le réglage normal et risquer d’oublier de le rétablir.


La programmation des consignes et des niveaux

Jouer avec les consignes de température ou les niveaux d’éclairement (pour ne citer qu’eux) pour réaliser des économies d’énergie est souvent un énorme défi si l’on ne veut pas affecter le confort des occupants. Dans un bâtiment classique mono-zone ou insuffisamment zoné, disposant de peu de points de mesure et d’une seule température de consigne générale, la marge de manœuvre pour réaliser des économies d’énergie est très faible si l’on veut éviter les plaintes.

Heureusement, dans un smartbuilding, le nombre de zones peut être très élevé, évolutif et leur dimension réduite permettant une détermination plus adaptée des niveaux et une gestion plus fine de la régulation.

Grâce à cela ainsi qu’à la multitude de capteurs et au centre de gestion, les consignes pourront évoluer et dépendre, entre autres, du :

  1. Moment de la journée (voir « programmation des plages horaires »),
  2. La présence et le nombre d’occupant dans une zone,
  3. L’activité des occupants (mesurée ou planifiée),
  4. L’humidité,
  5. La dimension de la zone,
  6. L’exposition solaire de la zone,
  7. L’inertie et la latence à la relance spécifique de la zone,
  8. Les charges internes de la zone…
  9. D’un éventuel contrôleur local d’ajustement pour chaque zone (par exemple, pour déroger de ±2°C à la température prévue par le système)

Grâce à ces nouvelles possibilités, la régulation pourra s’adapter afin que chaque occupant de chaque espace soit dans une situation de confort adaptée à son activité et sa localisation dans le bâtiment. Par ailleurs, l’inoccupation sera planifiée ou détectée et les consignes seront adaptées (extinction de la lumière, réduction du taux de renouvellement horaire de la ventilation hygiénique, …)

Schéma programmation des plages horaires

Dans certains bâtiments, les plus intelligents, l’historique des mesures et des actions est conservé et analysé par le centre de gestion pour s’ajuster continuellement. Ainsi, si les occupants d’un local diminuent systématiquement la température de leur zone dans certaines conditions (une plage horaire, un type d’ensoleillement, un certain jour de la semaine, …), le centre de gestion, s’il est suffisamment « smart », s’auto-adaptera progressivement en diminuant la température de consigne lorsque ces conditions sont réunies ou, encore mieux, lorsqu’elles sont sur le point d’être réunies.

Cliquez Ici pour avoir plus d’information sur les principes de régulation


Les alarmes

Les alarmes sont un des aspects les plus importants concernant les fonctionnalités des smartbuilding. Une alarme dans le monde de la domotique, du smart building ou objets connectés n’est pas à comprendre uniquement comme l’expression un problème mais dans un sens plus large comme un « évènement » pouvant déclencher une ou des actions.

Les alarmes sont des dérogations automatisées (préprogrammées) qui vont temporairement produire des exceptions autonomes dans le déroulement planifié des choses en fonction d’évènements.

Bien sûr il s’agit aussi de reporter les suspicions d’avarie d’un système (coupure, baisse de rendement, …), les capteurs défaillants, les ruptures de communication/connexion entre appareils …

Mais une avarie reste un évènement au sens large avec des actions conséquentes, par exemple :

  1. Compte tenu des conditions climatiques et de la puissance demandée à la chaufferie, le système détecte que la température des locaux monte anormalement lentement pendant plus d’une heure. Il y a donc un problème, l’alarme X est déclenchée.
  2. L’Alarme X déclenche des actions :
    1. Action Y1 : coupure de protection des organes de chauffe
    2. Action Y2 : notification au gestionnaire
    3. Action Y3 : affichage du message d’erreur adéquat
    4. Action Y4 : activation d’un système de dépannage si présent

Cet aspect est fondamental et c’est par ce système d’alarme que des systèmes différents peuvent avoir des relations du type « si X alors Y ». Ceci pouvant être agrémenté de conditions de manière quasiment illimitée.

Par exemple, une alarme peut être programmée de la manière suivante : si le taux de CO2 excède 1500ppm dans une pièce, alors, lors du déclenchement de cette alarme, l’ordre est donné à la ventilation de doubler le débit d’air. Une seconde alarme pourra être programmée : Si le niveau de CO2 repasse sous les 1000ppm, alors, le débit peut retrouver son niveau normal. Lorsque le système est plus perfectionné, plutôt que de fonctionner par paliers, celui-ci aura la possibilité de moduler le débit en continu.

Pour enrichir notre chaîne, nous pourrions, en cas de dépassement de 2000ppm, demander au système de l’inscrire dans un registre accompagné de l’heure, du lieu et de la durée, par exemple. Nous pourrions également paramétrer le système pour qu’il envoie une notification au gestionnaire du bâtiment lors du dépassement de ce seuil pendant une durée supérieure à 2 heures.

Ce type de logique peut s’appliquer à pratiquement toutes les sondes et tous les systèmes. Ce n’est plus qu’une affaire d’imagination.

Pour conclure et résumer, le flux d’informations traitées par le centre de gestion ne peut être suivi par le gestionnaire du bâtiment ou son responsable énergie. Comme il ne peut pas être partout, il lui est très pratique de placer des alarmes pour une série de conditions (valeur(s) supérieures à, statut(s) de certains appareils, …). De cette manière, le système n’attire son attention qu’en cas de situation anormale ou le notifie d’une dérogation automatique.


Les sécurités

Les sécurités sont des actions déclenchées automatiquement conséquemment à des alarmes pour protéger les équipements, les appareils, le bâtiment ou les occupants.


Monitoring et analyse des tendances

Pour assurer leur bon fonctionnement et fournir une information suffisante à la mise en place d’automatisme et d’alarmes, les smartbuildings sont dotés d’un grand nombre de sondes diverses. En analysant leur tendance et la manière dont les données évoluent en fonction des actions, le centre de gestion peut vérifier le fonctionnement des équipements et les performances de ceux-ci.

Idéalement, les informations suivantes sont mesurées et enregistrées :

  • Températures (de l’air dans chaque zone, des circuits d’eau, de l’extérieur, …),
  • Pression (par exemple, des circuits d’eau),
  • La position de certaines équipements (clapet ou valve ouverte/fermée, interrupteurs, …)
  • Statut allumé/éteint
  • Statut des alarmes

Et, plus rarement car ces sondes sont plus chères :

  • Débits,
  • La consommation,
  • La puissance,
  • Le nombre de tours par minute (ventilateur, moteur, compresseur, …)

Avec ces données, il y a deux solutions pour l’enregistrement :

  • Soit, systématiquement, chaque paramètre sera enregistré à une fréquence définie (utile pour les températures de l’air, par exemple),
  • Soit ce sont les variations entre la donnée mesurée et la donnée mesurée à l’intervalle de temps précédent qui sont calculées. Dans ce cas, nous pourrons choisir de n’enregistrer que les variations excédant un seuil défini. Ces évènements seront également accompagnés d’un horodatage. Ce type d’enregistrement est notamment pratique pour des mesures comme le taux de CO2 ou la pression atmosphérique car elle permet, par exemple, de détecter indirectement l’ouverture d’une fenêtre.

Toutes ces données peuvent servir à conserver une mémoire du bâtiment mais également, régulièrement, elles pourront être affichées sous forme de graphique et analysées par le gestionnaire pour détecter d’éventuelles anomalies évitables ou consommations anormales.


La modulation de la demande

Un smartbuilding peut parfois se résumer à des consignes, des plages horaires, des paramètres et des séquences d’actions qui vont déterminer le succès ou non de l’ensemble pour améliorer le confort, la santé, la sécurité et l’efficacité énergétique.

Mais, dans un smartbuilding, tout n’est pas ON/OFF, tout ou rien … Le système est également capable de moduler la puissance demandée (chauffage, refroidissement, ventilation) de la manière la plus adaptée et économe en énergie possible.

Un tel système sera capable d’optimiser les cas suivants :

La coupure (ou réduction) nocturne ou du weekend

Trouver le bon équilibre entre d’une part, une réduction forte de la température de consigne la nuit ou le weekend pour économiser de l’énergie et d’autre part, le besoin de ne pas trop la baisser pour éviter une relance difficile et consommatrice d’énergie le matin

La relance

Matinale

Cette relance sera optimisée en tenant compte de la température intérieure de chaque zone et la température extérieure. Le but sera alors d’atteindre la température de consigne à l’heure prévue avec le moins d’énergie possible. Ceci est rendu possible en évitant le dépassement de la consigne dû à une mauvaise modulation (les chaudières se coupent quand la température est atteinte mais malgré tout l’eau reste chaude dans les canalisations et les chauffages continuent à chauffer l’espace.

Schéma programmation relance matinale.

Pour encore améliorer les performances à la relance, pendant que le bâtiment n’est pas encore occupé, le système de gestion peut fermer les clapets de ventilation entre l’intérieur et l’extérieur et activer une circulation de l’air à l’intérieur du bâtiment (mode air recyclé) de manière à ne pas perdre d’énergie par la ventilation hygiénique (inutile, car les occupants ne sont pas encore là) tout en faisant circuler l’air et la chaleur dans l’ensemble du bâtiment !

La coupure (ou réduction) en soirée

Le système de gestion détermine le moment optimal (le plus précoce) pour couper ou baisser le régime des systèmes et tirer profit de l’inertie du bâtiment pour conserver un niveau de confort acceptable.

Schéma coupure (ou réduction) en soirée.

Ceci concerne dans une moindre mesure les systèmes de ventilation qui ne disposent pas d’autant d’inertie. En effet, si l’air est maintenu à un taux confortable de 800ppm de CO2 durant la journée et qu’on estime que le taux acceptable maximal est de 1000 ppm, alors, en fonction du taux d’occupation lors de la coupure des systèmes de ventilation, il faudra parfois moins de 10 minutes pour que la concentration en CO2 passe de 800ppm à 1000ppm dans les locaux ! Il en va de même, et c’est évident, avec l’éclairage.

coupure (ou réduction) en soirée

Adaptation en continu

En fonction des informations fournies par les différents capteurs et systèmes, le centre de gestion peut adapter la puissance des systèmes. Par exemple, si le taux de CO2 est bas, on peut supposer que l’occupation est plus faible (ou nulle) ou encore que des fenêtres ont été ouvertes (des capteurs pouvant éventuellement le confirmer).

Quelle qu’en soit la raison, le débit de la ventilation hygiénique pourra alors être réduit. Rien ne sert en effet de climatiser de l’air neuf et de le pulser dans un local si l’air de celui-ci est déjà sain, à bonne température et ne se dégrade pas.

Découvrez cet exemple de pilotage des installations au Centre Hospitalier de Mouscron.

SmartBuilding : champ d’application

SmartBuilding : champ d'application

Bien qu’il n’existe pas réellement de règle pour déterminer où commence le smartbuilding (une simple ampoule avec détection de présence suffirait-elle à rendre une pièce ou un bâtiment « smart » ?) et où finit son champ d’application, une série de fonctions de « base » sont presque universelles et concernent presque tous les systèmes connectés du bâtiment intelligent :

  1. Programmation des plages horaires,
  2. Programmation des consignes,
  3. Définition des alarmes,
  4. Mise en place de sécurités,
  5. Monitoring et analyse des tendances,
  6. Contrôle et optimisation des énergies et de la demande,
  7. Affichage des données et interface utilisateur
stockage logistique energie+

Stockage logistique

Stockage logistique


Définition

Un stockage logistique est l’ensemble des systèmes spatial, mobilier, technique et/ou organisationnel permettant à un processus ou une activité de ne pas s’effectuer en flux tendu grâce à l’ajout d’un stockage tampon à l’interface de plusieurs processus.

Sans cela, le produit qui passe par la ligne de production A devrait directement être envoyé sur la ligne de production B sous peine de bloquer la ligne de production A. Ceci imposerait un fonctionnement continu des deux lignes pour assurer le bon fonctionnement de l’ensemble.

Le stockage logistique permet au processus A de fonctionner même si le processus B ne suit pas derrière en stockant les produits entre les processus A et B. À l’inverse, si le processus A doit être arrêté, le processus B peut continuer en puisant dans le stock à l’interface de lignes A et B.

La présence d’un tel stockage permet une plus grande flexibilité dans la gestion énergétique et logistique. Les processus pouvant dès lors être lancés indépendamment aux moments opportuns sans impacter la performance globale de la production.

Le stockage logistique se fait partout et tout le temps, que ce soit votre vendeur de sandwich qui prépare à la chaine des clubs jambon fromage le matin et profite d’un large frigo comme stockage logistique ou encore votre postier qui utilise votre boîte aux lettres pour ne pas avoir à attendre votre venue pour effectuer sa tâche.

Avec la nécessité croissante de flexibilité électrique : la planification des activités consommatrice d’énergie et le stockage logistique entre la consommation énergétique et l’utilisation du service énergétique devrait tendre à se généraliser.

Demain, qui sait, peut-être que notre café du matin sera préparé la nuit quand l’électricité est propre et abondante puis stocké dans des ballons de café chaud pour être savouré toute la journée !

Fuel switching

Changement de vecteur énergétique ou Fuel-Switching

Changement de vecteur énergétique ou Fuel-Switching


Le changement de vecteur énergétique représente un levier important de flexibilité électrique pour un certain nombre d’industrie. Par exemple, si, dans votre entreprise, vous utilisez un sécheur, celui-ci peut fonctionner grâce à de la chaleur issue de gaz naturel combinée au courant d’air provenant de ventilateurs électriques. Le pouvoir séchant dépendant de la combinaison chaleur asséchante + débit d’air, le gestionnaire peut, à la demande et pour un même pouvoir séchant, faire varier cette combinaison :

  • Si l’électricité est abondante et peu chère, il pourra faire tourner les ventilateurs à pleine puissance et réduire la puissance thermique pour une consommation de gaz naturel moindre.
  • À l’inverse, si l’électricité manque et coûte cher, il aura tout intérêt à réduire au minimum la puissance des ventilateurs et compenser en augmentant la puissance des bruleurs au gaz.

Cette technique présente l’avantage de n’avoir aucun impact sur l’organisation de l’entreprise et la gestion des processus. Elle est également automatisable et donc peu contraignante au quotidien. En revanche, elle nécessite un processus adapté et un système technique redondant et capable de réaliser cette modulation ou ce basculement entre différents vecteurs. Il faudra néanmoins évaluer le bilan environnemental final d’une telle redondance des systèmes. De plus, l’utilisation d’énergies fossiles dans le cadre d’une volonté de décarbonisation de nos sociétés à l’horizon 2050 doit faire l’objet d’un regard critique.

Cette logique peut, par exemple, être transposée, avec ses qualités et ses défauts précités, au chauffage tertiaire que nous pourrions imaginer combiné et/ou switchable entre une chaudière à gaz et une pompe à chaleur.

planification des charges

(Re)Planification des charges

(Re)Planification des charges

Les entreprises disposant d’activités ou de processus pouvant être interchangés ou disposant d’un stockage logistique le permettant ont la possibilité d’adapter la planification de leurs processus consommateurs d’électricité pour optimiser leur facture (en cas de tarification ¼ horaire) et participer à l’équilibre des charges sur le réseau.

re planification des charges

Effacement énergétique

Effacement énergétique

Source : Enerdigit, opérateur d’effacement.


Définition

L’effacement énergétique consiste, pour un utilisateur du réseau (dans une plus forte mesure les industries), à réduire sa consommation en fonction de l’offre énergétique.

Ceci se traduit par la mise en sous-régime ou hors tension d’un équipement et/ou d’une activité en réponse à une baisse de la production énergétique. La baisse de régime ou l’extinction de l’équipement est effectuée :

  • Indirectement, via un message (e-mail, appel, sms) envoyé à l’entreprise détaillant le délai, la durée et la puissance à réduire. L’entreprise agissant ensuite en fonction de ces instructions,
  • Directement, à distance pour le gestionnaire du réseau par l’intermédiaire d’un boitier installé sur site permettant de moduler la consommation d’un ou plusieurs équipements.

Cette source de flexibilité sur le réseau, contrairement aux autres, ne demande que peu de moyens techniques et financiers. Elle peut même baisser la facture et être source de recettes supplémentaires pour les entreprises participantes.

Le système NextFlex permet à votre entreprise de prendre part à la flexibilisation du réseau !

En Belgique, le potentiel de charges flexibles a été estimé à 1,56 GW (2013).

Pour avoir quelques références en Belgique (2017) :

  • la puissance installée est de ± 22 GW
  • la puissance pic demandée en hiver est de l’ordre de 13 à 14 GW
  • la puissance moyenne demandée est de 9 à 10 GW.

Ce potentiel de charge flexible est réparti comme suit :

schéma de l'éffacement énergétique en Belgique

Potentiel de charges flexibles en Belgique (SOURCE : SIA Partners, 2013)

Nous pourrions donc flexibiliser jusqu’à 15 % de notre demande !

Tous secteurs confondus, l’installation de compteurs intelligents (permettant une tarification variable de quarts d’heures en quarts d’heure) devrait rendre techniquement possible d’inciter les consommateurs d’énergie à s’adapter à la disponibilité énergétique du moment.

Le développement concomitant des technologies de la communication dans le secteur de l’énergie (smartgrid) et dans le secteur du bâtiment (smartbuilding) ouvre un potentiel important pour mobiliser cette flexibilité.

Plus un réseau sera flexible, plus il pourra faire la part belle aux énergies renouvelables et réduire le risque de black-out.


Les 3 types de réserves en cas de déviation de la fréquence du réseau

La réserve primaire

Lorsque la fréquence du réseau commence à dévier des 50 Hz habituels de 100 mHz à 200 mHz soit 0,002 % à 0,004 % ELIA active la réserve primaire pour rétablir l’équilibre sur le réseau et écarter tout risque de black-out. Ce service est ouvert à tout qui :

  • Dispose d’un fréquencemètre,
  • Est disponible en permanence
  • Peut proposer seul ou par regroupement plus d’1MW
    • Pendant 15 minutes,
    • En moins de 30 secondes
    • Dont déjà la moitié en 15 secondes
    • Pouvant être réglé automatiquement

Les grands types de contrats sont au nombre de 3 en fonction de votre capacité à consommer ou fournir de l’électricité à la demande. La rémunération est liée à la mise à disposition à l’année et non à la fréquence de l’activation de votre effet levier. Ces contrats sont :

  • Le contrat « UP »
    • Ce contrat est passé avec les clients qui disposent de flexibilité permettant d’alléger la demande du réseau en effaçant une partie définie de sa consommation ou fournissant de l’électricité.
    • Rémunéré à hauteur de ± 16 000 € (2019) par an et par MW mis à disposition.
  • Le contrat « DOWN »
    • Ce contrat est passé avec les clients qui disposent de flexibilité permettant de doper la demande du réseau en cas de surproduction (comme un évènement climatique imprévu) ou de surestimation de la demande dans les prévisions en étant capable d’augmenter sa consommation ou diminuer la fourniture sur le réseau. Les entreprises métallurgiques sont par exemple d’excellents clients grâce à leurs énormes résistances électriques.
    • Rémunéré à hauteur de ± 60 000 € (2019) par an et par MW mis à disposition
  • Le contrat symétrique (UP & DOWN) 100 mHz ou 200 mHz :
    • Ce contrat est passé avec les clients qui disposent de flexibilité permettant à la demande :
      • De doper la demande et/ou de fournir moins d’énergie au réseau.
      • De réduire la consommation et/ou de fournir plus d’énergie au réseau.
    • En fonction du type (100 mHz ou 200 mHz), la rémunération peut aller de ± 150 000 € à plus de 300 000 € (2019) par an et par MW mis à disposition dans les deux sens (up et down).
    • Ce type de contrat est généralement passé avec des centrales thermiques.

La réserve secondaire

Lorsque la fréquence du réseau commence à dévier des 50 Hz habituels encore plus sévèrement, ELIA active la réserve secondaire pour rétablir l’équilibre sur le réseau et écarter tout risque de black-out. Ce service est activé en cas de problème majeur et exceptionnel et rencontre les mêmes exigences que la réserve primaire à la différence que cette réserve peut éventuellement être un peu plus lente au démarrage.

La réserve tertiaire

Contrairement aux deux premières, la réserve tertiaire ne vise qu’à réduire la pression sur le réseau :

  • Soit par injection par client sur le réseau,
  • Soit par réduction du prélèvement du client.

La mise en action de ces puissances n’a lieu qu’en cas de déséquilibre important. Pour cette raison, ce n’est pas un rééquilibrage automatique mais manuel (ELIA prend la décision, ce n’est pas automatique ; puis le client est mis au courant et agit) tandis que pour les réserves primaires et secondaires cette gestion est complètement automatisée. Ce service est ouvert via des enchères mensuelles pour les candidats qui :

  • Sont disponibles en permanence pour activer à la demande d’ELIA minimum 1 MW,
  • Peuvent mobiliser 50 % de leur puissance en moins de 7 minutes et 30 secondes et la totalité en moins de 15 minutes.

Les grands types de contrats sont au nombre de 2 en fonction de la fréquence et la durée pendant laquelle cette puissance peut être mobilisée :

  • Contrat Standard :
    • Jusqu’à 8 heures par jour, 365 jours par an.
      • Les 8 h pouvant être utilisées librement en une fois ou par petites périodes fréquentes
    • La rémunération est liée à la mise à la puissance et au nombre d’activations.
      • ± 3 600 €/MWdisponible/mois + rémunération par activation.
  • Contrat Flex :
    • Jusqu’à 2 heures par jour, 365 jours par an.
      • Maximum 8 périodes d’activation par jour.
    • La rémunération est liée à la mise à la puissance et au nombre d’activations.
      • ± 2300 €/MWdisponible/mois + rémunération par activation.
protocole de communication

Principaux protocoles et leurs caractéristiques

protocole de communication


Présentation

Les protocoles les plus populaires dans le smartbuilding sont :

  • Le KNX (Multi-supports, Multi-techniques, normalisé)
  • Le BACNet (Multi-technique, normalisé)
  • Le Protocole Dali (dédié à l’éclairage, non normalisé mais DALI2 arrive)
  • Modbus (Dérivé du BACNet : HVAC & contrôle de l’éclairage)
  • MBus (Compteurs intelligents)

D’autres protocoles sont utilisés couramment dans le bâtiment, dont notamment :

  • Wi-Fi,
  • Bluetooth,
  • Zigbee,
  • Z-Wave,
  • EnOcean,
  • Thread,
  • Opentherm
  Protocole Réseau Domaine Portée (m) Consommation Interopérabilité Normalisé Commentaire
Wi-Fi 2,4Ghz ou 5Ghz Polyvalent 10-250 Très élevée Oui OUI Gros débits de données
Bluetooth 2,4Ghz Polyvalent 5-125* faible Oui Facilité de configuration
Zigbee 2,4Ghz Polyvalent 20-50* Très faible Oui Max 65000 appareils
Z-Wave 868Mhz Polyvalent 20-50* Très faible Oui Max 232 appareils, plus stable que Zigbee,
EnOcean Ondes Remote control 30-60 nulle*** Oui Zéro énergie
Thread Ondes Polyvalent 40*
KNX Câbles / CPL / Ondes / Ethernet Polyvalent 350-700 Oui Oui
BACnet Câbles et dernièrement ondes radio (BACnet over Zigbee) Polyvalent 350-700 Oui Standard international normalisé très lent mais plus rapide en version IP.
Dali Câbles Éclairage 500 Non, DALI-2 le sera
Modbus Câbles HVAC, parfois éclairage 1200 Lent, dérivé du BACnet
Opentherm Câbles ou ondes Chauffage Refroidissement /
W-Mbus Ondes (LoRa**) Compteurs Sans-fil : 1000-5000

 

Très faible Bonne
*Maillage possible permettant aux appareils de jouer le rôle de nœuds pour étendre la portée du réseau.

**Réseau sans fil étendu à longue portée.

*** Bouton piézoélectrique qui fournit l’énergie nécessaire à l’envoie de l’information.


KNX

knx dans passerelle de communication

Le KNX, également appelé KONNEX, est né sur les cendres des protocoles EHS, EIB et Bâtibus avec la volonté de favoriser la standardisation et l’interopérabilité dans les Smartbuildings grâce à un protocole normé et ouvert.

Il s’agit d’un protocole de communication commun à différents équipements tant au niveau de l’éclairage comme les boutons-poussoirs, les détecteurs de présence, … qu’au niveau HVAC  comme les vannes motorisées, les moteurs de protection solaire, …

Il s’agit d’un protocole qui peut être véhiculé sur plusieurs supports : sans-fil, par bus terrain, par courant porteur en ligne ou par câble Ethernet.

Le Protocole KNX est développé en partenariat fort avec le BACNET mais veille également à l’interopérabilité de son protocole avec les autres protocoles comme le DALI ou le Modbus pour ne citer que les principaux.

En 2016, les spécifications KNX sont devenues gratuites.

Les dernières informations techniques en date peuvent être trouvées sur leur site.


Bacnet

bacnet dans passerelle de communication

Le Bacnet est un protocole de communication international et normalisé très répandu. Le Bacnet est plus lent que le KNX mais profite également d’un large champ d’application (bien qu’il soit principalement orienté HVAC).

Les dernières informations techniques en date peuvent être trouvées sur leur site.


Protocole Dali

dali dans protocole de communication

Rien à voir avec Salvador ! DALI est un protocole de communication dédié exclusivement à la gestion d’éclairage.

DALI (Digital Addressable Lighting Interface) est une interface standard développée et soutenue par différents grands constructeurs de ballasts électroniques. DALI permet de gérer, commander et réguler numériquement une installation d’éclairage par l’intermédiaire d’un bus de communication deux fils communément appelé « ligne DALI ».

Fini, en théorie, les soucis de compatibilité d’équipement !

En effet, quels que soient les composants de l’installation d’éclairage :

  • un détecteur de présence,
  • une cellule photo électrique,
  • un bouton poussoir,
  • un interrupteur gradable à mémoire,
  • un ballast électronique,

et pour autant qu’ils possèdent l’appellation DALI, toutes marques confondues, ils sont capables de communiquer entre eux via la ligne DALI.

Mais qu’apporte exactement DALI ?

> Une gestion flexible de l’éclairage par :

  • un adressage individuel des ballasts électroniques, et par conséquent des luminaires,
  • la facilité de découper les espaces en zones indépendantes,
  • la simplicité de programmation, de modification de programmation sans devoir intervenir physiquement sur l’installation.

> Un confort et une simplicité :

  • de mise à disposition de multiples scénarios de commande et de gestion pour l’utilisateur et le gestionnaire technique,
  • de mise en œuvre pour le maître d’œuvre.

Modbus

modbus dans protocole de communication

Le protocole Modbus est un protocole de communication dérivé du BACnet faisant partie du domaine public. Le protocole peut utiliser l’Ethernet ou des bus terrain comme support physique (RS232, RS485 par exemple).

Ce protocole date des années 1979 et ne permet pas à plusieurs appareils d’émettre en même temps sur une branche. Le protocole fonctionne selon le principe du maitre-esclave : l’esclave n’ayant la « parole » que lorsque l’équipement maitre le demande.

Les dernières informations techniques en date peuvent être trouvées sur leur site.


M-Bus

Le MBus est un bus de terrain pour l’acquisition de données de consommation de compteurs d’électricité, de compteurs de chaleur, de compteurs de gaz, …

 

Protocole de communication

Protocole de communication


Définition

Un protocole de communication est un ensemble de règles et de codes de langage qui définissent comment se déroule la communication entre un émetteur et un récepteur.


Rôle

Pour qu’un bâtiment intelligent puisse fonctionner, il faut que tous les sous-systèmes puissent communiquer entre eux et se comprennent. Pour se faire, il faut un réseau physique (des câbles) ou sans fil (émetteur, ondes, récepteur) pour acheminer l’information mais il faut aussi que ces informations soient émises dans un langage bien codifié pour qu’elles puissent être reçues et interprétées par les autres appareils du réseau.

Le rôle du protocole est donc de régir la manière dont l’émetteur et le récepteur vont échanger des informations et donner une signification commune aux données brutes qu’ils s’échangent.


Fonctionnement général

Les systèmes doivent donc parler un langage commun mais aussi connaitre quelques codes simples d’émission et de réception des données. C’est par l’utilisation d’un protocole que l’on cadre et définit cela. En plus d’un langage commun, le protocole fixe notamment :

  • La manière d’indiquer qu’un appareil est prêt à recevoir de l’information,
  • Le contexte de la communication (update, action à réaliser, demande d’un état, …)
  • La façon de s’assurer que le message a bien été reçu et compris,
  • Les procédures en cas d’anomalies ou de ruptures de la communication,
  • La procédure de fin de communication.

Pour expliquer le fonctionnement, l’analogie de l’appel téléphonique est souvent utilisée car là aussi, un protocole codifie la communication et permet la compréhension mutuelle :

  • Le récepteur indique qu’il est prêt à recevoir (le récepteur décroche et dit « Allô ») ;
  • L’émetteur situe la communication dans son contexte (« Je suis Sergio. Je t’appelle pour la raison suivante … ») ;
  • Par exemple, l’émetteur commande une action et identifie un éventuel destinataire final (« Peux-tu prévenir la Reine Mathilde que … ») ;
  • Le récepteur s’assure d’avoir bien compris le message (« Peux-tu me répéter le nom ? ») ;
  • Les procédures en cas d’erreur sont mises en place (« Je te rappelle si je n’arrive pas à la joindre. ») ;
  • Les parties se mettent d’accord sur la fin de la communication (« Au revoir. »).

Mais la communication ci-dessus a aussi implicitement enclenché d’autres actions avec d’autres protocoles : une autre couche de communication :

  • Quand l’interlocuteur de Sergio préviendra la Reine Mathilde, celui-ci utilisera un autre protocole de communication, adapté à sa réceptrice couronnée.
  • Aussi, avant même de dire « Allô », les téléphones ont dû communiquer entre eux (tonalité, sonnerie, …) pour ouvrir la ligne selon un protocole qui leur est propre.

Au final, ce sont autant de protocoles, parfois différents, superposés ou en chaînes qui peuvent être utilisés dans la cadre d’une simple requête.

Pour faire le lien entre deux protocoles différents, l’utilisation de ponts ou passerelles est nécessaire.


 L’enjeu de l’Interopérabilité

Pour qu’un smartbuilding fonctionne de manière optimale, l’interopérabilité des systèmes est primordiale.

L’interopérabilité des protocoles et des systèmes ne s’annonce pas être une chose facile dans la dynamique actuelle poussant à la création « d’environnements dédiés » pour chaque produit ou famille de produits pour des raisons purement économiques et de marketing.

Il faudra éviter autant que possible la fragmentation des protocoles. Mais, heureusement, la Commission électrotechnique internationale (IEC en anglais) veille à assurer la sécurité et l’interopérabilité des systèmes.

L’autre enjeu est celui de la normalisation des protocoles. Certains protocoles très courants comme le DALI n’est pas normé (heureusement, le DALI-2 devrait bientôt voir le jour et sera normé).

Il reste que les protocoles de communication les plus populaires sont encore nombreux mais bien souvent interopérables. Ouf !

Supports de communication dans le bâtiment

Supports de communication dans le bâtiment


Les « bus terrain » (les câbles)

Les bus informatiques sont des éléments câblés portant l’information dans le bâtiment. Dès les débuts de la GTC et jusqu’à aujourd’hui c’est dans la plupart des cas via ce type de support que les informations des systèmes techniques sont transportées.

support de communication

L’utilisation de câbles plutôt que d’ondes radios pour la communication possède plusieurs avantages. Le réseau :

  • Est stable, robuste, sans perte de connexion,
  • Durable dans le temps,
  • Peut traverser les murs, même épais,
  • Frais de maintenance réduits,
  • Ne peut-être infiltré à distance.
  • Généralement plus véloce que les réseaux sans-fil.
  • Aucune suspicion d’impact sur la santé, contrairement aux ondes (favorise l’acceptation).

Mais également certains désavantages :

  • Coût jusqu’à 5-15% plus cher qu’un réseau déployé par ondes radio((En 2019, dans la majorité des cas, selon les intégrateurs que nous avons pu consulter.)).
  • Complexité de mise en place, demande d’être méticuleux et organisé pour ne pas s’y perdre, notamment en cas de travaux de rénovation.
  • Peuvent prendre de la place,
  • Inesthétiques.

Par défaut, ce sont des câbles qui sont utilisés dans la majorité des cas, tandis que les ondes radios sont utilisés pour répondre à des exceptions pour lesquelles du câblage ne serait pas adapté : télécommande mobile, appel infirmier,  considérations esthétiques et techniques (par exemple : pour éviter de traverser une paroi en verre dans une salle de réunion sans espace technique), …

Dans certains cas, pour des questions de cybersécurité et de protection de données, l’utilisation de câblage est rendue obligatoire. Les systèmes anti-intrusion sont ainsi obligatoirement câblés. Dans un avenir proche, le raccordement des caméras de sécurité devra également être réalisé en filaire.

Déjà actuellement, les caméras, souvent nombreuses et de haute résolution représentent des flux de données considérables plus facilement gérable en filaire.


Les ondes radio

onde radio

 

Les ondes radios sont utilisés par des protocoles de communication comme le zigbee, le Wifi, le bluetooth. Les réseaux sans-fils présentent plusieurs avantages :

  • Celui, majeur, de permettre aux appareils d’être libres de tout fils et donc mobiles ou portables (bouton poussoir d’éclairage EnOcean, télérelevé de comptage, appel infirmier, télécommandes…)
  • Réduction de l’impact visuel et du nombre de percements.
  • Simplifier et réduire le nombre de branchements (points de contacts) lorsqu’un grand nombre d’appareils sont circonscrits dans un espace relativement restreint (portiques d’entré,…).
  • Généralement moins cher à mettre en œuvre.

Mais, également, certains désavantages :

  • le réseau est plus facilement soumis à des perturbations,
  • Le coût de maintenance est plus élevé,
  • Les suspicions d’impact des ondes sur la santé peuvent constituer un frein à l’acceptation,
  • Le réseau créé autour des points d’émissions pourrait ne pas être circonscrit à l’enceinte physique du bâtiment et, donc, mettre à mal la cybersécurité du bâtiment. Quand bien même le réseau serait borné à l’enceinte du bâtiment, il sera plus facile d’accéder de l’intérieur à un réseau sans fil diffusé dans l’espace qu’à un réseau câblé moins accessible.
  • Débit pouvant-être plus faible que les réseaux câblés.

Le courant porteur en ligne (CPL)

Dans certains cas, généralement dans le cadre domestique, le réseau électrique en place pourra servir d’infrastructure de support à la communication. Ce support a l’avantage de préexister et permet donc le déploiement d’un réseau à moindre coût.

Le principe est simple, on émet des hautes fréquences (ondes courtes) sur le réseau de courant électrique, ces ondes vont se superposer aux basses fréquences du courant alternatif. En bout de course, les récepteurs situés sur le réseau vont décoder le signal en soustrayant les fréquences liées au courant électrique alternatif de manière à retrouver le signal émis.

courant continu

Ce type de support a cependant certaines limites :

  • Le câblage électrique est conçu pour les basses fréquences à haute énergie (l’électricité circule à une fréquence de 50Hz dans nos contrées tandis que le CPL utilise des hautes fréquences à faible énergie au-delà de 9kHz). De ce fait, les gaines ne sont généralement pas blindées ce qui augmente le risque de brouillages et d’interférences.
  • Certains éléments du réseau comme les onduleurs peuvent couper les hautes fréquences,
  • Une panne de courant empêche le fonctionnement de la communication dans la plupart des cas,
  • Si l’intensité électrique du réseau varie fortement, le signal devient plus difficilement lisible et la communication s’en trouve gênée.

Internet des objets (IOT : Internet Of Things)

Internet des objets (IOT : Internet Of Things)

Si nos bâtiments, au sens de leurs systèmes techniques, deviennent intelligents, il en va de même de pratiquement tous nos objets du quotidien pour lesquels il existe en variante dite « smart » : montres connectées, ampoules, frigo, matelas, aspirateurs, tondeuses à gazon, balances, réveils, radios, télévisions, serrures, gamelles du chien, compteurs, pots de fleur, caméras, enceintes à reconnaissances vocales, etc…

internet des objets

Cette explosion récente du « smart » dans tous les domaines et l’avènement de plateformes ouvertes (applications, logiciels, …) qui rendent possibles l’interopérabilité entre un très grand nombre de ces objets ont permis de lier tous ces composants, a priori sans points communs, pour donner la possibilité aux utilisateurs de les faire interagir au sein d’un grand écosystème.

Ce n’est pas clair pour vous ? Voyez plutôt : Si vous possédez, à tout hasard, une ampoule connectée et une poubelle connectée, il est possible pour vous de paramétrer les choses suivantes en quelques clics :

Si nous sommes un jeudi ET qu’il est 19h00 ET que la poubelle n’est pas vide,

ALORS Allumer la lumière de la cuisine en rouge ET recevoir une notification sur le smartphone disant « sortir les poubelles ».

Ou encore si vous possédez une sonde de qualité de l’air (CO/CO2/Humidité), des ampoules connectées et une enceinte connectée :

Si CO supérieur à 500 ppm,

ALORS allumer toutes les lumières en rouge ET allumer les enceintes à 100 % ET faire sonner le téléphone ET envoyer un sms « help » au voisin

Les objets peuvent-être utilisés d’un grand nombre de manières que ce soit pour des économies d’énergie, plus de commodité, de confort ou encore pour sa sécurité.

C’est donc cet ensemble d’objets physiques (une poubelle, une ampoule, une enceinte, une sonde CO) ou virtuels (une horloge en ligne, la météo, …) connectés directement ou indirectement (via des passerelles de connexion) à un même réseau et pouvant interagir entre eux qu’on appelle l’internet des objets ou IOT.

L’Union internationale des télécommunications((Dans sa note de recommandation UIT-T Y.2060 URL : https://www.itu.int/rec/dologin_pub.asp?lang=e&id=T-REC-Y.2060-201206-I!!PDF-F&type=items)) en donne la définition suivante : « infrastructure mondiale pour la société de l’information, qui permet de disposer de services évolués en interconnectant des objets (physiques ou virtuels) grâce aux technologies de l’information et de la communication interopérables existantes ou en évolution ».

D’après la note de recommandation UIT-T Y.2060

Avec cette interconnexion galopante et le développement des technologies de la communication, les frontières entre l’utilisateur, les « wearables », les objets connectés et les systèmes techniques s’amenuisent et ces différentes échelles s’intègrent, s’assimilent mutuellement.

SmartBuilding : définition

SmartBuilding : définition


Définition

Un bâtiment intelligent ou « Smartbuilding » est un bâtiment qui cherche à répondre aux enjeux généraux de confort, de bien-être, de sécurité et de performance énergétique et environnementale par l’exploitation des technologies liées au monde numérique.
Architecture et Climat – Janvier 2019

Intelligence artificielle dans le smartbuilding

Pour chacun de ces enjeux, le Smartbuilding poursuit 4 objectifs majeurs :

  • La flexibilité énergétique,
  • La commodité et l’ergonomie,
  • L’optimisation et l’efficacité,
  • La maintenance et la prévention des pannes.

Le bâtiment intelligent cherche à atteindre ces 4 objectifs pour chacun des enjeux en faisant communiquer et coopérer les systèmes du bâtiment entre eux tout en incluant l’occupant.

Le bâtiment, désormais smart, dispose ainsi de nouveaux outils numériques pour (s’)informer, contrôler, prévoir, optimiser et simplifier la gestion du bâtiment.

Le Building Performance Institute Europe [BPIE] ajoute qu’un bâtiment intelligent :

  • « Conduit à une décarbonisation plus rapide des systèmes énergétiques par l’utilisation du stockage d’énergie et l’amélioration de la flexibilité de la demande énergétique ;
  • Habilite et responsabilise ses usagers et occupants en leur offrant le contrôle des flux d’énergie ;
  • Reconnait et réagit aux besoins des occupants et des usagers en termes de confort, de santé, de qualité de l’air intérieur, de sécurité mais aussi d’exigences pratiques. « 

Mais cette « surcouche SMART » présente également des risques et de nouveaux défis pour le secteur du bâtiment. Principalement, ces risques sont : l’échec de la symbiose avec les occupants, la cybersécurité, l’obsolescence des équipements, le surcoût économique et environnemental à rentabiliser (voir plus loin).


Quelle différence avec la GTC ?

Le smartbuilding se différencie de la GTC (Gestion Technique Centralisée) :

  • par son champ d’application plus large, allant bien au-delà de la HVAC en intégrant d’autres systèmes (accès, ascenseur, renouvelable, sécurité, …)
  • Par son niveau d’interaction plus élevé et plus complexe entre les différentes techniques. Ceci permet à la HVAC, l’éclairage, les protections solaires, le contrôle d’accès,… de fonctionner de concert pour améliorer le confort et la performance du bâtiment.
  • par sa philosophie et son caractère beaucoup plus flexible et ouvert. Ces qualités se manifestent vers l’utilisateur qui dispose désormais d’interface conviviales pour configurer ses systèmes à souhait mais également entres les différents systèmes techniques. Dans un Smartbuilding, les éléments ne sont liés entre eux que par un réseau et de la programmation : un détecteur ou un interrupteur n’est pas structurellement relié à une lampe plutôt qu’à une autre. La manière dont les différents éléments d’un smartbuilding interagissent entre eux est désormais flexible et modifiable à souhait.

GTC dans smartBuilding

Finalement, alors que le « cerveau » de la GTC est centralisé dans un centre de gestion, celui d’un Smartbuilding est réparti entre les différents systèmes et est présent à plusieurs échelles dans chaque sous-système.

Par exemple, chaque ampoule embarque un logiciel métier mais c’est également le cas de la passerelle qui gère les interactions entre les interrupteurs, les ampoules et le réseau. Un cloud peut également intervenir sur la gestion du système et constituer une source de service supplémentaire. Cette configuration décentralisée et parfois distribuée de la gestion améliore la résilience des systèmes.


Quels sont les systèmes intégrés dans le bâtiment intelligent ?

Concrètement, grâce à l’interopérabilité et à la standardisation lente mais croissante des protocoles de communication, les Smartbuildings sont capables de monitorer, analyser et faire coopérer une variété de systèmes techniques de plus en plus large. La seule limite étant la créativité du concepteur et/ou de l’intégrateur pour répondre aux besoins de l’occupant.

La liste des sous-systèmes pouvant coopérer au sein d’un smart building est sans limite. Nous citerons donc à titre non exhaustif les systèmes principaux les plus souvent intégrés que sont :

  • Le système de raccordement au réseau et les compteurs intelligents,
  • Le système de production de chaleur,
  • Le système de refroidissement,
  • Le système de production d’ECS,
  • Le système de ventilation,
  • Le système de production et d’intégration d’énergie renouvelable,
  • Le système de stockage d’énergie,
  • Le système d’éclairage,
  • La motorisation des parties mobiles de l’enveloppe (stores, fenêtres motorisées…),
  • Le système de protection incendie,
  • Le système de gestion des eaux,
  • Les ascenseurs,
  • Le système d’accès et de sécurité,
  • La recharge et l’intégration des véhicules électriques,
  • Le monitoring et le contrôle du bâtiment,
  • Les appareils électroménagers.

Mais aussi, pourquoi pas : la détection de fuites, les livraisons, les déchets (poubelles connectées), l’inventaire, l’agenda partagé (peut coopérer avec les systèmes des salles de réunion, etc…), l’arrosage automatique, …


Gadget ou vraiment « smart » ?

Dans la vie de tous les jours, qu’est-ce qu’un bâtiment intelligent, qu’a-t-il de vraiment smart ?

Gadget : Objet, appareil, dispositif, projet etc…, qui séduit par son caractère nouveau et original, mais qui n’est pas d’une grande utilité.

Smart : Se dit d’un bien dont la maintenance ou le fonctionnement sont assurés par un dispositif automatisé capable de se substituer, pour certaines opérations, à l’intelligence humaine.

LAROUSSE – 2018

Si le concept et l’imaginaire qui entoure le smartbuilding peut sembler un peu « geek » ou gadget au premier abord, la différence entre un bâtiment « non-smart » des années 60’ et un bâtiment intelligent correspond à peu près à la différence qu’on peut retrouver entre un tracteur « full manuel » des années 60 et une voiture hybride semi-autonome d’aujourd’hui !

Le tracteur est composé d’une série d’éléments (phares, moteur, direction, freins…) actionnés et régulés indépendamment par des commandes individuelles, directes et manuelles.

tracteur dans la catégorie smartbuilding

 

À contrario, et même si nous y sommes habitués et que nous ne le remarquons peut-être plus, nos voitures actuelles sont en réalité des « smartcars » avec tout ce que cela comporte d’aspects positifs, ou pas.

voiture du futur

Rendez-vous compte : la voiture hybride choisi seule si c’est le moteur électrique ou thermique qui doit être utilisé en fonction de l’état de la batterie, du réservoir, de la vitesse et du type de conduite ; la voiture ne se déverrouille que lorsque la clé se trouve à proximité, la lumière intérieure s’allume à l’ouverture de la porte ; les phares s’allument automatiquement quand la nuit tombe ; les vitesses passent automatiquement et de manière adaptée à notre conduite du moment ; le volume de la musique baisse lorsque le GPS s’exprime, l’alarme pour la ceinture sonne dès que le siège détecte la présence d’un passager non ceinturé ; le moteur s’éteint au feu rouge, etc…

Tiens, tiens, … entre notre tracteur et notre voiture dernier cri, tout ne serait-il pas devenu interconnecté via un réseau d’information et partiellement automatisé pour faciliter la vie à bord, améliorer le confort, la sécurité et économiser de l’énergie ?

Dans le secteur automobile comme dans le bâtiment, pour être réellement smart, il est important de trouver le bon équilibre entre automatisation et suggestion en fournissant de l’information exploitable par l’utilisateur (entretien à venir, limitation de vitesse, pression des pneus, bouchons, présence d’un obstacle, …) lui suggérant telle ou telle action.

Ainsi, nous ne sommes pas à l’abri de certaines fonctions « gadget » mais, dans leur ensemble, les bâtiments intelligents le sont vraiment et ont un impact mesurable sur l’efficacité énergétique, le confort, le bien-être, la santé et la sécurité des occupants((Vincent Bonneau & Tiana Ramahandry, I. a.-A. (2017, 10). Commission Européenne. (E. Union, Éd.) Consulté le 06 2019, sur https://ec.europa.eu: https://ec.europa.eu/growth/tools-databases/dem/monitor/sites/default/files/DTM_Smart%20building%20-%20energy%20efficiency%20v1.pdf)).

Dans la littérature, nous pouvons observer des réductions de consommation des bâtiments allant de 5-15% pour la HVAC et jusqu’à 60% pour l’éclairage((Vincent Bonneau & Tiana Ramahandry, I. a.-A. (2017, 10). Commission Européenne. (E. Union, Éd.) Consulté le 06 2019, sur https://ec.europa.eu: https://ec.europa.eu/growth/tools-databases/dem/monitor/sites/default/files/DTM_Smart%20building%20-%20energy%20efficiency%20v1.pdf)) en fonction du niveau (très variable) d’intelligence, d’automatisation et d’intégration des systèmes.

Pour conclure, tout n’est évidemment pas mauvais ou inutile dans le smartbuilding mais, comme dans les autres secteurs, il vaudra toujours mieux privilégier les alternatives passives et la sobriété énergétique, plutôt que consommer de manière « Smart ».

vélo dans la catégorie smartBuiling


Quels sont les risques liés au smartbuilding ?

Les risques inhérents à la mise en œuvre sont au nombre de 4 :

  • Risque d’échec de la symbiose avec les occupants,
  • Risque de faille informatique, cybersécurité,
  • Risque d’obsolescence des équipements et softwares,
  • Risque de surcoût économique et environnemental non rentabilisé.

Échec de la symbiose avec les occupants :

Si le projet va trop loin dans l’automatisation, l’optimisation et la prédiction tout en réduisant les possibilités de déroger et d’interagir avec les systèmes, alors l’occupant perd la maitrise de son bâtiment. Il pourrait se retrouver sans levier d’action et ne plus comprendre pourquoi en plein hiver les stores se ferment au premier rayon de soleil alors que lui, en plein « blue monday », est à la recherche de Vitamine D !

domotique

 

Il faudra à tout prix éviter ce décalage entre d’un côté, une sombre optimisation énergético-économique opérée par une machine et de l’autre, les envies et besoins impulsifs éminemment humains des occupants. Pour éviter ce clash, la « machine » devra fait preuve de transparence, flexibilité, interactivité et convivialité !

Plus généralement, pour qu’un projet de smartbuilding soit positivement adopté par les utilisateurs, celui-ci devra répondre de façon proche et avec tact aux besoins de ces derniers. Pour donner toutes ses chances au projet de Smartbuilding, le concepteur et l’intégrateur (qui sont parfois une même entité) devraient être impliqués dans le projet et échanger avec les occupants et les acteurs de la construction (Architecte, entrepreneur, électricien, …) dès les premières esquisses puis tout au long du projet.

C’est notamment lors de ces discussions que les « fourchettes » d’action (borner le chauffage entre 16°C et 22°C par exemple) et que les limites de la paramétrisation laissées à l’occupant via les diverses interfaces sont définies. À l’issue de ces discussions, un équilibre devra être trouvé entre, d’une part :

  • garantir la robustesse du système et éviter que l’occupant puisse toucher à trop d’éléments techniques, ce qui risque d’engendrer des dysfonctions
  • et, d’autre part, lui permettre d’ajuster, de déroger sur suffisamment de paramètres pour qu’il conserve le contrôle et la maitrise de son bâtiment.

Risque de faille informatique, la cybersécurité

numérique dans la catégorie smartbuiling

L’autre risque qui survient quant on mandate des machines pour prendre des décisions à notre place et qu’on les interconnecte entre elles est celui de la cybersécurité : « Et si quelqu’un s’infiltre et prend les commandes de mon bâtiment ? Ou pire, s’il utilise la connection d’une ampoule comme passerelle pour s’infiltrer sur mon serveur d’entreprise et voler mes données ? »

Bien que les inquiétudes soient légitimes, bien que la vigilence soit de mise, il n’y a pas de raison de s’en inquiéter irrationnelement ou, en tous cas, plus que nous le faisons déjà avec notre réseau Wifi, notre smartphone, mots de passes ou nos clés d’appartement.

Étant donné qu’aucun système de sécurité n’est fiable à 100%, que ce soit les serrures de votre bâtiment ou son alarme, la bonne pratique en matière de (cyber)sécurité est d’agir proportionnellement. Cela commence en évaluant la valeur des données et/ou des biens que renferme le bâtiment pour définir un niveau de sécurité adapté à atteindre et l’appliquer partout : à son smartbuilding, au réseau wifi, aux serrures physiques du bâtiment, aux mots de passes des adresses mail, …

Par analogie : « Installer une porte blindée ne sert à rien si la fenêtre reste ouverte. »

Il faut donc prendre la question de la cybersécurtié au sérieux et faire réaliser un audit pour définir le niveau de protection à atteindre mais également garder à l’esprit que d’importants progrès en la matière sont réalisés jour après jour et que les cas de cyberattaques directement liées à une faille d’un Smartbuilding sont relativement rares. Si les données que renferment le bâtiment ont de la valeur, il est toujours possible d’étanchéifier le réseau « smartbuilding » du/des réseaux qui renferment des données sensibles.

Si, au départ, le cloud avait une place importante dans le smartbuilding, suite à la révélation de certaines failles informatiques conséquentes, il est de moins en moins utilisé. Aujourd’hui, le remote controling du smartbuilding est réalisé par réseau privé virtuel ou VPN. Sans entrer dans les détails, un VPN fonctionne comme un tunnel temporaire et étanche qui permet de se connecter directement à distance à un ordinateur situé dans le bâtiment. Contrairement au Cloud qui « discute » tout le temps avec le bâtiment, ici un tunnel n’est ouvert qu’en cas de besoin et l’ensemble se déconnecte quand il n’y a plus d’échanges.

Le risque d’obsolescence des équipements et des softwares.

Les premiers smartbuilding sont relativement récents de sorte que les retours sont peu nombreux et ne permettent pas de déterminer avec certitude si ces bâtiments feront face à un phénomène d’obsolescence ou non. Néanmoins, quelques éléments de réponses peuvent être apportés.

Tout d’abord, l’interopérabilité et la structure du réseau « plug and play » décentralisé ou parfois distribué des systèmes du smartbuilding est un gage de résilience et donc de durabilité. Dans ces systèmes peu hiérarchisés et non-linéaires, chaque élément ou presque peut-être remplacé ou retiré individuellement. D’autres éléments peuvent éventuellement être ajoutés. C’est un système évolutif, ce qui facilite grandement les réparations, adaptations, remplacements.

cnetralisé et décentralisé

Cependant, qui dit systèmes évolutifs, dit également systèmes qu’on aura envie de faire évoluer. La tentation de compléter son système avec des équipements « gadgets » superflus ou par la nouvelle version de l’un ou l’autre équipement peut indirectement être source de gaspillage et d’obsolescence.

Si la GTC appartient progressivement au passé, celle-ci avait la qualité de pouvoir accompagner un bâtiment plus de 15 ans sans modification ou encombre majeure.

Quand nous observons les durées de vies couramment observées des softwares, objets connectés et autres tablettes, nous pouvons légitimement douter de la pérennité de l’ensemble des composants du smartbuilding.

  • >30-50 ans pour un bâtiment,
  • >15-20 ans pour un équipement de technique,
  • ±8-10 ans pour un objet connecté,
  • ±4-6 ans pour un système d’exploitation
  • Et ±2-4 ans pour une application

Risque de voir le surcout économique et environnemental non rentabilisé sur la durée de vie

La Smartbuilding poursuit, entre autres, un objectif d’efficacité environnementale et de rationalisation de la consommation d’énergie. Le Maitre d’ouvrage cherche de surcroit à réaliser des économies en réduisant la consommation et l’empreinte environnementale de son bâtiment.

Le premier risque d’un smartbuilding est d’observer une optimisation énergétique et une baisse de la facture énergétique insuffisamment conséquente pour compenser le surcoût « smart » lors de la construction du bâtiment.

graphe sur le smartbuilding

Ensuite, comme les nombreuses sondes, équipements, puissances de calcul, … sont sous-tension et communiquent 24h/24, 7j/7, ils engendrent une consommation d’électricité non négligeable. Ces équipements supplémentaires ont également une empreinte en énergie grise liée à leur fabrication dont il faut tenir compte. Le second risque serait que cet « investissement environnemental supplémentaire » ne soit pas au moins compensé par l’économie et la rationalisation énergétique que ces équipements génèrent au cours de leurs vies.

On estime qu’en 2025 les objets connectés auront une consommation équivalente à un pays comme le Canada.

Basé sur les chiffres de l’AIE (Agence Internationale de l’Énergie) – 2013


Le « smart » : un progrès (in)contournable ?

Un faisceau d’incitants directs et indirects comme le « SRI », l’intégration croissante du renouvelable, l’encouragement à l’autoconsommation, le choix européen d’orienter la mobilité vers l’électrique, des attentes et des normes de confort et de commodité croissantes vont pousser chaque jour un peu plus à « smartiser » nos bâtiments.

Si la volonté est de se doter des dernières technologies pour profiter des fonctionnalités et services les plus à la pointe, alors le Smart et l’interconnexion deviendront incontournables.

L’automatisation de certaines tâches et l’optimisation du bâtiment nous permet alors de multiplier les fonctionnalités, les services, rationnaliser la consommation d’énergie et améliorer le confort tout en nous soulageant d’une partie de la gestion et de la programmation.

Néanmoins, nous observons également combien la course au progrès se fait régulièrement au détriment du bon sens et de la maitrise de son environnement. C’est pourquoi nous pensons qu’il nous revient, au cas par cas, de définir si un tel progrès est de nature à répondre à un besoin réel ou non. Plutôt que d’offrir des solutions à un problème qui n’existe pas, le smartbuilding se devra de répondre sur-mesure aux besoins et aux attentes propres à chaque groupe d’occupant.

D’un point de vue uniquement énergétique, si nous devions positionner l’intégration du « smart » dans une stratégie de conception telle que la trias-energetica, elle trouverait assurément sa place en queue de peloton :

  • lorsque les besoins sont réduits au maximum rationnel (Optimisation de l’enveloppe, des comportements…),
  • que la plus grande part possible des besoins est couverte par des énergies renouvelables,
  • et que le complément (fossile) est produit avec le meilleur rendement possible

Alors seulement, comme dernier effort, le smartbuilding devrait être envisagé et intégré au bâti de manière à rationnaliser toujours plus les besoins, optimiser l’autoconsommation, perfectionner le confort et améliorer l’efficacité et la gestion énergétique.

Il serait hautement souhaitable que l’utilisation de cette force de calcul puisse, paradoxalement (?), se mettre au service des solutions Low-Tech et passives en les rendant plus autonomes et intelligentes de manière à les rendre aussi efficaces que certains systèmes actifs complexes, lourds et consommateurs d’énergie.

En effet, des éléments architecturaux « basiques » comme les fenêtres ouvrantes ou les volets sont des composants formidablement simples et efficaces pour refroidir ou ventiler un bâtiment. Leur unique « défaut » réside éventuellement dans leur mauvaise utilisation : faute d’information et de capacité d’anticipation de l’occupant mais également dans l’impossibilité d’être actionné en dehors des horaires d’occupation.

Avec un peu d’IA et quelques sondes simples, l’utilisateur peut, par exemple, être informé anticipativement par une simple diode LED de l’intérêt ou non d’actionner tel ou tel dispositif de manière à adapter et optimiser son utilisation des ouvrants.

Dans certains cas judicieux, pour aller plus loin, ces éléments peuvent être connectés et motorisés de sorte que, lorsque l’utilisateur est absent, le smartbuilding pourra prendre le relais et actionner ces systèmes simples avec très peu de moyens techniques et énergétiques.

Architecture et Climat  – Janvier 2019

Intelligence artificielle (IA) appliquée aux bâtiments

Intelligence artificielle (IA) appliquée aux bâtiments

Aujourd’hui, l’intelligence artificielle (IA) s’immisce partout, jusque dans nos bâtiments… Mais au-delà du mythe, de la crainte ou encore du fantasme, qu’est-ce que réellement l’intelligence artificielle et quel rapport entretient-elle avec les bâtiments ? De quoi s’agit-il ?

L’intelligence artificielle regroupe l’ensemble des technologies (les programmes, codes, machines, techniques…) capable de reproduire un ersatz d’intelligence. Il s’agit donc pour ces outils, programmes ou techniques de simuler des processus cognitifs, parfois plus vite qu’un humain, parfois de façon originale. Néanmoins, l’intelligence artificielle ne peut naître d’elle-même ou apprendre d’elle-même sans supervision humaine. L’IA n’a pas de « volonté » ou de « conscience », il ne s’agit que d’une chaine de petits calculs et algorithmes relativement « simples » qui, combinés bout à bout et itérés, permettent d’accomplir des processus cognitifs complexes (reconnaitre des caractères, convertir une voix en texte, …). Ce haut niveau de complexité peut parfois semer le trouble et faire croire « qu’il y a quelqu’un là de-dedans » mais il n’en est rien !


Les limites d’une intelligence informatique supervisée

Si, du côté du matériel (le « hardware »), les « machines de calcul » atteignent des sommets (augmentation des puissances, cloudcomputing, …), la limite la plus forte se situe dans la formalisation, la programmation des tâches : comment expliquer à une machine qu’elle doit effectuer une tâche déterminée ?

C’est en effet une chose d’avoir de la puissance et une endurance à toute épreuve mais si on ne sait pas qu’il faut mettre un pied devant l’autre pour courir, toute cette puissance ne sert à rien. Ainsi, la programmation informatique des tâches est aussi ardue que la logique d’une machine est éloignée de celle d’un humain : une machine a plus de facilité à énumérer des nombres premiers qu’à reconnaitre un chat ou, simplement, marcher. Pour une machine tout est mathématique et logique, rien n’est « inné », tout doit rentrer dans des cases.

Aussi, jusqu’à présent, aucune machine n’apprend par elle-même à partir de rien. Systématiquement, l’humain doit spécifier les paramètres à prendre en compte, les règles du jeu et l’objectif à atteindre.

La performance de la machine dépend donc de ses composants mais surtout de la capacité de l’humain à en tirer parti et savoir « expliquer » (programmer) les règles du jeu de manière efficace et, le cas échéant, à fournir des données en quantité et qualité suffisante pour que la machine puisse les analyser et s’optimiser pour répondre au mieux aux objectifs. La machine peut donc s’entrainer ou optimiser un processus, parfois à des niveaux de complexité très élevés mais ne peut pas, à l’origine, faire preuve d’intelligence ou d’initiative pure par elle-même.

Si nous observons en bref le fonctionnement d’un thermostat « dernier cri » dit « smart » ou « intelligent », on se rend compte que ce n’est pas un génie. Il s’agit d’une machine à qui on a expliqué (programmé) que, pendant son exploitation, elle allait devoir optimiser sa manière d’agir sur la chaudière en fonction d’une série de paramètres (température extérieure, ensoleillement, température intérieure, …) de manière à ce que la température mesurée des espaces intérieurs réponde au mieux aux attentes planifiées de l’occupant.

Cette machine enregistre les différents paramètres qu’elle mesure et adapte son fonctionnement logique si elle manque son objectif (selon un processus d’itération préprogrammé par le concepteur). En effet, si le nouveau thermostat « intelligent » que vous avez depuis 3 jours déclenche par défaut la chaudière 30 minutes avant le réveil de l’occupant pour atteindre 20°C à 7h du matin, il va arriver un jour où les températures extérieures vont baisser et où la pièce aura besoin de bien plus de 30 minutes pour chauffer. Ce jour-là, la machine va se tromper et atteindre la température de consigne en retard mais surtout elle va le mémoriser et tenir compte de son erreur. Ainsi, si elle est bien programmée, elle « se souviendra », la prochaine fois qu’il fera aussi froid, qu’elle n’y était pas parvenue et elle lancera la chaudière un peu plus tôt et ainsi de suite. Au fil du temps, des erreurs et des corrections, le thermostat perfectionnera son algorithme pour répondre au mieux à sa mission. Plus le programmeur aura fait intervenir des paramètres dans l’algorithme plus la machine pourra se perfectionner et corriger son calcul au fil du temps.

Dans tous les cas, la machine restera limitée par son hardware (le nombre et la qualité de ses capteurs) mais aussi et surtout par la qualité de sa programmation. En effet, il ne faudrait pas que le jour où vous oubliez une fenêtre ouverte toute la nuit avec pour effet de biaiser le comportement de la relance de votre chauffage, le thermostat se dérègle et désapprenne tout. Seul un programmeur intelligent qui aurait anticipé ce genre de cas pourra permettre au thermostat de comprendre que ce matin-là était anormal et qu’il ne doit pas en tenir compte pour la suite.


Quelle place dans le bâtiment ?

Le numérique, les technologies de la communication et l’IA, prennent une place de plus en plus importante grâce aux évolutions dans les domaines des TICs (technologies de l’information et de la communication), de l’informatique, de l’électronique, … Avec l’automatisation croissante, ces progrès ont permis l’introduction dans nos bâtiments de systèmes techniques plus complexes et finement régulés sans pour autant augmenter proportionnellement la difficulté de la gestion quotidienne pour les occupants.

Ainsi, les systèmes du bâtiment ont pu devenir de plus en plus nombreux, interconnectés, perfectionnés et complexes individuellement. Cette complexité est en voie de s’accroitre dans les prochaines années avec l’intégration croissante des énergies renouvelables et la mise en réseau lente mais progressive des systèmes entre eux de sorte qu’il y aura encore une augmentation considérable du nombre de prise de mesures, de décisions et d’actions à automatiser et optimiser pour réguler tous ces systèmes en continu de manière optimale et coordonnée.

L’intégration de ces technologies dans ce qu’on appelle désormais un « smartbuilding » représente une opportunité unique d’amélioration de la performance énergétique et du confort dans les bâtiments.

Les dossiers thématiques : Le QZEN

Les dossiers thématiques : Le QZEN


Connaitre les tenants et aboutissants de la nouvelle exigence QZEN, anticiper en communiquant autour de cette exigence afin d’aiguiller les acteurs du secteur de manière appropriée, tels sont les objectifs de cette page thématique consacrée au QZEN.

Dans cette optique, nous nous sommes concentrés sur la compréhension du QZEN : C’est quoi le QZEN ? Évolution ou révolution ? QZEN= renouvelable ?

Ensuite, l’accent a été mis sur la conception énergétique des bâtiments « Quasi Zéro Énergie » : Quelle approche de conception pour le QZEN ?

Finalement, nous avons poursuivi la mise à jour du contenu sur les énergies renouvelables, le stockage énergétique dans le bâtiment et les réseaux intelligents.


Qu’est-ce que le QZEN ?


Quelle approche de conception pour le QZEN ?


Vous pourriez également être intéressé par les thématiques suivantes

Les énergies renouvelables

Le photovoltaïque

L’éolien

 

Le stockage et les réseaux

Stratégie de conception d’un bâtiment Q-ZEN (Quasi Zéro Energie)

Stratégie de conception d’un bâtiment Q-ZEN


Stratégie globale

Quelle stratégie de conception utiliser et quel « niveau d’effort sur la performance énergétique » doit-on réaliser pour répondre aux exigences du Q-ZEN Wallon ?

Pour rappel les exigences principales du Q-ZEN sont :
  • Les Umax des différentes parois du volume protégé de 0,24W/m².K sauf pour :
    • Les vitrages (1,1 W/m³.K) ;
    • Les fenêtres (1,5 W/m³.K) ;
    • Les façades légères et les portes (2,0 W/m².K).
  • Un niveau K35;
  • Le niveau Ew inférieur à 45. (90 pour les bâtiments non résidentiels autres que les parties fonctionnelles bureau et enseignement)

Pour plus de détails, allez voir notre page sur les exigences de la réglementation Q-ZEN.
Pour Energie+, la meilleure énergie reste celle que l’on ne consomme pas. Pour cette raison les priorités dans la stratégie de conception d’un bâtiment Q-ZEN sont les suivantes :

  • La première chose à faire sera de chercher à réduire les besoins d’énergie du bâtiment à leur minimum [par l’isolation thermique, un volume réduit et rationnel, un rapport entre les parois opaques et transparentes équilibré, des pare-soleil, …].
  • Lorsque les besoins du bâtiment sont réduits à leur minimum raisonnable, le concepteur devra veiller à répondre à ces besoins thermiques et électriques avec des systèmes techniques efficaces, adéquats, bien dimensionnés, bien régulés et correctement mis en place, tant au niveau de la production thermique que de la distribution des fluides, le choix des émetteurs et la régulation globale.
  • Finalement, le concepteur envisagera de produire le maximum des besoins résiduels de manière renouvelable.

Schéma sur la stratégie globale du Q-Zen wallon.

Il est important d’agir dans cet ordre [Réduire les besoins > utiliser des systèmes efficaces > exploiter des sources locales et renouvelables d’énergie] et de se pencher sur l’aspect suivant une fois que l’optimum est atteint pour chaque étape de la conception.

Les exigences Q-ZEN ne recouvrent qu’une partie des postes de consommation, pour diminuer la consommation totale du bâtiment, visitez notre page consacrée à la Stratégie de conception « soft énergie » à tous les niveaux.


Une géométrie compacte

Pour commencer, il faudra trouver l’optimum entre une grande compacité pour limiter les pertes de chaleur et une faible compacité (augmenter les surfaces de façade) pour profiter du maximum d’éclairage naturel. Selon les cas, le juste compromis sera en faveur de l’une ou de l’autre solution.

Aujourd’hui, dans les bâtiments isolés au niveau du Q-ZEN, la consommation d’éclairage représente environ ¼ des consommations.

Il convient donc, a priori, de favoriser autant que possible l’éclairage naturel en limitant la profondeur des locaux. On recommande de limiter la profondeur des bureaux au double de la hauteur du local, soit à environ 6 m. Ainsi, si deux rangées de bureaux sont séparées par un couloir central, cela donne une profondeur de bâtiment d’environ 15 m.

Pour tous les cas, à l’exception des bâtiments majoritairement composés de façades légères vitrées, une bonne pratique consiste à vérifier que le bâtiment respecte l’exigence sur le niveau K lorsque les valeurs U des parois respectent strictement les valeurs Umax.

Si le bâtiment nécessite d’aller au-delà des exigences Umax sur les parois pour atteindre le niveau K35, le concepteur doit considérer que la compacité du projet pourrait poser problème et agir sur la forme du bâtiment ou encore revoir la quantité de parois transparente à la baisse.

Lorsque le bâtiment est majoritairement composé de vitrage ou de façades légères et que le respect strict des valeurs Umax ne permet pas d’atteindre le niveau K35, la compacité ne sera alors pas nécessairement la seule à incriminer. Il faudra également envisager d’aller bien au-delà des exigences Q-ZEN sur la valeur U des façades légères pour que le niveau K puisse être respecté.

Généralement, aller en deçà du niveau K20 n’apporte que peu de gains énergétiques, car les économies sur la production de chaleur sont en bonne partie compensées par l’augmentation de la consommation pour le refroidissement et l’éclairage.

En effet, la consommation pour l’éclairage artificiel peut augmenter car, à volume égal, plus le bâtiment à un niveau K « performant », plus il est opaque (le ratio parois opaques/paroi transparentes augmente) et/ou moins il dispose de surfaces d’enveloppe extérieure. De surcroît, plus les vitrages sont isolants et plus la protection contre la surchauffe devient importante, moins leur transmission lumineuse sera bonne.

Le schéma ci-dessous illustre cette problématique. Toutefois, ces courbes ne représentent qu’une tendance générale et d’un bâtiment à l’autre, en fonction des choix techniques, du type d’occupation, de l’environnement, de la géométrie, ces tendances peuvent varier.

Courbe sur l'évolution des postes de consommation en fonction du niveau K de projets existants.
Évolution des postes de consommation (hors énergie renouvelable) en fonction du niveau K basé sur l’étude de 9 projets existants répondant aux exigences Q-ZEN

Plus d’information : Optimaliser le volume du bâtiment

Un rapport équilibré entre parois opaques et les parois translucides

Ce n’est un secret pour personne, bien que les progrès techniques soient impressionnants, les fenêtres sont moins isolantes que les parois opaques. Ainsi, un bon triple vitrage récent sera toujours trois à quatre fois plus déperditif qu’un mur opaque respectant les exigences Q-ZEN.

Alors on ne met plus de fenêtre ? NON, l’occupant a besoin d’éclairage naturel et de vues vers l’extérieur pour son confort et son bien-être. Il s’agit plutôt de trouver un équilibre optimal entre maîtrise des déperditions thermiques et bien-être. Attention, lorsqu’un bâtiment est très vitré, celui-ci risque de surchauffer. Dans ce cas, il faudra réduire le facteur de transmission solaire (facteur g) et/ou penser à la mise en œuvre de pare-soleil.

Conseil : la taille des vitrages n’est pas la seule donnée importante concernant l’éclairage. La disposition et l’orientation de ceux-ci sont tout aussi importantes. Par exemple, plus un vitrage sera haut, plus la lumière qui la traverse se diffusera profondément au sein de la bâtisse.

Opter pour une proportion de vitrage comprise entre 30 et 45 % de la surface de la façade constitue une bonne première estimation qu’il faudra affiner ensuite en fonction du programme, des orientations et de la géométrie. Pour aller au-delà de ces valeurs indicatives, il est nécessaire de porter une attention accrue sur le niveau d’isolation des vitrages, leur facteur solaire et la présence d’éventuels pare-soleil.

Plus d’information : Choisir la position et la dimension de la fenêtre

Un bon niveau d’isolation des parois

Lorsque la forme de l’édifice est définie, vient le moment de déterminer le niveau d’isolation des différents éléments constructifs du bâtiment…Dans tous les cas, les éléments devront respecter les exigences concernant les Umax . Améliorer le niveau d’isolation est vraisemblablement une des manières les plus durables et abordable de réduire les besoins en énergie du bâtiment.

De plus, en réduisant les besoins, nous pouvons nous contenter de systèmes de climatisation plus petits et donc moins coûteux (ou plus efficaces pour le même montant).

Au-delà des 10 à 15 cm d’isolant généralement requis pour répondre à l’exigence sur les Umax, chaque centimètre d’isolant supplémentaire permet de gagner parfois jusqu’à 1 point sur le niveau Ew ! Vous savez maintenant comment empocher quelques points supplémentaires !

Dans les murs récents, 95 % de la résistance thermique du mur est réalisée par la présence d’un matériau isolant dédié à cette fonction. Les matériaux isolants les plus utilisés (Laines minérales, XPS…) ont une conductivité thermique (λ) de 0,035 W/m.K. Le schéma suivant ne tient pas compte des autres matériaux constituant la paroi et donne une idée de la valeur U atteinte en fonction de l’épaisseur d’isolant « courant » qui pourra être mis en œuvre.

Courbe représentant la valeur U de la paroi en fonction de l'épaisseur de l'isolant.

Pour atteindre le standard Q-ZEN, plus le niveau d’isolation sera élevé, plus il sera facile de l’atteindre sans faire appel à des technologies complexes de production de chaud ou de froid.

Avec des valeurs U inférieures à 0,15 W/m².K pour les parois opaques et des fenêtres performantes (U<0,8 W/m².K), le bâtiment que vous concevez est déjà en bonne voie pour répondre aux 3 exigences principales du Q-ZEN (Umax, K35 et EW45) sans même avoir à y installer des technologies coûteuses ou devoir produire des énergies renouvelables sur place.

Mais maintenant que les besoins sont réduits, les systèmes nécessaires seront plus petits et donc moins coûteux !

Plus d’information : Concevoir l’isolation

Attention à l’étanchéité !

Avec des bâtiments toujours mieux isolés, la proportion des pertes par infiltration dans le total de déperdition devient non-négligeable ! Un débit de fuite à 50 Pa par unité de surface inférieur à 2 m³/h.m² doit être visé. Afin de valoriser cet effort dans le cadre d’un encodage PEB, un test Blowerdoor devra être réalisé.

Plus d’information : Concevoir l’étanchéité à l’air

Valoriser la fraîcheur de l’environnement

Le renforcement de la performance énergétique d’hiver augmente parfois le risque de surchauffe en mi-saison ou en été. Or, dans notre climat, le recours au refroidissement mécanique devrait rester exceptionnel. Des stratégies de rafraîchissement naturel, par ventilation nocturne ou par géocooling notamment, permettent de limiter ou d’éviter la consommation en été de l’énergie économisée en hiver.

Plus d’information : Valoriser la fraicheur de l’environnement


Des systèmes adaptés

La ventilation et la récupération de chaleur

Si les bâtiments étanches représentent un gros atout énergétique, les occupants ont quant à eux besoin d’air frais en grande quantité. L’atout de ventilation double flux est de pouvoir réguler la quantité d’air frais injecté dans le bâtiment pour l’adapter aux besoins du moment et répondre à la norme en matière de ventilation hygiénique pour les bâtiments non résidentiels NBN EN 13779 [2]. La présence d’un récupérateur de chaleur sur ce type de ventilation est aujourd’hui incontournable dans les immeubles de bureau désireux d’atteindre le standard Q-ZEN. Leur rendement peut atteindre les 90 % (!). Pour un coût relativement faible, 75 à 90% des pertes par ventilation peuvent ainsi être évitées !

Plus d’information  Choisir le système de ventilation.

Le système de chauffage

Un bâtiment Q-ZEN n’exclut par l’utilisation de systèmes « classiques » et permet généralement l’utilisation d’une chaudière au gaz à condensation, tout en conservant un niveau Ew répondant aux exigences Q-ZEN. Néanmoins, pour que cette solution soit viable, il faudra répondre à l’une de ces conditions :

  • Le niveau d’isolation des parois opaque atteint 0,15 W/m².K et/ou le niveau K est inférieur à 20 ;
  • OU le bâtiment est équipé d’une surface de panneaux PV équivalent à 10 % de la surface de plancher chauffé.

Par contre, lorsqu’un tel niveau d’isolation ne peut être atteint et que l’on ne dispose pas d’une surface permettant d’accueillir des panneaux photovoltaïques le concepteur des installations devra se pencher sur des techniques plus complexes et coûteuses (à la construction) comme la cogénération, une pompe à chaleur performante…

Plus d’information : Concevoir le chauffage

Le système de refroidissement

Dans les bâtiments récents, compacts et bien isolés, le problème de la surchauffe et de la consommation de froid prend de plus en plus d’importance par rapport à celui de la consommation de chauffage.

Courbe sur la tendance de l'évolution du niveau EW en fonction du niveau K pour 8 bâtiments.
Tendance de l’évolution du niveau EW en fonction du niveau K pour 8 bâtiments.

Les bâtiments ayant un niveau K inférieur à 20 auront une consommation pour le froid pouvant être équivalente voir supérieure à la consommation pour le chaud ! Et le changement climatique va renforcer cette tendance.

Comme pour le chauffage, Q-ZEN ne veut pas nécessairement dire High-tech. Dès lors que les risques de surchauffe sont bien gérés, que le bâtiment est bien isolé et que l’inertie du bâtiment est adaptée, un système de refroidissement « classique » comme une machine à compression électrique pourra dans certains cas suffire à atteindre le standard Q-ZEN. Néanmoins, dans les bâtiments fortement isolés, la part de consommation concernant le refroidissement est élevée de sorte qu’il sera toujours intéressant d’installer un système adapté et performant.

Dans le cas des bâtiments moins isolés et à défaut de panneaux photovoltaïques présents, le concepteur devra agir au moins sur la production de chaleur ou de froid pour atteindre un niveau Ew acceptable. S’il agit sur le refroidissement, il devra alors étudier la possibilité d’installer un système de : nightcooling, géocooling ou une pompe à chaleur à absorption performante selon les opportunités du projet.

Les systèmes passifs de maitrise de la surchauffe seront toujours à prescrire avant toute intervention active sur le refroidissement.

Plus d’information : Concevoir la climatisation

L’éclairage

Pour atteindre le niveau Ew de 45 exigé par la réglementation Q-ZEN pour les parties fonctionnelles bureau et enseignement, le concepteur devra valoriser au maximum la lumière naturelle et veiller à réduire le plus possible les besoins d’éclairage artificiels. La présence de détecteur de présence, d’une gestion par petite surface, de luminaires économiques et bien dimensionnés permet de gagner un grand nombre de points sur le niveau Ew à moindres frais.

Nécessité : Encodez les valeurs réelles dans le logiciel PEB : Dites non aux valeurs par défaut ! Voyez plutôt : entre les valeurs par défaut pour l’éclairage et un système bien conçu et correctement encodé, un gain de 30 à 45 points (!) sur le niveau Ew est régulièrement observé ! Autant dire que sans cela il faudra se lever tôt pour que notre bâtiment soit Q-ZEN !

Plus d’information : Concevoir l’éclairage


Produire et autoconsommer de l’énergie renouvelable

Produire de l’énergie renouvelable

Lorsque les besoins sont limités au maximum raisonnable et que les systèmes sont choisis de manière adaptée, la faible quantité d’énergie consommée pourra être partiellement ou totalement produite sur site.

Si idéalement le renouvelable devait être considéré comme un moyen, en bout de chaîne, permettant de réduire la consommation d’énergie issue du réseau, force est de constater qu’aujourd’hui les panneaux solaires photovoltaïques sont particulièrement avantageux… tant d’un point de vue économique que de leur rendement énergétique.

En effet, sans effort particulier sur l’isolation et les systèmes, la simple installation de 10 à 15 Wc/m² de surface de plancher chauffée permet dans 95 % des cas d’atteindre le standard Q-ZEN pour peu que leur exposition soit satisfaisante. Ainsi, lorsque l’on dispose d’une surface permettant l’installation de PV équivalente à ±10 % de la surface de plancher chauffée, être Q-ZEN ne sera jamais un souci, comme le montre notre étude.

Faut-il pour autant évacuer les considérations sur l’isolation et l’efficacité des systèmes ? Faut-il approcher la conception énergétique d’un bâtiment en faisant le minimum sur l’isolation et les systèmes et chercher à compenser par du PV ensuite ?

Pour qu’elle soit durable et « future-proof », la conception énergétique d’un bâtiment Q-ZEN doit être vue comme un ensemble équilibré entre performance de l’enveloppe, performance des systèmes passifs, performance des systèmes actifs et finalement consommation d’énergie produite sur site.

Le Q-ZEN ne doit pas être vu comme un objectif en soi, mais plutôt comme un minimum acceptable.
De plus, avec l’arrivée du tarif prosumer, le faible taux autoconsommation et la levée de la prime Qualiwatt sur le photovoltaïque, la solution solaire gagnera à s’inscrire dans une démarche de performance énergétique du bâtiment qui soit globale.

Plus d’information sur :

  • le photovoltaïque
  • le solaire thermique
  • l’éolien
  • la cogénération

Et n’oublions jamais que produire sa propre électricité c’est bien, la consommer : c’est mieux !

 

Isoler les parois d’un entrepôt transformé en bureaux

Comment isoler les murs et toitures d’un entrepôt existant pour le transformer en bureaux passifs ?

Isoler les parois d’un entrepôt transformé en bureaux

Les nouveaux locaux du bureau d’études écoRce à Liège.

Un entrepôt situé à Liège a été transformé en bureaux. Le maître de l’ouvrage souhaitait atteindre les valeurs du standard passif. Quelles solutions a-t-il adoptées pour isoler les parois extérieures ?


Introduction

Le bâtiment a été réalisé à partir d’un entrepôt existant en pleine ville de Liège à proximité de la gare des Guillemins. Il a été conçu en 2013 par le bureau d’architecture FHW Architectes et le bureau d’études écoRce sprl qui est également le maître de l’ouvrage.

L’extérieur du bâtiment avant les travaux.

L’intérieur du bâtiment avant les travaux.

Il a été complètement transformé. Seule la structure en béton et les murs mitoyens ont été maintenus. Le bâtiment peut donc être considéré comme une construction neuve dans le cadre de la réglementation PEB. Les éléments conservés ont provoqué des contraintes qui ont dû être résolues notamment en matière d’isolation de l’enveloppe.

Le bâtiment compte, après travaux, trois niveaux.

  • Au rez-de-chaussée accessible depuis une cour intérieure d’îlot, se trouvent l’accueil, une salle de réunion et les sanitaires. Un carport occupe une partie de ce niveau. Il abrite une zone de parking pour vélos et une zone de tri pour les déchets.
  • Le premier étage, est occupé par des bureaux paysagés, une salle de réunion ainsi qu’un petit local réservé à l’impression et à la copie des documents.
  • Le deuxième étage est réservé à la détente : réfectoire, cuisine, terrasse et jardin.

Plans du projet (document architecte).

Le maître de l’ouvrage avait pour objectif de limiter au maximum les besoins d’énergie de façon à en réduire les consommations. Il concentra donc, entre autres, ses efforts sur la réduction des déperditions thermiques tant par transmission à travers les parois de l’enveloppe du volume protégé que par manque d’étanchéité à l’air de celles-ci.


Respect des exigences Q-ZEN

L’analyse du bâtiment à l’aide du logiciel PEB montre que celui-ci répondait déjà lors de sa conception aux exigences Q-ZEN de la réglementation qui devront être respectées en 2021.

Le nouveau bâtiment a comme fonction bureaux.
Il ne comporte qu’un seul volume protégé, une seule unité PEB, une seule zone de ventilation et deux parties fonctionnelles :

  • une partie fonctionnelle « bureaux » qui occupe la totalité du rez-de-chaussée et du 1er étage ;
  • une partie fonctionnelle « rassemblement – cafétéria/réfectoire » au 2e étage.

Les conditions à respecter pour que le bâtiment respecte les exigences Q-ZEN 2021 en Région wallonne sont les suivantes :

  1. Respecter les Umax.
  2. Ne pas dépasser le niveau K maximum en tenant compte de l’impact des nœuds constructifs.
  3. Ne pas dépasser le niveau EW maximum spécifique au bâtiment concerné.
  4. Respecter les règles de ventilation décrites dans l’annexe C3 de l’AGW du 15/05/2014 tel que modifié par l’AGW du 15/05/2016.
  5. Installer un comptage énergétique pour chaque unité PEB.

1. Respect des Umax

Comme il s’agit d’une transformation, même si le bâtiment n’est pas très grand, le nombre de parois différentes est élevé.

Le tableau ci-dessous montre que cette exigence a été respectée partout.

Nom de la paroi U (W/m²K) Umax (W/m²K)
Fenêtres 0.74 1.50 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Vitrage fenêtres 0.50 1.10 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Fenêtre de toiture 1.36 1.50 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Vitrage fenêtre de toiture 1.10 1.10 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Toiture sur 1er étage 0.09 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Toiture sur 2ème étage 0.08 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Mur isolé par l’intérieur 0.23 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Mitoyen non bâti côté voisin 0.12 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Mur extérieur 0.18 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Façade bureau 0.13 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Autres façades 0.19 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Pied de façade 0.22 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Dalle sur sol 0.09 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Dalle sur extérieur 0.08 0.24 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Porte 1.00 2.00 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]
Mitoyens bâtis côté voisins < 0.63 1.00 [fusion_fontawesome icon= »fa-check fas » size= » » flip= » » rotate= » » spin= »no » alignment= » » hide_on_mobile= »small-visibility,medium-visibility,large-visibility » class= » » id= » » margin_top= » » margin_right= » » margin_bottom= » » margin_left= » » circle= »yes » iconcolor= » » circlecolor= » » circlebordercolor= » » animation_type= » » animation_direction= »down » animation_speed= »0.1″ animation_offset= » »][/fusion_fontawesome]

2. Respect du critère K ≤ K35

Le bâtiment répond largement à ce critère malgré les difficultés inhérentes à ce type de travaux (transformation). Le niveau K calculé est K20.

3. Respect du critère EW ≤ (90/45)

Le niveau EW calculé est de EW38 < EW45 qui est l’exigence la plus sévère pour les bâtiments non résidentiels. Le critère est donc clairement respecté.

4. Respect des règles de ventilation

La ventilation du bâtiment est assurée par un système D grâce à une centrale double flux avec récupération de chaleur. Le choix de cette centrale de traitement d’air s’est fait suite au calcul du débit nécessaire dans ce bâtiment conformément à l’annexe C3 de l’AGW du 15/05/2014 tel que modifié par l’AGW du 15/05/2016. Elle répond donc aux exigences PEB Q-ZEN de 2021.

La centrale double flux, qui se situe dans un local technique intérieur, a un rendement de 85 % et assure un débit de 1 556 m³/h qui sera distribué dans l’ensemble du bâtiment.

5. Respect de la règle de comptage énergétique.

Le bâtiment ne compte qu’une seule unité PEB. Cette règle est donc très facile à respecter puisque la présence des compteurs des sociétés distributrices (gaz et électricité) suffit.

Des compteurs électriques supplémentaires ont été placés pour mesurer :

  • la consommation du groupe de ventilation ;
  • la production de l’installation photovoltaïque (1 700 Wc) ;
  • la consommation de l’éclairage.

Le respect des exigences a été permis, entre autres, par ne niveau d’isolation thermique des différentes parties de l’enveloppe du volume protégé.


Les parois de l’enveloppe du volume protégé

Comment sont isolées les parois extérieures neuves et existantes ?

Coupe de localisation des détails (document architecte).

  1. Mur existant isolé par l’extérieur
  2. Toiture existante isolée par l’extérieur et végétalisée
  3. Nouveau mur à ossature bois
  4. Nouvelle toiture compacte
  5. Nouveau mur isolé par l’intérieur et l’extérieur
  6. Mur extérieur existant isolé par l’intérieur
  7. Sol existant isolé par le haut

1. Un mur existant isolé par l’extérieur

La façade avant a été partiellement conservée et isolée par l’extérieur. L’isolant est protégé par un bardage en bois. L’isolation thermique d’un bâtiment existant par l’extérieur réduit considérablement les risques de ponts thermiques et de condensation interstitielle, le pare-pluie extérieur étant très perméable à la vapeur d’eau.

Coupe mur existant isolé par l’extérieur (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.14 W/m²K en partie courante et 0.11 W/m²K à l’endroit de la structure en béton où l’épaisseur d’isolant est plus importante pour des raisons technologiques.

Calcul du U des parties courantes à l’aide du logiciel PEB.

Calcul du U des parties situées devant les poutres en béton à l’aide du logiciel PEB.


2. Toiture existante isolée par l’extérieur et végétalisée

La toiture plate existante a été isolée selon le principe de la toiture chaude. L’isolant est posé au-dessus de la dalle en béton. La membrane d’étanchéité bitumineuse existante a été conservée. Elle contribue à la protection de l’isolant assurée par le nouveau pare-vapeur contre la vapeur d’eau provenant de l’intérieur du bâtiment. Une nouvelle membrane d’étanchéité en EPDM est posée sur l’isolant. Elle lestée par une toiture verte extensive.
Cette technique est courante. Elle ne pose pas de problème de condensation interstitielle et permet d’éviter les ponts thermiques.

Coupe toiture existante isolée par l’extérieur et végétalisée (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.09 W/m²K.
Le faux plafond acoustique n’a aucun impact sur la performance thermique de la paroi.
Le lestage que constitue la couche végétalisée n’a pas été pris en compte. Son influence sur le U est négligeable en comparaison de celle de la couche d’isolant. Elle protège cependant la membrane d’étanchéité du rayonnement direct extérieur.

Calcul du U des toits existants isolés par l’extérieur à l’aide du logiciel PEB.


3. Nouveau mur à ossature bois

La façade à ossature bois permet la pose d’une grande épaisseur d’isolant sans augmenter exagérément l’épaisseur de la paroi elle-même, celui-ci étant posé à l’intérieur de la structure. La structure interrompt la couche isolante. L’impact de celle-ci sur les performances thermiques est pris en compte dans le calcul.
Autant que possible la paroi est composée d’éléments de plus en plus ouverts à la diffusion de vapeur de l’intérieur vers l’extérieur de manière à se prémunir contre la condensation à l’intérieur du mur.

Ainsi, le pare-vapeur  situé du côté chaud de l’isolant sera le plus étanche possible à la vapeur d’eau en hiver et le pare-pluie situé du côté froid de l’isolant sera, par contre, le plus perméable possible à celle-ci.
Le pare-vapeur aura une perméabilité à la vapeur d’eau variable en été et en hiver. En été il sera plus ouvert à la vapeur pour permettre à la paroi de sécher. C’est ce que l’on appelle un freine vapeur à µ (sd) variable.
L’auteur de projet a pris en compte le comportement hygrométrique de la paroi de manière à s’assurer de la pérennité du bâtiment. Il a réalisé une simulation dynamique à l’aide du logiciel WUFI® afin de valider la paroi du point de vue de la diffusion de vapeur d’eau.

Coupe nouveau mur à ossature bois (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.13 W/m²K.
Les deux couches d’isolant ont été considérées comme une seule couche dans le calcul, L’isolant étant identique et les structures en bois occupant les mêmes proportions d’espace.

Calcul du U de la façade à ossature bois à l’aide du logiciel PEB.


4. Nouvelle toiture compacte

La toiture compacte désigne la toiture plate dont l’isolant est placé à l’intérieur du support en bois sans lame d’air entre les différentes couches. Un écran pare-vapeur étanche à l’air doit être placé sous le support. Ce n’est pas une toiture froide, car il n’y a pas de couche d’air ventilée au-dessus de l’isolant. Cette technique est délicate à cause des risques de condensation interne.

Principe de fonctionnement : séchage par utilisation de freine-vapeurs hygrovariables.

  • En hiver, la pression de la vapeur dans les locaux est généralement supérieure à celle régnant dans le complexe toiture, ce qui crée un flux de vapeur se déplaçant de bas en haut.
  • En été, cette diffusion de vapeur est inversée : de haut en bas.
  • On suppose que l’action du freine-vapeur assèche le complexe toiture durant les périodes plus chaudes tandis que l’apparition d’humidité peut être limitée dans les périodes plus froides grâce à la fermeture du freine-vapeur.

Certaines règles doivent être respectées.

  • L’étanchéité doit absorber le plus possible les rayonnements solaires.
  • La toiture doit être totalement ensoleillée.
  • La pente doit être d’au moins 2 % (pas de stagnation d’eau pluviale).
  • La pente ne peut pas être de plus de 40° pour des versants orientés vers le Nord, l’Est et l’Ouest.
  • L’isolant doit être très ouvert à la vapeur (µ le plus petit possible)
  • Le freine-vapeur doit être du type hygrovariable.
  • La finition intérieure sous le freine-vapeur doit être perméable à la vapeur.
  • Il faut éviter toute convection entre l’air intérieur et le complexe de toiture (blower door test).
  • Le taux d’humidité du bois doit être limité avant la mise ne place du système.
  • La classe de climat intérieure ne peut pas dépasser la classe III ou même la classe II lorsque la toiture est végétalisée.

Le maître de l’ouvrage (bureau d’études spécialisé dans ce domaine) a réalisé des simulations hygrothermiques pour évaluer le risque d’apparition de problème d’humidité dans la toiture compacte de son bâtiment. C’est une tâche délicate, car il y a énormément de paramètres inconnus à entrer et il est souvent très difficile d’interpréter correctement les résultats finaux.

Deux solutions ont été envisagées.

Les deux solutions analysées par des simulations hygrothermiques.

La simulation hygrothermique a clairement montré que c’est la solution B qui devait être adoptée.

Coupe nouvelle toiture compacte (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.08 W/m²K.

Malgré que l’épaisseur d’isolant soit plus importante que celle de la toiture présentée plus haut au point 2, le U atteint est proche. Cela est dû aux caractéristiques des matériaux utilisés.

  • Mousse phénolique -> λi = 0.021 W/mK
  • Cellulose et laine de bois -> λi = 0.039 W/mK

Calcul du U de la toiture compacte à l’aide du logiciel PEB.


5. Nouveau mur mitoyen isolé par l’intérieur et l’extérieur

Pour que le mur mitoyen neuf donnant sur l’air extérieur soit thermiquement le plus performant possible tout en n’empiétant pas trop sur l’espace intérieur, il a été isolé à la fois par l’intérieur et l’extérieur.
Le maître de l’ouvrage a réalisé des simulations hygrothermiques pour évaluer le risque d’apparition de problème d’humidité dans ce mur. Les résultats furent rassurants.

Coupe nouveau mur mitoyen isolé par l’intérieur et l’extérieur (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.12 W/m²K.

Calcul du U du mur mitoyen isolé par les deux côtés à l’aide du logiciel PEB.


6. Un mur existant isolé par l’intérieur

Isoler un mur existant par l’intérieur est, dans certains cas, la seule solution possible bien que la gestion des ponts thermiques et des condensations internes soit délicate.
Le maître de l’ouvrage après avoir réalisé quelques simulations dynamiques a opté pour la solution ci-dessous.

Coupe mur existant isolé par l’intérieur (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.23 W/m²K. Nous sommes toujours en-dessous de Umax =  0.24 W/m²K pour un mur extérieur.

Calcul du U du mur extérieur isolé par l’intérieur à l’aide du logiciel PEB.


7. Sol existant isolé par le haut

Comme dans bien des cas, la solution la plus économique pour isoler un plancher posé sur le sol est de poser l’isolant sur la dalle en béton existante et de tirer une nouvelle chape armée sur l’isolant.
C’est la technique qui a été choisie.

Coupe plancher sur sol existant isolé par le haut (document architecte).

Le calcul du coefficient de transmission thermique U réalisé à l’aide du logiciel PEB indique une valeur U = 0.14 W/m²K.

Calcul du U de la dalle sur sol isolée par le haut à l’aide du logiciel PEB.


Informations complémentaires

Cette étude de cas a été développée à l’aide des informations et documents fournis par le bureau d’architecture ayant conçu le bâtiment FHW Architects et le maître de l’ouvrage écoRce sprl dans le cadre de l’action Bâtiments exemplaires Wallonie 2013.

NetZEB : bâtiments Nets Zéro-Énergie

NetZEB : bâtiments Nets Zéro-Énergie


Définition

Dans la famille des concepts de performance énergétique des bâtiments, je demande le bâtiment net zéro-énergie !

Mais qu’est-ce qu’un bâtiment « net » zéro-énergie ?

Les NetZEB pour « Net Zero Energy Building » (bâtiments nets zéro-énergie, ou « à bilan énergétiques neutres ») ne sont en rien des bâtiments autonomes ou zéro émissions. Ils peuvent être définis comme produisant autant d’énergie qu’ils n’en consomment sur une période de temps. Le bâtiment peut consommer ou non sa production et consommer de l’énergie issue du réseau ou de sa propre production (autoconsommation). Le bilan s’établi sur une année, généralement en énergie primaire et la production énergétique doit être renouvelable, cela va de soi !

Ainsi, un tel bâtiment compense sa consommation du mix énergétique sur le réseau en déversant sa surproduction renouvelable sur le réseau lorsqu’il ne peut l’autoconsommer. Généralement, le bâtiment sera consommateur en hiver et producteur en été. L’indication « Net » devant « zéro-énergie » vise à souligner cet équilibre entre consommation et production, calculé en énergie primaire. [Schéma central, ci-dessous]

Pour les bâtiments qui produisent plus d’énergie qu’ils n’en consomment, on parlera de bâtiments à énergie positive [schéma de droite, ci-dessous] tandis que ceux dont la production est proche de leur consommation mais inférieure on utilisera le terme « Quasi zéro énergie ». [Schéma de gauche, ci-dessous]

Schémas sur les 3 définitions bâtiments basse énergie.

* Si en 2018 aucune exigence wallonne ne porte sur le net zéro-énergie ou l’énergie positive, la directive Européenne 2010/31/UE impose néanmoins aux États-membres que toutes les nouvelles constructions soient quasi zéro-énergie dès le 1er Janvier 2021. Chaque État-membre est néanmoins libre de définir jusqu’à quelle écart entre production et consommation d’énergie primaire il considère qu’un bâtiment est « quasi » zéro-énergie. Pour la Wallonie, toutes les valeurs réglementaires en fonction du type de bâtiment se trouvent sur notre page dédiée.

On comprend donc bien que ce qui est mesuré au niveau de la balance énergétique ne concerne que les échanges entre le réseau et le bâtiment, ce qui se passe à l’intérieur du bâtiment n’est pas repris dans le bilan. L’éventuelle part d’autoconsommation n’est ainsi pas directement comptabilisée ou valorisée dans cet équilibre. L’égalité se fait par comparaison entre consommation sur le réseau et surproduction remise sur le réseau.

Schéma sur l'équilibre entre consommation sur le réseau en hiver et surproduction injectée sur le réseau en été.
Équilibre entre la consommation sur le réseau en hiver et la surproduction injectée sur le réseau en été.

Ces bâtiments sont toujours dépendants du réseau car ils y puisent une partie de leur consommation. Il ne faudra donc pas les confondre avec les bâtiments strictement zéro-énergie ou les bâtiments autonomes qui eux parviennent à annuler leurs besoins en énergie ou à les combler instantanément et en totalité par des énergies renouvelables produites sur place ou au sein d’un district énergétique local sans connexion au réseau.


Histoire du concept

Les premières mentions de bâtiments zéro-énergie sont la MIT Solar House I en 1933 (BUTTI,K.et PERLIN,J.(1980). A Golden Thread, 2500 Years of Solar Architecture and Technology. Van Nostrand Reinhold Company) et la Bliss House en 1955 (BLISS, R. (1955). Design and performance of the nations’ only fully solarheated house. Air conditioning, Heating and Ventilating, 52:92–97). D’autres exemples historiques sont la Vagn Korsgaard Zero energy Home au Danemark (ESBENSEN,T.et KORSGAARD,V.(1977). Dimensioning of the Solar Heating System in the Zero Energy House in Denmark. Solar Energy, 19:195– 199) et la Saskatchewan Conservation House (BESANT, R., DUMONT, R. et SCHOENAU, G. (1979). The Saskatchewan conservation house: some preliminary performance results. Energy and Buildings, 2:163–174). Les premières se concentraient sur la maximisation de la production et valorisation de l’énergie solaire, les secondes y ajoutaient des mesures de réduction de la demande de chaleur.

Ces deux axes de développement vont se croiser à la fin du XXème siècle, et résulter en une modification importante de la conception et du bilan énergétique des bâtiments. Par exemple, le double puis triple vitrage devient la norme permettant d’augmenter la surface vitrée des logements et bureaux sans augmenter les besoins de chaleur, mais en élevant les besoins de refroidissement. Ceci entraîne des réflexions plus poussées sur les protections solaires, le développement de doubles façades, etc. C’est à ce moment que se produit un glissement dans la manière de concevoir. Alors qu’avant une installation de conditionnement d’air était pensées isolément pour compenser les charges thermiques du bâtiment, quelle qu’elles soient, les concepteurs l’ont progressivement intégrée au concept global du bâtiment pour en faire un ensemble de plus en plus cohérent et complémentaire regroupant: l’enveloppe, les HVACs, les techniques passives, l’éclairage et les appareils électriques.

L’intégration croissante des systèmes et l’apparition au début des années 90’ de l’idée que techniquement le soleil pourrait suffire à répondre aux besoins d’énergie du bâtiment, contribue à renforcer la réflexion sur le zéro-énergie. Le soleil, bien utilisé et combiné à des techniques passives de régulation de l’ambiance pourrait permettre de tendre vers le zéro-énergie. Or, à ce moment, les panneaux solaires photovoltaïques et thermiques se développent, gagnent en efficacité mais surtout deviennent de plus en plus abordables.

La conjoncture d’alors entre :

  • le développement de technologies de production d’énergie renouvelable abordables,
  • l’urgence environnementale,
  • la nécessité de réduire le pic énergétique de la demande,
  • la mise en place de politiques économiques de soutien au développement des énergies renouvelables
  • la maturité des systèmes HVAC
  • l’émergence d’une vision complète et intégré des systèmes.

fut propice au développement de la perspective du Net Zéro-Énergie.

Assez vite est apparue une réflexion sur le caractère autonome (par rapport au réseau) ou non des bâtiments « zéro-énergie ». Vale et al. ont montré que l’idée d’une liaison au réseau permet une meilleure performance sur le cycle de vie du bâtiment que la recherche d’autonomie par le stockage in situ de l’énergie produite, et offre également plus de flexibilité (VALE, B. et VALE, R. (2002). The New Autonomous House : Design and Planning for Sustainability. Thames & Hudson Ltd). L’idée que le bâtiment « zéro-énergie » fasse partie intégrante d’un réseau énergétique s’est dès lors généralisée.

L’idée d’un habitat entièrement autonome est aujourd’hui limitée aux cas où les réseaux d’énergie font défaut. Pour éviter toute confusion le terme bâtiment net zéro-énergie (Net-ZEB) est utilisé de préférence à bâtiment « zéro-énergie » pour désigner un bâtiment dont la balance consommation/production est nulle sur une période déterminée (généralement un an). Il s’agit d’avoir pu produire et réinjecter sur un réseau autant d’énergie que l’on en aura consommé. Cette approche a le mérite de replacer le bâtiment dans un contexte régional (via le réseau d’électricité) ou local (via des réseaux de chaleur urbains). Notons que certains projets se présentent déjà comme plus ambitieux et prétendent à un statut de bâtiment à énergie positive.


Peut-on être NetZEB et gros consommateur d’énergie fossile?

Oui, en théorie, sans aucun doute. D’après la définition littérale d’un bâtiment NetZEB, il « suffit » simplement d’être aussi grand producteur que consommateur pour être NetZEB. Ainsi, un bâtiment mauvais du point de vue de sa performance thermique, pourrait compenser, par exemple, avec une grande surface de panneaux photovoltaïques. Celui-ci pourra alors être considéré comme « Net Zéro-Énergie ».

Définition littérale d’un bâtiment NetZEB.

Si mathématiquement la balance est vérifiée, d’un point de vue qualitatif peut on affirmer que l’énergie consommée en hiver à partir du mix énergétique (majoritairement fossile) équivaut à la même quantité d’énergie produite en été de manière renouvelable ?

En effet, l’énergie consommée en hiver est issue du mix énergétique wallon (et donc majoritairement non-renouvelable à ce jour) et utilisée à un moment où l’énergie est plus rare tandis que celle produite en été par les panneaux PV est injectée sur le réseau à un moment où la consommation est moindre et l’énergie se fait beaucoup moins rare…

Schéma sur le concept Net zéro-énergie, précisions (1).

Si les cas 1 et 2 sont tous deux Net zéro-énergie (la balance entre la surproduction injectée sur le réseau en été et la consommation sur le réseau en hiver étant à l’équilibre), on remarque que même avec ce « label », un bâtiment peut rester un grand consommateur d’énergie issue du mix énergétique du réseau (cas 2). Les deux balances sont mathématiquement à équilibre mais il reste qu’au bout de l’année une plus grande quantité d’énergies fossiles auront été consommées pour ce bâtiment (cas 2)… La meilleure énergie est et sera toujours celle qu’on ne consomme pas.

Schéma sur le concept Net zéro-énergie, précisions (2).

Pour avoir un sens environnemental et énergétique, les concepteurs de bâtiments Net zéro énergie ne peuvent se limiter au seul critère de l’équilibre production/consommation mais devraient aussi, dès le début de la conception, veiller à réduire les besoins au minimum rationnel et pertinent avant d’entreprendre les démarches de compensation des besoins résiduels via la production d’énergie renouvelable in situ. En ce sens, les exigences thermiques régionales sur la performance des parois (Umax) et le niveau d’isolation thermique global (niveau K) constituent des garde-fous.

Pour aller plus loin, n’hésitez pas à visiter nos pages sur les stratégies de conception !

Pour augmenter la part d’autoconsommation et réduire l’empreinte environnementale du bâtiment, le concepteur de l’installation peut également penser à déployer des moyens locaux de stockage d’énergie journalier et/ou saisonnier de manière à ne plus considérer le réseau comme un moyen de stockage infini.


Une approche intégrée

Ce nouveau statut du bâtiment alternativement ou simultanément producteur, consommateur, auto-consommateur induit des bouleversements sur la manière dont ceux-ci sont intégrés au réseau électrique et dans la manière de concevoir les bâtiments. En voici une synthèse traduite du livre « Modeling, Design and optimization of Net-Zero Energy Buildings » :

Systèmes, Conception et Utilisation Bâtiment “classique” Bâtiment NetZEB
Enveloppe Passive, pas conçue comme faisant partie du système énergétique global Optimisé pour la conception passive et l’intégration des systèmes solaires actifs
HVAC Systèmes surdimensionnés (côté sécurité) Petits systèmes contrôlés et optimisés, intégrés avec les systèmes solaires, les systèmes combinant chaleur et électricité, stockage journalier et/ou saisonnier, systèmes partagés dans le quartier.
Systèmes solaires (PV, ST), renouvelable, cogénération Pas d’intégration systématique, on y pense après, on rajoute après. Pleinement intégré : lumière naturelle / solaire thermique / Photovoltaïque / solaire hybride / géothermique / biomasse / connexion à un microSmartGrid
Système d’automatisation Systèmes utilisés de manière peu efficace. Contrôle prédictif, Optimisation du confort et des performances énergétiques.
Conception et utilisation Considéré séparément Intégré et optimisé pour satisfaire le confort.

Notons qu’une clarification est à faire entre les notions zéro-énergie et zéro-carbone. Le « Common Language for sustainable construction » propose les définitions reproduites ci-dessous (ref. : Europeann Concrete Platform Et Architects Council of Europe).

On constate une différence d’approche entre des objectifs exprimés en termes de carbone ou d’énergie primaire, selon que l’on se concentre sur l’impact climatique ou sur une approche plus large de l’enjeu énergétique. L’expression d’objectifs selon l’un ou l’autre terme est importante dans la mesure où les solutions techniques privilégiées sont différentes. Des solutions de chauffage à la biomasse ou à l’électricité nucléaire seront par exemple favorisées dans un bilan carbone, mais plus nuancées dans une approche énergétique.

« Net zero carbon buildings : Buildings that, by virtue of the materials of which they are constructed and by virtue of the fact that they produce surplus energy from renewable sources, ensure that, over their Design Life, they compensate for all carbon emissions associated with the construction and use of the building. »

« Net zero Energy : The goal of Net Zero Energy is to become a community that produces its own energy. Net Zero Energy Buildings […], for instance, rely on efficiency to reduce energy needs and allow the balance to be supplied with renewables. NetZEBs produce as much energy on-site as they use annually. The reason NetZEBs are referred to as ’net zero’ is that they are still connected to the grid. Sometimes they produce more power than they are consuming and feeding power to the grid and running the meter back. Sometimes they consume more power than they are producing and pulling power from the grid. But for a NetZEB, the energy given to the grid is equal to the amount of energy pulled from the grid on an annual basis. It is important to note that net zero refers to energy use, and does not necessarily mean zero carbon emissions from energy use. »


Un concept qui reste vague

Les définitions usuelles du NetZEB restent très vagues et reflètent le manque de consensus international sur la notion de bâtiment net zéro-énergie. La Tâche 40 « Vers des bâtiments nets zéro-énergie » de l’Agence Internationale de l’Energie (AIE) a dès lors compilé les différentes définitions existantes et leurs critiques (AGENCE INTERNATIONALE DE L’ENERGIE (2010). Task 40). Il ressort de cette tâche quatre éléments vis à vis desquels toute définition des NetZEB devrait se positionner.

Premièrement, le niveau de spécification des paramètres de calcul doit être clarifié. L’évaluation doit-elle préciser quelles conditions climatiques intérieures réaliser? Les charges internes doivent-elles être forfaitaires ? Pour quel climat doit se faire l’évaluation ?

Deuxièmement, le type d’indicateur et les règles de pondération entre formes d’énergie doivent être explicités. Si l’énergie primaire est l’indicateur généralement préféré, elle soulève des questions telles que l’évolution dans le temps des coefficients de conversion et la façon de prendre en compte les énergies renouvelables. Les émissions de CO2 sont une alternative possible, tout comme un bilan financier ou exergétique. Ces deux dernières possibilités sont cependant respectivement instables dans le temps et peu compréhensibles par le public.

Troisièmement, le caractère « net » de la définition doit être précisé : quels éléments sont pris en compte et sur quelle période de temps ? L’échelle de temps privilégiée est souvent l’année, ou un multiple d’années. Des divisions temporelles plus fines sont peu populaires car plus contraignantes, mais une tendance existe pour réaliser des évaluations sur le cycle de vie complet du bâtiment. La question du type d’énergie considéré est également importante. A côté de l’énergie nécessaire au maintien du climat intérieur, il n’y a pas de consensus sur la prise en compte des énergies liées à l’occupant ou aux matériaux. Ces deux aspects souffrent d’un manque de précision des méthodes d’évaluation et d’une divergence de point de vue selon l’utilité que l’on donne à la définition des NetZEB. D’un point de vue gestion des réseaux énergétiques, l’énergie grise n’a pas d’impact, mais l’occupation bien. Du point de vue du constructeur, l’inverse est plus vrai. L’importance relative de ces deux aspects est croissante au vu de la diminution des consommations d’énergie liées au maintien des ambiances intérieures. Il existe également un débat relatif aux énergies renouvelables, entre la limitation aux énergies produites sur site et l’intégration de crédits carbones.

Quatrièmement, les conséquences en termes de réseau énergétique sont à considérer. Les approches NetZEB considèrent souvent le réseau comme une forme de stockage infini, ce qui n’est pas la réalité. Des évaluations plus fines sont nécessaires, notamment au niveau de l’utilisation effective de l’énergie délivrée au réseau et des écarts entre les puissances maximales demandées et délivrées, ce qui devrait générer des indicateurs spécifiques à intégrer dans la démarche NetZEB. Ceci doit se faire à la lumière des évolutions que connaîtront les réseaux énergétiques à l’avenir, avec la part croissante d’énergie renouvelable qu’ils devront intégrer.

Cinquièmement, les procédures de monitoring et d’accompagnement doivent être précisées et devraient faire partie intégrante de la définition des NetZEB, pour garantir que les performances visées en conception sont bien rencontrées en pratique.


Un concept pragmatique ?

Aux critiques et limitations présentées ci-dessus, nous pensons utile d’ajouter que la définition des bâtiments zéro-énergie doit avant tout être un outil pratique destiné à guider le concepteur dans ses choix. Il en découle que cette notion doit répondre à trois caractéristiques : (1) la rigueur scientifique indispensable, (2) l’expression d’un niveau d’ambition proportionnel à l’enjeu et (3) le pragmatisme, compris comme sa cohérence avec la pratique de terrain. Le concept NetZEB n’offre pas forcément une réponse optimale à cette triple exigence. Et ce pour deux raisons.

Premièrement, les critiques relevées plus haut ont mis en évidence qu’une limitation aux besoins de chauffage et de refroidissement n’était pas adéquate. Il y a aujourd’hui consensus pour considérer que la notion des NetZEB devrait intégrer les consommations d’énergie liées au maintien des ambiances thermiques, à l’éclairage et aux auxiliaires HVAC, comme le fait la réglementation Q-ZEN. L’intégration de l’énergie grise liée aux matériaux et composants mis en œuvre est souvent mentionnée comme un élément à intégrer. Pour mieux refléter la réalité, l’évaluation devrait également intégrer d’autres consommations telles que l’énergie consommée par le chantier et le processus de conception en tant que tel, ou encore l’impact du projet sur l’énergie dépensée en transports et infrastructures ou son influence éventuelle sur les comportements énergétiques des habitants.

Sans trancher sur la liste des paramètres à intégrer, force est de constater que nous sommes face à une tendance qui pousse à agréger en une seule évaluation une série d’impacts énergétiques différents. D’une part, l’agrégation des différentes consommations rend la valeur finale difficilement compréhensible. Il devient difficile de se représenter concrètement ce qu’elle représente et quel est le poids de chaque mesure de performance énergétique dans le résultat final. D’autre part,il est difficile d’obtenir une valeur réaliste avant d’atteindre un stade d’avancement poussé du projet, vu que des choix préliminaires doivent avoir été faits pour chaque élément intervenant dans le calcul. Or, ce sont souvent les premières étapes qui déterminent la performance énergétique, ainsi que la combinaison de la performance énergétique avec la performance économique. La tendance à l’exhaustivité du calcul énergétique pourrait donc à terme rendre l’évaluation netzéro-énergie inopérante comme guide de conception.

Deuxièmement, la recherche d’un niveau « zéro-énergie » reflète une approche sectorielle de l’impact énergétique des bâtiments. Cette ambition peut être acceptée en tant que projection à l’échelle du secteur d’un équilibre énergétique global de nos sociétés, mais rien n’indique que l’équilibre annuel entre production et consommation soit pertinent à l’échelle d’un projet d’architecture. Au contraire, le niveau net zéro-énergie génère une iniquité flagrante au niveau des projets individuels, notamment entre les sites bénéficiant d’un fort potentiel d’énergies renouvelables et les autres, ou entre les projets permettant une réduction drastique des besoins et ceux qui ne le peuvent du fait de contraintes propres et justifiées (pensons aux questions de patrimoine remarquable, de capacité d’investissement, etc.). Un niveau d’ambition unique ne peut pas être considéré a priori comme applicable partout. Certaines situations de projet nécessiteront de revoir les ambitions à la baisse face aux contraintes techniques, économiques ou patrimoniales, tandis que d’autres permettrons d’aller plus loin que l’équilibre énergétique.


Tous Nets zéro-énergie ?

Bien qu’incontournable aujourd’hui, la notion de bâtiment net zéro-énergie apparait assez éloignée de l’architecture, tant dans ses fondements que dans son ambition. Les critiques qui lui sont faites par la communauté scientifique portent principalement sur la rigueur physique de sa définition, tandis que nous lui voyons un manque de pragmatisme de par sa volonté (louable en soi) d’exhaustivité.

Face à ses limites, il pourrait être intéressant de rouvrir la question du caractère autonome du bâtiment. D’une part il force à contextualiser l’approche, d’autre part il implique des formes de conservation de l’énergie dans le bâtiment et donc la nécessité d’analyses de comportements dynamiques sur base saisonnière et journalière. L’objectif d’autonomie totale pose également différemment la question des formes d’énergie valorisables et nécessite de repenser la notion de confort thermique.

Cette piste n’est à ce jour pas un objectif rationnel à l’échelle collective, notamment d’un point de vue économique. Dès lors, visons le NetZEB, mais de façon critique.

logo plan air, climat, énergie.

En Wallonie, un cap important a été franchi le 19 juillet 2018 avec l’approbation du Plan Wallon Énergie Climat (lié au PNEC 2030 : Plan National Énergie Climat). Ce plan prévoit de définir ce que sera le zéro énergie wallon. Cette définition devrait être d’application à partir de 2025. Dans la suite logique du QZEN (Quasi Zéro ENergies), ces bâtiments porteront l’acronyme ZEN (Zéro ENergies).

 

Bâtiment nearlyZEB ou « Quasi » zéro-énergie et son application en Wallonie (Le Q-ZEN)

Bâtiment nearlyZEB ou « Quasi » zéro-énergie et son application en Wallonie (Le Q-ZEN)
Copyright https://energie.wallonie.be/.

1. Définition d’un bâtiment « quasi » zéro énergies d’après la directive Européenne

Un bâtiment « Quasi » zéro-énergie est « un bâtiment qui a des performances énergétiques très élevées […]. La quantité quasi nulle ou très basse d’énergie requise [pour le chauffage, le refroidissement, l’éclairage, l’eau chaude sanitaire et la ventilation] devrait être couverte dans une très large mesure par de l’énergie produite à partir de sources renouvelables, notamment l’énergie produite à partir de sources renouvelables sur place ou à proximité ». [Directive 2010/31/CE] Ces bâtiments peuvent également se retrouver au sens large sous les acronymes NZEB/NearlyZEB (nearly Zero Energy Building) ou Q-ZEN (Quasi Zéro Énergie) pour son application en réglementation régionale wallonne.

Chaque État-membre est tenu de fixer la définition des bâtiments dont la consommation d’énergie est quasi nulle, qui tient compte des conditions nationales, régionales ou locales.

Voir les exigences Q-ZEN 2019 (bâtiments publics uniquement) & 2021


2. A ne pas confondre !

Les Bâtiments Quasi zéro énergie sont à différencier des immeubles autonomes et des constructions Net Zéro Énergie : NetZEB (Net Zero Energy Buildings) ou Q-ZEN en Wallonie (Quasi Zéro ENergies). Contrairement à ces deux approches, dans le Quasi zéro-énergie, les besoins d’énergie primaire sur le réseau ne sont ni nuls (Bâtiment autonome), ni nécessairement totalement contrebalancés par une forte production d’énergie renouvelable sur place ou à proximité (Net Zéro Énergie). Ici, les besoins en énergie primaire nécessaires au fonctionnement normal du bâtiment sont fortement réduits et, parfois, partiellement contrebalancés par de l’énergie produite à partir de sources renouvelable pour répondre aux exigences variables selon les états-membres et les régions.


3. Le Q-ZEN en Wallonie, dans la continuité

logo QZEN

Si les premiers tâtonnements en termes de règlementations thermiques wallonnes datent de 1985 [Arrêté du 29 février 1984], ce n’est que depuis le début du millénaire que le monde politique prend pleinement conscience de l’importance d’une lutte active pour l’économie d’énergie et contre le changement climatique. C’est ainsi qu’en 2002, l’Europe ratifie le protocole de Kyoto [cop23.unfccc.int] scellant ainsi son engagement à réduire ses émissions de certains gaz à effet de serre.

Dans la foulée, une première directive européenne voit le jour (Directive 2002/91/CE). Elle sera ensuite transposée en décret (2007) et arrêtés (2008, 2009 et 2012) qui furent les premières exigences thermiques issues de directives européennes que nous ayons connus.

Plus récemment, en 2010, la directive a été révisée (directive 2010/31/UE) et trois ans plus tard cette version de la directive a été transposée en droit interne sous la forme d’un décret mis en application l’année suivant via l’arrêté d’application de 2014 modifié en dernier lieu par l’arrêté de 2017.

Pour honorer leurs engagements et respecter les directives européennes, les états membres ont renforcé les exigences en matière de performance énergétique d’années en années. Dans le secteur tertiaire, le niveau K est ainsi soumis à des exigences croissantes depuis 1985 tandis que le niveau Ew l’est depuis 2010 et a fait l’objet d’un renforcement croissant.

Schéma sur l'évolution de la réglementation thermique en wallonie.
Les Umax (coefficient de transmission thermique maximum des parois) sont pour leur part apparus en 1996.

schéma sur les Umax en wallonie.

Dernièrement, en vue de la transposition dans le droit interne de l’article 9 de la Directive européenne de 2010 relative à la performance énergétique des bâtiments, les états membres ont eu pour obligation de faire en sorte qu’au 1ier janvier 2021 tous les nouveaux bâtiments (y compris les bâtiments résidentiels) soient quasi Zéro Énergie. Pour les nouveaux bâtiments occupés et possédés par les pouvoirs publics, cette obligation est déjà valable à partir du 1er janvier 2019 !

schéma sur l'évolution du Q-ZEN en Wallonie.

Le Q-ZEN, se positionne donc dans la continuité des exigences précédentes. L’exigence est à la fois progressiste, réaliste et rationnelle. Les Umax sont conservés, le niveau K et les exigences pour la ventilation également. Le renforcement notable concerne le renforcement des exigences en matière de consommation d’énergie primaire EW (-30%) pour les parties fonctionnelles de bureau et d’enseignement ainsi que pour les bâtiments résidentiels.

Une réduction de – 27% sur le niveau Espec qui ne concerne lui que les bâtiments résidentiels est également à noter.

Vous l’aurez compris : pas de panique ! Le bâtiment Q-ZEN n’est pas nécessairement high-tech ou hors de prix, avec une stratégie passive adaptée et des technologies simples, les exigences pourront déjà être rencontrées.

Plus d’information sur la conception d’un bâtiment Q-ZEN !

Night colling

Maîtrise de la surchauffe grâce au Night Cooling

L’administration wallonne montre l’exemple en rénovant à Jambes un bâtiment sans climatisation, mais rafraîchi naturellement.


Introduction

En 2012, le service public de la Région wallonne décide de rénover un immeuble de bureau inoccupé à Jambes pour y installer certains de ses services, à savoir la direction générale de l’aménagement du territoire, logement, patrimoine et énergie (DGATLPE).

Dans le contexte actuel d’une utilisation responsable des ressources énergétiques, le maître de l’ouvrage a souhaité que le bâtiment soit particulièrement performant en matière de consommation d’énergie. Celle-ci sera bien inférieure aux consommations d’un immeuble de bureau classique, tout en garantissant un confort très élevé.

Le bâtiment se veut exemplaire et doit servir de modèle en vue d’encourager les autres acteurs de la construction à entreprendre le même type de démarche.

Les travaux ont été terminés en 2015. Le bâtiment est une réussite !

 

Nouveau bâtiment de la DGATLP à Jambes.

Parmi les nombreuses mesures prises pour améliorer les performances énergétiques du bâtiment, il a été décidé de maîtriser la surchauffe des locaux sans faire appel à des groupes de refroidissement dans une partie du bâtiment. Comment a-t-on fait et est-ce que cela fonctionne ?


Le bâtiment

Situation préexistante

Avant les travaux, le bâtiment construit dans les années 1960 comptait un rez-de-chaussée et 3 étages de bureaux, le tout surmonté d’un étage sous toiture à versants non aménagé.

 

Le bâtiment avant les travaux.

La structure du bâtiment est en béton armé : planchers nervurés et façades portantes à colonnes.

 

Structure en béton.

  Ancienne façade.

La toiture est à structure métallique légère.

 

La structure de l’ancienne toiture à versants.

Transformations

Le bâtiment a été complètement transformé de deux manières différentes :

  • La structure en béton armé des trois étages et du rez-de-chaussée a été conservée et cette partie a été complètement rénovée.
  • La toiture a été enlevée et un nouvel étage à toiture plate a été construit.

Ces deux parties sont très différentes et dans le cadre de la réglementation sur la performance énergétique des bâtiments PEB sont considérées comme des unités distinctes.

Le quatrième étage

Cet étage constitue à lui seul un bâtiment neuf construit sur le bâtiment existant après enlèvement de la toiture à versant. Il comprend principalement des espaces de réunion.

Bien que thermiquement très performant par rapport aux critères de l’époque (2011), il ne sera pas décrit dans la présente étude de cas.

En résumé :

  • la transmission thermique à travers les parois ne dépasse pas les maximums autorisés ;
  • le niveau d’isolation thermique global K = 36 ;
  • le niveau de performance énergétique EW = 72.

La gestion du confort d’été de ce quatrième étage à faible inertie thermique est assurée par un groupe de refroidissement adiabatique par évaporation indirecte suivi par un refroidissement mécanique de type pompe à chaleur. Les fenêtres sont munies de stores extérieurs à commande automatique.

Le rez-de-chaussée et les trois premiers étages

Cette partie du bâtiment comprend principalement des bureaux. Elle est particulièrement compacte et bien isolée thermiquement. Son confort thermique en été sera étudié en détail.

Sa compacité est très élevée (presque 6 m) grâce à un volume important et une surface de façades relativement réduite. Il n’y a pas de déperdition :

  • vers les bâtiments mitoyens ;
  • vers le bas là où se trouvent les bureaux de la poste ;
  • vers le haut là il est couvert par le nouveau 4e étage.

 

Le niveau d’isolation thermique de la surface de déperdition du volume protégé est élevé.

Façades

La façade avant a été recouverte par l’extérieur de caissons préfabriqués en bois remplis de 12 cm de laine de roche. Ce qui confère à celle-ci un coefficient de transmission thermique U de 0.31 W/m²K.

La façade arrière a été isolée par l’extérieur à l’aide de 12 cm de laine de roche recouverte d’un enduit. Le coefficient de transmission thermique U de cette façade est de 0.27 W/m²K.
Ces valeurs de U répondent aux exigences de Performance Energétique des Bâtiments (PEB) de l’époque de la demande de permis de bâtir. Depuis 2014, le U des façades ne peut pas dépasser 0.24 W/m²K (= Umax).

De par le choix de la méthode, le risque de ponts thermiques entre l’intérieur et l’extérieur est quasiment nul et la structure lourde de la façade située à l’intérieur participe à la stabilité thermique des locaux.

 

Isolation thermique de la façade avant.

Isolation thermique de la façade.

> Fenêtres

Les châssis sont en aluminium à coupure thermique et sont munis de double vitrage acoustique basse émissivité performant dont le coefficient de conductivité thermique Ug vaut 1.1 W/m²K.
Suivant leur configuration, les fenêtres ont un coefficient de conductivité thermique Uw compris entre 1.6 et 1.8 W/m²K.

Ces valeurs de U répondent aux exigences de Performance Energétique des Bâtiments (PEB) de l’époque de la demande de permis de bâtir. Depuis 2018, le UW des fenêtres ne peut pas dépasser 1.5 W/m²K (= Umax).

Les fenêtres sont de type oscillo-battant. Motorisées, elles s’entrouvrent automatiquement lorsque le système de gestion du night-cooling le commande.
Elles sont munies de stores extérieurs automatiques.

 

Fenêtre en aluminium à coupure thermique.

> Toitures plates

Les toitures plates sont du type « toiture chaude« . Elles sont végétalisées. La couche isolante est constituée de 20 cm de laine de roche. Elle confère à ces toitures un coefficient de transmission thermique de 0.19 W/m²K. Cette valeur est inférieure au maximum toléré jusqu’en janvier 2021 : Umax = 0.24 W/m²K.

 

La toiture plate végétalisée.

> Inertie thermique

L’inertie thermique de la partie rénovée du bâtiment a été conservée grâce à l’enrobage par l’isolant du côté extérieur de la structure lourde existante. La masse thermique est ainsi accessible.
Il n’y a pas (ou peu) de faux plafonds. Les dalles en béton sont donc apparentes. Leur forme nervurée augmente leur capacité d’échange thermique avec l’air ambiant.
Par contre, des faux planchers ont été posés sur les dalles en béton, ce qui réduit l’échange thermique au sol.

La masse thermique est disponible.

 

Les nervures sous les dalles en béton restent accessibles

> Protections solaires

La façade avant est orientée au Sud-Est.
Des coursives et des panneaux solaires photovoltaïques verticaux fixes ont été placés pour permettre la gestion des apports solaires et limiter les surchauffes en période estivale. Ils ont été complétés par des stores extérieurs mobiles devant les fenêtres.

> Le système de chauffage

Le chauffage des locaux est assuré par des convecteurs alimentés en eau chaude par une chaudière à gaz à condensation d’une puissance de 120 kW.

 

La (petite) chaudière à condensation au gaz.

Cette puissance est largement suffisante. Nous avons installé des appareils de mesure dans divers bureaux en plein hiver et constaté que la température de confort était atteinte en permanence.

Évolution de la température durant la période froide.

> Le système de refroidissement

Le refroidissement des plateaux se fait par ventilation naturelle. Elle fonctionne grâce  à des fenêtres commandées automatiquement.

Nous nous intéresserons dans la présente étude de cas à la maîtrise de surchauffe dans la partie du bâtiment qui a été rénovée (rez-de-chaussée et étages 1, 2 et 3).


La maîtrise de la surchauffe

Les apports de chaleur internes sont très importants dans les immeubles de bureaux. Aussi, différents éléments ont été mis en œuvre pour limiter les risques de surchauffe en été et les inconforts qui en découlent.

> Protections solaires

Pour réduire les apports solaires en été, des protections ont été placées à l’extérieur de la façade Sud-Est.

Des protections fixes :

  • coursives en planchers métalliques ajourés ;
  • panneaux solaires photovoltaïques fixes en partie translucide. Ils sont orientés au Sud pour une meilleure efficacité et décalés par rapport aux fenêtres. De cette manière, ils permettent une meilleure vue vers l’extérieur et ombragent les fenêtres à midi.

 

Protections solaires fixes : panneaux PV et coursives.

Des protections mobiles :

  • les fenêtres sont équipées de stores extérieurs automatiques.

Protections solaires mobiles : stores automatiques.

> Fonctionnement des stores :

Tous les stores d’une même façade et d’un même étage s’ouvrent et se ferment en même temps.
Ils sont soit complètement ouverts, soit complètement fermés sans position intermédiaire.
Entre 20h00 et 06h00 ils sont toujours relevés.

> Inertie thermique :

 

Ventilation intensive (night-cooling) 

Les fenêtres des bureaux sont munies d’ouvrants motorisés. Elles s’ouvrent en oscillant vers l’intérieur. Le moteur de marque ROTO est encastré dans la traverse haute du dormant et est complètement invisible lorsque les fenêtres sont fermées.

  

Fenêtre à ouverture motorisée en façade.

Des ouvertures de transfert sont prévues entre les bureaux et les couloirs. Elles peuvent être refermées la journée pour des raisons acoustiques.

   

Ouvertures de transfert obturables entre les bureaux et les couloirs.

Les escaliers servent de cheminées de ventilation verticales

 

La ventilation intensive de nuit se fait via les escaliers et la gaine qu’ils entourent.

Des ouvrants (louvres) sont situés au-dessus des cages d’escaliers afin de permettre la ventilation naturelle.

   

 

Un de ces ouvrants est muni d’un ventilateur destiné à forcer la ventilation en cas de nécessité.

   

Le ventilateur installé dans une des tourelles de ventilation.


Le night-cooling

 

Schéma de principe du night cooling.

 

Application au 3e étage.

Fonctionnement

En été, lorsque le ciel est dégagé et que le rayonnement direct du soleil atteint les sondes d’ensoleillement, les stores se ferment. Ils se relèvent automatiquement à 20h00.

Le soir, toutes les ouvertures de transfert entre les couloirs et les bureaux sont ouvertes manuellement, soit par l’occupant qui a terminé de travailler soit par le service de gardiennage lors de sa première ronde. Parfois les portes des bureaux sont également laissées ouvertes.

Par contre, les portes de chaque étage communiquant avec d’autres bâtiments se ferment automatiquement la nuit pour qu’il n’y ait pas d’interférence de ceux-ci sur le fonctionnement du night cooling.

Chaque étage fonctionne indépendamment des autres. Tous les ouvrants de l’étage vont s’ouvrir en fonction de certaines conditions :

  • l’heure ;
  • la température de l’air intérieur ;
  • la température du béton ;
  • la température de l’air extérieur ;
  • l’ouverture des stores ;
  • la vitesse du vent.

En fonctionnement naturel, tous les ouvrants situés au-dessus des cages d’escaliers sont complètement ouverts et le tirage de l’air extérieur se fait naturellement à travers les étages dont les fenêtres sont ouvertes, via les cages d’escalier.

Si à minuit, les consignes de température ne sont pas atteintes par le night cooling naturel, tous les ouvrants situés au-dessus des escaliers se referment sauf celui qui est équipé d’un ventilateur d’extraction forcée. Ce dernier se met alors en route et fait circuler l’air mécaniquement.

La sonde de température intérieure à chaque étage est placée dans un bureau type. Ce bureau choisi est celui qui est orienté le plus défavorablement et qui présente le risque de surchauffe le plus important. L’ouverture de transfert de ce bureau vers le couloir doit être ouverte en permanence afin de permettre une représentation réaliste du refroidissement du bâtiment.


Le confort thermique

Lors de la mise en service du bâtiment, le système de night cooling du bâtiment n’était pas encore au point et certains occupants se plaignirent de températures trop élevées en été. De plus l’impossibilité d’ouvrir les fenêtres accentuait encore la sensation d’inconfort.
Les causes de dysfonctionnement ont été rapidement définies et les réglages nécessaires ont été effectués. Par la suite, plus personne ne s’est plaint d’un excès de chaleur.
Des sondes enregistreuses ont été placées dans certains bureaux en été pour vérifier la température et l’humidité de l’air. Les résultats confirment l’efficacité du système pendant trois semaines de forte chaleur.

 

Résultats des relevés dans un des bureaux entre le 06 et le 26 juillet 2017.

Les bons résultats obtenus découlent notamment de l’utilisation des stores durant la journée.
S’ils sont très efficaces de ce point de vue, par contre leur fonctionnement amène certaines contraintes. En effet, lorsqu’ils sont fermés, les bureaux sont plongés dans une pénombre qui parfois enclenche l’éclairage artificiel. La vue vers l’extérieur est également empêchée.  Cela entraîne une dépense d’énergie et un inconfort pour les utilisateurs des bureaux qui se plaignent de l’ambiance ainsi créée.
Des solutions sont à l’étude : programmation du fonctionnement ; dérogations par les utilisateurs ; fermeture partielle ; protections distinctes contre l’éblouissement ; etc.


Conclusion économies d’énergie

L’usage du night cooling, lorsqu’il est possible et efficace est particulièrement économique. La consommation électrique est très faible. Elle est limitée à la programmation, à la manœuvre des stores et fenêtres et à l’usage peu fréquent du ventilateur dans les conditions les plus contraignantes.


Informations complémentaires

Cette étude de cas a été développée à l’aide des informations et documents fournis par le Service Public de Wallonie.

Nos interlocuteurs furent :

  • Madame Amélie Paris de la Direction des études, des Marchés et des Travaux patrimoniaux, département de la Gestion immobilière.
  • Monsieur Didier Herman du SPW territoire, logement patrimoine et énergie, direction fonctionnelle et d’appui,  et logistique.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Choisir le système de ventilation : critères généraux

© Architecture et climat 2023.

La qualité d’air intérieur dépend notamment de :

  1. L’air extérieur ;
  2. le mobilier et matériel de bureau ;
  3. les produits et matériaux de construction ;
  4. la ventilation ;
  5. le comportement des usagers.

Les normes recommandent une ventilation de base permanente ayant pour but d’évacuer les odeurs, l’humidité et les éventuelles substances nocives. Pour ce faire, différents systèmes de ventilation existent.


Aperçu des normes

En région wallonne, depuis le 1er mai 2010, tous les bâtiments neufs et assimilés doivent répondre à des exigences particulières. Les bâtiments non résidentiels (hors habitation et appartement) doivent respecter l’Annexe C3 de la PEB (elle-même basée sur la norme européenne EN 13 779 (Ventilation dans les bâtiments non résidentiels – Spécifications des performances pour les systèmes de ventilation et de climatisation).  Celle-ci impose une qualité d’air au moins égale à la catégorie INT 3 (débit minimum de 22 m³ par heure et par personne).

De plus, elle impose un taux d’occupation minimum (m² par personne) à prendre en compte pour le dimensionnement en fonction de l’usage de la pièce.

Pour déterminer le débit d’air neuf minimal à assurer dans chaque local, il faut donc multiplier le taux d’occupation (de conception ou minimum imposé) par le débit de ventilation (INT 3 minimum).

De plus, il faut respecter un débit de conception minimal pour les sanitaires : 25m³/h par WC ou urinoir ou 15m²/h par m² de surface si le nombre de WC n’est pas connu lors du dimensionnement.

Pour les hôpitaux, selon la norme NF S90-351, dans les zones à risques 1, c’est-à-dire concrètement sans risque d’aérobiocontamination (hospitalisation sans risque d’infection, certaines consultations, radiologie, ergothérapie, …), la ventilation se traite, en principe, sans exigence particulière en terme de filtration et de pression.

Dans les autres locaux (médico-techniques par exemple), la ventilation est organisée dans le même local où l’on retrouve à la fois des bouches de pulsion et d’extraction.


Typologie des systèmes de ventilation

Différentes dénominations sont utilisées pour caractériser des systèmes de ventilation.

Relativement au flux d’air, on distingue ventilation hygiénique et intensive sur base du débit:

  • Ventilation hygiénique, ou « de base » : il s’agit de la ventilation minimale nécessaire pour garantir une qualité de l’air suffisante, pour réduire la concentration des odeurs et de l’humidité. Elle requiert des débits d’air limités, appliqués de manière permanente. Ordre de grandeur : <1 renouvellement horaire de l’air.
  • Ventilation intensive : ventilation temporaire à grand débit (ordre de grandeur : >4 renouvellements horaires de l’air) nécessaire uniquement dans des circonstances plus ou moins exceptionnelles, comme lors d’activités générant une production élevée de substances nocives ou d’humidité (travaux de peinture, de nettoyage, certains loisirs,…), lors de chaleur persistante ou d’ensoleillement intensif qui provoque une surchauffe, ou lors d’une occupation extraordinaire, par exemple une fête, un nombre de fumeurs élevé, …

On distingue également infiltrations et ventilation sur base du caractère volontaire ou fortuit du mouvement d’air :

  • Infiltration : mouvement d’air involontaire et incontrôlé au travers des faiblesses de l’enveloppe d’un bâtiment
  • Ventilation : mouvement d’air volontaire et partiellement ou totalement contrôlé au travers de dispositifs spécifiques

Dans le logement, la norme NBN D50-001 parle de systèmes A, B, C ou D selon que l’amenée et/ou l’évacuation d’air est naturelle ou mécanique. Bien qu’exclusivement réservée aux logement, ces appellations sont parfois généralisées aux systèmes mis en œuvre dans les bâtiments tertiaires. Nous parlerons ici plus largement de :

Les ventilations double flux peuvent ou non intégrer une récupération de chaleur sur l’air extrait.

Enfin, on parlera de ventilation hybride lorsqu’elle recours aux principe de la ventilation naturelle mais prévoit ponctuellement le support de ventilateurs et d’éléments réseaux de ventilation mécanique. Typiquement, il s’agit d’une ventilation naturelle dans laquelle un ventilateur d’appoint vient renforcer le tirage lorsque les forces naturelles font défaut.

Le premier choix à réaliser est donc, pour faire simple, entre une ventilation naturelle ou mécanique simple ou double flux. en conception neuve ou rénovation, c’est très souvent une ventilation mécanique qui sera choisie. Se posent alors deux autres questions :

  • faut-il créer un réseau de ventilation unique desservant tout le bâtiment (système de ventilation centralisé) ou distinguer les équipements de chaque local ou groupe de locaux (système de ventilation décentralisé) ?
  • A-t-on intérêt à utiliser ce système de ventilation pour traiter l’air neuf et/ou climatiser le local?

Concevoir

Pour départager les ventilation naturelles et mécaniques, cliquez ici !

Concevoir

Pour départager les systèmes de ventilation centralisés ou décentralisés, cliquez ici!

Concevoir

Pour examiner l’intérêt d’une combinaison de la ventilation avec le traitement thermique des locaux, cliquez ici

Système de refroidissement [Concevoir l’avant projet ]

Système de refroidissement


Stratégie de choix

Un système technique, notamment de refroidissement, ne devrait pas se choisir uniquement sur base de critères technologiques et économiques, même s’ils sont essentiels. Le choix doit intégrer toute la complexité du bâtiment, son programme, ses besoins énergétiques de chaud et de froid, son site, son occupation,…

Pour s’y retrouver, il est nécessaire de se donner une stratégie. Un exemple de stratégie de choix peut être d’identifier des groupes de critères jugés prioritaires sur base desquels faire une première sélection peut s’effectuer. Par exemple, dans une approche orientée vers la performance énergétique, on mettra en avant les critères liés :

  • Aux propriétés thermiques et constructives du projet :
    Quelle est l’inertie du bâtiment ? Quelles sont les puissances demandées et les besoins d’énergie en chaud et en froid, en fonction des charges internes et solaires, des performances de l’enveloppe ? Quels sont les débits d’air hygiéniques ? Quelle est la modularité envisagée (possibilité de modifier fréquemment les cloisons) ?
  • Aux ressources énergétiques disponibles sur le site :
    Dans notre climat, un bâtiment peut être rafraîchi la plus grande partie de l’été en ventilant naturellement le bâtiment par de l’air extérieur. Si le site est trop bruyant ou pollué, une ventilation mécanique adaptée utilisée en mode free cooling sera également efficace. L’air extérieur peut en outre être rafraichi par des aménagements paysagers (parcs, bassins) ou technologiques (humidification). Si l’air extérieur reste malgré tout chaud la journée, la température nocturne tombe suffisamment pour permettre de décharger la chaleur accumulée à l’intérieur. Si l’air extérieur n’est pas valorisable sur le site du projet, peut-être une ressource hydrique l’est-elle (sans aller jusqu’à solliciter la nappe phréatique, un étang par exemple constitue une masse d’eau fraiche impressionnante) ? La capacité thermique du sol peut également être sollicitée, si sa composition permet des forages à un coût raisonnable.
  • Au profil de l’occupant :
    Selon qu’il souhaite ou non avoir un rôle actif dans la conduite du bâtiment, les choix techniques ne seront pas les mêmes. Est-il disposé à ouvrir ses fenêtres en été ? Les choix dépendront également des profils d’occupation : sont-ils stables ou variables ? Enfin, les attentes de confort sont un critère majeur : les occupants exigent-ils une température constante réglable selon leurs envies, ou sont-ils prêts à accepter une évolution raisonnable, mais moins maîtrisée des conditions intérieures ?

Une fois que l’on s’est donné une liste de critères principaux, il faut faire l’inventaire des choix possibles, et s’orienter vers celui qui offre la meilleure performance énergétique. Cette première sélection doit ensuite être discutée sur base des autres critères : impact financier, contraintes d’entretien, risque de nuisance acoustique, etc.

Choisir une production de froid « alternative » (freechilling, refroidissement adiabatique, géothermie, climatisation solaire)

Choisir une production de froid "alternative" (freechilling, refroidissement adiabatique, géothermie, climatisation solaire)


Quand opter pour un freechilling ?

Le free-chilling consiste à refroidir l’eau glacée de l’installation frigorifique par « contact » avec l’air extérieur lorsque la température de celui-ci est suffisamment basse.

Qu’est-ce qu’une installation adaptée au free-chilling ?

Au départ, il faut que des besoins de froid soient prévus en hiver.
L’intérêt est augmenté si les échangeurs des unités terminales qui seront choisis travaillent à « haute » température : ce sera le cas de plafonds froids (régime 15-17 °C), de poutres froides ou de ventilos-convecteurs surdimensionnés pour travailler au régime 12-17 °C ou 14-19 °C,… À noter qu’un tel dimensionnement diminue les pertes du réseau et la consommation liées à la condensation de la vapeur d’eau contenue dans l’air des ambiances, ce qui amplifie l’économie d’énergie.

Si l’installation demande une puissance de refroidissement faible en mi-saison ou en hiver (de l’ordre de 50 W/m²), on pourrait faire travailler les plafonds froids au régime 17 ° – 19 °C, ce qui permet un refroidissement par l’air extérieur tant que la température de l’air est inférieure à 14 °C. On peut alors imaginer une modulation de la température de consigne de l’eau des plafonds froids en fonction de la température extérieure.

Enfin, le projet se présente très favorablement si un condenseur à eau est prévu : on pourra utiliser la tour de refroidissement pour refroidir l’eau glacée directement par l’air extérieur. Dans la tour, grâce à l’évaporation partielle de l’eau, la température de l’air extérieur sera encore diminuée. Ainsi, de l’air à 15 °C et 70 % HR permet de créer de l’eau de refroidissement à 12 ° (limite basse théorique appelée température « bulbe humide »). Malheureusement, un échangeur sera nécessaire entre le circuit de la tour (eau glycolée) et le circuit d’eau glacée du bâtiment. Une partie de l’avantage est donc perdu…

Le problème du gel…

De l’eau glacée refroidie par l’air extérieur pose le problème du gel dans la tour. La solution la plus courante est l’addition de glycol, mais :

  • le glycol coûte cher,
  • le glycol diminue les capacités d’échange thermique et augmente la densité du liquide, ce qui entraîne une augmentation de puissance des pompes,
  • en général, on limite le circuit glycol au dernier tronçon en contact avec l’extérieur (l’eau de la boucle d’eau glacée n’est pas glycolée car, en cas de vidange, c’est l’entièreté du circuit qui est à remplacer),
  • un échangeur supplémentaire doit alors être prévu, entraînant une consommation électrique liée à sa perte de charge et un écart de température qui diminue la période de fonctionnement du free-chilling…
  • Attention lorsque l’on rajoute de l’eau ultérieurement…

Il est aussi possible de placer des cordons chauffants (mais peut-on protéger totalement ainsi une tour ?) ou de prévoir un circuit de chauffage spécifique qui se met en place en période de gel, mais on risque de manger le bénéfice !

 Le free-chilling : une solution miracle pour toutes les installations ?

Certainement pas. De nombreuses contraintes apparaissent.

Quelques exemples :

  • Lorsque l’installation travaille à charge partielle, il y a intérêt à ce que la température moyenne de l’eau « glacée » soit la plus élevée possible pour favoriser l’échange avec l’air extérieur. On appliquera donc une régulation des échangeurs par débit variable pour augmenter l’écart de température entre départ et retour.
  • Une tour de 300 kW pèse 3 à 4 tonnes et une tour de 1 000 kW pèse 9 à 12 tonnes, ce qui génère parfois des frais d’adaptation du génie civil.
  •  …

Adapter cette technique nécessite donc toujours une étude particulière (cadastre des énergies de froids prévues avec leur niveau de température, répartition été/hiver, …) pour apprécier la rentabilité.

Mais il est en tous cas impératif d’y penser lors d’une nouvelle installation !


Quand opter pour un refroidissement adiabatique

Le refroidissement adiabatique permet de rafraîchir de l’air en centrale par humidification. Cet air humide et frais est ensuite utilisé directement dans l’ambiance ou indirectement par un échangeur de chaleur.

Ce système basé sur des équipements existants (groupe de ventilation, tour de refroidissement) apporte un rafraichissement naturel bienvenu lorsque des techniques plus « lourdes » (fenêtres motorisées, etc.) ne peuvent être mises en œuvre. Il peut également servir d’appoint à ces techniques passives lorsque celles-ci ne suffisent plus à assurer le confort.

Le refroidissement adiabatique a cependant une efficacité limitée à trois niveaux,

  • comme tout système de transfert thermique basé sur l’air, la faible capacité calorifique de l’air bride la puissance disponible. Des débits d’air importants sont nécessaires pour que le refroidissement soit réellement sensible.
  • La température minimale à laquelle l’air peut être abaissé est la température de bulbe humide, qui correspond à la saturation. Cette température est plus élevée que celle obtenue par une machine frigorifique « classique ».
  • Le système ne fonctionne que lorsque l’air que l’on souhaite humidifier est suffisamment sec que pour présenter un potentiel de rafraichissement intéressant. Si c’est de l’air intérieur, le refroidissement adiabatique sera plus pertinent dans des locaux faiblement occupés (moins de dégagement d’humidité dans l’ambiance). Si c’est de l’air extérieur, le système ne sera pas très efficace les jours chauds et humides.

La figure ci-dessous montre, heure par heure, les conditions climatiques d’Uccle, et la zone de conditions T° et Humidité favorable à un système évaporatif direct. A l’évidence, notre climat humide n’est pas le plus favorable pour cette technique.

Elle n’est pas pour autant à dédaigner complètement. Considérons par exemple un air extérieur à 22 °c et 60 % d’humidité relative, une condition qui n’a rien d’exceptionnel en été. Pour peu qu’il y ait un peu de soleil, beaucoup de bâtiments seront en demande de refroidissement. Par humidification, cet air peut être  abaissé jusqu’à environ 17 °C. Ce gain de 5 °C, sur un débit d’air hygiénique d’environ 3 m³/(hm²) dans des bureaux représente 5 W/m² de puissance frigorifique. C’est presque équivalent à la chaleur dégagée par les occupants (70 W/personne, 10 à 15 m²/personne). C’est peu, mais non négligeable.

Quand donc opter pour ce type de système ?

Dans notre climat, un refroidissement adiabatique direct est limité par l’humidité extérieure, et surtout d’une efficacité très variable en fonction de la météo.  On évitera donc de se fier uniquement sur eux pour traiter une ambiance. Par contre, sa simplicité fait qu’il trouvera presque toujours une place en complément de stratégies de refroidissement sur boucle d’eau.

Les systèmes indirects, basés sur l’humidification de l’air extrait, seront pertinents lorsque l’air extrait peut être fortement refroidi. Pour cela, il faut qu’il ne soit ni trop chaud, ni trop humide. La condition « pas trop chaud » fait penser à des locaux disposant déjà d’un système de refroidissement  par boucle d’eau. On est alors sur de plafonner à 24-25 °C. La condition « pas trop humide » se rencontre lorsque la surchauffe du local est liée à des gains solaires et internes sans dégagement d’humidité. Autrement dit dans les locaux dont l’occupation humaine est relativement limitée. Problème : dans ces cas-là, le débit d’air a tendance à l’être aussi, ce qui limite la puissance disponible. Faut-il surdimensionner le réseau de ventilation ? C’est un calcul économique à réaliser au cas par cas.

En conclusion, le refroidissement adiabatique apparait chez nous comme un appoint intéressant à d’autres systèmes plus que comme une technique autonome de refroidissement.

Et si on reformulait les objectifs de la conception des bâtiments de façon à atteindre un niveau de maîtrise des charges thermiques au point de rendre cet appoint suffisant ?

Techniques

Pour en savoir plus sur le refroidissement adiabatique, cliquez ici !

Concevoir

Pour en savoir plus sur la façon de valoriser la physique de l’air humide, cliquez ici !

Quand opter pour une climatisation solaire ?

La climatisation solaire est une technique basée sur l’utilisation de machines frigorifiques à ab/adsorption  ou de roues dessicantes. L’énergie solaire sert alors de source de chaleur pour régénérer le sorbant.

Dans le cas des machines frigorifiques à adsorbtion, la possibilité d’utiliser le soleil pour cet usage est limité par la demande d’une température d’eau minimale qui se situe entre 70 et 95°C en fonction du couple solvant-réfigérant. Dans les roues dessicante, cette température est également supérieure à 70°C. Pour atteindre cette température, l’emploi de capteurs performants est indispensable (sélectifs, sous vide, à faible concentration), ce qui induit un coût d’investissement assez important.

Il faut aussi tenir compte de ce que, en l’absence de soleil, si les besoins de froid sont toujours présents, une autre source de chaleur doit prendre le relais. L’intérêt de la machine frigorifique à absorption couplée avec des capteurs solaires doit donc être évalué sur base d’une moyenne annuelle, en tenant compte des heures d’ensoleillement exploitables. Cette évaluation dépend de nombreuses valeurs à estimer :

  • rendement de la chaudière ;
  • rendement de la machine frigorifique à absorption ou des différents échangeurs de la roue dessicante ;
  • proportion de la demande de froid qu’on peut produire avec l’énergie solaire (X) qui dépend du nombre d’heures d’ensoleillement exploitables ;
  • rendement moyen de la production électrique en centrale ;
  • COP de la machine frigorifique à compression.

Avec les hypothèses prises dans le schéma ci-dessus, le bilan au niveau de la consommation d’énergie primaire est favorable au système de refroidissement solaire si au moins 51 % de la demande de froid peut être satisfaite par l’énergie solaire. Pour évaluer la rentabilité économique du système, il faudrait tenir compte des prix de l’énergie et des coûts d’investissement.

Est-il envisageable d’atteindre ce ratio ? A priori non : dans notre climat peu ensoleillé, les surchauffes sont en grande partie liées aux dégagements intérieurs de chaleur. Encore plus si le bâtiment est équipé de protections solaires.

Faisons l’exercice inverse : pour que la climatisation solaire soit pertinente, il faudrait que :

  • Les locaux soient peu sujets à des gains internes : des grands espaces peu occupés.
  • Les locaux soient sujets à une surchauffe au moment où le soleil brille : donc des espaces qui présentent une faible inertie thermique.
  • Les locaux disposent d’une stratégie alternative lorsque cette surchauffe apparait pour un ensoleillement moyen (en mi-saison, quand la température dans le capteur ne sera pas suffisante) : locaux que l’on peut ventiler intensivement en été.

Cela pourrait nous faire penser à des espaces d’exposition, pour autant que l’éclairage artificiel n’y représente pas une charge trop importante, ou à des atriums. On le voit, la climatisation solaire doit, chez nous, être considérée comme un produit de ‘niche’, pour lequel une étude technico-économique détaillée est indispensable.

Techniques

Pour en savoir plus sur les machines frigorifiques à ad/absorption

Techniques

Pour en savoir plus sur les roues dessicantes

Quand opter pour un geocooling ?

Le geocooling est une technique de valorisation de la fraicheur du sol grâce à un réseau véhiculant un fluide caloporteur. En principe, le champ d’application du geocooling est large. Tout bâtiment qui présente un besoin de froid pourrait théoriquement en bénéficier, quitte à compléter cette source d’un appoint par une machine frigorifique plus traditionnelle.
Les limites d’utilisation du geocooling seront :

  • Réglementaires : les forages doivent faire l’objet d’une demande de permis unique en Région Wallonne, pour laquelle il faut fournir notamment une coupe géologique probable du puits avec profondeur estimée de la nappe aquifère, la description des méthodes de forage et les équipements du puits avec coupe technique, un rapport technique sur la nature de la nappe aquifère éventuelle et un plan de situation des puits. Le sens de cette demande de permis est bien évidemment d’éviter tout risque de pollution d’une nappe aquifère, ce qui peut limiter le développement de cette technologie dans certaines zones sensibles.
  • Technologiques : Décharger d’année en année une quantité d’énergie dans le sol mène à son échauffement progressif. Il en découle une perte de performance liée à des moindres écarts de température entre le sol, la boucle d’eau et le bâtiment. On privilégiera donc le geocooling dans les situations où le sol est également utilisé comme source de chaleur en hiver (géothermie), t en particulier lorsque les besoins de chauffage et de refroidissement du bâtiment sont dans une certaine proportion. Puisqu’en géothermie l’énergie utile (la demande de chaud) = l’énergie extraite du sol + l’énergie consommée au compresseur de la pompe à chaleur, alors qu’en geocooling, l’énergie utile (la demande de froid) = l’énergie injectée dans le sol, on déduit que le geocooling sera particulièrement pertinent lorsque la demande de froid = la demande de chaud / (1-(1/COPpac)). Autrement dit, si on considère qu’une pompe à chaleur à un COP de l’ordre de 4, il faut que les besoins de froid soient environ 133 % des besoins de chaleur.

Schéma évolution de la température du sol sur 20 ans.

Simulation de la température d’un sol dont on retire du froid chaque été. Après 240 mois (20 ans), la température moyenne a grimpé de 3°C, rendant difficile la production d’eau froide à destination du système de climatisation du bâtiment.

  • Économiques : La pertinence économie qu’un geocooling dépend de la nature du sol et de l’équilibre entre besoins de chaleur et de froid. Pour ce qui est de la nature du sol, il est évident qu’un forage dans une roche demandera un investissement plus important qu’un forage dans du sable. Certains sols offrent également une plus grande diffusivité thermique, ce qui améliore leur rôle de tampon thermique. Un test de réponse thermique (TRT) permet de chiffrer la qualité d’un sol relativement à des applications thermiques. L’équilibre chaud-froid dans les proportions discutées au point précédent permet de limiter le recours à des technologies d’appoint (chaudière ou machine frigorifique à compression) pour valoriser au maximum l’investissement fait au niveau du forage.

Pour illustrer tout cela, voici un exemple de bilan réalisé pour un bâtiment de bureaux (source : MATRIciel sa). Il s’agit de la comparaison entre la géothermie/geocooling et des installations de production traditionnelles, pour plusieurs combinaisons d’enveloppe (coefficient de déperdition des murs de 0,2 à 0,4 W/m²K et facteur solaire des vitrages de 22 à 39 %). Certaines combinaisons ne sont pas possibles si on désire installer une géothermie, car elles entraînent un trop grand déséquilibre entre les besoins de chauffage et de refroidissement et donc une mauvaise dynamique du sol d’une saison à l’autre. Dans ces cas, la stabilité de la température du sol à long terme n’est pas garantie. Globalement, lorsqu’elle est possible, la valorisation du sol permet une division par 2 des émissions de CO2 et une économie d’un tiers de l’énergie primaire liée au chauffage et refroidissement. Mais, on constate que la combinaison qui minimise la consommation d’énergie primaire pour des techniques traditionnelles ne permettait pas, pour ce cas-là, d’opter pour le geocooling ! Même si cela peut paraître paradoxal, il est alors préférable d’aller un peu moins loin dans la réduction des besoins (de froid dans ce cas-ci) pour rendre possible l’investissement dans une technique qui minimisera l’impact global du bâtiment.

Schéma comparaison entre la géothermie/geocooling et des installations de production traditionnelles.

Schéma comparaison entre la géothermie/geocooling et des installations de production traditionnelles.

Techniques

Pour en savoir plus sur les techniques de geocooling, cliquez ici !

Influence du régime de température

Le régime de température d’un système de climatisation influence directement la quantité d’énergie produite en valorisant la fraicheur de l’environnement. À titre d’exemple, le tableau suivant reprend les gains énergétiques potentiels par free-chilling et par géocooling qui ont été simulés en fonction du régime de température, pour un bâtiment de bureaux nécessitant 302 MWh de besoin en froid.

  Géocooling
Régime 09°C-14°C 15°C-17°C 17°C-19°C
Gain énergétique potentiel 33% 66% 75%

Free-chilling

Régime 09°C-14°C 15°C-17°C 17°C-19°C
Gain énergétique potentiel 0.5% 8.6% 15.5%

Le géocooling consiste à refroidir directement l’eau avec le sol, la température du sol  doit donc être inférieure à la température de départ de l’eau. Dans cette exemple, le choix d’un régime 17-19 °C au lieu de 9 °C – 14 °C permet bénéficier de 2 fois plus d’énergie gratuite et d’ainsi couvrir 75 % des besoins en froid du bâtiment !

Pour un régime de température de 9 °C – 14 °C, l’utilisation d’énergie gratuite de l’air est quasi nulle (0.5 % de la consommation annuelle).  Dans cet exemple, l’augmentation du régime de température de 2 °C (17-19 au lieu de 15-17) permet d’utiliser 1.8 fois plus d’énergie gratuite.

En outre, un régime plus élevé diminue fortement le risque de condensation et peut permettre de se passer de la déshumidification de l’air. Il est dès lors possible d’utiliser des émetteurs de types plafond froid.

Géothermie et géocooling [Climatisation]

Géothermie et géocooling


Principe

À l’état naturel, le sous-sol garde une température constante de l’ordre de 10 … 12 °C à partir d’une profondeur d’une dizaine de m.

graphe principe géothermie.

On peut donc logiquement imaginer que celui-ci puisse servir de source naturelle de froid. Il suffirait qu’un réseau véhiculant un fluide caloporteur le parcoure pour produire de l’eau à température adéquate pour refroidir un bâtiment.

On appelle cela du « géocooling ».

De même, une température de 10 .. 12 °C plus élevée et plus stable que la température extérieure hivernale est une température intéressante pour servir de source froide à une pompe à chaleur, en l’occurrence sol/eau, pour chauffer le bâtiment en hiver.

On parle alors de « géothermie ».

Refroidissement en été et chauffage en hiver vont d’ailleurs souvent de pair. En effet, si en été on extrait du « froid » du sol, ce dernier se réchauffe progressivement. Si cette opération se répète d’année en année, sans autre perturbation, le sol verra sa température moyenne augmenter jusqu’à ne plus être exploitable.

Dès lors pour éviter ce phénomène, il s’agit de régénérer le sol chaque hiver en extrayant la chaleur accumulée en été grâce à une pompe à chaleur.

On parle alors de « STOCKAGE GEOTHERMIQUE » : la chaleur du bâtiment est transférée dans le sol en été quand elle est gênante pour être utilisée en hiver quand elle est nécessaire.


Technologie des sondes géothermiques

Les systèmes fermés et ouverts

On parle de système fermé si un fluide caloporteur circule dans le sol dans un circuit fermé.

On retrouve principalement 3 types de systèmes fermés : les forages ou sondes géothermiques, les pieux géothermiques et les nappes horizontales.


3 types d’échangeur géothermique : les pieux, les sondes et les nappes.

Source : Rehau.

On parle de système ouvert lorsque c’est l’eau de la nappe phréatique ou du lit d’une rivière qui est pompée pour échanger sa chaleur avec le bâtiment et réintroduite en aval du sens d’écoulement souterrain.

Forages géothermiques

Dans ce cas les « échangeurs géothermiques » ou « sondes géothermiques » sont pour la plupart constitués de forages verticaux (diam 150 mm) d’une profondeur de 50 à 400 m (souvent 100 .. 150 m). Chaque forage contient des conduites, le plus souvent en polyéthylène (DN 32) disposées en double U et enrobées d’un coulis de ciment/bentonite (le « grout ») assurant la protection mécanique tout en permettant une certaine souplesse indispensable pour résister aux mouvements de sol.

Source : REHAU.

L’ensemble des forages forme ainsi un champ de sondes espacées entre elles de 6 à 10 m, pour limiter les interférences thermiques. Les sondes sont raccordées entre elles via des collecteurs, en série ou en parallèle ou un mix des deux.

Le champ de sondes peut être disposé à côté du bâtiment ou même sous le bâtiment (par exemple en ville).

Variantes : Sondes coaxiales en acier

Les forages géothermiques présentent une série de contraintes comme :

  • la nécessité d’espace pour effectuer les forages;
  • la gestion du forage au travers de couches de sous-sol parfois hétérogènes;
  • la nécessité de maximiser l’échange de chaleur tout en garantissant la tenue mécanique des sondes,
  •  …

Cela conduit les fabricants à proposer des alternatives aux sondes traditionnelles en « double U ».

Il existe ainsi des sondes coaxiales : l’eau en provenance du bâtiment circule dans la périphérie de la sonde et revient par le cœur pour délivrer son énergie au bâtiment.

Exemple de sonde coaxiale en PE : le fabricant annonce que les performances d’une sonde de dimension 63 mm / 40 mm
correspondent à une sonde géothermique double U de dia. 32 mm.

Source : www.hakagerodur.ch

Pour encore augmenter l’échange thermique avec le sol les sondes peuvent être réalisées en acier (avec protection cathodique) ou en inox, sans enrobage : le tube périphérique est en métal et le tube intérieur en PE.

L’augmentation du transfert de chaleur, permet alors réduire le nombre de forages et la longueur des sondes. Ainsi des tests de réponse thermique montrent qu’en moyenne, les sondes coaxiales en inox ont une résistance thermique 2 fois moindre qu’une sonde avec doubles U en PE. Cela permettrait une puissance d’extraction de 10 à 20 % supérieure.

Exemple de sondes en acier, à visser (longueur de 3 m).

Source : Thermo-pieux.

Exemple de sonde en inox introduite par forage ou « vibro-fonçage ».  La profondeur peut atteindre une centaine de mètres.

Source : geo-green.

La technologie des sondes coaxiales ouvre la porte à des installations avec des forages en étoile au départ d’un point d’entrée unique dans des lieux où l’accès pour des forages parallèles espacés n’est pas possible (par exemple, une cour intérieure dans un site existant).

 

Forages en « étoile » : on parle dans la littérature de « racines géothermiques ».

Pieux géothermiques

Une alternative aux forages consiste à intégrer les échangeurs géothermiques aux pieux de structure d’un bâtiment. Cela se justifie parce que ceux-ci sont souvent nécessaires dans des sous-sols humides, sous-sols favorables aussi à la géothermie.

On justifie cette technique par un souci de rationaliser les techniques en les combinant. Cependant, la pratique ne prouve pas que les coûts soient inférieurs par rapport à des installations distinctes. La mise en œuvre des pieux se complique également. La gestion de l’installation doit également interdire que les pieux de fondation ne gèlent en mode de chauffage hivernal.

 

Exemples de réalisation : La crèche de l’île aux oiseaux, ville de Mons : 16 pieux géothermiques de 10 m.

La crèche de l’ile aux oiseaux de Mons.

Aéroport de Zurich : 350 pieux géothermiques de 30 m de profondeur.

Nappes horizontales

La géothermie se décline également sous la forme de nappes de tuyaux déployés horizontalement à faible profondeur (0,6 à 1,2 m).

Le système est peu applicable dans le secteur tertiaire. En effet,

  • Il demande une surface de terrain très importante : de 28 à 100 m²/kW de puissance de chauffage nécessaire.
  • En hiver, elle peut conduire à un refroidissement excessif du sol préjudiciable à la végétation.
  • L’utilisation en refroidissement n’est guère possible, la température du sol étant fortement soumise à l’environnement extérieur.

Alternative pour les bâtiments de taille réduite : les sondes de faible profondeur.

Pour les petits projets, pour lesquels un forage n’est pas autorisé et où les systèmes horizontaux ne disposent pas de surface suffisante, certains fabricants proposent des sondes de petite taille constituées d’un échangeur spiralé. Ce système permet notamment de limiter l’influence que peut avoir la géothermie sur la couche de sol où se développe la végétation.

Source : SANA FONDATIONS sprl.

Cas particulier : le puits canadien

Le puits canadien ou puits provençal constitue une forme de géothermie puisque l’air neuf de ventilation est prétraité (chauffé ou refroidi) par son passage dans le sol.

Techniques

 Pour en savoir plus sur le puits canadien.

Schémas de principe

Traditionnellement, on retrouve 2 types de schéma de principe, selon que le froid est produit par échange direct avec le sol soit par la pompe à chaleur réversible utilisant le sol comme source chaude. Une troisième configuration se retrouve lorsqu’on puise directement l’eau de la nappe phréatique.

Free cooling direct

En été : le froid est produit par échange direct avec le sol et distribué via un échangeur vers les unités terminales. Le géocooling est ainsi mis en œuvre moyennant uniquement la consommation de pompes. Si on compare cette consommation à l’énergie frigorifique produite, on calcule un ESEER équivalent du système de l’ordre de …12…, voire plus en fonction des dimensionnements des équipements. Souvent une machine de production de froid vient en appoint pour satisfaire les demandes de pointes ou pour alimenter des utilisateurs demandant des températures d’eau plus basses (comme les groupes de traitement d’air).

En hiver, le sol sert de source froide à une pompe à chaleur sol/eau. Le coefficient de performance saisonnier obtenu varie entre 4,5 et 5,5. Une chaudière est utilisée en appoint pour couvrir les pointes de puissance par grands froids. Généralement, le système est dimensionné pour que la PAC couvre environ 70 % du besoin de chaud grâce à environ 30 % de la puissance totale nécessaire.

Recharge du sol par pompe à chaleur réversible

La pompe à chaleur sol/eau est réversible. En été, elle fonctionne comme un groupe de production d’eau glacée en utilisant le sol pour évacuer la chaleur de son condenseur régénérant ainsi ce dernier.

L’avantage d’un tel système est de mieux gérer la recharge du sol et peut-être de pouvoir se passer d’un groupe de froid d’appoint et d’un échangeur intermédiaire. L’investissement est donc moindre.

En contrepartie, alors que l’on peut toujours parler de stockage géothermique, il ne s’agit plus réellement de géocooling naturel puisqu’il est nécessaire de faire fonctionner une machine thermodynamique pour extraire le « froid » du sol. Le bilan énergétique global est donc moins favorable.

Systèmes ouverts

Si la nappe phréatique se situe près de la surface du sol, on peut envisager de puiser directement l’eau dans cette dernière plutôt que de la parcourir avec un échangeur et un fluide caloporteur. On parle de système ouvert. Dans ce cas, l’eau de la nappe sert par l’intermédiaire d’un échangeur :

  • En mode chauffage, de source froide à une pompe à chaleur.
  • En mode refroidissement, de source de froid directe pour une boucle d’eau.

L’eau puisée est ensuite réinjectée dans la nappe à une certaine distance créant ainsi 2 zones dans la nappe phréatique à températures différentes, l’eau passant de l’une à l’autre en fonction de la saison :

  • En hiver une zone se refroidit par l’eau réinjectée après échange avec la pompe à chaleur.
  • En été l’eau est pompée en sens inverse de cette zone et réinjectée plus chaude dans la zone de puisage hivernal.

Étant donné les mouvements dans les nappes phréatiques et en fonction de la distance entre les zones chaude et froide, l’influence d’un éventuel déséquilibre entre les besoins de chauffage et de refroidissement est nettement moindre dans le cas d’un système ouvert par rapport à un système fermé.

En outre, il est également possible de produire du chaud et du froid en même temps dans le bâtiment. En effet, si nécessaire, l’eau pompée de la nappe peut être dirigée à la fois vers la pompe à chaleur et vers l’échangeur de géocooling ou vers un échangeur commun entre les productions de chaud et de froid.

Exemples d’installations

Le schéma ci-dessous est proposé par un constructeur allemand. Il permet le chauffage par pompe à chaleur, le refroidissement libre par un échangeur vers les sondes géothermiques, éventuellement assisté par le fonctionnement réversible de la pompe à chaleur.

Le schéma ci-après, plus complet, permet un fonctionnement mixte en mi-saison : une chaudière alimente la zone périphérique en chaleur, alors que simultanément, la zone centrale est refroidie par l’échangeur dans le sol via la pompe à chaleur. Attention cependant à la destruction d’énergie qui pénalise l’intérêt énergétique de ce système.


Unités terminales associées

Les performances de la pompe à chaleur et du géocooling sont fortement dépendantes du régime de température des unités terminales :

Plus la température de l’eau de distribution est basse en saison de chauffe (température max de l’ordre 50 .. 55 °C), meilleur sera le rendement de la PAC et plus elle est élevée en été (température min de l’ordre de 15 .. 17 °C) plus grande sera la quantité d’énergie extractible directement du sol.

On doit donc choisir des unités terminales compatibles avec ces températures :

  • Plafonds refroidissants ou ilots rayonnants
    • avantages : peu d’inertie thermique et donc rendement de régulation élevé, contrôle facile de la température ambiante, réversible chaud/froid;
    • inconvénients : puissance plus limitée (plafonds).

Exemple d’îlot rayonnant.

(Source : Interalu).

  • Dalles actives
    • avantages : stockage de nuit et donc limitation de la puissance à installer;
    • inconvénients : inertie thermique importante et donc contrôle difficile de la température et rendement de régulation dégradé. Peu de flexibilité spatiale et difficulté d’utilisation en chauffage (nécessité d’un second système). Absence de faux plafond (gestion des techniques et de l’acoustique).

Étude d’un projet de géothermie

Un projet de géothermie consiste à mettre en corrélation le comportement thermique du bâtiment et celui du sous-sol. Tout cela se passe de façon dynamique : les besoins varient, le sol se charge, se décharge, échange avec son voisinage tout cela sur une échelle de temps quotidienne, mais aussi saisonnière. Cela justifie l’utilisation d’outils de simulation thermique dynamique prenant en compte la variabilité des besoins, des échanges et l’inertie du système.

Étapes de l’étude d’un projet de géothermie :

  • Définir les besoins par simulations dynamiques en évaluant différentes variantes de manière à trouver le bon équilibre entre le besoin de chaud et de refroidissement du bâtiment (niveau d’isolation, type de vitrage, protections solaires, …).

Besoins simulés de chauffage et de refroidissement d’un bâtiment, h par h ou 1/4h par 1/4 h.

  • Connaître la nature du sol par études géologique et hydrogéologique pour préévaluer les caractéristiques physiques et thermiques du sous-sol et pour évaluer les éventuels risques liés aux forages (présence de nappes phréatiques, de couche argileuse,  de quartzites, …). Cela permet de prédéfinir la pertinence et la configuration des forages (par exemple, leur longueur minimale et maximale en fonction des couches de sous-sol susceptibles d’être rencontrées).

Pour exemple, voici quelques données moyennes :

Caractéristiques du sol Puissance spécifique d »extraction
Sur 1 800 heures de fonctionnement Sur 2 400 heures de fonctionnement
Valeurs indicatives générales
Sous-sol de mauvaise qualité (sédiment sec) (λ < 1,5 W/m²K) 25 W/m 20 W/m
Sous-sol rocheux normal  et sédiment  saturé en eau (λ < 1,5 – 3.0 W/m²K) 60 W/m 50 W/m
Roche compacte à conductibilité  thermique élevée (λ < 3,0 W/m²K) 84 W/m84 W/m 70 W/m
Minéraux respectif
Gravier et sable secs < 25 W/m <20 W/m
Gravier et sable aquifères 65 – 80 55 – 65 W/m W/m
Dans le cas de fort courant des eaux souterraines dans le gravier ou le sable et d’installations uniques 80 – 100 80 – 100 W/m
Argile et glaise humides 35 – 50 W/m W/m 30 – 40 W/m
Calcaire (massif) 55 – 70 W/m 45 – 60 W/m
Grès 65 – 80 W/m 55 – 65 W/m
Roche magmatique acide (par ex. granit) 65 – 85 W/m 55 – 70 W/m
Roche magmatique basique (par ex. basalte) 40 – 65 W/m 35 – 55 W/m
Gneiss 70 – 85 W/m 60 – 70 W/m

Puissances traditionnelles extractibles.

Source Rehau.

  • Effectuer un test de réponse thermique (« TRT »). Il s’agit de réaliser un forage en taille réelle et de le soumettre à une sollicitation thermique pour pouvoir calculer la conductibilité et la capacité thermique du sol et la résistance thermique des sondes, en moyenne sur toute la longueur de la sonde. Cette sonde test pourra ensuite être valorisée dans le champ de sondes final.

Source : Group Verbeke.

  • Dimensionner le champ de sondes au moyen d’un logiciel de simulation dynamique du sous-sol : simulation du comportement du sol compte tenu des besoins du bâtiment (heure par heure) et des caractéristiques  thermiques des sondes prévues et du sol (définies par le TRT) ; optimalisation de la puissance de la PAC, du nombre et de la profondeur des sondes en s’assurant de l’équilibre à long terme de la température du sol.

Dimensionnement de l’échangeur de sol

Pour le dimensionnement des collecteurs de sol, des réfrigérateurs de plaques de fond ou de réservoirs de fondations, il est possible de consulter la DIN ISO EN 13370 « Transmission de chaleur par le procédé de calcul terrestre ».

L’objet de cette norme est l’examen du transfert de la chaleur en tenant compte des paramètres (tuyaux, isolation, masse géométrique du bâtiment, etc.) et de la conduite d’exploitation. La ligne directrice VDI 4640 « Utilisation thermique du sous-sol » convient pour l’évaluation du rendement (puissance) d’un chauffage. De plus, elle fournit des indices de planification concernant les permissions et les conditions additionnelles liées à l’environnement, mais (à notre connaissance en octobre 2003) elle n’aurait pas encore été adaptée sous l’aspect « été » du réfrigérateur.

D’après la norme DIN ISO EN 13370 (traduction non officielle !), les tableaux suivants donnent une vue d’ensemble sur les capacités d’extraction des collecteurs de chaleur et des sondes géothermiques (capacité des pompes de chaleur jusqu’à max. 30 kW) :

>  S’il s’agit de collecteurs situés à côté du bâtiment (en W/m²) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sol sec, non cohérent 10 8
Humide, cohérent 20…30 16…24
Sable, gravier, imbibés d’eau 40 32

>  S’il s’agit de sondes géothermiques (en W/m courant) :

Puissance d’extraction thermique en W/m²
Sous-sol Exploitation 1 800 h / saison Exploitation 2 400 h / saison
Sédiments secs et peu conducteurs (Lambda < 1,5 W/m.K) 25 20
Roche, sédiments imbibés d’eau
(Lambda > 1,5 … 3 W/m.K)
60 50
Roche dure très conductrice
(Lambda > 3 W/m.K)
84 70

L’adaptation des calculs détaillés est de plus indiquée dans les cas suivants :

  • Modification des heures de services des pompes à chaleur par rapport aux hypothèses de base;
  • plus grande nécessité de chaleur pour la préparation d’eau chaude;
  • effet régénérateur du sol suite à un apport de chaleur par réfrigération de locaux ou à un rechargement thermique solaire;
  • grande influence des eaux souterraines (nappe phréatique).

Les valeurs de référence pour les capacités d’extraction de chaleur en hiver ne sont pas directement applicables à l’activité en été. Différentes causes sont à la base des écarts entre les capacités d’extraction et d’incorporation :

  • Lors du fonctionnement en hiver, une couche de glace se forme autour de la sonde ou des tuyaux, et influence favorablement la transmission thermique par conduction. En été, le sol peut au contraire sécher davantage, ce qui est défavorable.
  • Les couches terrestres proches du sol sont soumises à de si fortes influences climatiques qu’il faudrait parler non pas d’éléments de construction thermiques, mais plutôt d’éléments de construction solaires thermiques dans le cas de collecteurs de terre classiques non bâtis.

Pour l’évaluation de la capacité de sondes géothermiques et de pieux d’énergie dans le processus de réfrigération, un constructeur conseille :

  • Vu les raisons énoncées précédemment, de mettre les capacités d’incorporation (été) égales à 70 % des capacités d’extraction de chaleur énoncées dans la VDI 4640.
  • De valoriser si possible l’existence d’une nappe souterraine, qui suite à l’humidification des couches terrestres en dessous des fondations, améliore la conductibilité thermique. Il en résultera également des capacités de réfrigération plus constantes.
  • Une distance de pose entre les tuyaux ne dépassant pas 15 cm.
  • Des phases de régénération (suite à l’arrêt du système en journée ou suite à une réduction de la nécessité de froid (journées fraîches d’été)) qui améliorent la capacité de rendement.

Aspect réglementaire lié à la réalisation du projet

(Rédaction : 2014)

En région wallonne

En Wallonie, tout projet de réalisation de puits destiné à la géothermie doit faire l’objet d’un permis unique : Permis d’environnement (installations classées, conditions intégrales et sectorielles) + Permis d’urbanisme.

Selon l’Arrêté du Gouvernement wallon du 4/7/2002, annexe I, les systèmes géothermiques fermés sont classés dans la rubrique 45.12.01 : « Forage et équipement de puits destinés au stockage des déchets nucléaires ou destinés à recevoir des sondes géothermiques », classe de permis 2.

D’autres rubriques existent pour classer les systèmes ouverts en fonction des techniques de puisage et de rejet d’eau souterraine utilisé.

Les forages d’essais (TRT) et de l’installation définitive doivent faire l’objet d’une demande de permis propre comprenant :

  • Le formulaire général de demande de permis d’environnement et de permis unique – Annexe I.
  • Le formulaire relatif aux forages – Annexe XVIII (rubrique 45.12.01) ou le formulaire relatif aux prises d’eau – Annexe III (rubrique 41.00.03.02).

Le formulaire XVIII doit notamment comprendre :

  • Une coupe géologique probable du puits avec profondeur estimée de la nappe aquifère;
  • la description des méthodes de forage et les équipements du puits avec coupe technique;
  • un rapport technique sur la nature de la nappe aquifère éventuelle;
  • un plan de situation des puits.

Chronologiquement, étant donné les délais d’obtention, il est souvent difficile d’attendre les résultats du TRT et le dimensionnement final du champ de sondes avant l’introduction de la demande de permis pour ce dernier. De même, étant donné que le choix de l’enveloppe du bâtiment et l’équilibre géothermique sont intimement liés, il apparaît difficile de dissocier chronologiquement les demandes de permis pour le bâtiment neuf, le TRT et le champ de sondes. Dans ces différents cas, la pratique veut que les permis soient introduits en parallèle en mentionnant les hypothèses de prédimensionnement effectués.

En région bruxelloise

Il n’existe actuellement pas de législation spécifique à la géothermie en RBC. Les systèmes géothermiques sont néanmoins presque toujours composés d’installations classées soumises à déclaration ou à permis d’environnement.

Dans le cas de systèmes géothermiques fermés, les installations classées concernées sont les suivantes :

  • Pompe à chaleur < 10 kWelec  et < 3 kg de substance appauvrissant la couche d’ozone : Installation non classé et donc non soumise à autorisation (rubrique 132).
  • Pompe à chaleur > 10 kWelec mais < 100 kWelec  ou > 3  kg de substance appauvrissant la couche d’ozone : Installation classée de classe 3 et donc soumise à déclaration (rubrique 132).
  • Pompe à chaleur > 100 kWelec : Installation classée de classe 2 et donc soumise à Permis d’Environnement (rubrique 132).
  • Pompes électriques > à 100 kVA (rubrique 55).

Les forages ne sont, eux, pas classés.

Dans le cas de systèmes géothermiques ouverts, les captages d’eau souterraine sont des installations classées de classe 2 ou de classe 1B (rubrique 62) et sont donc soumis à Permis d’Environnement. En plus comme pour les captages d’eau « classiques », les systèmes géothermiques ouverts sont soumis à une « autorisation de pompage » de la part de l’IBGE.

De plus la réglementation urbanistique (COBAT) stipule que les forages géothermiques sont soumis à rapport d’incidence. Il semblerait donc que les systèmes géothermiques sont soumis à Permis d’Urbanisme (PU). Dans la pratique, il semblerait néanmoins que les systèmes géothermiques ne fassent pas l’objet d’une demande de PU à part entière. Il est donc conseillé de se renseigner auprès du service urbanisme de la commune concernée pour savoir si un PU est nécessaire.

La demande de permis d’environnement doit comprendre une série de renseignements.

Pour les systèmes géothermiques fermés (sondes verticales) :

  • Le cadre du projet de géothermique (industrie, tertiaire, logements collectifs, privés, ….
  • Le profil géologique et hydrogéologique de la zone où sont prévus les forages (et plus particulièrement déterminer les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.

Il y a lieu de motiver la profondeur des sondes envisagée sur base de ce profil.

  • La technique de forage prévue pour le placement des sondes.
  • La description technique de l’installation géothermique :
    • puissance électrique de la pompe à chaleur (PAC) et rendement;
    • nombre de puits ou forage prévus + nombre de sondes verticales prévues;
    • profondeur des sondes;
    • type de sondes (simple boucle en U, double boucle en U, coaxiale, autre);
    • type de matériaux utilisés pour les sondes et les différentes connexions;
    • systèmes prévus pour isoler les sondes (ou les groupes de sondes) en cas de fuite (vannes d’isolement, …);
    • fluide caloporteur prévu dans les sondes;
    • surface prévue pour l’implantation des sondes (et surface disponible si différente);
    • matériaux de remplissage sont prévus pour le scellement des trous de forages (espace interstitiel).
    •  …
  • Le plan reprenant de manière claire l’emplacement des installations (PAC et champ de sondes).
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • L’évaluation des besoins énergétiques :
    • la demande en chaud du bâtiment (kWh/an);
    • la demande en froid du bâtiment (kWh/an);
    • la puissance de pointe en chaud du bâtiment (kW);
    • la puissance de pointe en froid du bâtiment (kW);
    • l’énergie (chaud) soutirée au sol (kWh/an);
    • l’énergie (froid) soutirée au sol (kWh/an);
    • % de la demande en chaud couvert par la géothermie;
    • % de la demande en froid couvert par la géothermie.

Dans la mesure du possible, un (des) graphique(s) (histogramme) reprenant les besoins mensuels du bâtiment en froid et en chaud sur un an et distinguant la part produite par la géothermie de la part produite par les systèmes complémentaires (système de production de chaud et froid classiques) sera fourni.

  • Dans le cas ou un test de réponse thermique (TRT) a été réalisé : les conclusions du test.
  • La comparaison du gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation (réduction d’énergie primaire (%)).
  • L’évaluation du déséquilibre thermique du sous-sol et l’évolution de la performance de la PAC sur 20 ans en tenant compte de ce déséquilibre thermique.
  • Quant au rapport d’incidences, il doit également évaluer les nuisances et impacts environnementaux liés au système géothermique ainsi que les mesures prises pour éviter, supprimer ou réduire les nuisances répertoriées.  (Ex : test de mise sous pression des bouclages, mise en place d’un système de détection de fuites, étanchéité des puits,…).

Pour les systèmes géothermiques ouverts :

  • Le type de système géothermique prévu : captage/réinjection réversible (stockage chaud froid) ou captage réinjection non réversible.
  • La description technique de l’installation géothermique :
    • nombre de puits de pompage et de réinjection prévus ;
    • profondeur des puits (+ facteurs ayant servi à la détermination de la profondeur) ;
    • zone de filtre (crépine) ;
    • distance séparant les puits de captage et de réinjection ;
    • type de compteurs et nombre de compteurs prévus (+ emplacement) ;
    • puissance électrique de la pompe à chaleur (PAC) et son rendement ;
    • liquide utilisé dans le circuit secondaire ;
    • type d’échangeur – circuit primaire / circuit secondaire (double parois, simple paroi, …) ;
    • Éventuel système de détection de fuite dans le circuit secondaire.
    • plan reprenant l’emplacement de la PAC, des différents puits de captage et de réinjection.
  • La description détaillée (schéma de fonctionnement y compris le mode opératoire de la régulation) du système HVAC complet du bâtiment et l’intégration de l’installation de géothermie dans cet ensemble.
  • Le profil géologique et hydrogéologique des zones de captage et de réinjection (et plus particulièrement déterminer l’aquifère ou les aquifères qui seront traversés par les forages) :
    • soit sur base du profil géologique et hydrogéologique obtenu à partir d’un forage réalisé sur le site (ou à proximité immédiate du site);
    • soit, en l’absence de forage, sur base des données cartographiques – carte géologique, géotechnique de Bruxelles, …- , via la base de données DOV (Databank Ondergrond Vlaanderen) ou via consultation des archives du service géologique de Belgique.
  • Le débit maximum capté (m³/h, m³/j), le volume total capté par an ou par saison (m³) et si la totalité de l’eau captée est réinjectée dans la nappe. Si l’eau souterraine est utilisée à d’autres fins que la géothermie, il y a également lieu de préciser les utilisations alternatives et le débit capté (m³/j).
  • La température de réinjection maximale prévue.
  • Le dossier doit comporter une évaluation de :
    • la demande en chaud du bâtiment (kWh/an);
    • (la demande en froid du bâtiment (kWh/an)), si utilisation des puits pour refroidir;
    • la puissance de pointe en chaud du bâtiment (kW);
    • (la puissance de pointe en froid du bâtiment (kW)) → Si utilisation des puits pour refroidir;
    • l’énergie (chaud) soutirée de la nappe (kWh/an);
    • (l’énergie (froid) soutirée de la nappe (kWh/an)), si utilisation des puits pour refroidir;
    • % de la demande en chaud couvert par la géothermie;
    • (% de la demande en froid couvert par la géothermie), si utilisation des puits pour refroidir.
  • Le gain énergétique du système proposé par rapport à l’utilisation d’une chaudière à condensation  (réduction d’énergie primaire (%)) doit également être évalué.
  • Le rapport d’incidence doit évaluer le déséquilibre thermique de l’aquifère  et l’évolution de la performance de la PAC sur 20 ans en tenant compte du déséquilibre thermique.
  • Le rapport d’incidence doit évaluer la possibilité technique de mettre en place le système géothermique sur le site.
  • Le rapport d’incidence doit enfin évaluer l’impact et les nuisances du système géothermique et notamment :
    • l’impact éventuel du projet sur des captages voisins (impact hydraulique);
    • l’impact éventuel du projet sur la stabilité des constructions voisine;
    • le risque d’inondation au niveau des puits de réinjection et des constructions voisine;
    • l’impact thermique éventuel du système sur les eaux souterraines.
  • Ainsi que les mesures particulières de protection du sol et des eaux souterraines prévues (Rehaussement du puits, étanchéité des puits de forages, mesures prévues pour éviter la connexion éventuelle d’aquifères différents, mesures prévues pour éviter une contamination de l’eau pompée et réinjectée dans la nappe (type d’échangeur utilisé, système de détection de fuite, surpression du circuit secondaire (eau pompée) par rapport au circuit primaire (de la PAC), …)).

Analyser les besoins thermiques en fonction du climat

Évolution des besoins selon les saisons

Dès le stade de l’avant-projet, le profil thermique du bâtiment doit être évalué. Une analyse logique, intégrant les spécificités du programme (grand dégagement de chaleur intérieur ou non, large ouverture solaire ou non), permet déjà une première analyse. L’organigramme ci-dessous présente un canevas général pour aider à réaliser cet exercice : au départ des 3 saisons qui caractérisent notre climat, les priorités différentes de conception architecturale et technique sont mises en évidence.

  • En période de chauffe, soit lorsque la température en journée est inférieure au point d’équilibre du bâtiment et qu’il y a peu de soleil, il convient de minimiser à la fois le besoin et la consommation de chauffage. Minimiser le besoin fait appel aux techniques passives d’isolation, compacité, etc. et aux techniques actives de récupération de chaleur et de modulation des débits d’air. Minimiser la consommation passe par le choix d’émetteurs base température et de mode de production efficace.

 

  • En mi-saison, soit lorsque la température extérieure diurne est entre le point d’équilibre du bâtiment et la température de confort, lorsqu’il y a peu de soleil, il est prioritaire de valoriser les sources gratuites de chaleur : gains solaires, même limités, et gains internes. Le transfert d’énergie au sein du bâtiment, par les réseaux de ventilation ou VRV est alors pertinent. En période ensoleillée, c’est la maîtrise des charges solaires qui devient prédominante, pour limiter les surchauffes précoces : gestion des stores et free cooling.

 

  • En été, soit lorsque la température extérieure diurne atteint ou dépasse la température de confort, auquel cas l’ajout des charges internes et solaires crée un besoin de refroidissement, c’est la température nocturne qui deviendra le pivot de la stratégie. Si cette température est basse, la combinaison d’inertie thermique et de free cooling permet de retarder ou d’éviter le recours au refroidissement mécanique. Le dimensionnement et la gestion des réseaux de ventilation est centrale. Le choix de techniques de top cooling est également important. Si la température nocturne reste élevée (canicules), on peut partir de l’a priori qu’un refroidissement mécanique est nécessaire. On veillera alors à maximiser son efficacité, par le choix des températures d’émission et des modes de dissipation de la chaleur (géocooling par exemple).




Simulation numérique

Une fois une première analyse logique et qualitative réalisée, et après une première itération sur  l’architecture et les choix de techniques, une simulation numérique du comportement thermique du projet est à envisager. Les logiciels dits de STD (simulation thermique dynamique) les plus souvent utilisés en Wallonie sont EnergyPlus et Trnsys. Une telle simulation :

  • Fera apparaître les besoins de chaleur et de refroidissement du bâtiment.
  • Évaluera la part de simultanéité de besoins de chaud et de froid dans des locaux différents.
  • Informera de la valeur de la température extérieure au moment où la demande de refroidissement apparaît.
  •   …

Exemple de profil pour un immeuble de bureaux-type, avec locaux de réunion et salle de conférence (l’énergie frigorifique demandée alors que la température est inférieure à 10°C provient du local informatique) :

Cette analyse peut permettre :

  • De préciser les options de l’avant-projet.
  • De prendre en compte le fait qu’une zone demande un refroidissement alors que sa voisine demande du chauffage.
  • De quantifier l’énergie de refroidissement demandée alors que … c’est l’hiver dehors ! (possibilité de free-chilling).
  • D’orienter le choix du système de refroidissement (naturel ou mécanique, à Débit de Réfrigérant Variable,…).
  • De grouper des locaux avec des charges importantes.
Découvrez 3 exemples de bâtiment dont les besoins thermiques ont été intégrés dés l’avant-projet : école passive de Louvain-la-Neuve (premier bilan), école passive de Louvain-la-Neuve (proposition d’équipements), et le projet ECOFFICE.

Déterminer les performances thermiques à atteindre [Concevoir]

Déterminer les performances thermiques à atteindre [Concevoir]


La réglementation

Outre un niveau de performance global à atteindre (Kglobal et E), la PEB en matière d’isolation exige des valeurs maximales pour le coefficient de transmission thermique Umax des parois faisant partie de la surface de déperdition.

En rénovation, ces valeurs doivent être respectées pour toute paroi qui fait l’objet d’une reconstruction ou qui est ajoutée.

Il se peut également que ces valeurs (ou même des valeurs plus sévères) doivent être atteintes, et ce même si une paroi n’est pas directement touchée par la rénovation, lorsqu’il y a changement d’affectation du bâtiment, de manière à atteindre le niveau global d’isolation (K).


Les recommandations

Si l’on s’en tient à la réglementation, un coefficient de transmission thermique U est requis pour les parois délimitant le volume protégé. Mais il faut comprendre cette valeur comme l’exigence de qualité minimale à respecter, sorte de garde-fou que la Région a voulu imposer aux constructeurs.

L’épaisseur est le résultat d’un compromis :

  • Plus on isole, plus la consommation diminue (chauffage et climatisation), et avec lui le coût d’exploitation du bâtiment.
  • Plus on isole, plus le coût d’investissement augmente.

On peut aujourd’hui aller plus loin dans l’isolation des parois sans pour autant générer de grandes modifications dans la technique de construction. On peut aussi vouloir atteindre certains labels qui donnent parfois droit à des subsides. A titre d’exemple, pour une certification « passive » une isolation des parois approchant un U de 0.15 W/m²K est recommandée.

Elle permet de satisfaire de manière plus aisée l’exigence de niveau d’isolation globale (K).
Quelques considérations complémentaires :

  • Souvent c’est une logique de rentabilité financière qui détermine l’épaisseur d’isolant mis en place. Si une logique de rentabilité écologique était prise, la lutte contre le CO2 nous pousserait vers une isolation plus forte !
  • Le prix de l’énergie sur lequel on détermine la rentabilité varie sans cesse mais la tendance est clairement à la hausse. Cette évolution doit donc être prise en compte dans l’évolution de la rentabilité. Si le litre de fuel est un jour à 3 €, la rentabilité de l’isolation ne sera même plus discutée !
  • Maintenir 20°C dans un bâtiment, c’est un peu comme maintenir un niveau de 20 cm d’eau dans un seau percé. Aux déperditions du bâtiment correspondent des fuites dans la paroi du seau. En permanence nous injectons de la chaleur dans le bâtiment. Or, si en permanence on nous demandait d’apporter de l’eau dans le seau pour garder les 20 cm, notre premier réflexe ne serait-il pas de boucher les trous du seau ?

  • Expliquez aux Scandinaves, aux Suisses,. que nous hésitons entre 6 et 8 cm d’isolant, vous les verrez sourire, eux qui placent couramment 20 cm de laine minérale, sans état d’âme !

Pourquoi une isolation moins poussée sur le sol ?

En hiver la température du sol est plus élevée que la température extérieure. La « couverture » peut donc être moins épaisse.

Pourquoi une isolation plus poussée en toiture que dans les murs ?

Si la température extérieure est cette fois identique dans les 2 cas, le placement de l’isolant en toiture est plus facile à mettre en œuvre en forte épaisseur. Le coût est proportionnellement moindre. La rentabilité de la surépaisseur est meilleure.


Épaisseur d’isolant

L’épaisseur d’isolant (ei) peut être calculée par la formule :

1/U = Rsi + e11 + eii + e22 + Rse

ei = λi [1/U – (Rsi + e11 + e22 + Rse)]

avec,

  • λi : le coefficient de conductivité thermique de l’isolant (W/mK),
  • U : le coefficient de transmission thermique de la paroi à atteindre (W/m²K),
  • Rse et Rsi : les résistances thermiques d’échange entre le mur et les ambiances extérieure et intérieure. Ils valent respectivement 0,04 et 0,13 m²K/W,
  • e1/λ1, e22 : la résistance thermique des autres couches de matériaux (m²K/W).

Dans le tableau ci-dessous, vous trouverez les épaisseurs minimales d’isolant à ajouter sur la face interne ou externe du mur plein pour obtenir différents coefficients de transmission.

Hypothèses de calcul :

  • Les coefficients de conductivité thermique (λ en W/mK) ou les résistances thermiques (Ru en m²K/W) des maçonneries utilisées et des isolants sont ceux indiqués dans l’annexe VII de l’AGW du 17 avril 2008.
  • La maçonnerie est considérée comme sèche et le coefficient de conductivité thermique de celle-ci correspond à celui du matériau sec. En effet, on a considéré que le mur isolé par l’intérieur ou par l’extérieur avait été protégé contre les infiltrations d’eau, comme il se doit.
  • La face intérieure de la maçonnerie est recouverte d’un enduit à base de plâtre d’1 cm d’épaisseur.

Remarques.

  • Lorsqu’on utilise un isolant disposant d’un agrément technique (ATG), on peut se fier au coefficient de conductivité thermique certifié par celui-ci; celui-ci est , en général, plus faible que celui indiqué dans dans l’annexe VII de l’AGW du 17 avril  2008 et on peut ainsi diminuer l’épaisseur d’isolant, parfois de manière appréciable.
  • Les épaisseurs calculées doivent être augmentées de manière à obtenir des épaisseurs commerciales.
  • A épaisseur égale et pour autant que l’isolant soit correctement mis en œuvre, la présence d’une lame d’air moyennement ventilée entre l’isolant et sa protection (enduit ou bardage), permet de diminuer le coefficient de transmission thermique U de 2,5 à 5 %.
Composition du mur plein Masse volumique (kg/m³) λ(W/mK) ou Ru (m²K/W) Épaisseur du mur plein (cm) Coefficient de transmission thermique du mur plein sans isolant (W/m²K) Épaisseur de l’isolant (en cm) à ajouter pour obtenir Umax :
Umax (W/m²K) Nature de l’isolant
MW/EPS XPS PUR/PIR CG
Maçonnerie de briques ordinaires

 

1 000 à 2 100

 

0.72

 

19

 

2.22

 

0.60 5.47 4.86 4.25 6.69
0.40 9.22 8.20 7.17 11.27
0.30 12.97 11.53 10.09 15.85
0.15 27.97 24.86 21.76 34.19
29

 

1.69

 

0.60 4.84 4.31 3.77 5.92
0.40 8.59 7.64 6.68 10.50
0.30 12.34 10.97 9.60 15.09
0.15 27.34 24.3 21.26 33.41
39

 

1.37

 

0.60 4.22 3.75 3.28 5.16
0.40 7.97 7.08 6.20 9.74
0.30 11.72 10.42 9.12 14.32
0.15 26.72 23.75 20.78 32.65
Maçonnerie de moellons

 

2 200

 

1.40

 

29

 

2.54

 

0.60 5.73 5.09 4.45 7.00
0.40 9.48 8.42 7.37 11.58
0.30 13.23 11.76 10.29 16.16
0.15 28.23 25.09 21.96 34.5
39

 

2.15

 

0.60 5.40 4.80 4.20 6.60
0.40 9.15 8.14 7.12 11.19
0.30 12.90 11.47 10.04 15.77
0.15 27.91 24.81 21.71 34.11
Blocs creux de béton lourd

 

> 1 200

 

0.11

 

14

 

3.36

 

0.60 6.16 5.48 4.79 7.53
0.40 9.91 8.81 7.71 12.12
0.30 13.66 12.14 10.63 16.70
0.15 28.66 25.48 22.29 35.03
0.14

 

19

 

3.06

 

0.60 6.03 5.36 4.69 7.37
0.40 9.78 8.69 7.60 11.95
0.30 13.53 12.02 10.52 16.53
0.15 28.53 25.36 22.19 34.87
0.20

 

29

 

2.58

 

0.60 5.76 5.12 4.48 7.04
0.40 9.51 8.45 7.39 11.62
0.30 13.26 11.78 10.31 16.20
0.15 28.26 25.12 21.98 34.53
Blocs de béton mi-lourd

 

1 200 à 1 800

 

0.75

 

14

 

2.67

 

0.60 5.82 5.17 4.52 7.11
0.40 9.57 8.50 7.44 11.69
0.30 13.32 11.84 10.36 16.28
0.15 28.31 25.17 22.02 34.61
19

 

2.27

 

0.60 5.52 4.90 4.29 6.74
0.40 9.27 8.24 7.21 11.33
0.30 13.02 11.57 10.12 15.91
0.15 28.02 24.90 21.79 34.24
29

 

1.74

 

0.60 4.92 4.37 3.82 6.01
0.40 8.67 7.70 6.74 10.59
0.30 12.42 11.04 9.66 15.18
0.15 27.41 24.37 21.32 33.51
Blocs de béton moyen

 

900 à  1 200

 

0.40

 

14

 

1.86

 

0.60 5.08 4.52 3.95 6.21
0.40 8.83 7.85 6.87 10.80
0.30 12.58 11.18 9.79 15.38
0.15 27.58 24.52 21.45 33.71
19

 

1.51

 

0.60 4.52 4.02 3.52 5.52
0.40 8.27 7.35 6.43 10.11
0.30 12.02 10.68 9.35 14.69
0.15 27.02 24.02 21.02 33.02
29

 

1.10

 

0.60 3.39 3.02 2.64 4.15
0.40 7.14 6.35 5.56 8.73
0.30 10.89 9.68 8.47 13.32
0.15 25.91 23.03 20.15 31.67
Blocs de béton léger

 

600 à 900

 

0.30

 

14

 

1.53

 

0.60 4.56 4.05 3.54 5.57
0.40 8.31 7.38 6.46 10.15
0.30 12.06 10.72 9.38 14.74
0.15 27.06 24.05 21.05 33.07
19

 

1.22

 

0.60 3.81 3.38 2.96 4.65
0.40 7.56 6.72 5.88 9.24
0.30 11.31 10.05 8.79 13.82
0.15 26.31 23.39 20.46 32.16
29

 

0.87

 

0.60 2.31 2.05 1.79 2.82
0.40 6.06 5.38 4.71 7.40
0.30 9.81 8.72 7.63 11.99
0.15 24.83 22.07 19.31 30.34
Blocs creux de béton léger

 

< 1 200

 

0.30

 

14

 

2.05

 

0.60 5.31 4.72 4.13 6.49
0.40 9.06 8.05 7.04 11.07
0.30 12.81 11.38 9.96 15.65
0.15 27.8 24.72 21.63 33.98
0.35

 

19

 

1.86

 

0.60 5.08 4.52 3.95 6.21
0.40 8.83 7.85 6.87 10.80
0.30 12.58 11.18 9.79 15.38
0.15 27.58 24.52 21.45 33.71
0.45

 

29

 

1.57

 

0.60 4.63 4.12 3.60 5.66
0.40 8.38 7.45 6.52 10.25
0.30 12.13 10.78 9.44 14.83
0.15 27.13 24.12 21.10 33.16
Blocs de béton très léger

 

< 600

 

0.22

 

14

 

1.21

 

0.60 3.79 3.37 2.95 4.64
0.40 7.54 6.71 5.87 9.22
0.30 11.29 10.04 8.78 13.80
0.15 26.28 23.36 20.44 32.12
19

 

0.95

 

0.60 2.77 2.46 2.16 3.39
0.40 6.52 5.80 5.07 7.97
0.30 10.27 9.13 7.99 12.55
0.15 25.26 22.46 19.65 30.88
29

 

0.66

 

0.60 0.73 0.65 0.56 0.89
0.40 4.48 3.98 3.48 5.47
0.30 8.23 7.31 6.40 10.05
0.15 23.18 20.61 18.03 28.33
Blocs de béton cellulaire

 

< 500

 

0.18

 

15

 

0.98

 

0.60 2.91 2.58 2.26 3.55
0.40 6.66 5.92 5.18 8.14
0.30 10.41 9.25 8.09 12.72
0.15 25.41 22.59 19.76 31.05
20

 

0.77

 

0.60 1.66 1.47 1.29 2.03
0.40 5.41 4.81 4.21 6.61
0.30 9.16 8.14 7.12 11.19
0.15 24.16 21.47 18.79 29.52
30

 

0.54

 

0.60
0.40 2.91 2.58 2.26 3.55
0.30 6.66 5.92 5.18 8.14
0.15 21.67 19.26 16.85 26.48
Blocs de terre cuite lourds

 

1 600 à 2 100

 

0.90

 

14

 

2.92

 

0.60 5.96 5.30 4.63 7.28
0.40 9.71 8.63 7.55 11.86
0.30 13.46 11.96 10.47 16.45
0.15 28.46 25.3 22.13 34.78
19

 

2.51

 

0.60 5.71 5.07 4.44 6.98
0.40 9.46 8.41 7.36 11.56
0.30 13.21 11.74 10.27 16.14
0.15 28.21 25.07 21.94 34.48
29

 

1.96

 

0.60 5.21 4.63 4.05 6.36
0.40 8.96 7.96 6.97 10.95
0.30 12.71 11.30 9.88 15.53
0.15 27.70 24.63 21.55 33.86
Blocs de terre cuite perforés

 

1 000 à 1 600

 

0.54

 

14

 

2.24

 

0.60 5.49 4.88 4.27 6.71
0.40 9.24 8.21 7.19 11.29
0.30 12.99 11.55 10.10 15.88
0.15 27.99 24.88 21.77 34.21
19

 

1.86

 

0.60 5.07 4.51 3.95 6.20
0.40 8.82 7.84 6.86 10.79
0.30 12.57 11.18 9.78 15.37
0.15 27.58 24.52 21.45 33.71
29

 

1.38

 

0.60 4.24 3.77 3.30 5.18
0.40 7.99 7.10 6.22 9.77
0.30 11.74 10.44 9.13 14.35
0.15 26.74 23.77 20.80 32.68
Blocs de terre cuite perforés

 

700 à 1 000

 

0.27

 

14

 

1.42

 

0.60 4.32 3.84 3.36 5.29
0.40 8.07 7.18 6.28 9.87
0.30 11.82 10.51 9.20 14.45
0.15 26.83 23.85 20.87 32.79
19

 

1.12

 

0.60 3.49 3.10 2.72 4.27
0.40 7.24 6.44 5.63 8.85
0.30 10.99 9.77 8.55 13.43
0.15 25.98 23.10 20.21 31.76
29

 

0.79

 

0.60 1.82 1.62 1.42 2.23
0.40 5.57 4.95 4.34 6.81
0.30 9.32 8.29 7.25 11.40
0.15 24.30 21.60 18.90 29.70
Blocs silico-calcaire creux

 

1 200 à 1 700

 

0.60

 

14

 

2.38

 

0.60 5.61 4.98 4.36 6.85
0.40 9.36 8.32 7.28 11.44
0.30 13.11 11.65 10.19 16.02
0.15 28.11 24.99 21.86 34.36
19

 

1.98

 

0.60 5.23 4.65 4.07 6.40
0.40 8.98 7.98 6.99 10.98
0.30 12.73 11.32 9.90 15.56
0.15 27.73 24.65 21.57 33.89
29

 

1.49

 

0.60 4.48 3.98 3.49 5.48
0.40 8.23 7.32 6.40 10.06
0.30 11.98 10.65 9.32 14.65
0.15 26.98 23.98 20.98 32.98

Source : Isolation thermique des murs pleins réalisée par le CSTC à la demande de la DGTRE.

Il est également possible d’utiliser le fichier Excel pour calculer le U d’une paroi en contact avec l’extérieur.

Choisir une PAC en fonction de la performance de l’enveloppe

Choisir une PAC en fonction de la performance de l'enveloppe


Stratégie de chauffage et de refroidissement

Lorsque la performance de l’enveloppe d’un bâtiment augmente, pour une même surface nette ou un même volume de bâtiment, la quantité d’énergie nécessaire au chauffage devient faible.

« On peut passer d’une valeur de 200 kWh/m².an à 15 kWh/m².an lorsqu’on tend vers un bâtiment passif ! ».

Source : PMP (Plateforme Maison Passive).

De même, la puissance à mettre à disposition pour assurer les besoins de chaleur du bâtiment se voit réduite de manière significative.

« Les puissances mises en jeu pour combattre les déperditions au travers des parois et par ventilation et pour assurer la relance en cas d’intermittence (ou ralenti nocturne), passent de l’ordre de 70 W/m³ à 20 W/m³ voire moins encore ! ».

Le renforcement de l’isolation et de l’étanchéité d’un bâtiment interagit donc sur la puissance du système de chauffage. À première vue, pour autant que les fabricants de systèmes de chauffage  puissent proposer des équipements de faible puissance, il n’y a pas de restriction quant au choix de tel ou tel type de système de chauffage par rapport à la puissance.

Cependant, si le concepteur n’y prend pas garde, l’isolation d’un bâtiment n’engendre pas seulement que des réductions des besoins de chauffage. Il risque de générer aussi une augmentation des besoins de rafraichissement. D’un point de vue énergétique, si c’est le cas, il est primordial de produire du froid gratuitement ou à peu près !

La manière de produire le plus écologiquement du froid dans notre bonne Belgique est de faire appel au « free cooling » par ventilation naturelle. Ce n’est pas toujours possible !

En effet :

  • Le confort, dans certains cas, ne peut pas être assuré en permanence. On image difficilement qu’une chambre d’isolé dans un hôpital, de surcroit occupée la nuit, puisse être ventilée naturellement.
  • Certains maîtres d’ouvrage ne voient pas d’un bon œil de laisser des fenêtres ouvertes la nuit par souci de sécurité (même grillagée).
  • Les coûts d’une automatisation des systèmes d’ouvertures risquent d’être importants.
  • La régulation des systèmes d’ouverture n’est pas toujours évidente.

Le choix du « géocooling » comme moyen de refroidissement naturel s’impose donc. Cela tombe bien puisqu’avec le même système, on pourra produire du chaud par « géothermie » et du froid par « géocooling ». En effet, par le choix d’une pompe à chaleur géothermique eau/eau, réversible ou pas suivant le besoin de froid, on peut envisager la stratégie suivante :

  • En hiver,  la chaleur sera « pompée » du sol par la pompe à chaleur en travaillant en mode « chaud », le sol se refroidissant par la même occasion.
  • En été, le froid accumulé en hiver sera extrait du même sol soit par la pompe à chaleur travaillant en mode froid, soit par 2 pompes de circulation permettant de travailler de manière satisfaisante au niveau énergétique (c’est la seule consommation des pompes qui permet de refroidir le bâtiment).

Cependant, le choix de la géothermie, comme source froide pour des bâtiments à forte isolation, est dépendant aussi de l’équilibre entre les besoins de chaud et de froid de l’immeuble.
Un bâtiment en demande de chaleur :

  • Qui nécessite peu de besoins de froid sous forme de « géocooling », ne permettra pas de recharger le sol en chaleur en été. Il s’en suivra, dans certains cas, d’un appauvrissement de la capacité du sol à fournir de la chaleur. Dans certaines études (simulation PileSim), on remarque qu’après 15 à 20 ans, la température du sol reste très basse. Dans ces conditions, l’énergie du sol sera plus difficilement exploitable. Si c’est possible, le refroidissement pourra être pris en charge par un système de « free-cooling » de nuit sur l’air par exemple.
  • Équilibré par la même demande en refroidissement permettrait de pérenniser la source froide.

En pratique, un équilibre 50/50 entre les besoins de chaud et de froid permettra de garantir une géothermie optimale à long terme.


Influence sur le choix du type de source froide et son dimensionnement

Pour une même emprise au sol, un bâtiment tertiaire dont l’enveloppe est performante est moins gourmand en besoin de chauffage qu’un bâtiment de type « passoire ». Par conséquent, il « pompera » moins d’énergie à la source froide.

Source froide : l’air ou aérothermie

L’air est en quantité « infinie » autour du bâtiment ; ce qui signifie que l’influence du niveau d’isolation du bâtiment sur le choix de l’air comme source froide reste faible. Bien que ! Si on pousse le raisonnement à l’absurde, une concentration de bâtiments peu isolés dont le choix de leur système de chauffage se porterait sur une PAC air/eau par exemple, contribuerait à créer un micro climat plus froid qu’il ne serait si les bâtiments étaient peu isolés.

Donc, la performance de l’enveloppe du bâtiment influence l’air comme source froide, mais il faut pousser le raisonnement très loin !

Pour un bâtiment bien isolé, la taille de l’évaporateur pourra être plus petite. Attention toutefois que les évaporateurs sont une source de nuisance sonore dont il faudra tenir compte.

Source froide : le sol ou géothermie

Le sol est une ressource limitée en quantité et en temps. Pour des bâtiments peu « déperditifs », la géothermie peut être intéressante dans le sens où, pour une même empreinte au sol du bâtiment, plus celui-ci est isolé :

  • Moins il sera gourmand en puissance disponible et plus petite sera l’installation de géothermie.
  • Plus grande sera la disponibilité d’énergie dans le sol.

Influence de la performance du bâtiment sur la source froide géothermique.

L’augmentation de la performance de l’enveloppe d’un bâtiment permet de mieux exploiter un même volume de sol, c’est vrai ! Mais il est nécessaire de tenir compte comme décrit ci-avant de l’équilibre entre les besoins de chaleur et les besoins de refroidissement.

Une fois n’est pas coutume, c’est la source froide qui risque de conditionner le niveau d’isolation de l’enveloppe du bâtiment !

En effet :

  • Une enveloppe de bâtiment très performante entraine un déséquilibre entre les besoins Chaud/froid en faveur du besoin de froid : la source froide risque de se réchauffer au cours des années. Il s’ensuit une interrogation au niveau de l’écologique, de l’autorisation d’exploiter le sol, …
  • Une enveloppe de bâtiment peu performante inverse la tendance : la source froide se refroidit.

Il n’est donc pas dit, avec une technologie comme la géothermie, que le renforcement à outrance de la performance de l’enveloppe du bâtiment soit l’idéal. Comme tout est une question de compromis, dans ce cas particulier, on ne visera pas nécessairement le passif voire mieux. Mais c’est du cas par cas !

Un bureau d’étude spécialisé permettra, par simulation thermique dynamique, de trouver le réel équilibre pour optimiser l’exploitation de la géothermie. On en tiendra compte dès l’avant projet du bâtiment.

Source froide : l’eau ou hydrothermie

Tout comme le sol, l’eau comme source froide (hydrothermie) est une ressource limitée qui dépend, entre autres, du débit de renouvellement du volume d’eau pris comme source froide (plan d’eau, …). Le fait de rendre les bâtiments performants permettra de disposer d’une source froide de taille plus petite (le lac de Genval plutôt que l’Eau d’heure par exemple). Cependant, s’il existe un besoin de refroidissement du bâtiment, l’eau devra être en mesure d’absorber la chaleur extraite du bâtiment par le système de pompe à chaleur réversible. Ceci implique qu’en été :

  • le débit de renouvellement de la source froide soit suffisant ;
  • les réglementations en vigueur permettent un rejet de chaleur à température plus élevée que la température moyenne de la source froide.

Influence sur le choix du type de source chaude et son dimensionnement

Régime de température

Les émetteurs à eau

Pour une même volumétrie des locaux dans un bâtiment bien isolé, la puissance d’émission nécessaire sera plus faible. On pourra donc prévoir un régime de température plus faible, et par conséquent la performance énergétique de la PAC associée pourra être améliorée (de l’ordre de 3 % par °C de température de  gagné).

Exemple

On considère que la température de l’eau au niveau du condenseur se situe entre 35 et 45 °C pour – 8 °C extérieur dans le cas d’un bâtiment K45. Si on décide d’opter pour la conception d’un bâtiment plus performant (basse énergie ou passif), on pourrait avantageusement passer à des températures de condensation entre 25 et 30°C, soit un gain théorique de l’ordre de 30 % des consommations énergétiques.

Les émetteurs à air

Tout dépend du type d’émetteur :

  • En détente directe sur l’air hygiénique, les températures de condensation risque de devoir être aussi hautes que pour un bâtiment non isolé sachant que c’est de l’air externe que l’on réchauffe. Dans ce cas, le niveau de performance de l’enveloppe du bâtiment ne joue pas.
  • Pour des ventilo-convecteur à eau, cela revient au même que pour les radiateurs classiques : les températures de condensation seront sensiblement les mêmes (entre 25 et 30 °C par – 8 °C extérieur).

Inertie de l’émetteur

Dans un bâtiment dont l’enveloppe est performante, la faible inertie de l’émetteur est primordiale. En effet, en mi-saison, la surchauffe risque d’être dommageable si l’inertie de l’émetteur est importante. En effet, en cas de nuit froide, la dalle se chargera pour anticiper la journée qui suit. Malheureusement, le stockage de chaleur risque de ne servir à rien si les apports solaires pendant la journée sont élevés. La combinaison des apports solaires au travers des parois vitrées et des apports internes générés par la dalle de sol chauffante ne peuvent être évacués. Il s’ensuit une surchauffe importante des locaux.

Pour pallier à ce problème, on pense, par exemple, au plancher chauffant qui doit nécessairement être à faible inertie. L’émetteur dynamique à faible inertie, comme montré ci-dessous, permet de bien répondre aux besoins de réactivité d’un bâtiment performant. Tout dépendra naturellement du type de revêtement qui sera placé en finition au-dessus du plancher chauffant. Un matériau thermiquement isolant impliquera une augmentation de la température de l’eau de l’émetteur entrainant une dégradation de la performance de la pompe à chaleur. On rappelle qu’une augmentation de 1 °C de la température de condensation de la PAC entraine une dégradation de sa performance de l’ordre de 3 %.

Schéma principe du plancher chauffant.

Photo plancher chauffant.

Source Opal-système.


Influence sur le choix du type de compresseur

Les bâtiments qui présentent un niveau d’isolation important permettront le choix de pompe à chaleur de puissance raisonnable dans une gamme plus élargie. Au point que pour certains bâtiments tertiaires de petite taille, on pourrait même envisager d’étendre la gamme aux pompes à chaleur domestiques.

Quand on est en présence d’un bâtiment performant, le système de chauffage, quel qu’il soit, doit être très réactif à la relance et pouvoir moduler sur une plage de puissance large. On considère que la plage de variation de puissance des PAC (taux de charge) peut raisonnablement varier entre 30 et 100 %. L’idéal est donc de choisir des pompes à chaleur avec compresseur à vitesse variable (technologie INVERTER).

Délimiter le volume protégé [concevoir]

 


Définition

Dans le cadre de la réglementation sur la Performance Energétique des Bâtiments (PEB) le volume protégé est défini.

« Volume de tous les espaces d’un bâtiment qui est protégé du point de vue thermique, de l’environnement extérieur (air ou eau), du sol et de tous les espaces contigus qui ne font pas partie du volume protégé (chapitre 2 de l’Annexe A1 de l’AGW du15 mai 2014 : définitions).

Le volume protégé doit comprendre au moins tous les espaces chauffés (et/ou refroidis) (en continu ou par intermittence) qui font partie du bâtiment considéré … Les espaces du bâtiment considéré, qui ne sont pas repris dans le volume protégé, sont donc non chauffé par définition (article 5.2 de l’Annexe A1 de l’AGW du15 mai 2015 : subdivision du bâtiment) ».

La détermination du volume protégé permet de déduire quelles sont les parois qui déterminent son enveloppe et qui doivent donc être performantes du point de vue thermique (pour ne pas laisser passer la chaleur).

Les caractéristiques de l’environnement du côté froid sont aussi définies : Espace Adjacent Non Chauffé (EANC), cave, vide sanitaire, sol ou air extérieur. Cela permet de calculer avec précision les performances thermiques (U et R) de ces parois.


Délimitation du volume protégé des nouveaux bâtiments

Lorsque le bâtiment doit encore être construit, le maitre d’œuvre choisit les locaux qu’il souhaite intégrer dans le volume protégé.

Il veillera à donner au bâtiment la forme la plus compacte possible, à exclure du volume protégé tous les locaux qui ne nécessitent pas d’être chauffés et à coller ces derniers contre le volume protégé pour en augmenter la protection.

Les parois de l’enveloppe du volume protégé devront au moins répondre aux exigences réglementaires.

Il ne pourra pas chauffer les espaces qui n’appartiennent pas au volume protégé.

Délimiter le volume protégé d’un bâtiment existant

 


Définition

Dans le cadre de la réglementation sur la Performance Energétique des Bâtiments (PEB) le volume protégé est défini.

« Volume de tous les espaces d’un bâtiment qui est protégé du point de vue thermique, de l’environnement extérieur (air ou eau), du sol et de tous les espaces contigus qui ne font pas partie du volume protégé (chapitre 2 de l’Annexe A1 de l’AGW du15 mai 2014 : définitions).

Le volume protégé doit comprendre au moins tous les espaces chauffés (et/ou refroidis) (en continu ou par intermittence) qui font partie du bâtiment considéré … Les espaces du bâtiment considéré, qui ne sont pas repris dans le volume protégé, sont donc non chauffé par définition (article 5.2 de l’Annexe A1 de l’AGW du 15 mai 2014 : subdivision du bâtiment) ».

La détermination du volume protégé permet de déduire quelles sont les parois qui déterminent son enveloppe et qui doivent donc être performantes du point de vue thermique (pour ne pas laisser passer la chaleur).

Les caractéristiques de l’environnement du côté froid sont aussi définies : Espace Adjacent Non Chauffé (EANC), cave, vide sanitaire, sol ou air extérieur. Cela permet de calculer avec précision les performances thermiques (U et R) de ces parois.


Délimitation du volume protégé des bâtiments existants

Lorsque le bâtiment existe et que l’on souhaite l’améliorer, il est nécessaire de déterminer le volume protégé en se basant sur certaines caractéristiques du bâtiment. L’amélioration de ce dernier peut aussi nécessiter de modifier le volume protégé.

Indices montrant l’appartenance ou non d’un local au volume protégé :

  • Lorsqu’il y a au moins un corps de chauffe (poêle, radiateur, sol chauffant, …) dans un local, celui-ci appartient nécessairement au volume protégé ;
  • Lorsque le local abrite une activité qui nécessite un confort thermique (chauffage ou refroidissement) celui-ci appartient nécessairement au volume protégé ;
  • Lorsqu’il y a une intention d’isoler thermiquement le local de l’environnement extérieur par l’isolation d’au moins une des parois de ce local. Les indices d’isolation de la paroi sont la présence d’une couche isolante (λ < 0.08 W/mK) ou d’un double vitrage ;
  • Lorsque des locaux contigus sont ouverts l’un sur l’autre (baies sans porte ou fenêtre), soit ils appartiennent tous au volume protégé, soit aucun n’appartient au volume protégé ;
  • Lorsqu’un local est ouvert sur l’environnement extérieur (baies sans porte ou fenêtre) il n’appartient PAS au volume protégé ;
  • Lorsqu’une paroi isolée sépare deux locaux on peut supposer qu’on a voulu protéger l’un d’entre eux  des déperditions thermiques. On peut donc en déduire que l’un appartient au volume protégé et l’autre pas ;
  • En l’absence des indices ci-dessus, on peut considérer qu’un local appartient au volume protégé lorsqu’il est majoritairement entouré par des espaces appartenant au volume protégé. C’est-à-dire que la surface des parois qui le sépare de ces espaces est plus grande que la surface de ses autres parois.

Si on veut améliorer les performances thermique d’un bâtiment, il peut être judicieux d’intégrer certains locaux au volume protégé (exemple : fermer un passage ouvert à tous vents sous un bâtiment) ou de les en exclure (exemple : suppression des radiateurs dans un local périphérique où la chaleur est inutile).

Le maître d’œuvre peut également isoler une paroi qui sépare deux locaux appartenant au volume protégé lorsque l’un d’entre eux n’est que rarement chauffé alors que l’autre l’est en permanence (exemple : conciergerie d’une salle de fête).

Enveloppe


Le choix d’un niveau d’isolation correct

L’isolation doit faire partie intégrante de tout projet de construction et de rénovation où l’ambiance intérieure est destinée à être chauffée ou climatisée. Cette technique doit être intégrée dès le début du projet pour au final respecter au minimum la réglementation en vigueur ou, mieux, les objectifs fixés par différentes labellisations.

Une attention particulière doit aussi être portée aux différents nœuds constructifs (raccords entre les parois) qui présentent plus de risques de ponts thermiques.


Le choix de la fenêtre

Le choix de la fenêtre, sa position, son orientation, son type de vitrage a également un grand impact sur la qualité du projet au niveau énergétique.

Une fenêtre doit être vue comme :


Le choix de la protection solaire

Le choix d’une protection solaire est fonction des objectifs que l’on se donne :

  • les objectifs principaux sont de limiter les surchauffes et l’éblouissement ;
  • les objectifs secondaires sont d’augmenter le pouvoir isolant de la fenêtre, d’assurer l’intimité des occupants ou d’occulter un local et de décorer la fenêtre.

Valoriser la fraîcheur de l’environnement [Esquisse du projet]

Valoriser la fraîcheur de l'environnement


Valoriser la fraicheur de l’air extérieur

Le potentiel lié à la fraicheur extérieure

L’isolation des bâtiments élargit la période de refroidissement en mi-saison et en été. Ce besoin peut être pour une bonne part résolu en valorisant l’air extérieur lorsqu’il est plus frais que la consigne intérieure.

En moyenne, la température extérieure à Uccle est 98 % du temps inférieur à 24°C et ne dépasse 27° que 40 heures par an. En outre, en été, dans notre pays, la température nocturne minimale est inférieure de plus de 8°C à la température maximum diurne, et cette température extérieure nocturne est toujours inférieure aux plages de confort. Il existe donc un pouvoir rafraîchissant naturel important de l’air extérieur, sans traitement et donc sans coût énergétique autre que son transport.

Les profils de températures moyennes à Uccle montrent que la température extérieure est généralement inférieure à la température de confort.

Ce pouvoir rafraîchissant est cependant limité par deux facteurs : la faible capacité frigorifique de l’air extérieur et la quantité d’air pouvant être valorisée, qui est limitée par l’encombrement des gaines de ventilation, la taille des ouvertures en façade, le risque de générer un courant air.

Ainsi, imaginons un local à 26°C avec une charge thermique (élevée) de 60 W/m² (ordinateur, éclairage, occupants, ensoleillement, …) ou 20 W/m³ (si la hauteur sous plafond est de 3 m). La température de l’air extérieur est de 20°C. Calculons le débit nécessaire pour évacuer la chaleur d’un m³ du local :

débit = 20 [W/m³] / (0,34 [W/(m³/h).K] x 6 [K]) = 9,8 [renouv./h]

où,

  • 0,34 W/m³.K est le pouvoir calorifique de l’air et 6 K est la différence de température entre l’intérieur et l’extérieur

Il faudrait donc un taux de renouvellement horaire de 9,8 : chaque heure, l’air du local serait renouvelé 10 fois ! en dehors de la difficulté technique, cela génère un climat peu confortable…

En pratique, la fraîcheur de l’air extérieur peut être valorisée de trois façons : par une ventilation intensive naturelle (free cooling naturel), par l’intégration d’air frais dans le système de conditionnement d’air (free cooling mécanique), et par le refroidissement direct des boucles d’eau froide (free chilling).

Données

En savoir plus sur le climat belge ?

L’exploitation de l’air extérieur par ventilation naturelle (free cooling naturel)

La  ventilation intensive estivale (ou free cooling naturel), vise le refroidissement passif du bâtiment par l’ouverture de sa façade. L’objectif est soit de compenser en journée les charges internes et solaires, soit de « décharger » et refroidir pendant la nuit la masse du bâtiment, afin que cette masse puisse limiter la montée en température le lendemain.

La ventilation intensive est efficace en journée si l’air extérieur n’excède pas la température intérieure, mais n’est pas non plus trop froid, pour éviter la sensation de courant d’air, ce qui limite son usage en mi-saison. De plus, il restera toujours les 40 heures, soit de 5 à 10 journées de travail par an, où la ventilation ne ferait qu’empirer les choses puisque la température extérieure est supérieure à la température intérieure. Le refroidissement par ventilation de jour peut donc être une solution en mi-saison, mais a ses limites en été.

Le refroidissement par ventilation de nuit par contre conserve son efficacité toute l’année, sauf canicule extrême. Malgré tout, pour qu’un free cooling permette de se passer de climatisation en journée, il faut assurer durant la nuit, un taux de renouvellement d’air nettement plus important que le taux de ventilation hygiénique : au minimum 4 [vol/h] par rapport à 1 [vol/h].

Au-delà de l’économie d’énergie qui en résulte, c’est une certaine qualité de vie qui est recherchée : absence de système sophistiqué de climatisation, … et plaisir de pouvoir ouvrir sa fenêtre et d’entrer plus en contact avec l’environnement extérieur.

Techniques 

En savoir plus sur la ventilation intensive d’été ?

L’intégration  de l’air frais dans le système de conditionnement d’air (free cooling mécanique)

La climatisation est parfois nécessaire (charges thermiques élevées, consignes intérieures strictes de température et d’humidité, …).

On sera alors attentif au fait que le système installé n’exclue pas le refroidissement naturel : dès que la température extérieure descend, elle doit pouvoir supplanter la climatisation mécanique. Idéalement, celle-ci ne devrait plus servir que dans les périodes de canicule.

Tout particulièrement, dans les locaux refroidis toute l’année (locaux intérieurs, locaux enterrés, …) et dans les locaux à forte occupation de personnes (salles de conférence, locaux de réunion, …), il est dommage de faire fonctionner la climatisation en hiver et en mi-saison. On privilégiera les systèmes « tout air » à débit variable.

Durant les nuits d’été, le bâtiment peut facilement être refroidi par le balayage de l’air extérieur (l’installation fonctionne alors en « tout air neuf »). Et en mi-saison, l’air extérieur assure seul le refroidissement par mélange avec l’air recyclé.

Bien sûr, la consommation du ventilateur ne doit pas dépasser celle de la machine frigorifique ! La perte de charge du réseau de ventilation (pulsion, extraction et recyclage) doit rester faible. Il faut prévoir la place pour de larges conduits.

Concevoir

En savoir plus sur le choix du mode de gestion du débit d’air neuf ?

L’utilisation de l’air frais comme source froide d’une installation de refroidissement (free chilling)

Aussi curieux que cela puisse paraître, de nombreuses machines frigorifiques fonctionnent en hiver. Pour assurer le refroidissement de la salle informatique, pour refroidir le cœur du bâtiment surchauffé par les équipements, …

La première réaction est d’imaginer de scinder la production de froid : une petite machine couvre les besoins permanents de la salle informatique, par exemple. Et la grosse machine est mise à l’arrêt en hiver, tout en pouvant jouer le rôle de groupe de sécurité en cas de défaillance de la première.

La deuxième réaction est d’analyser si le circuit d’eau glacée ne pourrait pas être refroidi directement par l’air extérieur, en by-passant la machine frigorifique. Si le fonctionnement est continu tout l’hiver, cela en vaut sûrement la peine (c’est le cas pour un groupe qui refroidirait des locaux de consultations situés en sous-sol d’un hôpital, par exemple).

Lorsque la température extérieure descend sous les 8 à 10°C, on peut fabriquer de l’eau glacée sans utiliser le groupe frigorifique. L’eau peut-être directement refroidie par l’air extérieur. La machine frigorifique est alors  mise à l’arrêt.

L’économie d’énergie est évidente ! La rentabilité du projet est d’autant plus élevée que les besoins de refroidissement sont importants en hiver et que l’installation s’y prête.

Toutes sortes de configurations sont possibles en intercalant dans la boucle d’eau glacée soit un aérorefroidisseur (en parallèle ou en série avec le groupe frigorifique) soit une tour de refroidissement (ouverte ou fermée) ou encore un échangeur à plaque couplé avec une tour de refroidissement.

Aérorefroidisseur monté en série avec un évaporateur

Concevoir

En savoir plus sur la mise  en place d’un free-chilling ?

Valoriser la fraicheur du sol

Le sol présente un potentiel important pour rafraichir les bâtiments. Sa température est, en été, moins élevée et surtout plus stable que celle de l’air extérieur. Une masse de sable, d’argile ou de roche présente en outre une capacité calorifique importante.

La température moyenne mensuelle est amortie et déphasée par rapport aux températures extérieures. Le sol présente donc un potentiel de rafraichissement particulièrement intéressant au printemps et en été, lorsque la température extérieure est plus élevée.

Les propriétés thermiques du sol dépendent des propriétés de ses constituants et de leurs proportions. Quelques ordres de grandeur :

nature des constituants Conductivité thermique (W/m°c) Capacité calorifique volumique Cp(Wh/m3°c) Diffusivité thermique (m2/h
constituants minéraux 2,92 534 0,0054
constituants organiques 0,25 697 0,00036
eau 0,59 1 163 0,00050
air 0,025 0,34 0,0756

Frédéric Chabert « Habitat enterré » (1980).

La conductivité thermique des sols varie de 1 à 5 selon qu’il est sec ou saturé. La capacité thermique moyenne des sols varie elle de 1 à 3.
L’exploitation de la fraicheur du sol se fait en y organisant un échange de chaleur par le passage contrôlé d’air ou d’eau. Lorsqu’il s’agit d’un échangeur air-sol, on parle de puits canadiens ou provençaux. Lorsqu’il s’agit d’un échangeur eau-sol, on parle de geocooling, une appellation qui, strictement, devrait également recouvrir les puits canadiens.

Parmi les diverses solutions d’échangeur eau-sol, notons l’exploitation du sol sous la dalle de fondation (attention à la puissance qui peut rester alors faible…),

ou dans les pieux de fondation :

Des échangeurs de type forage vertical, indépendants de la structure du bâtiment, sont également possibles.

Une autre possibilité est d’utiliser l’eau des nappes phréatiques souterraine au moyen, en la pompant pour la conduire vers un échangeur de chaleur eau-eau, mais cette technique peut générer des problèmes de nature hydraulique dans le sol (déséquilibres des nappes phréatiques, pollutions).

Un des grands intérêts des techniques de geocooling est que le niveau de température concerné (de 5 à 15°C) est intéressant tant :

  • Pour le refroidissement direct : un échange de chaleur, par l’intermédiaire de boucles d’eau, entre le bâtiment est le sol), en vue d’alimenter un système de refroidissement par dalle ou par plafond froid.
  • Pour le refroidissement indirect : valoriser le sol comme source froide de la machine frigorifique, quel que soit le système de distribution et d’émission dans le bâtiment.
  • Que pour le chauffage par pompes à chaleur. En pratique, on n’envisagera pas de valorisation thermique du sol uniquement pour le refroidissement estival. L’investissement en pompages ou forage ne se fera que si le sol peut être valorisé au maximum de son potentiel, c’est-à-dire tant en refroidissement l’été qu’en chauffage l’hiver. Le géocooling est donc intimement lié à la géothermie.

Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : geocooling

Concevoir

Choisir un système rayonnant sur boucle d’eau froide : plafond froid et dalle active.

Concevoir

Le choix de la source de chaleur du chauffage par pompe à chaleur.

Techniques

Le géocooling.

Valoriser la physique de l’air humide

Le contenu énergétique de l’air est lié à la fois à sa température et à son humidité. En effet, la présence de vapeur d’eau dans l’air représente une forme d’énergie latente, égale à la quantité d’énergie nécessaire pour vaporiser ou condenser cette eau. La somme de l’énergie sensible (liée à la température) et de l’énergie latente (liée à l’humidité) est appelée enthalpie. Cette quantité d’énergie est importante, puisque la chaleur de vaporisation d’un litre d’eau est de 2 257 kJ/kg (à la pression atmosphérique et à 100 °C). Soit 5,4 fois plus que pour chauffer le litre d’eau de 0 à 100 °C ! Elle est cependant limitée par la quantité maximale de vapeur que l’air peut contenir, qui dépend de sa température.

Le diagramme psychrométrique est l’outil indispensable pour visualiser et mesurer ces quantités d’énergie. L’enthalpie est représentée sur l’axe diagonal à gauche du diagramme. On constate que le niveau d’enthalpie est équivalent pour un air à 30 °C et 30 % d’humidité relative et pour un air à 17 °C et 100 % d’humidité relative. Autrement dit, si l’on arrive à créer des transferts entre l’énergie sensible et l’énergie latente d’une masse d’air, on devrait être en mesure de créer de l’air froid (et humide) au départ d’air chaud (et sec). Et cela sans grande consommation d’énergie, puisque l’enthalpie de l’air serait conservée.

Comment réaliser ce petit miracle ? Simplement en humidifiant l’air.
En pratique, deux types d’applications ont été développées pour valoriser ce principe physique.
Le premier dispositif se trouve dans l’architecture vernaculaire de nombreuses cultures, mais fut particulièrement développé par les Perses. Ils combinaient des tours à vent (« bagdir ») avec locaux servant de glacières (« yakh-chal ») souvent reliées à un canal souterrain (« qanat »). Par cet ensemble de dispositifs, ils étaient capables de conserver des aliments et rafraîchir des bâtiments dans un climat particulièrement chaud. Marco-Polo, lors de son premier voyage en orient, se serait vu offrir des glaces en plein été !

Plus récemment, l’idée de refroidir de l’air par humidification a été appliquée dans des groupes de traitement d’air. On parle alors de refroidissement adiabatique. Une différence majeure avec la solution imaginée par les Persans : ici c’est l’air extrait du bâtiment que l’on refroidit par humidification. Un échangeur de chaleur air-air permet ensuite de rafraîchir l’air neuf au contact de l’air extrait. Nos ambiances sont déjà suffisamment humides en été que pour éviter d’y pulser un air saturé !
Pour en savoir plus :

Théories

Les grandeurs hygrométriques.

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.


Valoriser le soleil

Paradoxalement, la chaleur du soleil peut être utilisée pour rafraichir un bâtiment… pour autant que l’on dispose de l’équipement adéquat.

Généralement, produire du froid implique l’usage d’une machine frigorifique. Celle-ci se compose de deux échangeurs de chaleur (condenseur et évaporateur), d’un détendeur et d’un compresseur électrique. Pas de place pour l’énergie solaire là-dedans, si ce n’est au travers de capteurs photovoltaïques.

Mais il existe un autre type de machine frigorifique, dit « à ab/adsorption« . Là, l’échange thermique est basé à la fois sur la vaporisation d’un réfrigérant (de l’eau) et sur la capacité de certaines substances à absorber la vapeur d’eau pour la restituer à un niveau de pression différent lorsqu’ils sont échauffés. Le cycle de cette matière absorbant joue le rôle du compresseur dans une machine frigorifique traditionnelle, tout en demandant une alimentation en chaleur plutôt qu’en électricité. Or, qui dit soleil dit chaleur ! La combinaison de capteurs solaires thermiques et d’une machine frigorifique à ab/adsorption constitue ce que l’on appelle une « climatisation solaire », une idée séduisante si les besoins de froid du bâtiment sont liés aux gains solaires.

Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.

Choisir la fenêtre comme capteur de lumière naturelle [Les fenêtres]

Favoriser l’éclairage naturel extérieur

Dans une démarche de construction ou de rénovation lourde, on privilégiera l’utilisation de la lumière naturelle à la place de l’éclairage artificiel. La qualité « spectrale » de la lumière naturelle ainsi que sa variabilité et ses nuances offrent une perception optimale des formes et des couleurs. L’éclairage artificiel devrait donc être considéré comme un complément à la lumière naturelle. Aussi, d’un point de vue énergétique, l’utilisation de l’éclairage naturel comme « source » lumineuse est gratuite ; ce qui signifie que la facture en électricité sera d’autant plus réduite que l’éclairage naturel exploité.

Dans bien des projets de conception ou de rénovation de bâtiments tertiaires, en confort lumineux, l’objectif premier est de privilégier l’ouverture des espaces de travail vers la lumière naturelle tout en sachant qu’une trop grande ouverture des façades est souvent synonyme d’éblouissement, de surchauffe et déperditions thermiques au travers des baies vitrées. Le compromis reste de rigueur !

Bien des paramètres viennent influencer de manière plus ou moins significative la pénétration de la lumière dans les espaces de travail :

  • L’orientation des façades ;
  • La présence d’ombres reportées (bâtiments ou autres façades du bâtiment étudié faisant de l’ombre) ;
  • La taille, la forme et la position des baies vitrées dans les façades ;
  • La forme et les dimensions des trumeaux ;
  • Les caractéristiques des vitrages ;
  • La présence de protection solaire (fixe, mobile, …) ;
  •  …

Vitrage clair.           Vitrage sélectif.           Auvent.           Lamelles.           Ombre reportée.

Pour un projet de taille importante, une étude par un bureau spécialisé est toujours intéressante sachant qu’il est possible d’optimiser conjointement les conforts lumineux et thermiques par des simulations dynamiques tenant compte de l’ensoleillement et du climat à tout moment de l’année disponible sous forme de bases de données type « météonorm » par exemple.

L’éclairage naturel extérieur n’est pas uniforme

L’intensité de la lumière naturelle varie fortement en fonction du type de ciel, du moment de l’année, de l’heure dans la journée, de l’orientation de l’ouverture, de son inclinaison et de son environnement.

Les études d’éclairage naturel des locaux sont basées, conventionnellement, sur un ciel couvert donnant un niveau d’éclairement de 5 000 lux sur une surface horizontale en site dégagé (Commission Internationale de l’Énergie).

Or, en Belgique, un tel éclairement est dépassé 80 % du temps entre 8h00 et 16h00, par ciel couvert. Et ce ciel couvert ne se présente que 36 % du temps de l’année.

À l’extrême, en juin, à midi et par ciel serein, l’éclairement dépasse 100 000 lux! (Franchement, de quoi se plaint-on ?!)

Lumière solaire directe ou lumière solaire diffuse ?

La lumière solaire directe dispense un flux considérable, facile à capter et à diriger. Elle présente une dynamique intéressante (création de reliefs dans le bâtiment) et peut être utilisée en tant qu’énergie thermique. Par contre, le rayonnement solaire direct est souvent une source d’éblouissement et parfois de surchauffe du bâtiment. De plus, sa disponibilité est épisodique et dépend de l’orientation des ouvertures.

La lumière diffuse du ciel est disponible dans toutes les directions. Elle suscite peu d’éblouissement, ne provoque pas de surchauffe, mais elle peut être insuffisante dans de nombreux cas. En outre, elle crée peu d’ombres et de très faibles contrastes. Une lumière diffuse est donc idéale pour des locaux de travail où il est important d’avoir un éclairage constant, sans source d’éblouissement. La lumière du nord est assurément une lumière diffuse (depuis toujours exploitée dans les ateliers d’artistes). Mais il est possible de valoriser également la lumière directe venant des autres orientations, pour autant qu’une protection masque le disque solaire ou qu’un rideau intérieur diffuse la lumière incidente.

L’influence de l’environnement

Lors de la conception d’un bâtiment, il est donc important de mesurer l’impact de l’environnement existant sur le nouvel édifice afin de profiter au mieux des possibilités offertes par le terrain pour capter la lumière.

Le relief du terrain, les constructions voisines, … peuvent modifier fortement l’apport.

L’effet de rue est caractérisé par le masque solaire que créent les bâtiments situés de l’autre côté de la rue. Il dépend de la hauteur de ces constructions et de la distance qui sépare les deux côtés de la rue.

Des surfaces réfléchissantes placées au sol telles qu’un dallage brillant ou un plan d’eau peuvent contribuer à capter davantage de lumière. Ainsi, l’eau, en réfléchissant le ciel et l’environnement, intensifie l’impression lumineuse d’un lieu.

Mais la présence d’un bâtiment voisin équipé de vitrages réfléchissants, précisément pour se protéger de l’ensoleillement, risque de provoquer un éblouissement excessif des occupants.

Des éléments liés au bâtiment lui-même, tel que des murs de refends, des surplombs, des light shelves, … peuvent aussi provoquer un ombrage en fonction de leur taille, de leur réflectivité et de leur orientation.

La végétation se distingue des autres écrans parce qu’elle peut être saisonnière, ce qui est le cas des arbres à feuilles caduques, et que par ailleurs elle ne possède qu’une opacité partielle. Elle se contente de filtrer la radiation lumineuse plutôt que de l’arrêter.


Sélectionner la fenêtre comme espace capteur de lumière

Pour quels locaux ?

A priori, tous les locaux devraient disposer d’un éclairage naturel (sauf archives et locaux techniques). On peut parler de nécessité pour les « locaux de vie » (où les occupants séjournent plusieurs heures par jour) et de souhait pour les sanitaires et les circulations (où les occupants ne font que passer).

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Dans le premier cas, l’architecte a introduit une dissymétrie dans la distribution des locaux, et des ouvertures vers l’extérieur pour introduire de la lumière naturelle.
Faut-il préciser que la première mise en œuvre est plus chère ?..
On parle ici de qualité de l’ambiance intérieure dans un lieu de travail.

Ouverture latérale ou zénithale ?

Ouverture latérale et ouverture zénithale.

Au niveau de l’apport de lumière naturelle, une ouverture zénithale s’ouvre sur la totalité de la voûte céleste. Elle induit une meilleure pénétration de lumière, particulièrement par temps nuageux. La distribution lumineuse obtenue par une ouverture zénithale est aussi beaucoup plus homogène que celle produite par une fenêtre latérale. De plus, la lumière entre dans les locaux par le plafond, ce qui limite a priori les phénomènes d’éblouissement. L’éclairage zénithal convient spécialement à la pénétration de la lumière naturelle dans les bâtiments bas et profonds.

Distribution de lumière très homogène,
mais défavorable à la perception du relief.

Mise en évidence du relief par l’éclairage latéral,
malgré un couloir rectiligne.

Par contre, la lumière latérale est favorable à la perception du relief. L’entretien est également plus facile que pour une ouverture zénithale. De plus, le bilan thermique est en faveur d’une ouverture verticale. En été, les apports peuvent être limités (particulièrement au sud, via une « casquette » architecturale).

Tandis que les apports d’été sont toujours excédentaires au niveau d’une ouverture en toiture.

Seule solution : la décapotable ! Si la coupole ou la verrière peut être largement ouverte en été, le problème peut être résolu. Reste la gestion de la pluie et du vent…

Quelle orientation de la fenêtre latérale ?

Les pièces orientées au nord bénéficient toute l’année d’une lumière égale et du rayonnement solaire diffus. Il est judicieux de placer des ouvertures vers le nord lorsque le local nécessite une lumière homogène, peu variable ou diffuse, et lorsque les apports internes sont élevés.

Les pièces orientées à l’est profitent du soleil le matin, mais le rayonnement solaire est alors difficile à maîtriser, car les rayons sont bas sur l’horizon. L’exposition solaire y est faible en hiver, mais elle permet d’apporter des gains solaires au moment où le bâtiment en a le plus besoin. Par contre, en été, l’orientation est présente une exposition solaire supérieure à l’orientation sud, ce qui est peu intéressant.

Une orientation ouest présente un risque réel d’éblouissement et les gains solaires ont tendance à induire des surchauffes. En effet, les vitrages tournés vers l’ouest apportent des gains solaires l’après-midi, au moment où le bâtiment est depuis longtemps en régime.

Une orientation sud entraîne un éclairement important. De plus, les pièces orientées au sud bénéficient d’une lumière plus facile à contrôler. En effet, en hiver, le soleil bas (environ 17°) pénètre profondément dans le bâtiment, tandis qu’en été, la hauteur solaire est plus élevée (60°) et la pénétration du soleil est donc moins profonde. En été, les apports solaires sur une surface verticale sont également nettement inférieurs au sud qu’à l’est ou à l’ouest, car ils sont diminués par un facteur égal au cosinus de l’angle d’incidence.

Les dimensions de l’ouverture

On peut quantifier l’apport de lumière naturelle dans un local par le facteur de lumière du jour (FLJ). Exprimé en %, il exprime le rapport entre l’éclairement intérieur sur le plan de travail dans le local, et l’éclairement extérieur sur le plan horizontal, en site dégagé, par ciel couvert.

Plus le facteur de lumière du jour est élevé, plus le temps d’utilisation des locaux avec la lumière naturelle est élevé, limitant ainsi la consommation d’éclairage artificiel.

Un objectif raisonnable est d’arriver à un temps d’utilisation de l’éclairage naturel d’au moins 60 %. Ceci entraîne un facteur de lumière du jour de 2,5 (exigence de 300 lux) à 4 % (exigence de 500 lux) dans les locaux de vie, et de 1,5 % dans les circulations et sanitaires (exigence de 100 lux).

Une méthode approchée permet d’évaluer le Facteur de Lumière du Jour moyen d’un local donné, en fonction de sa surface vitrée.

L’emplacement de l’ouverture

Bien sûr, plus la surface est importante, plus l’éclairage naturel est élevé. Mais on sait que les apports solaires augmenteront eux aussi et donc le risque de surchauffe du local. Il nous faut donc optimiser l’efficacité lumineuse de la fenêtre.

Pour évaluer l’influence de l’emplacement de la fenêtre sur la répartition de la lumière dans un local, nous comparons trois fenêtres identiques, situées à 3 hauteurs différentes.

Plus la fenêtre est élevée, mieux le fond du local est éclairé et plus la zone éclairée naturellement est profonde. Si le fond du local (situé à 7 m de la façade dans notre test) reçoit une valeur de référence 100 pour la fenêtre basse, il recevra 128 pour la fenêtre à mi-hauteur et 143 pour la fenêtre haute.

A surface égale, l’efficacité lumineuse d’une fenêtre est donc maximale au niveau d’un bandeau horizontal, situé en partie supérieure de la paroi.

Une telle fenêtre en hauteur procure les avantages suivants :

  • Une répartition très uniforme de la lumière dans l’espace ainsi qu’un bon éclairage du fond du local.

 

  • Une source de lumière au-dessus de la ligne de vision, ce qui réduit les risques d’éblouissement direct.

Cependant, le seuil se trouve au-dessus du niveau de l’oeil, la vue sur l’extérieur est impossible. La fenêtre ne peut jouer son rôle de lien entre un local et son environnement. De plus, une zone d’ombre est formée à proximité du mur de fenêtre. En général, il est préférable de coupler une telle fenêtre avec une fenêtre classique, équipée de protections solaires.

Pour maximiser les apports de lumière naturelle, on peut également interrompre un faux plafond à proximité de la fenêtre pour favoriser la pénétration de la lumière naturelle par cette ouverture. Ce procédé est connu sous le nom de « plafond biaisé ».

De cette étude, on peut déduire une autre conclusion très intéressante : c’est la zone inférieure d’une fenêtre qui est la moins efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires).

La forme de la fenêtre

Analysons l’influence de la forme de la fenêtre en comparant la répartition lumineuse fournie par trois fenêtres de proportions différentes, pour une surface vitrée identique et une hauteur de l’allège constante.

Lorsque la largeur de la fenêtre diminue, la répartition devient moins uniforme, bien que l’éclairement moyen soit pratiquement le même dans les trois cas étudiés. Par contre, l’éclairement du fond du local augmente avec la hauteur de la fenêtre. Pour une même surface vitrée, une fenêtre haute éclaire davantage en profondeur. L’idéal réside donc dans une fenêtre horizontale, mais dont le linteau est élevé. En première approximation, une pièce est convenablement éclairée jusqu’à une profondeur de 2 à 2,5 fois la hauteur du linteau de la fenêtre par rapport au plancher.

Analysons l’influence de la répartition des ouvertures dans une façade : comparons la grande fenêtre centrée et deux fenêtres plus petites, placées symétriquement.

Dans les deux cas, les fenêtres ont une superficie vitrée totale identique et la même hauteur; leur allège est située au même niveau par rapport au sol. La moyenne des éclairements varie peu, mais la répartition de la lumière dans la partie du local avoisinant les fenêtres est différente. Dans le cas de deux fenêtres séparées, une zone d’ombre apparaît entre celles-ci, ce qui peut créer des problèmes de confort visuel pour les occupants.

Le type de châssis

Le type et la taille du châssis modifient la vue vers l’extérieur et la quantité de lumière admise dans un édifice.

Le châssis fixe sera sans conteste le plus mince mais il empêche le plaisir du contact direct avec l’air extérieur…

Le matériau utilisé pour le châssis détermine également son encombrement : en général, un châssis en bois est plus mince qu’un cadre en aluminium à coupure thermique. Les châssis en PVC sont les plus larges.

Mais les innovations récentes permettent de plus en plus de diminuer l’impact visuel des châssis et d’augmenter ainsi la quantité de lumière captée.

Cafétéria dans un lycée.


Valoriser l’éclairage naturel capté

Les dimensions du local

La profondeur du local ne devra pas dépasser le double de la hauteur du linteau de la fenêtre, puisque l’intensité de la lumière naturelle décroît très rapidement en fonction de l’éloignement de la fenêtre.

Ainsi, la profondeur des bureaux devrait être limitée à 6 mètres.

À noter qu’une variation de la hauteur sous plafond (pour une même baie vitrée et une surface de plancher identique) induit une très faible différence dans la répartition lumineuse du local. Le niveau d’éclairement est cependant un petit peu plus élevé dans les pièces ayant un plafond plus bas.

La réflexion sur les parois

La nature et la couleur des surfaces intérieures influencent directement l’éclairage naturel dû aux réflexions intérieures. Une bonne distribution de la lumière nécessite des parois et du mobilier de couleurs claires.

L’importance de la clarté des surfaces est due à un double effet

  • les facteurs de réflexion plus élevés permettent à la lumière d’être davantage réfléchie.

 

  • l’œil humain analyse des niveaux de luminance : sous les mêmes conditions d’éclairage, une surface claire est donc subjectivement perçue comme mieux éclairée qu’une surface foncée.

On peut dire que si le facteur de réflexion moyen des murs d’un volume quelconque est inférieur à 50 %, la lumière pénétrera difficilement en profondeur dans cet espace. Or la plupart des matériaux architecturaux ont de faibles facteurs de réflexion. Un plancher clair peut avoir un facteur de réflexion de 30 %, mais pas beaucoup plus, ce qui est nettement plus bas que les murs (~ 50 % ) et que les plafonds (~ 70 %).

Dès lors, pour favoriser la pénétration de la lumière dans un local, on adoptera un revêtement du sol et du mobilier relativement clair, possédant donc un facteur de réflexion élevé. De plus, la clarté des tables de travail s’avère un élément favorable au confort visuel dans la mesure où la réduction du contraste entre le papier et le support de la table induit une diminution des efforts d’accommodation que l’œil doit effectuer à chacun de ses mouvements.

En revanche, les sols sont souvent de couleur relativement sombre afin de faciliter leur entretien. Il faut donc envisager un compromis susceptible de satisfaire simultanément les exigences de confort et de maintenance.

Comme le plafond ne reçoit la lumière naturelle que de manière indirecte, son influence sur la répartition de la lumière est relativement faible. En revanche, lorsqu’un dispositif de distribution lumineuse dévie la lumière vers le haut, par exemple à l’aide d’un  light shelf, le plafond reçoit une grande quantité de lumière qu’il doit répartir dans toute la pièce; le facteur de réflexion de cette surface doit alors être élevé (> 70 %), valeur correspondant à celle du plâtre blanc propre.

Lorsque les matériaux de revêtement présentent une certaine brillance, la lumière arrive plus facilement en fond de pièce.

En contrepartie, les surfaces en question acquièrent une luminance élevée et peuvent donc devenir des sources d’éblouissement.

De manière générale, les surfaces brillantes sont donc à conseiller comme moyen de transmission de la lumière naturelle, mais elles sont à éviter dans les locaux de travail, dans la mesure où les activités (lecture, écriture,…) peuvent être perturbées lorsque l’environnement lumineux est fort contrasté.

Distribuer l’éclairage dans les locaux

L’inconvénient de la lumière naturelle par rapport à la lumière artificielle réside dans la grande inhomogénéité des éclairements qu’elle induit. La répartition de la lumière représente donc un facteur clef pour assurer un éclairage de qualité.

Un éclairage naturel direct engendre des risques importants d’éblouissement et entraîne une répartition des luminances très irrégulière dans le local.

L’éclairage naturel indirect utilise les réflexions des rayons lumineux sur une paroi pour obtenir une distribution lumineuse plus homogène. Cependant, le niveau d’éclairement assuré dépend fortement du coefficient de réflexion de la paroi et donc de sa maintenance régulière.

Le Kimbell Art Museum, conçu par L. Kahn, renferme un exemple d’éclairage naturel indirect fabuleux.

De longs plafonds cylindriques laissent pénétrer la lumière naturelle en leur centre grâce à un système filtrant et réfléchissant, qui redirige la lumière solaire éclatante du Texas sur les voûtes du musée.

L’aménagement des parois intérieures

La distribution de l’éclairage dépend aussi de l’organisation des espaces intérieurs. Utiliser des cloisons transparentes ou translucides permet à la lumière de se répandre dans les deux pièces séparées par la surface vitrée. À l’intérieur d’un bâtiment, l’architecte est tributaire des effets de lumière qui se créent : il dote les espaces intérieurs de l’atmosphère désirée par une disposition étudiée des ouvertures et des obstacles à la lumière. Par exemple, un local disposé à l’est peut, par le truchement des baies intérieures, recevoir un peu de lumière de l’ouest.

Dans un long couloir, la présence de fenêtres translucides donne un relief agréable et permet d’éviter l’éclairage artificiel (bandes verticales à côté des portes ou impostes au-dessus des portes).

Les meubles sont parfois de réels obstacles qui empêchent la transmission de la lumière vers certaines parties de la pièce. Il est donc essentiel de réfléchir au type de meubles, ainsi qu’à leur emplacement, de manière à favoriser la pénétration de la lumière naturelle.

Ces deux modes d’éclairage peuvent aussi être combinés pour créer un éclairage direct/indirect, alliant une ouverture directe à la lumière naturelle à un système d’éclairage indirect. Un exemple de ce type d’éclairage est une façade qui unit une fenêtre normale et un light shelf. Ce mode d’éclairage possède, en général, les avantages de l’éclairage indirect, mais la partie directe permet en plus de créer des ombres, qui mettent en valeur le relief des objets. D’autre part, la maintenance des coefficients de réflexion des parois est un peu moins critique vu qu’une partie de l’éclairage entre de manière directe dans l’espace.

Gérer l’éclairage artificiel en fonction de l’éclairage naturel

Force est de constater que les occupants d’un bâtiment tertiaire sont peu motivés à éteindre leurs luminaires, même si l’éclairage naturel est suffisant. De plus, la modulation ON-OFF n’est pas souple et provoque un choc psychologique lors de l’extinction.

      

Par exemple, il est possible aujourd’hui de placer une cellule sensible à l’intensité lumineuse en dessous du luminaire. Si, en présence de soleil, celle-ci dépasse les 500 Lux souhaités, l’alimentation électrique du luminaire est automatiquement réduite. Sans que l’occupant ne s’en rende compte, l’éclairage naturel est directement valorisé. C’est « la vanne thermostatique » du luminaire !

Concevoir

Pour plus d’informations sur la mise en place d’une technique de gestion de l’éclairage artificiel.

Renforcer l’éclairage naturel à l’intérieur du bâtiment

Le puits de lumière

Certaines zones centrales dans un bâtiment n’ont pas d’accès direct à la lumière du jour. Dès lors, un conduit de lumière, passant à travers différentes pièces, permet de répandre la lumière naturelle captée en toiture ou en façade dans ces locaux aveugles.

Signalons toutefois que les puits de lumière risquent d’occuper un assez grand volume dans le bâtiment. Leur surface interne doit être d’autant plus réfléchissante que la lumière naturelle doit être amenée profondément dans le bâtiment. Pour limiter au maximum les pertes par absorption, il faut utiliser des matériaux très performants au niveau photométrique.

Architecte : M. Botta.

Utilisation du verre
dans des éléments de sol ou d’escalier.

Si le puits de lumière prend de plus larges dimensions, on parle d’atrium. Sa gestion thermique est souvent difficile (refroidissement par la surface vitrée en hiver, surchauffe par l’excès d’apports solaires en été). Un équilibre dans le degré d’ouverture doit donc être trouvé pour favoriser l’éclairage des pièces centrales, tout en évitant un déséquilibre thermique … coûteux en climatisation !

   

Exemple d’un atrium bien dimensionné.

Au Lycée Vinci de Calais, une dynamique est donnée par les 3 ouvertures : bandeau lumineux sur toute la longueur, coupole en toiture, pignons vitrés aux deux extrémités.

Si toute la toiture avait été ouverte, l’énergie incidente aurait entraîné des surchauffes en été.

Le conduit solaire

Un conduit solaire transmet la lumière solaire directe au cœur même du bâtiment. Le rayonnement solaire est capté au moyen d’un système de miroirs et de lentilles ou de capteurs paraboliques, éléments qui se meuvent en fonction de la trajectoire du soleil. La transmission du rayonnement solaire se fait par des systèmes de miroirs, de lentilles, de prismes réflecteurs, de fibres optiques, de baguettes acryliques, de fluides de cristaux liquides ou des conduits creux, dont les faces intérieures sont recouvertes de métaux polis. Les faisceaux lumineux ainsi obtenus peuvent alors être dirigés sur une surface précise ou diffusés dans l’espace.

Ce conduit, beaucoup moins volumineux qu’un puits de lumière, peut facilement atteindre une longueur de 15  mètres. Il est parfois associé à un puits de lumière.

Le conduit solaire apporte un flux lumineux nettement plus important et plus concentré que le puits de lumière. Cependant, tous ces systèmes de gestion du rayonnement solaire direct sont relativement chers à installer et s’appliquent donc plus particulièrement aux régions fortement ensoleillées.

Le « light shelf »

Un light shelf est un auvent, dont la surface supérieure est réfléchissante.

L’objectif est double

  1. Rediriger la lumière naturelle vers le plafond, ce qui permet de faire pénétrer la lumière profondément dans la pièce.
  2. Protéger l’occupant des pénétrations directes du soleil (éblouissement et rayonnement direct).

La surface du light shelf doit être aussi réfléchissante que possible, mais peut-être mate, brillante ou spéculaire. Une surface spéculaire renvoie théoriquement plus de lumière, mais il faut pour cela qu’elle soit nettoyée très régulièrement, ce qui n’est pas toujours aisé. En pratique, un light shelf brillant (semi-spéculaire) est sans doute le meilleur choix.

La couleur du plafond doit être aussi claire que possible, car il joue le rôle de distributeur de la lumière naturelle réfléchie par le light shelf. Sa pente a également de l’importance : un plafond incliné vers le fond du local ou de forme arrondie incurvée vers l’intérieur de l’espace augmentera fortement la profondeur de pénétration de la lumière dans le local.

Architecte : Michael Hopkins and Partners.

Dans nos régions, il est surtout applicable pour des locaux profonds d’orientation sud. Ses performances sont fortement réduites pour des orientations est et ouest, pour lesquelles le rayonnement solaire a un angle d’incidence plus faible.

De manière relative, plus le local est sombre, plus l’apport d’un light shelf peut être intéressant. Si la composante réfléchie interne est déjà grande dans un local, le même système sera proportionnellement moins efficace. L’emploi d’un light shelf en rénovation sera particulièrement profitable dans les pièces dont les murs ont des coefficients de réflexion faibles et un mobilier foncé (à noter qu’il sera moins cher de commencer par repeindre les murs !).

Le choix de la meilleure configuration de light shelf résulte d’un équilibre entre les demandes d’éclairage naturel et les besoins d’ombrage d’un local.

Un light shelf est habituellement situé à environ deux mètres de hauteur, divisant la fenêtre de façade en deux parties. Sa position dépend de la configuration de la pièce, du niveau des yeux et de la hauteur sous plafond pour permettre une vue vers l’extérieur et ne pas causer d’éblouissement. Une position basse augmente la quantité de lumière réfléchie vers le plafond … mais accroît les risques d’éblouissement.

L’augmentation de la profondeur du light shelf limite l’éblouissement, mais diminue aussi la pénétration de la lumière et la vue vers l’extérieur. Le light shelf, affectant la conception architecturale et structurelle d’un édifice, est de préférence introduit au début de la phase de conception puisqu’il nécessite un plafond relativement haut pour être efficace.

Les light shelves horizontaux sont un bon compromis entre une inclinaison du système vers le centre de la pièce ou vers l’extérieur. Tournée vers l’extérieur, le light shelf crée un plus grand ombrage, mais tournée vers l’intérieur il éclaire mieux le fond de la pièce.

On peut classer un light shelf selon sa position : intérieur, extérieur ou combiné.

Ainsi que le montre les simulations de l’éclairage d’un local, sans et avec light shelf,

  • Le light shelf extérieur donne les meilleurs résultats du point de vue du niveau d’éclairement en fond de pièce, tout en ombrant la grande fenêtre.

 

  • Placé à l’intérieur, il réduit le niveau d’éclairement moyen du local, mais offre toutefois un ombrage pour la partie supérieure du vitrage.

 

  • Enfin, le light shelf combiné assure la distribution lumineuse la plus uniforme dans le local; il se révèle également la meilleure protection solaire.

Choisir la fenêtre comme capteur d’énergie solaire [Les fenêtres]

L’architecture participe à la juste captation des apports solaires, plus recherchés pour leur lumière que pour leur chaleur dans un immeuble tertiaire.

L’immeuble tertiaire se distingue de l’immeuble domestique

Les besoins thermiques d’un immeuble tertiaire (bureaux, écoles, …) sont très différents de ceux d’un bâtiment domestique.

Bâtiment tertiaire Bâtiment domestique

En hiver

Des apports internes élevés sont apportés par les occupants, par l’éclairage et les appareils de bureautique. Les apports internes sont limités, exceptés dans la cuisine.
Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

Lorsque le soleil arrive, le bâtiment est déjà chaud, particulièrement pour les locaux orientés à l’Ouest (soleil l’après-midi).

Dans une classe d’école par exemple, il n’est plus nécessaire de chauffer lorsque les élèves sont présents (nous parlons bien ici d’un nouveau bâtiment bien isolé).

Le profil de demande de chaleur est variable suivant l’occupation, mais il est marqué par une demande qui se prolonge en soirée, après le coucher du soleil.

Un des objectifs sera de stocker la chaleur solaire de la journée dans les parois, pour lisser la pointe de température en journée et libérer la chaleur en soirée.

En été

L’exigence de confort est importante afin d’améliorer la productivité des occupants. L’occupant accepte plus facilement un inconfort temporaire et attend la fraîcheur de la soirée.

Il peut facilement adapter sa tenue vestimentaire et son activité.

L’environnement extérieur ne permet pas toujours une ouverture des fenêtres (bruit, air pollué, …) Généralement, l’environnement permet plus facilement l’ouverture des fenêtres.

Conclusions

En hiver, le profil de demande thermique d’un immeuble tertiaire est peu en coïncidence avec le profil de l’apport solaire, surtout pour les immeubles de bureaux dont les apports internes sont élevés.

Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

En été, , et de plus en plus en mi-saison, la sensibilité du bâtiment et des occupants au risque de surchauffe est élevée.


Quelle place pour les apports solaires de chauffage ?

De ce qui est dit ci-dessus, et des conséquences de l’isolation des bâtiments sur le profil de demande, on déduit que les apports solaires sont peu recherchés pour leur appoint en chauffage dans un nouveau bâtiment bien isolé et avec des apports internes moyens ou élevés (immeubles de bureaux, par exemple).

Concrétisons par un exemple

Voici les résultats d’une simulation réalisée sur un immeuble de bureau-type.

Ramenons à 100 la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage) et analysons l’impact d’une modification de la surface vitrée :

Pourcentage
de vitrages
Demande
de chauffage
Demande
de refroidissement
0 % 77 80
50 % 100 100
70 % 110 108

Il apparaît :

  • que l’augmentation globale de la surface vitrée augmente les déperditions en hiver,
  • que l’apport solaire ne compense pas ces déperditions,
  • que la demande de refroidissement est logiquement en hausse en été.

Avec les modes constructifs actuels, le bâtiment qui aurait le moins besoin de chauffage et refroidissement est celui que n’aurait pas d’ouvertures !

À noter que cette évolution est identique quelle que soit l’orientation du local :

Local Nord Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
0 % 84 73 71 84
50 % 103 79 90 120
70 % 116 81 103 134

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

A noter :

  • L’importance de la demande de refroidissement dans les locaux au Nord, demande essentiellement liée à la présence des apports internes.
  • Une simulation des locaux avec des apports internes faibles présente la même tendance à l’augmentation des consommations avec l’augmentation de la surface vitrée.
  • Le placement de vitrages réfléchissants au Sud génère une diminution de la demande de refroidissement nettement plus forte que l’augmentation de la consommation de chauffage.

Constats (essentiellement pour des immeubles de bureaux)

  • L’idéal thermique restera toujours le vitrage clair équipé d’un store extérieur mobile : la chaleur solaire est captée si nécessaire et le store est abaissé le reste du temps. Toutefois, la convivialité intérieure et l’apport lumineux lorsque les stores sont abaissés laissent à désirer…

 

  • Dans un bâtiment tertiaire vérifiant la réglementation thermique en matière d’isolation et disposant d’apports internes normaux (> 25 W/m²), il y a peu intérêt à capter l’énergie solaire pour diminuer les besoins de chauffage et beaucoup de risque de surchauffe et d’éblouissement.

 

  • Par réalisme, le critère thermique impose une limitation des espaces vitrés dans un bâtiment tertiaire, quelle que soit son orientation; ouvrir la façade « du sol au plafond », c’est créer un problème et devoir user d’artifices coûteux pour gérer l’excédent solaire. Et finalement, c’est nier toute architecture d’une façade, comme succession de pleins et de vides…

 

  • Le pourcentage de vitrage à choisir est essentiellement fonction des besoins d’éclairage naturel et de convivialité recherchée dans le bâtiment.

 

  • Idéalement, les surfaces vitrées seront choisies avec un faible coefficient de transmission thermique pour limiter les pertes en hiver et équipées d’une protection solaire en été. Toutefois, vu la difficulté d’une bonne gestion des protections solaires et le coût des protections automatisées, il est possible également de sélectionner des vitrages avec un faible facteur solaire (FS = 0,4 au maximum) et un bon rendu lumineux (FL = 0,7).

Conclusions : quel pourcentage d’ouverture de la façade ?

Si l’on ne prend en compte que le seul critère thermique, et si une protection solaire très efficace n’est pas prévue, une limitation des espaces vitrés s’impose dans un bâtiment tertiaire bien isolé, quelle que soit son orientation.

Le pourcentage de vitrage à choisir de prime abord pourra généralement être compris entre 30 et 45 % de la surface de façade, cette fourchette variera essentiellement fonction :

  • du rapport au contexte dans lequel le bâtiment s’inscrit,
  • du besoin d’éclairage naturel,
  • du souhait de contacts visuels avec l’extérieur,
  • de la recherche de repères visuels dans le bâtiment.

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Simplement, dans le premier cas, l’architecte a introduit une ouverture vers l’extérieur pour introduire de la lumière naturelle…
C’est ce qui fait la qualité de l’ambiance intérieure.

A la limite, on peut comprendre une compagnie d’assurance anglaise, qui, vu les apports internes très élevés, a décidé de s’ouvrir principalement au Nord, réservant au Sud l’emplacement de la cafétéria.

Vue des espaces vitrés côté nord.

Remarque importante.

Dans nos conclusions, le vitrage apparaît mal adapté comme capteur d’énergie solaire dans les bâtiments tertiaires. Par contre, et tout particulièrement lorsque le bâtiment présente des besoins d’air neuf élevés (laboratoires, salles de conférence, salles de réunion,…), il est utile d’étudier la valorisation de l’apport solaire pour le préchauffage de l’air neuf. Le principe est alors de placer la prise d’air neuf dans un espace qui par lui-même récupère la chaleur solaire ou la chaleur du bâtiment. On pense tout particulièrement ici à un système de type « double-peaux », mais l’atrium ou le puits canadien sont d’autres manières d’appliquer ce principe.


Une très grande sensibilité aux apports internes

Le résultat des simulations thermiques est très variable en fonction d’un paramètre : la charge interne.

Un bâtiment actuel est souvent à l’équilibre entre ses pertes thermiques et ses apports internes. S’il faut chauffer par période de gel, et refroidir en période de canicule, entre ces 2 extrêmes il existe une large plage où le bâtiment est proche de l’équilibre thermique : les résultats seront alors fonction des hypothèses choisies.

Exemple.

Reprenons l’analyse d’

un immeuble de bureau-type.

Si 100 est la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage-apports internes moyens), analysons l’impact d’une modification des apports internes :

Apports
internes
Demande
de chauffage
Demande
de refroidissement
– 50 % 146 52
moyens 100 100
+ 50 % 23 226

Exemple de diagramme énergétique établi pour cet immeuble de bureaux :

Face à une telle sensibilité, il apparaît

  • Qu’une analyse des besoins thermiques spécifique au bâtiment et à son utilisation (simulation dynamique) est indispensable pour une conception correcte du bâtiment et de ses équipements.
  • Que face à l’incertitude sur le fonctionnement réel du bâtiment (demain et après-demain), même si le refroidissement naturel du bâtiment est recommandé en priorité, l’adjonction éventuelle future d’un système mécanique de refroidissement doit être étudiée dès le début d’un projet d’immeuble de bureaux.

Exemple de situation dont les occupants se plaignent :

Une grande baie vitrée orientée au sud, une faible inertie (tapis et plafond acoustique)… … et la présence de nombreux PC génère de la surchauffe en été.


Une sensibilité aux masques solaires

Toutes les conclusions tirées ci-dessus sont en partie dépendantes de la présence d’un masque solaire éventuellement créé par les bâtiments voisins.

Par exemple, le bilan énergétique du dernier étage est sensiblement différent de celui du rez-de-chaussée.

On peut donc imaginer que le choix du vitrage puisse évoluer en fonction de l’étage.


L’influence de l’orientation de la façade

Lorsque l’apport solaire est recherché (bâtiment avec faibles apports internes), il est important de sélectionner une surface vitrée dont l’efficacité est maximale : capter un maximum d’énergie en hiver et un minimum en été.

Gains solaires par ciel serein en Belgique,
à travers un double vitrage.

(La lettre indique l’orientation et le nombre est l’inclinaison. Les orientations ouest et sud-ouest correspondent approximativement aux orientations est et sud-est.)

À première vue, la surface vitrée verticale orientée au sud (= S 90) paraît très intéressante, puisque plus d’apports en mi-saison qu’en été.

À l’opposé, on trouve la surface horizontale (coupole en toiture) dont la spécificité est de capter très peu d’énergie en hiver et de provoquer de la surchauffe en été.

Les surfaces à l’est et à l’ouest (= E 90) présentent également un bilan contraire à l’évolution des besoins du bâtiment.

Par contre, si la façade ne comporte pas de masques, un bâtiment de bureaux avec des apports internes moyens ou élevés sera en surchauffe très rapidement, dès l’arrivée du soleil.

Dans ce cas, l’apport solaire total étant plus important au Sud, c’est cette orientation qui sera la plus défavorable en matière de refroidissement annuel (malgré une légère diminution des consommations d’hiver).

C’est ce que montre notre exemple de

bureau-type :

Local Ouest Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
50 % 103 104 90 120

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

Exemple de protection architecturale très efficace sur une façade Sud… et qui participe à l’architecture de la façade !

Mais l’avantage de la façade au Sud est de profiter d’un soleil très haut sur l’horizon. Les auvents créés par l’architecture de la façade formeront une protection solaire efficace.

Au contraire, les protections architecturales ne sont pas efficaces à l’Est et à l’Ouest : le soleil est trop bas sur l’horizon pour être arrêté par le masque architectural.

Un éblouissement important en résulte.

Seuls des stores sont possibles, mais le coût et la maintenance en sont élevés.

Conclusions

Partons d’un bâtiment rectangulaire dont on se poserait la question : quelles orientations des façades des grands côtés du rectangle ?

 Sans protections solaires, le choix de l’orientation d’un bâtiment est à faible impact énergétique : la consommation totale (chaud + froid) plus importante au Sud est compensée par une consommation totale plus faible au Nord.

Il est préférable :

  • Soit de privilégier l’ouverture au nord pour favoriser l’éclairage naturel (et de limiter les espaces vitrés au sud et à l’ouest),

 

  • Soit de placer pour les orientations sud, est et ouest, des vitrages réfléchissant le rayonnement solaire toute l’année. Il existe des vitrages qui ne laissent passer que 40 % de l’énergie solaire thermique, tout en laissant passer 70 % de la lumière.

 Si des protections solaires sont prévues, les grands côtés Nord et Sud sont plus faciles à gérer : une protection architecturale fixe est très efficace au Sud et ne nécessite que peu d’entretien.

Par contre, les grands côtés est et ouest demanderaient des protections mobiles pour limiter les apports de chaleur et l’éblouissement des occupants. C’est plus coûteux, mais cela peut induire plus de vie dans le bâtiment, car la lumière est toujours présente dans les locaux.

En simplifiant, on pourrait dire que dans des locaux d’hébergement, on privilégierait les côtés est et ouest avec protections solaires, et que dans les immeubles de bureaux, on choisirait les façades nord et sud, avec avancées architecturales.


L’influence de l’inclinaison du vitrage

Ce diagramme montre évolution de l’énergie captée par une surface orientée au Sud en fonction de l’inclinaison.

Conclusions

On limitera les surfaces vitrées horizontales (coupole, toiture d’atrium, …) aux seuls besoins d’éclairage naturel des locaux situés au dessous.

Dans l’immeuble ci-contre, il paraît énergétiquement peu opportun de créer une telle surface de captation. Elle risque d’entraîner soit une surchauffe élevée, soit une consommation d’énergie frigorifique importante

concevoir

Pour plus d’informations sur le choix des vitrages.

Quelle protection contre les apports solaires d’été ?

Dans un bâtiment bien isolé et avec des apports internes élevés, la limitation des surchauffes devient une priorité du concepteur, dès le stade de l’esquisse.

La meilleure protection solaire… c’est une surface de vitrage limitée !

La façade est aujourd’hui libérée de la fonction de portance. Elle ne doit plus remplir qu’une fonction d’enveloppe. La mode est à « la transparence », à l’ouverture des façades du sol au plafond… Or la zone inférieure d’une fenêtre est très peu efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires en été).

Cette transparence totale de la façade va générer une sensibilité très forte à la surchauffe (les agriculteurs en sont bien conscients dans leur serre…). D’où la mise en place de doubles façades coûteuses, … pour gérer le problème que l’on a créé !

Double peau globale et double peau par étage.

En hiver, l’intérêt est réel grâce au préchauffage possible de l’air neuf et à la diminution des déperditions de la paroi vitrée. Mais en période de refroidissement, un store doit être placé dans la lame d’air et la double peau peut devenir alors une contrainte pour éliminer la chaleur emprisonnée (par rapport à un simple store extérieur).

Cette technique semble à réserver aux bâtiments nécessitant un apport d’air neuf fort élevé, pour lesquels la double-peau constitue un moyen de préchauffer l’air.

Les surcoûts sont importants et, sans vouloir tirer ici des conclusions trop rapides, on est en droit de se poser la question si ce budget ne serait pas mieux utilisé dans d’autres améliorations énergétiques, plus efficaces et plus simples à gérer dans le temps ? À titre d’exemple, un récupérateur de chaleur sur l’air extrait apporte lui aussi une possibilité de préchauffer l’air neuf, mais avec un coût d’installation incomparable…

Aula Magna de Louvain La Neuve.

Détail de la double peau,  qui n’est pas en communication avec l’ambiance intérieure.

La présence d’une protection solaire

On ne peut imaginer la conception d’un immeuble, climatisé ou non, sans l’organisation d’une protection solaire efficace.

Dans un bâtiment climatisé, elle permet une diminution drastique des coûts d’exploitation. Dans les autres, elle limite le risque de surchauffe.

Dans les deux cas, elle permet de gérer l’éblouissement, tout particulièrement pour faciliter le travail sur ordinateur. Des stores intérieurs compléteront utilement le dispositif.

Les éléments architecturaux (balcons, débords de toiture, décrochements, …) sont particulièrement efficaces au Sud puisque le soleil est alors haut sur l’horizon.

En été…   … et en hiver.

   

Stores verticaux, simultanément capteurs solaires photovoltaïques.

   

Bâtiment Sedilec à LLN.

Certaines protections architecturales tentent de stopper le soleil, tout en privilégiant la réflexion du rayonnement lumineux vers le plafond (« light-shelves« ).

Les stores mobiles extérieurs sont les plus efficaces pour contrôler le flux solaire en fonction du besoin réel. Mais ils sont délicats en terme de maintenance et nécessitent un contrôle automatique pour être relevés en cas de vent. La réduction du champ visuel de l’occupant en est un autre inconvénient.

Se croirait-on sur la Poztdammer Platz de Berlin ?

Panneaux de bois coulissants.

concevoir

Pour plus d’informations sur la mise en place de protections solaires.

Protections végétales ?

Des végétations plantées à proximité du bâtiment peuvent participer à la gestion des apports solaires.

Les arbres à feuilles caduques ont l’avantage de perdre leurs feuilles et de permettre ainsi l’exposition au soleil en hiver.

Mais il s’agit là d’un appoint, plutôt à vocation domestique, et non d’une solution complète, ne fut-ce que pour les étages supérieurs.


Annexe : les paramètres du bureau-type

L’immeuble de bureaux-type utilisé ci-dessus présente les caractéristiques suivantes :

Dimensions extérieures : 60 x 18 m, sur 3 plateaux, soit un total de 3 240 m²

Dans la version dite « de base » :

  • l’orientation des façades principales est Nord-Sud,
  • le pourcentage de vitrages est de 50 % sur toutes les façades,
  • le vitrage est double avec un traitement basse émissivité (k = 1,9 W/m².K),
  • l’isolation est de 6 cm en façade, 12 cm en toiture et 3 cm dans les planchers sur sol,
  • les apports internes dans les bureaux sont de 35 W/m² (un PC de 160 W, une lampe individuelle de 18 W, un éclairage généralisé de 13 W/m² et une personne dont le métabolisme apporte 81 W pour une surface de travail de 12 m²).

Principes de base de la ventilation

 

© Architecture et climat 2023.

La qualité d’air intérieur dépend notamment de :

  1. L’air extérieur
  2. Le mobilier
  3. Les produits et équipements de construction
  4. La ventilation
  5. Le comportement des usagers

Pourquoi faut-il ventiler ?

Pour maitriser l’énergie

La ventilation hygiénique fait partie du trio indissociable formé avec l’étanchéité à l’air et l’isolation thermique permettant le bon achèvement d’un bâtiment confortable et performant énergétiquement. L’un ne va pas sans l’autre. En effet, augmenter l’isolation sans penser aux pertes dues au niveau d’étanchéité à l’air du bâtiment n’a pas de sens… Et dès lors que le bâtiment est suffisamment étanche à l’air, il devient impératif de ventiler pour assurer une bonne qualité de l’air intérieur et garantir des ambiances intérieures confortables.

Pour garantir une bonne qualité de l’air intérieur

Ainsi, l’être humain passe entre 80% et 90% de son temps dans un espace intérieur clos et y respire de l’air intérieur bien souvent plus pollué que l’air extérieur. Pour évacuer ces polluants présents dans l’air et garantir une bonne qualité de l’air pour notre confort respiratoire et notre santé, il est nécessaire de ventiler les locaux dans lesquels nous vivons. De même, il peut être nécessaire d’évacuer le surplus d’humidité des bâtiments afin d’éviter tous dégâts dus à la condensation et garantir la bonne santé du bâtiment autant que celle des occupants.

Pour oxygéner le bâtiment

Dès lors que le bâtiment est un tant soit peu étanche à l’air et que les appareils de combustion se trouve à l’intérieur du volume protégé, il devient nécessaire d’assurer l’alimentation en air et donc en oxygène du bâtiment pour permettre la combustion utile au système de chauffage.


Comment ventiler ?

Pour atteindre les débits d’air et les renouvellements d’air prévus par les normes ou ceux nécessaires afin de garantir le confort respiratoire et la santé des occupants et du bâtiment, un système de ventilation hygiénique de base doit prévoir :

  • une amenée d’air frais dans les locaux dits « secs » : bureaux, salle de réunion, salle de séjour, chambre…
  • une évacuation de l’air vicié et humide dans les locaux dits « humides » : sanitaires, vestiaires, cuisine, salle de bain…
  • un transfert de l’air des locaux secs aux locaux humides
  • une gestion efficace pour garantir les débits voulus tout en limitant les pertes énergétiques

Les locaux où l’air doit être fournit doivent donc disposer d’une alimentation en air et ceux où l’air doit être enlevé, d’une extraction. Celles-ci peuvent être naturels (simple ouverture vers l’extérieur) ou mécanique (équipée d’un ventilateur). Ceci donne lieu à une classification des systèmes de ventilation en 4 modes principaux :

Évacuation Alimentation
Naturelle Mécanique

Naturelle

Système A ou Ventilation naturelle Système B ou Simple flux par insufflation

Mécanique

Système C ou Simple flux par extraction
Système D ou Double flux

Les dénominations A, B, C et D proviennent de la norme NBN D50-001 qui traitent des dispositifs de ventilation dans les bâtiments d’habitation et sont donc propres au milieu résidentiel. Cette norme distingue également trois type d’ouverture nécessaire à la ventilation correcte des locaux :

OAR

Ouverture d’amenée d’air réglable ou entrée d’air naturelle comportant au minimum 3 positions de réglage entre la position fermée et l’ouverture maximum (grille, vasistas, …).

OER

Ouverture d’évacuation d’air réglable ou évacuation naturelle d’air comportant au minimum 3 positions de réglage entre la position fermée et l’ouverture maximum (conduit vertical), la position fermée laissant passer un débit de fuite de 15 à 25 % du débit en position complètement ouverte.

OT

Ouverture de transfert ou ouverture permettant le transfert naturel d’air entre deux locaux (grille, interstice sous les portes, …)

Quels types de ventilation ?

  • La ventilation naturelle se fait par les interstices (infiltration) et par les ouvertures (ventilation) du bâtiment. L’air circule sous l’effet du vent, des différences de températures et des jeux de pressions. L’ouverture des grilles, bouches ou fenêtres peut se faire manuellement ou mécaniquement.
  • La ventilation mécanique utilise des composants motorisés, ventilateurs, pour forcer la circulation l’air à l’intérieur du bâtiment. On parle de simple flux par extraction si le ventilateur sert à faire sortir l’air du bâtiment, de simple-flux par insufflation s’il sert à faire entrer l’air ou de double flux si le système combine les deux.
  • La ventilation hybride correspond à une ventilation naturelle assistée ou remplacée mécaniquement sur certaines périodes de fonctionnement.
  • La ventilation de base consiste à alimenter le bâtiment en air frais en permanence durant les activités normales.
  • La ventilation intensive est nécessaire en cas d’occupation et de besoins particuliers comme une surchauffe exceptionnelle, un ensoleillement intensif, des activités exceptionnellement polluantes, … afin que le climat reste dans des limites acceptables.

Exemple de ventilation naturelle – Cas de l’hébergement


© Architecture et climat 2023.

  1. Amenées d’air naturel
  2. Grille de transfert
  3. Bouche d’extraction
  4. Evacuation naturelle

L’air est introduit naturellement dans les chambres par des ouvertures en façade et évacué naturellement par des conduits verticaux dans les sanitaires.


Exemple de ventilation simple flux (pulsion) – Cas de l’hébergement

© Architecture et climat 2023.

  1. Prise d’air extérieur
  2. Filtre
  3. Préchauffage
  4. Ventilateur
  5. Gestion des débits
  6. Evacuation naturelle
  7. Bouche d’extraction
  8. Bouche de pulsion
  9. Grille de transfert

L’air est pulsé dans les chambres et évacué naturellement par des conduits verticaux dans les sanitaires.


Exemple de ventilation simple flux (extraction) – Cas d’une école

© Architecture et climat 2023.

  1. Amenée d’air naturelle
  2. Grille de transfert
  3. Gestion des débits
  4. Ventilateur
  5. Bouche d’extraction
  6. Conduit

L’air est introduit naturellement dans les classes par des ouvertures en façade et évacué mécaniquement (en tout ou en partie) dans les sanitaires.


Exemple de ventilation double flux – Cas d’un immeuble de bureaux

© Architecture et climat 2023.

  1. Prise d’air extérieur
  2. Filtre
  3. Préchauffage
  4. Ventilateur
  5. Gestion des débits
  6. Bouche d’extraction
  7. Conduits
  8. Grille de transfert

L’air est pulsé dans les bureaux évacué mécaniquement (en tout ou en partie) dans les sanitaires.

Free-chilling

Free-chilling


Principe de base

Le principe de base est simple

Lorsque la température extérieure descend sous les 8 à 10 °C, on peut fabriquer de l’eau glacée sans utiliser le groupe frigorifique. L’eau est directement refroidie par l’air extérieur et la machine frigorifique est mise à l’arrêt.

L’économie d’énergie est évidente ! La rentabilité du projet est d’autant plus élevée que les besoins de refroidissement sont importants en hiver et que l’installation s’y prête. Étudions cela en détail.

Qu’est-ce qu’une installation adaptée au free-chilling ?

Au départ, il faut que des besoins de froid soient prévus en hiver.

L’intérêt est augmenté si les échangeurs des unités terminales qui seront choisis travaillent à « haute » température : ce sera le cas de plafonds froids (régime 15-17 °C), de poutres froides ou de ventilos-convecteurs surdimensionnés pour travailler au régime 12-17 °C ou 14-19 °C,… À noter qu’un tel dimensionnement diminue les pertes du réseau et la consommation liée à la condensation de la vapeur d’eau contenue dans l’air des ambiances, ce qui amplifie l’économie d’énergie.

Si l’installation demande une puissance de refroidissement faible en mi-saison ou en hiver (de l’ordre de 50 W/m²), on pourrait faire travailler les plafonds froids au régime 17° – 19 °C, ce qui permet un refroidissement par l’air extérieur tant que la température de l’air est inférieure à 14 °C. On peut alors imaginer une modulation de la température de consigne de l’eau des plafonds froids en fonction de la température extérieure.

Enfin, le projet se présente très favorablement si un condenseur à eau est prévu : on pourra utiliser la tour de refroidissement pour refroidir l’eau glacée directement par l’air extérieur. Dans la tour, grâce à l’évaporation partielle de l’eau, la température de l’air extérieur sera encore diminuée. Ainsi, de l’air à 15 °C et 70 % HR permet de créer de l’eau de refroidissement à 12° (limite basse théorique appelée température « bulbe humide »). Malheureusement, un échangeur sera nécessaire entre le circuit de la tour (eau glycolée) et le circuit d’eau glacée du bâtiment. Une partie de l’avantage est donc perdu…

Le problème du gel…

De l’eau glacée refroidie par l’air extérieur pose le problème du gel dans la tour. La solution la plus courante est l’addition de glycol, mais :

  • le glycol coûte cher,
  • le glycol diminue les capacités d’échange thermique et augmente la densité du liquide, ce qui entraîne une augmentation de puissance des pompes,
  • en général, on limite le circuit glycol au dernier tronçon en contact avec l’extérieur (l’eau de la boucle d’eau glacée n’est pas glycolée car, en cas de vidange, c’est l’entièreté du circuit qui est à remplacer),
  • un échangeur supplémentaire doit alors être prévu, entraînant une consommation électrique liée à sa perte de charge et un écart de température qui diminue la période de fonctionnement du free-chilling…
  • attention lorsque l’on rajoute de l’eau ultérieurement…

Il est aussi possible de placer des cordons chauffants (mais peut-on protéger totalement ainsi une tour ?) ou de prévoir un circuit de chauffage spécifique qui se met en place en période de gel, mais on risque de manger le bénéfice !

Le free-chilling : une solution miracle pour toutes les installations ?

Certainement pas. De nombreuses contraintes apparaissent.
Quelques exemples :

  • Lorsque l’installation travaille à charge partielle, il y a intérêt à ce que la température moyenne de l’eau « glacée » soit la plus élevée possible pour favoriser l’échange avec l’air extérieur. On appliquera donc une régulation des échangeurs par débit variable pour augmenter l’écart de température entre départ et retour.
  • Une tour de 300 kW pèse 3 à 4 tonnes et une tour de 1 000 kW pèse 9 à 12 tonnes, ce qui génère parfois des frais d’adaptation du génie civil.
  •  …

Adapter cette technique nécessite donc toujours une étude particulière (cadastre des énergies de froids prévues avec leur niveau de température, répartition été/hiver, …) pour apprécier la rentabilité.

Mais il est en tous cas impératif d’y penser lors d’une nouvelle installation !


Schémas de réalisation

Différents systèmes de refroidissement par free-chilling sont possibles :

  • via un aérorefroidisseur à air spécifiqueDeux schémas sont possibles :
> Soit un montage en série avec l’évaporateur, où l’aérorefroidisseur est monté en injection (la température finale est alors régulée par la machine frigorifique, qui reste en fonctionnement si la température souhaitée n’est pas atteinte).

> Soit par un montage en parallèle avec basculement par une vanne à 3 voies en fonction de la température extérieure (aucune perte de charge si la machine frigorifique est à l’arrêt mais fonctionnement en tout ou rien de l’aérorefroidisseur).
  • via un appareil mixteCertains fabricants proposent des appareils qui présentent 2 condenseurs : un échangeur de condensation du fluide frigorifique et un aérorefroidisseur pour l’eau glacée, avec fonctionnement alternatif suivant le niveau de température extérieure (attention à la difficulté de nettoyage des condenseurs et aux coefficients de dilatation différents pour les 2 échangeurs, ce qui entraîne des risques de rupture).
  • via la tour fermée de l’installationDans le schéma ci-dessous, l’installation fonctionne sur base de la machine frigorifique. Lorsque la température de l’air extérieur est suffisamment froide, la vanne 3 voies bascule et l’eau glacée prend la place de l’eau de réfrigération du chiller. Dans une tour fermée, l’eau n’est pas en contact direct avec l’air extérieur; c’est un circuit d’eau indépendante qui est pulvérisée sur l’échangeur et qui refroidit par évaporation. Mais le problème de la protection au gel reste posé : il est difficile d’envisager de mettre du glycol dans tout le réseau d’eau glacée (échange thermique moins bon, densité plus élevée donc diminution des débits, …) .
  • via la tour ouverte de l’installationDans ce cas, l’eau glacée est pulvérisée directement face à l’air extérieur. Elle se charge d’oxygène, de poussières, de sable,… Ces impuretés viennent se loger dans les équipements du bâtiment (dont les vannes de réglage des ventilos !). Les risques de corrosion sont tels que cette solution est à proscrire.
  • via un échangeur à air placé devant les orifices d’aspiration d’une tour de refroidissement Ceci permet de réutiliser les ventilateurs de la tour mais crée une perte de charge permanente.
  • via un échangeur à plaques traditionnel L’échangeur se place entre le réseau d’eau glacée et le circuit de la tour de refroidissement. Cette solution est simple, elle minimise la présence du glycol dans le circuit de la tour mais, en plus de l’investissement à réaliser, elle entraîne un écart de température supplémentaire de minimum 2°C dans l’échangeur entre l’eau glacée et l’eau de la tour, ce qui diminue la plage de fonctionnement du refroidissement par l’air extérieur. C’est le choix qui a été fait au Centre Hospitalier du Bois de l’Abbaye.

L’installation de free-chilling au Centre Hospitalier du Bois de l’Abbaye

Monsieur Tillieux, gestionnaire technique de l’hôpital, avait conscience que des besoins de froid existaient durant toute l’année, donc également pendant l’hiver :

  • des cabinets de consultation installés dans les niveaux inférieurs à refroidir en permanence.
  • ainsi que des locaux techniques utilisant le réseau glacée en hiver (salle de radiographie, blocs opératoires, salle informatique,…).

Profitant de la rénovation d’une tour de refroidissement, il adopta la technique du free-chilling sur le circuit d’eau glacée. Il adapta également les émetteurs pour que ceux-ci puissent travailler au régime 12-17°C. Il favorisa le refroidissement nocturne des locaux, ce qui ne crée pas d’inconfort pour les occupants et valorise mieux le free-chilling puisque la température est plus basse la nuit.

En collaboration avec la société de maintenance, il adopta le schéma de principe suivant :

Le schéma de gauche représente le circuit classique de refroidissement de l’eau glacée dans l’évaporateur. L’eau du condenseur est refroidie dans la tour de refroidissement.

Schéma groupe frigo en fonctionnement.Schéma groupe frigo à l'arrêt et free-chiling.

Sur le premier schéma, le groupe frigo est arrêté et l’eau glacée est by-passée dans un échangeur. L’eau de refroidissement est envoyée directement dans la tour de refroidissement.

Un jeu d’électrovannes permet le basculement d’un système à l’autre, dès que la température extérieure descend sous les 8°C. Le dimensionnement de la tour a été calculé en conséquence.

Problème rencontré lors de la mise en route

Lorsque le système basculait du mode « free-chilling » vers le mode « machine frigorifique », celle-ci déclenchait systématiquement !

Pourquoi ? Un condenseur traditionnel travaille avec un régime 27/32°C par 10° extérieurs. Or en mode free-chilling, la température du condenseur est nettement plus basse. La pression de condensation aussi. Le détendeur ne l’accepte pas : il a besoin d’une différence de pression élevée (entre condensation et évaporation) pour bien fonctionner et laisser passer un débit de fluide frigorifique suffisant vers l’évaporateur. Le pressostat Basse Pression déclenche…

Solution ? Une vanne trois voies motorisée a été installée : lors du ré-enclenchement de la machine frigo, le débit d’eau de la tour était modulée pour s’adapter à la puissance de refroidissement du condenseur.

Quelle rentabilité ?

Faute d’une mesure effective, nous allons estimer l’économie réalisée par l’arrêt du groupe frigorifique de 300 kW. Si le fichier météo de Uccle annonce 3.550 heures sous les 8°C, on peut estimer que le refroidissement effectif se fait durant 2.000 heures.

Sur base d’un COP moyen de 2,5, c’est donc 120 kW électriques qui sont évités au compresseur. Une consommation supplémentaire de 5 kW est observée pour le pompage de l’eau au travers de l’échangeur et dans la tour. Soit un gain de 115 kW durant 2 000 heures. Sur base de 0,075 €/kWh, c’est 17 000 € qui sont économisés sur la facture électrique.

L’investissement a totalisé 60 000 €, dont moitié pour la tour fermée de 360 kW, le reste en tuyauteries, régulation et génie civil.

Le temps de retour simple est donc de l’ordre de 4 ans.

Séquences de régulation de la tour

  • si T° < 2°C, échange eau-air non forcé.
  • si 2°C < T°ext < 4°C, échange eau- air forcé.
  • si T°ext > 4°C, échange eau-air humide par pulvérisation.

Chauffage [Concevoir l’avant-projet]

Chaudière à brûleur radiant modulant avec ventilateur ?
Circulateur à vitesse variable ?

Plafond chauffant ?
Vanne thermostatique ?


Décomposer la réflexion en 4 postes

Pour faciliter la tâche, décomposons l’installation de chauffage en 4 parties :

  1. production de chaleur,
  2. distribution de chaleur,
  3. émission de chaleur,
  4. régulation.

Cela permet de visualiser directement les qualités à atteindre par l’installation, en termes de pertes à minimiser :

Objectifs d’une installation de chauffage de qualité : cliquez sur les boutons ci-dessus pour visualiser les différentes pertes, et donc les objectifs de qualité.


La production de chaleur

Production de chaleur
Une réflexion préalable, faut-il investir dans une cogénération chaleur + électricité ? Oui, si les besoins de chaleur du bâtiment sont élevés.

Un cogénérateur produit simultanément de l’énergie électrique et de la chaleur pour le bâtiment. Le premier avantage de la cogénération est d’ordre énergétique : entre 15 et 30 % d’économie d’énergie primaire sur les besoins totaux. Mais l’avantage de la cogénération est aussi financier, dans la mesure où elle permet à l’utilisateur de réduire sa facture électrique.

Photo cogénérateur.

La cogénération : pour qui ?

Incontestablement, le premier secteur concerné par la cogénération est le secteur hospitalier. Les besoins thermiques d’un hôpital sont élevés et relativement constants. Il faut en effet produire de l’eau chaude sanitaire tout au long de l’année et bien souvent chauffer les chambres même en été. De plus, la demande électrique d’un hôpital est relativement importante. Le secteur hospitalier permet dès lors d’envisager la mise en place d’unités de cogénération puissantes dont le prix d’installation par kW est intéressant.

Le secteur hôtelier présente des caractéristiques similaires, seules les tailles des installations varient.

Un autre secteur qui mérite un intérêt particulier est le secteur sportif et plus particulièrement le secteur des piscines. Le profil de leurs besoins thermiques et électriques est intéressant pour une cogénération. Malheureusement, les tailles de ces installations sont faibles et demandent des moteurs de faible puissance dont les coûts sont élevés. Ce handicap est compensé, dans certains cas très largement, par les subsides auxquels peuvent prétendre les piscines (Infrasport, AGEBA dans certains cas).

L’intérêt de la cogénération pour les nouveaux immeubles de bureaux (banques, administrations,…) est beaucoup plus faible. La difficulté réside dans le peu de demande de chaleur en journée (dans un bâtiment bien isolé, le chauffage est essentiellement concentré sur la relance du matin, alors que les besoins électriques sont répartis tout au long de la journée). Mais chaque cas est particulier et mérite d’ être étudié avec soin.

Concevoir

Pour plus d’informations sur la mise en place d’une cogénération, cliquez ici !

Production de chaleur
Quel choix de combustible ? Le gaz sort gagnant.

Le débat se situe généralement entre le fuel et le gaz naturel.

Raccordement au gaz ou placement de citernes à mazout ?

Pour notre part, nous pouvons résumer le choix comme ceci :

  • Si la priorité est donnée à l’efficacité énergétique et à la réduction de l’émission de gaz à effet de serre, le gaz naturel, en particulier avec les chaudières à condensation, est largement gagnant.
  • Si la priorité est donnée à la rentabilité de l’investissement, le fuel se défend. Il a été, en moyenne, moins cher que le gaz ces dernières années. Mais son avenir est instable.
  • Si le réseau de gaz naturel n’est pas présent, la question ne se pose plus : le gaz en bonbonne est nettement plus cher à l’usage et, suite à son bilan écologique défavorable, l’électricité ne doit pas être utilisée pour le chauffage direct, ni des locaux, ni de l’eau chaude sanitaire. On sera d’ailleurs très attentif à éviter les « appoints » électriques sur les unités terminales (bouches de pulsion d’air, par exemple).

Concevoir

Pour plus d’informations sur le choix entre fuel et gaz naturel, cliquez ici !

Alternative : envisager le chauffage au bois ? Oui, en région forestière.

Le chauffage au bois d’un groupe de bâtiments dans une région boisée est écologiquement très intéressant, par exemple via l’exploitation des taillis des bois communaux. Il est par contre peu imaginable de développer un tel projet en milieu urbain.

Nous n’avons pu développer ici les techniques de chauffage au bois pour le secteur tertiaire. Nous vous recommandons de contacter une équipe spécialisée dans ce domaine :

ERBE asbl (Equipe Régionale Biomasse Énergie).
Tel : 081 627 144

L’APERe (Association pour la Promotion des Energies Renouvelables) vous conseille encore d’autres Sites web :

Alternative : envisager la pompe à chaleur ? Oui, si source de chaleur disponible.
Le bilan global d’une pompe à chaleur est « neutre » aujourd’hui :

  • En moyenne annuelle, elle produit 2,5 à 3 kWh de chaleur pour 1 kWh électrique au compresseur,
  • mais pour obtenir 1 kWh en centrale, il aura fallu utiliser 2,5 à 3 kWh de combustible ou d’énergie nucléaire,
  • et le prix du kWh électrique est 2,5 fois plus élevé que le prix du gaz naturel ou du fuel…

Mais il se peut que l’existence d’une source de chaleur particulière fasse pencher la balance dans un sens très favorable. Ainsi, il nous paraît intéressant d’étudier la pertinence du placement d’une pompe à chaleur :

  • Si l’on prévoit dans plusieurs locaux des apports internes élevés durant l’hiver : salle informatique, locaux intérieurs, locaux enterrés, locaux avec équipements forts dispensateurs de chaleur tels que salle de radiographie, imprimerie,… (la chaleur extraite de ces locaux pourra être restituée vers les locaux demandeurs en façade).
  • Si le bâtiment comprend des locaux chauds et humides (piscine, buanderie, …).
  • Si le bâtiment provoque des rejets thermiques vers l’extérieur durant tout l’hiver (process industriel, extraction d’air vicié à fort débit,…).

Concevoir

Pour plus d’informations sur les domaines d’application de la pompe à chaleur, cliquez ici !

Production de chaleur :
Opter pour les chaudières à très basse température et/ou à condensation.

Un rendement maximum de la chaudière ? La garantie d’une bonne utilisation de la chaleur du combustible est de constater … que les fumées sortent froides de la chaudière ! Et que la chaufferie reste froide elle aussi. De là, les chaudières à très basse température.

Pratiquement toutes les chaudières sur le marché sont de bonne qualité, pour le secteur tertiaire (moyenne puissance). Une technique sort du lot : la chaudière gaz à condensation. Une technique est aujourd’hui à rejeter : la chaudière gaz atmosphérique.

photo principe de l'échangeur d'une chaudière à condensation. Depuis quelques années, on développe des « chaudières à condensation » : les fumées passent au travers d’un échangeur alimenté par l’eau froide revenant des radiateurs. Or les fumées contiennent de l’eau, à l’état de vapeur. Cette vapeur va condenser, former des gouttes (à évacuer vers l’égout) et préchauffer l’eau froide. Cette technique peut apporter en pratique de 6 à 9 % d’amélioration de rendement. Mais elle n’est courante que pour le gaz.

Pour le fuel, la présence de soufre va rendre les gouttes très corrosives et demander l’usage de chaudières inox, très coûteuses. Mais on en parle de plus en plus.

Photo d'un brûleur de chaudière atmosphérique. Une chaudière atmosphérique est une chaudière dont le brûleur ne possède pas de ventilateur : la flamme bleue est visible directement.

Problème : cette chaudière reste en contact avec l’air ambiant une fois la flamme éteinte. Or le foyer est chaud et est surmonté de la cheminée !
Conclusion : l’air de la chaufferie s’engouffre dans le foyer, appelé par le tirage thermique. Et l’eau de chauffage parcourant le foyer se refroidit en pure perte…

De l’apport d’air comburant étant naturel, le réglage de la combustion est moins performant.

Quelle technologie ? Notre sélection :

Voici les orientations que nous considérons être actuellement les plus performantes (en matière de consommation énergétique et de protection de l’environnement) pour le choix d’une chaudière :

Si le gaz est disponible :

Choix d’une chaudière gaz à condensation ou la combinaison d’une chaudière à condensation avec une chaudière traditionnelle,

  • équipée d’un brûleur modulant (avec une grande plage de modulation : de 10 à 100 %) et avec un dosage entre l’air comburant et le gaz le plus précis possible sur toute la plage de modulation,
  • raccordée à un circuit hydraulique favorisant au maximum la condensation (c’est-à-dire le retour d’eau très froide) et le plus simple possible de manière à éviter les erreurs de conception et de régulation (chaudière ne nécessitant pas de débit minimal),
  • avec les émissions de NOx les plus faibles possible, et en tout cas < 150 [mg/Nm³].

Si le gaz n’est pas disponible :

  • pouvant travailler à très basse température,
  • équipée d’un brûleur « Low NOx » à 2 allures,
  • équipée d’un compteur fuel.

S’il est imaginé que l’occupation puisse être très variable :

Si certaines personnes restent le soir pour prolonger leur travail, si une garde est organisée (conciergerie), … une production spécifique (décentralisée) pourra être imaginée dès le départ du projet (convecteur gaz indépendant, par exemple).

Production de chaleur :
quel dimensionnement ?

Avec les chaudières modernes performantes, dont le brûleur est vendu séparément de la chaudière, le surdimensionnement de la chaudière n’est plus à combattre à tout prix. En effet, l’isolation est devenue telle que ce surdimensionnement n’apporte guère de pertes supplémentaires. Au contraire, un corps de chaudière surdimensionné par rapport à la puissance du brûleur entraîne une augmentation du rendement de combustion.

Pour la même raison, il n’est plus nécessaire de dissocier la puissance à installer en plusieurs chaudières. S’il n’y avait le souhait d’assurer en permanence du chauffage en cas de panne, on recommanderait de placer une grosse chaudière unique équipée d’un brûleur 2 allures ou modulant, ce qui diminuerait l’investissement tout en permettant un rendement optimal.

La puissance utile de l’installation sera dimensionnée sur base de la norme NBN B62-003. L’application de cette norme conduit en outre à un surdimensionnement suffisant pour permettre une relance en cas de chauffage intermittent, ce, même dans la cas d’un bâtiment très isolé. Il ne sert donc à rien de prévoir une réserve de puissance complémentaire pour la chaudière et son brûleur.

Concevoir

Pour plus d’informations sur le choix de la production de chaleur, cliquez ici !

La distribution de chaleur

Distribution de chaleur : favoriser l’eau

Le fluide caloporteur (entre chaudière et émetteurs) sera de préférence l’eau : plus flexible, demandant moins d’énergie de transport que l’air, et permettant un passage éventuel futur d’une énergie à une autre (contrairement à l’électricité).

Distribution de chaleur : sept critères de qualité

1° – Le réseau sera décomposé en zones thermiquement homogènes (même horaire d’occupation, même nécessité de dérogation, même orientation, même type de corps de chauffe) : à chaque zone son circuit et sa régulation.

Ainsi, si une bibliothèque est prévue dans une école, elle doit disposer de son propre circuit hydraulique, afin de garantir une régulation adaptée (ne chauffer que la bibliothèque le samedi matin, par exemple). De même pour la salle de gym, pour le réfectoire, pour la salle de réunion, pour la cuisine, … Cet investissement dans des tuyauteries supplémentaires permettra dans le futur d’optimiser la régulation des différentes zones.

Exemple de décomposition en zones homogènes pour une école.

De même, lors de la conception d’un immeuble de bureaux, on imaginera de pouvoir chauffer chaque étage indépendamment des autres (utilisation de WE, multi-locataires, …).

2° – Les tuyauteries et les vannes seront très bien isolées dans le sol, à l’extérieur ou dans des espaces ne faisant pas partie du volume protégé (volume chauffé) du bâtiment (chaufferie, grenier, sous-sol, …). On isolera de même toutes les conduites de chauffage se trouvant dans les faux plafonds, les locaux techniques ou les gaines techniques, même si ceux-ci font partie du volume protégé du bâtiment. De même, les circulateurs à rotor noyé seront munis d’origine d’une coquille isolante.

Ordres de grandeur :

  • Dans une ambiance à 20°C, la perte de 1 m de tuyau de 1 pouce non isolé avec de l’eau de chauffage est équivalente à la consommation d’une ampoule de 60 W !
  • L’épaisseur d’isolation sera plus ou moins équivalente au diamètre du tuyau.

3° – Un circulateur à vitesse variable sera placé sur un réseau équipé de vannes thermostatiques : il est logique que si la température est atteinte dans un local, le débit d’eau dans le radiateur soit stoppé par la vanne thermostatique (ou par une vanne 2 voies dans les ventilo-convecteurs). Mais alors, si plusieurs vannes sont fermées, la pompe de circulation doit diminuer sa vitesse de rotation : c’est le cas des circulateurs à vitesse variable.

Vanne thermostatique et circulateur à vitesse variable, deux équipements à associer…

4° – Des vannes d’équilibrage seront prévues au départ des circuits secondaires : vu le calcul très approché des tuyauteries, il est heureux de prévoir ce répartiteur global entre les différents circuits. De plus, c’est ce qui va permettre de régler les circulateurs à leur bonne vitesse nominale (en pratique, il apparaît que les circulateurs sont en moyenne 2 fois trop puissants –> la première économie générée par un circulateur à vitesse variable est de pouvoir bien régler le débit maximal). L’économie sur la consommation du circulateur amortit rapidement cet outil.

Possibilité de mesure du débit réel.

5° – Les tuyauteries seront choisies suffisamment larges : il est dommage de choisir des tuyauteries de faible section, … puis de consommer de l’énergie pour y faire passer malgré tout un débit d’eau important.
Ordre de grandeur : le dimensionnement du réseau de distribution doit être tel que la puissance électrique des circulateurs ne dépasse pas le millième de la puissance utile des chaudières.

6° – Les circulateurs seront arrêtés lorsque la demande est nulle : en fonction de la programmation (nuit, week-end, vacances) et en fonction de la température extérieure (coupure si t°ext> à 15°C, par exemple).

7° – Un circuit de réserve est placé dès le départ : l’emplacement pour un circuit supplémentaire est à prévoir sur la boucle primaire afin d’éviter des « repiquages » d’installations ultérieurs.

Distribution de chaleur : pour les chaudières à condensation, bien étudier le circuit.

Pour bénéficier de la condensation des fumées, il faut disposer d’eau de retour très froide. Toute possibilité de recyclage d’eau chaude directement vers la chaudière doit être évitée. En d’autres mots, il faut éviter les bouteilles casse-pression, les collecteurs bouclés, les soupapes de pression différentielle, les vannes 3 voies diviseuses.

Exemples de situations défavorables…

Or certains fabricants imposent un recyclage (un bypass) car leur chaudière est à faible capacité d’eau et donc nécessite un débit d’eau permanent ! C’est peu compatible avec un retour d’eau très froide …

Il vaut mieux sélectionner une chaudière dont la capacité en eau est élevée et qui ne demande pas de débit permanent. Sa chaudière est une « grosse marmite » dont la flamme peut s’enclencher sans risque s’il n’y a pas de circulation d’eau. En quelque sorte, la bouteille casse-pression est intégrée dans la chaudière.

Circuit favorable au retour d’eau froide vers la chaudière.

Un circuit primaire ouvert est alors recommandé. Et seules les pompes secondaires alimentent les réseaux. Encore une économie.

Concevoir

Pour plus d’informations sur la distribution du chauffage, cliquez ici !

L’émission de chaleur

Émission de chaleur : favoriser la basse température

Au départ, il faut se rendre compte que, dans un immeuble récent bien isolé, la performance des différents types d’émetteurs sera toujours assez bonne. Grâce à l’isolation, la température intérieure est assez homogène, quel que soit le moyen de chauffage.
Photo chauffage par le sol.

Idéalement, pour assurer le rendement optimal de la chaudière (et tout particulièrement la condensation), il faut travailler avec un fluide caloporteur à la plus basse température possible. Et donc, disposer de la surface d’émission la plus grande possible.

Ceci conduit inévitablement au chauffage par le sol. Hélas, ce système présente par ailleurs beaucoup d’inconvénients dont l’inertie, ce qui le rend inadapté lorsque les besoins sont variables dans le temps ou en intensité (à ne pas installer dans une école, ou un restaurant, ou une salle de réunion, ou dans un local avec des larges baies vitrées…).

Finalement, le radiateur réalise le bon compromis entre apport par rayonnement et par convection, et, s’il est largement dimensionné (sur base d’un régime 80° – 60°), il permettra des retours froids la majeure partie de l’année.

Bien sûr, un radiateur devant une allège vitrée ne devrait jamais exister…

Synthèse des critères de choix

Le chauffage par le sol est intéressant :

  • dans des locaux situés au-dessus de locaux chauffés,
  • non soumis à des apports de chaleur importants et variables (occupants, soleil, …),
  • à usage continu (de type hébergement).

Il peut apporter une réponse adéquate aux locaux de grande hauteur, où le chauffage à air chaud sera moins adéquat (stratification).

Le chauffage par convecteur convient dans des locaux avec une variation de charge fréquente (local ensoleillé, local de réunion).

Dans tous les autres cas, le chauffage par radiateurs est le meilleur compromis confort/consommation.

À noter qu’en rénovation, les anciens radiateurs pourront souvent être conservés vu leur surdimensionnement fréquent, favorable à un fonctionnement à basse température.

Concevoir

Pour plus d’informations sur le choix d’un émetteur de chauffage

La régulation de chaleur

Régulation de chaleur : c’est le point clef de la consommation énergétique.

Nous sommes à l’époque du « just in time » de la production de chaleur. Les régulateurs sont suffisamment intelligents que pour ne produire que la chaleur « juste nécessaire », à la température minimale souhaitée, au bon moment. Il est impératif de réserver un budget important à la qualité de la régulation. Qualité ne veut pas dire sophistication. Au contraire, la bonne gestion future sous-entend des systèmes simples.

Une sonde extérieure (complétée par une sonde d’ensoleillement au Sud)
et une sonde d’ambiance (dite « de compensation ») définissent les besoins des locaux.
Elles demandent à la vanne 3 voies mélangeuse de s’ouvrir en conséquence.

Le système de régulation doit permettre de :

  • Chauffer distinctement chaque zone de locaux dont l’usage est distinct.
    Par exemple, la bibliothèque, la cafétéria, la salle de réunion, … auront des régulateurs indépendants des bureaux qui la jouxtent. À ce titre, la vanne thermostatique n’est qu’un complément local de régulation et non l’outil de base (la vanne reste ouverte la nuit, mais une programmation centrale doit arrêter le débit d’eau dans les radiateurs).
  • Programmer le chauffage exclusif d’une zone thermique distincte.
    Par exemple, il doit être possible de chauffer la bibliothèque le samedi, sans alimenter le restant du bâtiment. Dans un immeuble de bureaux, chaque étage doit pouvoir être alimenté séparément, même si un seul exploitant est prévu… au départ.
  • Minimiser la température de l’eau en sortie de chaudières.
    La solution traditionnelle consiste à chauffer l’eau en fonction de l’évolution de la température extérieure. Mais aujourd’hui, il est possible de se limiter à la température maximale demandée par le circuit secondaire de distribution le plus demandeur. Ou encore, dans les bâtiments conditionnés, ce sera le pourcentage d’ouverture des vannes des unités terminales qui seront représentatifs des besoins locaux. Même s’il fait froid dehors, l’occupation réelle du bâtiment peut limiter les besoins… et donc la température de départ de l’eau chaude en chaufferie.
  • Gérer l’intermittence par un régulateur-optimiseur.
    Il assure une coupure complète des circuits de distribution (et éventuellement des chaudières) la nuit et le week-end, avec un contrôle anti-gel interne de sécurité, et calcule automatiquement le moment de la coupure et de la relance en fonction des températures intérieures et extérieures. Autrement dit, on abandonne le simple « ralentissement nocturne », qui fournit de l’eau tiède dans le bâtiment à minuit, … en pure perte.
  • Arrêter l’apport d’air neuf en période de relance.
    Dans un bâtiment bien isolé, le chauffage de l’air neuf représente 50 % environ des besoins. Il doit pouvoir être arrêté (ou recyclé) en période de relance, avant l’arrivée des occupants, fournissant ainsi un surcroît de puissance pour la montée en température des locaux après la coupure nocturne.
  • Imaginer dès le départ la gestion future par les occupants.
    Comment cela se passera-t-il lorsqu’une réunion sera organisée le soir ? et durant les congés entre Noël et Nouvel An, s’il gèle dehors ? Qui aura accès à quoi ? Est-ce qu’une programmation annuelle ne serait pas pratique pour encoder une fois pour toutes les congés ? et quelle dérogation à cette programmation ?… Autant y penser au départ du projet…
  • Utiliser un détecteur qui sera le témoin des besoins réels.
    Par exemple, autrefois la salle de gymnastique était chauffée du matin au soir. Qu’il y ait quelqu’un ou non dans la salle. Aujourd’hui, c’est le contact dans la serrure de la porte ou un détecteur de présence qui enclenche l’aérotherme lors de l’arrivée du groupe. Vu l’isolation des locaux, la température des locaux passera rapidement de la consigne de veille à la consigne normale.

Lister les besoins des locaux

Au départ, il est important de préciser les demandes de chaque zone. Et de trouver quel sera le témoin de la demande réelle : le thermostat d’ambiance, la température extérieure, un détecteur de présence, … Le fabricant peut répondre à toute demande… si elle est clairement exprimée.

Chaque zone d’occupation et de besoin homogènes, disposant de son propre circuit de distribution, verra la température d’eau régulée, par exemple en fonction d’un thermostat d’ambiance (dans le cas ou un local « témoin » est possible) et/ou d’une sonde extérieure.

Les locaux profitant d’apports de chaleur plus importants que les autres (soleil, occupants, …) seront équipés de vannes thermostatiques, vannes de qualité « institutionnelle » si les locaux sont ouverts au public.

Vanne institutionnelle : le réglage de la consigne n’est pas accessible à l’occupant, elle résiste au choc d’un ballon de basket et ne peut être facilement démontée.

Analogique ou numérique ?

   

Régulateurs analogique et numérique.

Aujourd’hui, une régulation numérique s’impose, car elle permet beaucoup plus facilement une adaptation de la régulation aux besoins, une modification des paramètres, une communication des informations à distance et donc un suivi à distance. 

Concevoir

Pour plus d’informations sur la régulation d’un système de chauffage

Choisir la fenêtre comme capteur d’énergie solaire [Esquisse du projet]

L’architecture participe à la juste captation des apports solaires, plus recherchés pour leur lumière que pour leur chaleur dans un immeuble tertiaire.

L’immeuble tertiaire se distingue de l’immeuble domestique

Les besoins thermiques d’un immeuble tertiaire (bureaux, écoles, …) sont très différents de ceux d’un bâtiment domestique.

Bâtiment tertiaire Bâtiment domestique

En hiver

Des apports internes élevés sont apportés par les occupants, par l’éclairage et les appareils de bureautique. Les apports internes sont limités, exceptés dans la cuisine.
Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

Lorsque le soleil arrive, le bâtiment est déjà chaud, particulièrement pour les locaux orientés à l’Ouest (soleil l’après-midi).

Dans une classe d’école par exemple, il n’est plus nécessaire de chauffer lorsque les élèves sont présents (nous parlons bien ici d’un nouveau bâtiment bien isolé).

Le profil de demande de chaleur est variable suivant l’occupation, mais il est marqué par une demande qui se prolonge en soirée, après le coucher du soleil.

Un des objectifs sera de stocker la chaleur solaire de la journée dans les parois, pour lisser la pointe de température en journée et libérer la chaleur en soirée.

En été

L’exigence de confort est importante afin d’améliorer la productivité des occupants. L’occupant accepte plus facilement un inconfort temporaire et attend la fraîcheur de la soirée.

Il peut facilement adapter sa tenue vestimentaire et son activité.

L’environnement extérieur ne permet pas toujours une ouverture des fenêtres (bruit, air pollué, …) Généralement, l’environnement permet plus facilement l’ouverture des fenêtres.

Conclusions

En hiver, le profil de demande thermique d’un immeuble tertiaire est peu en coïncidence avec le profil de l’apport solaire, surtout pour les immeubles de bureaux dont les apports internes sont élevés.

Le profil de demande de chaleur est essentiellement concentré sur la relance du matin, avant l’arrivée des occupants.

En été, , et de plus en plus en mi-saison, la sensibilité du bâtiment et des occupants au risque de surchauffe est élevée.


Quelle place pour les apports solaires de chauffage ?

De ce qui est dit ci-dessus, et des conséquences de l’isolation des bâtiments sur le profil de demande, on déduit que les apports solaires sont peu recherchés pour leur appoint en chauffage dans un nouveau bâtiment bien isolé et avec des apports internes moyens ou élevés (immeubles de bureaux, par exemple).

Concrétisons par un exemple

Voici les résultats d’une simulation réalisée sur un immeuble de bureau-type.

Ramenons à 100 la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage) et analysons l’impact d’une modification de la surface vitrée :

Pourcentage
de vitrages
Demande
de chauffage
Demande
de refroidissement
0 % 77 80
50 % 100 100
70 % 110 108

Il apparaît :

  • que l’augmentation globale de la surface vitrée augmente les déperditions en hiver,
  • que l’apport solaire ne compense pas ces déperditions,
  • que la demande de refroidissement est logiquement en hausse en été.

Avec les modes constructifs actuels, le bâtiment qui aurait le moins besoin de chauffage et refroidissement est celui que n’aurait pas d’ouvertures !

À noter que cette évolution est identique quelle que soit l’orientation du local :

Local Nord Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
0 % 84 73 71 84
50 % 103 79 90 120
70 % 116 81 103 134

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

A noter :

  • L’importance de la demande de refroidissement dans les locaux au Nord, demande essentiellement liée à la présence des apports internes.
  • Une simulation des locaux avec des apports internes faibles présente la même tendance à l’augmentation des consommations avec l’augmentation de la surface vitrée.
  • Le placement de vitrages réfléchissants au Sud génère une diminution de la demande de refroidissement nettement plus forte que l’augmentation de la consommation de chauffage.

Constats (essentiellement pour des immeubles de bureaux)

  • L’idéal thermique restera toujours le vitrage clair équipé d’un store extérieur mobile : la chaleur solaire est captée si nécessaire et le store est abaissé le reste du temps. Toutefois, la convivialité intérieure et l’apport lumineux lorsque les stores sont abaissés laissent à désirer…

 

  • Dans un bâtiment tertiaire vérifiant la réglementation thermique en matière d’isolation et disposant d’apports internes normaux (> 25 W/m²), il y a peu intérêt à capter l’énergie solaire pour diminuer les besoins de chauffage et beaucoup de risque de surchauffe et d’éblouissement.

 

  • Par réalisme, le critère thermique impose une limitation des espaces vitrés dans un bâtiment tertiaire, quelle que soit son orientation; ouvrir la façade « du sol au plafond », c’est créer un problème et devoir user d’artifices coûteux pour gérer l’excédent solaire. Et finalement, c’est nier toute architecture d’une façade, comme succession de pleins et de vides…

 

  • Le pourcentage de vitrage à choisir est essentiellement fonction des besoins d’éclairage naturel et de convivialité recherchée dans le bâtiment.

 

  • Idéalement, les surfaces vitrées seront choisies avec un faible coefficient de transmission thermique pour limiter les pertes en hiver et équipées d’une protection solaire en été. Toutefois, vu la difficulté d’une bonne gestion des protections solaires et le coût des protections automatisées, il est possible également de sélectionner des vitrages avec un faible facteur solaire (FS = 0,4 au maximum) et un bon rendu lumineux (FL = 0,7).

Conclusions : quel pourcentage d’ouverture de la façade ?

Si l’on ne prend en compte que le seul critère thermique, et si une protection solaire très efficace n’est pas prévue, une limitation des espaces vitrés s’impose dans un bâtiment tertiaire bien isolé, quelle que soit son orientation.

Le pourcentage de vitrage à choisir de prime abord pourra généralement être compris entre 30 et 45 % de la surface de façade, cette fourchette variera essentiellement fonction :

  • du rapport au contexte dans lequel le bâtiment s’inscrit,
  • du besoin d’éclairage naturel,
  • du souhait de contacts visuels avec l’extérieur,
  • de la recherche de repères visuels dans le bâtiment.

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Simplement, dans le premier cas, l’architecte a introduit une ouverture vers l’extérieur pour introduire de la lumière naturelle…
C’est ce qui fait la qualité de l’ambiance intérieure.

A la limite, on peut comprendre une compagnie d’assurance anglaise, qui, vu les apports internes très élevés, a décidé de s’ouvrir principalement au Nord, réservant au Sud l’emplacement de la cafétéria.

Vue des espaces vitrés côté nord.

Remarque importante.

Dans nos conclusions, le vitrage apparaît mal adapté comme capteur d’énergie solaire dans les bâtiments tertiaires. Par contre, et tout particulièrement lorsque le bâtiment présente des besoins d’air neuf élevés (laboratoires, salles de conférence, salles de réunion,…), il est utile d’étudier la valorisation de l’apport solaire pour le préchauffage de l’air neuf. Le principe est alors de placer la prise d’air neuf dans un espace qui par lui-même récupère la chaleur solaire ou la chaleur du bâtiment. On pense tout particulièrement ici à un système de type « double-peaux », mais l’atrium ou le puits canadien sont d’autres manières d’appliquer ce principe.


Une très grande sensibilité aux apports internes

Le résultat des simulations thermiques est très variable en fonction d’un paramètre : la charge interne.

Un bâtiment actuel est souvent à l’équilibre entre ses pertes thermiques et ses apports internes. S’il faut chauffer par période de gel, et refroidir en période de canicule, entre ces 2 extrêmes il existe une large plage où le bâtiment est proche de l’équilibre thermique : les résultats seront alors fonction des hypothèses choisies.

Exemple.

Reprenons l’analyse d’un immeuble de bureau-type.

Si 100 est la demande en chaud et en froid de l’immeuble dans sa version de base (50 % de vitrage-apports internes moyens), analysons l’impact d’une modification des apports internes :

Apports
internes
Demande
de chauffage
Demande
de refroidissement
– 50 % 146 52
moyens 100 100
+ 50 % 23 226

Exemple de diagramme énergétique établi pour cet immeuble de bureaux :

Face à une telle sensibilité, il apparaît

  • Qu’une analyse des besoins thermiques spécifique au bâtiment et à son utilisation (simulation dynamique) est indispensable pour une conception correcte du bâtiment et de ses équipements.
  • Que face à l’incertitude sur le fonctionnement réel du bâtiment (demain et après-demain), même si le refroidissement naturel du bâtiment est recommandé en priorité, l’adjonction éventuelle future d’un système mécanique de refroidissement doit être étudiée dès le début d’un projet d’immeuble de bureaux.

Exemple de situation dont les occupants se plaignent :

Une grande baie vitrée orientée au sud, une faible inertie (tapis et plafond acoustique)… … et la présence de nombreux PC génère de la surchauffe en été.


Une sensibilité aux masques solaires

Toutes les conclusions tirées ci-dessus sont en partie dépendantes de la présence d’un masque solaire éventuellement créé par les bâtiments voisins.

Par exemple, le bilan énergétique du dernier étage est sensiblement différent de celui du rez-de-chaussée.

On peut donc imaginer que le choix du vitrage puisse évoluer en fonction de l’étage.


L’influence de l’orientation de la façade

Lorsque l’apport solaire est recherché (bâtiment avec faibles apports internes), il est important de sélectionner une surface vitrée dont l’efficacité est maximale : capter un maximum d’énergie en hiver et un minimum en été.

Gains solaires par ciel serein en Belgique,
à travers un double vitrage.

(La lettre indique l’orientation et le nombre est l’inclinaison. Les orientations ouest et sud-ouest correspondent approximativement aux orientations est et sud-est.)

À première vue, la surface vitrée verticale orientée au sud (= S 90) paraît très intéressante, puisque plus d’apports en mi-saison qu’en été.

À l’opposé, on trouve la surface horizontale (coupole en toiture) dont la spécificité est de capter très peu d’énergie en hiver et de provoquer de la surchauffe en été.

Les surfaces à l’est et à l’ouest (= E 90) présentent également un bilan contraire à l’évolution des besoins du bâtiment.

Par contre, si la façade ne comporte pas de masques, un bâtiment de bureaux avec des apports internes moyens ou élevés sera en surchauffe très rapidement, dès l’arrivée du soleil.

Dans ce cas, l’apport solaire total étant plus important au Sud, c’est cette orientation qui sera la plus défavorable en matière de refroidissement annuel (malgré une légère diminution des consommations d’hiver).

C’est ce que montre notre exemple de

bureau-type :

Local Ouest Local Sud
Pourcentage
de vitrages
Demande de chauffage Demande
de refroidissement
Demande de chauffage Demande
de refroidissement
50 % 103 104 90 120

La valeur 100 correspond à la demande moyenne des locaux, avec 50 % de vitrages.

Exemple de protection architecturale très efficace sur une façade Sud… et qui participe à l’architecture de la façade !

Mais l’avantage de la façade au Sud est de profiter d’un soleil très haut sur l’horizon. Les auvents créés par l’architecture de la façade formeront une protection solaire efficace.

Au contraire, les protections architecturales ne sont pas efficaces à l’Est et à l’Ouest : le soleil est trop bas sur l’horizon pour être arrêté par le masque architectural.

Un éblouissement important en résulte.

Seuls des stores sont possibles, mais le coût et la maintenance en sont élevés.

Conclusions

Partons d’un bâtiment rectangulaire dont on se poserait la question : quelles orientations des façades des grands côtés du rectangle ?

 Sans protections solaires, le choix de l’orientation d’un bâtiment est à faible impact énergétique : la consommation totale (chaud + froid) plus importante au Sud est compensée par une consommation totale plus faible au Nord.

Il est préférable :

  • Soit de privilégier l’ouverture au nord pour favoriser l’éclairage naturel (et de limiter les espaces vitrés au sud et à l’ouest),

 

  • Soit de placer pour les orientations sud, est et ouest, des vitrages réfléchissant le rayonnement solaire toute l’année. Il existe des vitrages qui ne laissent passer que 40 % de l’énergie solaire thermique, tout en laissant passer 70 % de la lumière.

 Si des protections solaires sont prévues, les grands côtés Nord et Sud sont plus faciles à gérer : une protection architecturale fixe est très efficace au Sud et ne nécessite que peu d’entretien.

Par contre, les grands côtés est et ouest demanderaient des protections mobiles pour limiter les apports de chaleur et l’éblouissement des occupants. C’est plus coûteux, mais cela peut induire plus de vie dans le bâtiment, car la lumière est toujours présente dans les locaux.

En simplifiant, on pourrait dire que dans des locaux d’hébergement, on privilégierait les côtés est et ouest avec protections solaires, et que dans les immeubles de bureaux, on choisirait les façades nord et sud, avec avancées architecturales.


L’influence de l’inclinaison du vitrage

Ce diagramme montre évolution de l’énergie captée par une surface orientée au Sud en fonction de l’inclinaison.

Conclusions

On limitera les surfaces vitrées horizontales (coupole, toiture d’atrium, …) aux seuls besoins d’éclairage naturel des locaux situés au dessous.

Dans l’immeuble ci-contre, il paraît énergétiquement peu opportun de créer une telle surface de captation. Elle risque d’entraîner soit une surchauffe élevée, soit une consommation d’énergie frigorifique importante

concevoir

Pour plus d’informations sur le choix des vitrages.

Quelle protection contre les apports solaires d’été ?

Dans un bâtiment bien isolé et avec des apports internes élevés, la limitation des surchauffes devient une priorité du concepteur, dès le stade de l’esquisse.

La meilleure protection solaire… c’est une surface de vitrage limitée !

La façade est aujourd’hui libérée de la fonction de portance. Elle ne doit plus remplir qu’une fonction d’enveloppe. La mode est à « la transparence », à l’ouverture des façades du sol au plafond… Or la zone inférieure d’une fenêtre est très peu efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires en été).

Cette transparence totale de la façade va générer une sensibilité très forte à la surchauffe (les agriculteurs en sont bien conscients dans leur serre…). D’où la mise en place de doubles façades coûteuses, … pour gérer le problème que l’on a créé !

Double peau globale et double peau par étage.

En hiver, l’intérêt est réel grâce au préchauffage possible de l’air neuf et à la diminution des déperditions de la paroi vitrée. Mais en période de refroidissement, un store doit être placé dans la lame d’air et la double peau peut devenir alors une contrainte pour éliminer la chaleur emprisonnée (par rapport à un simple store extérieur).

Cette technique semble à réserver aux bâtiments nécessitant un apport d’air neuf fort élevé, pour lesquels la double-peau constitue un moyen de préchauffer l’air.

Les surcoûts sont importants et, sans vouloir tirer ici des conclusions trop rapides, on est en droit de se poser la question si ce budget ne serait pas mieux utilisé dans d’autres améliorations énergétiques, plus efficaces et plus simples à gérer dans le temps ? À titre d’exemple, un récupérateur de chaleur sur l’air extrait apporte lui aussi une possibilité de préchauffer l’air neuf, mais avec un coût d’installation incomparable…

Aula Magna de Louvain La Neuve.

Détail de la double peau,  qui n’est pas en communication avec l’ambiance intérieure.

La présence d’une protection solaire

On ne peut imaginer la conception d’un immeuble, climatisé ou non, sans l’organisation d’une protection solaire efficace.

Dans un bâtiment climatisé, elle permet une diminution drastique des coûts d’exploitation. Dans les autres, elle limite le risque de surchauffe.

Dans les deux cas, elle permet de gérer l’éblouissement, tout particulièrement pour faciliter le travail sur ordinateur. Des stores intérieurs compléteront utilement le dispositif.

Les éléments architecturaux (balcons, débords de toiture, décrochements, …) sont particulièrement efficaces au Sud puisque le soleil est alors haut sur l’horizon.

En été…   … et en hiver.

   

Stores verticaux, simultanément capteurs solaires photovoltaïques.

   

Bâtiment Sedilec à LLN.

Certaines protections architecturales tentent de stopper le soleil, tout en privilégiant la réflexion du rayonnement lumineux vers le plafond (« light-shelves« ).
Les stores mobiles extérieurs sont les plus efficaces pour contrôler le flux solaire en fonction du besoin réel. Mais ils sont délicats en terme de maintenance et nécessitent un contrôle automatique pour être relevés en cas de vent. La réduction du champ visuel de l’occupant en est un autre inconvénient.

Se croirait-on sur la Poztdammer Platz de Berlin ?

Panneaux de bois coulissants.

concevoir

Pour plus d’informations sur la mise en place de protections solaires.

Protections végétales ?

Des végétations plantées à proximité du bâtiment peuvent participer à la gestion des apports solaires.

Les arbres à feuilles caduques ont l’avantage de perdre leurs feuilles et de permettre ainsi l’exposition au soleil en hiver.

Mais il s’agit là d’un appoint, plutôt à vocation domestique, et non d’une solution complète, ne fut-ce que pour les étages supérieurs.


Annexe : les paramètres du bureau-type

L’immeuble de bureaux-type utilisé ci-dessus présente les caractéristiques suivantes :

Dimensions extérieures : 60 x 18 m, sur 3 plateaux, soit un total de 3 240 m².

Dans la version dite « de base » :

  • l’orientation des façades principales est Nord-Sud,
  • le pourcentage de vitrages est de 50 % sur toutes les façades,
  • le vitrage est double avec un traitement basse émissivité (k = 1,9 W/m².K),
  • l’isolation est de 6 cm en façade, 12 cm en toiture et 3 cm dans les planchers sur sol,
  • les apports internes dans les bureaux sont de 35 W/m² (un PC de 160 W, une lampe individuelle de 18 W, un éclairage généralisé de 13 W/m² et une personne dont le métabolisme apporte 81 W pour une surface de travail de 12 m²).

Valoriser la fraîcheur de l’environnement [Climatisation]

Valoriser la fraîcheur de l'environnement


Valoriser la fraicheur de l’air extérieur

Le potentiel lié à la fraicheur extérieure

L’isolation des bâtiments élargit la période de refroidissement en mi-saison et en été. Ce besoin peut être pour une bonne part résolu en valorisant l’air extérieur lorsqu’il est plus frais que la consigne intérieure.

En moyenne, la température extérieure à Uccle est 98 % du temps inférieur à 24°C et ne dépasse 27° que 40 heures par an. En outre, en été, dans notre pays, la température nocturne minimale est inférieure de plus de 8°C à la température maximum diurne, et cette température extérieure nocturne est toujours inférieure aux plages de confort. Il existe donc un pouvoir rafraîchissant naturel important de l’air extérieur, sans traitement et donc sans coût énergétique autre que son transport.

Les profils de températures moyennes à Uccle montrent que la température extérieure est généralement inférieure à la température de confort.

Ce pouvoir rafraîchissant est cependant limité par deux facteurs : la faible capacité frigorifique de l’air extérieur et la quantité d’air pouvant être valorisée, qui est limitée par l’encombrement des gaines de ventilation, la taille des ouvertures en façade, le risque de générer un courant air.

Ainsi, imaginons un local à 26°C avec une charge thermique (élevée) de 60 W/m² (ordinateur, éclairage, occupants, ensoleillement, …) ou 20 W/m³ (si la hauteur sous plafond est de 3 m). La température de l’air extérieur est de 20°C. Calculons le débit nécessaire pour évacuer la chaleur d’un m³ du local :

débit = 20 [W/m³] / (0,34 [W/(m³/h).K] x 6 [K]) = 9,8 [renouv./h]

où,

  • 0,34 W/m³.K est le pouvoir calorifique de l’air et 6 K est la différence de température entre l’intérieur et l’extérieur

Il faudrait donc un taux de renouvellement horaire de 9,8 : chaque heure, l’air du local serait renouvelé 10 fois ! en dehors de la difficulté technique, cela génère un climat peu confortable…

En pratique, la fraîcheur de l’air extérieur peut être valorisée de trois façons : par une ventilation intensive naturelle (free cooling naturel), par l’intégration d’air frais dans le système de conditionnement d’air (free cooling mécanique), et par le refroidissement direct des boucles d’eau froide (free chilling).

Données

En savoir plus sur le climat belge ?

L’exploitation de l’air extérieur par ventilation naturelle (free cooling naturel)

La  ventilation intensive estivale (ou free cooling naturel), vise le refroidissement passif du bâtiment par l’ouverture de sa façade. L’objectif est soit de compenser en journée les charges internes et solaires, soit de « décharger » et refroidir pendant la nuit la masse du bâtiment, afin que cette masse puisse limiter la montée en température le lendemain.

La ventilation intensive est efficace en journée si l’air extérieur n’excède pas la température intérieure, mais n’est pas non plus trop froid, pour éviter la sensation de courant d’air, ce qui limite son usage en mi-saison. De plus, il restera toujours les 40 heures, soit de 5 à 10 journées de travail par an, où la ventilation ne ferait qu’empirer les choses puisque la température extérieure est supérieure à la température intérieure. Le refroidissement par ventilation de jour peut donc être une solution en mi-saison, mais a ses limites en été.

Le refroidissement par ventilation de nuit par contre conserve son efficacité toute l’année, sauf canicule extrême. Malgré tout, pour qu’un free cooling permette de se passer de climatisation en journée, il faut assurer durant la nuit, un taux de renouvellement d’air nettement plus important que le taux de ventilation hygiénique : au minimum 4 [vol/h] par rapport à 1 [vol/h].

Au-delà de l’économie d’énergie qui en résulte, c’est une certaine qualité de vie qui est recherchée : absence de système sophistiqué de climatisation, … et plaisir de pouvoir ouvrir sa fenêtre et d’entrer plus en contact avec l’environnement extérieur.

Techniques 

En savoir plus sur la ventilation intensive d’été ?

L’intégration  de l’air frais dans le système de conditionnement d’air (free cooling mécanique)

La climatisation est parfois nécessaire (charges thermiques élevées, consignes intérieures strictes de température et d’humidité, …).

On sera alors attentif au fait que le système installé n’exclue pas le refroidissement naturel : dès que la température extérieure descend, elle doit pouvoir supplanter la climatisation mécanique. Idéalement, celle-ci ne devrait plus servir que dans les périodes de canicule.

Tout particulièrement, dans les locaux refroidis toute l’année (locaux intérieurs, locaux enterrés, …) et dans les locaux à forte occupation de personnes (salles de conférence, locaux de réunion, …), il est dommage de faire fonctionner la climatisation en hiver et en mi-saison. On privilégiera les systèmes « tout air » à débit variable.

Durant les nuits d’été, le bâtiment peut facilement être refroidi par le balayage de l’air extérieur (l’installation fonctionne alors en « tout air neuf »). Et en mi-saison, l’air extérieur assure seul le refroidissement par mélange avec l’air recyclé.

Bien sûr, la consommation du ventilateur ne doit pas dépasser celle de la machine frigorifique ! La perte de charge du réseau de ventilation (pulsion, extraction et recyclage) doit rester faible. Il faut prévoir la place pour de larges conduits.

Concevoir

En savoir plus sur le choix du mode de gestion du débit d’air neuf ?

L’utilisation de l’air frais comme source froide d’une installation de refroidissement (free chilling)

Aussi curieux que cela puisse paraître, de nombreuses machines frigorifiques fonctionnent en hiver. Pour assurer le refroidissement de la salle informatique, pour refroidir le cœur du bâtiment surchauffé par les équipements, …

La première réaction est d’imaginer de scinder la production de froid : une petite machine couvre les besoins permanents de la salle informatique, par exemple. Et la grosse machine est mise à l’arrêt en hiver, tout en pouvant jouer le rôle de groupe de sécurité en cas de défaillance de la première.

La deuxième réaction est d’analyser si le circuit d’eau glacée ne pourrait pas être refroidi directement par l’air extérieur, en by-passant la machine frigorifique. Si le fonctionnement est continu tout l’hiver, cela en vaut sûrement la peine (c’est le cas pour un groupe qui refroidirait des locaux de consultations situés en sous-sol d’un hôpital, par exemple).

Lorsque la température extérieure descend sous les 8 à 10°C, on peut fabriquer de l’eau glacée sans utiliser le groupe frigorifique. L’eau peut-être directement refroidie par l’air extérieur. La machine frigorifique est alors  mise à l’arrêt.

L’économie d’énergie est évidente ! La rentabilité du projet est d’autant plus élevée que les besoins de refroidissement sont importants en hiver et que l’installation s’y prête.

Toutes sortes de configurations sont possibles en intercalant dans la boucle d’eau glacée soit un aérorefroidisseur (en parallèle ou en série avec le groupe frigorifique) soit une tour de refroidissement (ouverte ou fermée) ou encore un échangeur à plaque couplé avec une tour de refroidissement.

Aérorefroidisseur monté en série avec un évaporateur

Concevoir

En savoir plus sur la mise  en place d’un free-chilling ?

Valoriser la fraicheur du sol

Le sol présente un potentiel important pour rafraichir les bâtiments. Sa température est, en été, moins élevée et surtout plus stable que celle de l’air extérieur. Une masse de sable, d’argile ou de roche présente en outre une capacité calorifique importante.

La température moyenne mensuelle est amortie et déphasée par rapport aux températures extérieures. Le sol présente donc un potentiel de rafraichissement particulièrement intéressant au printemps et en été, lorsque la température extérieure est plus élevée.

Les propriétés thermiques du sol dépendent des propriétés de ses constituants et de leurs proportions. Quelques ordres de grandeur :

nature des constituants Conductivité thermique (W/m°c) Capacité calorifique volumique Cp(Wh/m3°c) Diffusivité thermique (m2/h
constituants minéraux 2,92 534 0,0054
constituants organiques 0,25 697 0,00036
eau 0,59 1 163 0,00050
air 0,025 0,34 0,0756

Frédéric Chabert « Habitat enterré » (1980).

La conductivité thermique des sols varie de 1 à 5 selon qu’il est sec ou saturé. La capacité thermique moyenne des sols varie elle de 1 à 3.

L’exploitation de la fraicheur du sol se fait en y organisant un échange de chaleur par le passage contrôlé d’air ou d’eau. Lorsqu’il s’agit d’un échangeur air-sol, on parle de puits canadiens ou provençaux. Lorsqu’il s’agit d’un échangeur eau-sol, on parle de geocooling, une appellation qui, strictement, devrait également recouvrir les puits canadiens.

Parmi les diverses solutions d’échangeur eau-sol, notons l’exploitation du sol sous la dalle de fondation (attention à la puissance qui peut rester alors faible…),

ou dans les pieux de fondation :

Des échangeurs de type forage vertical, indépendants de la structure du bâtiment, sont également possibles.

Une autre possibilité est d’utiliser l’eau des nappes phréatiques souterraine au moyen, en la pompant pour la conduire vers un échangeur de chaleur eau-eau, mais cette technique peut générer des problèmes de nature hydraulique dans le sol (déséquilibres des nappes phréatiques, pollutions).

Un des grands intérêts des techniques de geocooling est que le niveau de température concerné (de 5 à 15°C) est intéressant tant :

  • Pour le refroidissement direct : un échange de chaleur, par l’intermédiaire de boucles d’eau, entre le bâtiment est le sol), en vue d’alimenter un système de refroidissement par dalle ou par plafond froid.
  • Pour le refroidissement indirect : valoriser le sol comme source froide de la machine frigorifique, quel que soit le système de distribution et d’émission dans le bâtiment.
  • Que pour le chauffage par pompes à chaleur. En pratique, on n’envisagera pas de valorisation thermique du sol uniquement pour le refroidissement estival. L’investissement en pompages ou forage ne se fera que si le sol peut être valorisé au maximum de son potentiel, c’est-à-dire tant en refroidissement l’été qu’en chauffage l’hiver. Le géocooling est donc intimement lié à la géothermie.

Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : geocooling

Concevoir

Choisir un système rayonnant sur boucle d’eau froide : plafond froid et dalle active.

Concevoir

Le choix de la source de chaleur du chauffage par pompe à chaleur.

Techniques

Le géocooling.

Valoriser la physique de l’air humide

Le contenu énergétique de l’air est lié à la fois à sa température et à son humidité. En effet, la présence de vapeur d’eau dans l’air représente une forme d’énergie latente, égale à la quantité d’énergie nécessaire pour vaporiser ou condenser cette eau. La somme de l’énergie sensible (liée à la température) et de l’énergie latente (liée à l’humidité) est appelée enthalpie. Cette quantité d’énergie est importante, puisque la chaleur de vaporisation d’un litre d’eau est de 2 257 kJ/kg (à la pression atmosphérique et à 100 °C). Soit 5,4 fois plus que pour chauffer le litre d’eau de 0 à 100 °C ! Elle est cependant limitée par la quantité maximale de vapeur que l’air peut contenir, qui dépend de sa température.

Le diagramme psychrométrique est l’outil indispensable pour visualiser et mesurer ces quantités d’énergie. L’enthalpie est représentée sur l’axe diagonal à gauche du diagramme. On constate que le niveau d’enthalpie est équivalent pour un air à 30 °C et 30 % d’humidité relative et pour un air à 17 °C et 100 % d’humidité relative. Autrement dit, si l’on arrive à créer des transferts entre l’énergie sensible et l’énergie latente d’une masse d’air, on devrait être en mesure de créer de l’air froid (et humide) au départ d’air chaud (et sec). Et cela sans grande consommation d’énergie, puisque l’enthalpie de l’air serait conservée.

Comment réaliser ce petit miracle ? Simplement en humidifiant l’air.
En pratique, deux types d’applications ont été développées pour valoriser ce principe physique.
Le premier dispositif se trouve dans l’architecture vernaculaire de nombreuses cultures, mais fut particulièrement développé par les Perses. Ils combinaient des tours à vent (« bagdir ») avec locaux servant de glacières (« yakh-chal ») souvent reliées à un canal souterrain (« qanat »). Par cet ensemble de dispositifs, ils étaient capables de conserver des aliments et rafraîchir des bâtiments dans un climat particulièrement chaud. Marco-Polo, lors de son premier voyage en orient, se serait vu offrir des glaces en plein été !

Plus récemment, l’idée de refroidir de l’air par humidification a été appliquée dans des groupes de traitement d’air. On parle alors de refroidissement adiabatique. Une différence majeure avec la solution imaginée par les Persans : ici c’est l’air extrait du bâtiment que l’on refroidit par humidification. Un échangeur de chaleur air-air permet ensuite de rafraîchir l’air neuf au contact de l’air extrait. Nos ambiances sont déjà suffisamment humides en été que pour éviter d’y pulser un air saturé !

Pour en savoir plus :

Théories

Les grandeurs hygrométriques.

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.


Valoriser le soleil

Paradoxalement, la chaleur du soleil peut être utilisée pour rafraichir un bâtiment… pour autant que l’on dispose de l’équipement adéquat.

Généralement, produire du froid implique l’usage d’une machine frigorifique. Celle-ci se compose de deux échangeurs de chaleur (condenseur et évaporateur), d’un détendeur et d’un compresseur électrique. Pas de place pour l’énergie solaire là-dedans, si ce n’est au travers de capteurs photovoltaïques.

Mais il existe un autre type de machine frigorifique, dit « à ab/adsorption« . Là, l’échange thermique est basé à la fois sur la vaporisation d’un réfrigérant (de l’eau) et sur la capacité de certaines substances à absorber la vapeur d’eau pour la restituer à un niveau de pression différent lorsqu’ils sont échauffés. Le cycle de cette matière absorbant joue le rôle du compresseur dans une machine frigorifique traditionnelle, tout en demandant une alimentation en chaleur plutôt qu’en électricité. Or, qui dit soleil dit chaleur ! La combinaison de capteurs solaires thermiques et d’une machine frigorifique à ab/adsorption constitue ce que l’on appelle une « climatisation solaire », une idée séduisante si les besoins de froid du bâtiment sont liés aux gains solaires.
Pour en savoir plus :

Concevoir

Choisir une production de froid « alternative » : refroidissement adiabatique et climatisation solaire.

Comprendre la sensation de froid liée à la production

Comprendre la sensation de froid liée à la production


Sous-dimensionnement du générateur de chaleur

Cela est excessivement rare mais ça arrive !

En effet, il faut savoir que la plupart des installations de chauffage existantes sont surdimensionnées, même fortement surdimensionnées.

Évaluer

On peut vérifier le dimensionnement d’une chaudière en calculant le temps de fonctionnement annuel du brûleur et en comparant ce chiffre à un temps estimé correct en fonction du type de bâtiment. Cette estimation ne peut se faire qu’en connaissant la puissance du brûleur et la consommation annuelle de combustible. Pour approfondir cette méthode d’évaluation.

Encrassement de la chaudière

L’encrassement d’une chaudière diminue l’échange de chaleur entre les fumées et l’eau. Les fumées sont donc évacuées plus chaudes vers la cheminée (1 mm de suie dans la chaudière équivaut à une augmentation de 50°C de la température des fumées). Il en résulte :

  • une perte de rendement,
  • une perte de puissance de la chaudière.

En principe, l’encrassement étant un phénomène dynamique, l’inconfort qui y serait lié doit s’amplifier en attendant l’entretien des installations.

L’encrassement excessif des installations peut avoir comme cause :

  • des démarrages de brûleur trop fréquents liés à un surdimensionnement de l’installation ou un différentiel de régulateur trop faible,
  • l’encrassement de la chaufferie, le brûleur aspirant son air dans celle-ci. Nous avons, par exemple, rencontrés des brûleurs dont l’amenée d’air est partiellement obturée par les pluches issues de la buanderie voisine,
  • un manque de ventilation de la chaufferie, entraînant une mauvaise combustion,
  • un mauvais réglage de la combustion.

Évaluer

Pour en savoir plus sur les causes de démarrage trop fréquents du brûleur

Évaluer

Pour en savoir plus sur les causes d’une mauvaise combustion

Réglementations

Pour en savoir plus sur les exigences de ventilation des chaufferies

Cas particulier de la pompe à chaleur

Un défaut de puissance

Une pompe à chaleur sur l’air extérieur présente l’important défaut de produire d’autant moins de chaleur qu’il ne fait froid à l’extérieur… Or c’est précisément à ce moment que le bâtiment demande une forte puissance de chauffe.

Si cela apparaît fréquemment en période de très grands froids, ce problème ne peut se résoudre que par l’adjonction d’un appoint, appoint électrique direct (donc coûteux à l’exploitation) ou appoint thermique par une chaudière (en mode monovalent ou bivalent).

Concevoir

Pour en savoir plus sur la conception de l’appoint de la pompe à chaleure

Le problème du dégivrage

Si le froid apparaît plutôt pour des températures extérieures avoisinant les 5°C, on soupçonnera le phénomène de dégivrage :

  1. le fluide frigorigène présente une température en dessous de 0°C
  2. la vapeur d’eau contenue dans l’air ambiant condense et puis prend en glace, obstruant alors l’échangeur
  3. le cycle est temporairement inversé pour faire fondre la glace
  4. de l’air froid est pulsé dans les locaux.

À noter que ce phénomène est moins crucial en période de gel car l’air est plus sec et la glace apparaît sous forme de cristaux qui s’envolent avec l’air pulsé.

Si l’appareil est modulaire, une solution peut consister à décaler les périodes de dégivrage des différents modules de la PAC.

Améliorer

Pour en savoir plus sur l’amélioration du fonctionnement de la pompe à chaleur

Analyser les besoins thermiques : un immeuble de bureaux

Objectif de l’analyse

Aujourd’hui, suite à l’isolation des parois et au placement de vitrages performants, le profil de la demande des bâtiments tertiaires a totalement évolué.

  1. Les besoins de chauffage sont devenus très faibles, et plus de la moitié de ces besoins est générée par le chauffage de l’air neuf hygiénique. Une régulation des débits d’air permet donc encore des économies : par exemple, des détecteurs de présence n’enclencheront la ventilation de la salle de réunion que lors de l’entrée des occupants.
  2. Le point d’équilibre s’est déplacé de 15 à 10°C, c’est-à-dire que l’on refroidit le bâtiment dès que la température extérieure dépasse 10°C.
  3. Les besoins de froid ont fortement augmenté, mais contrairement à ce que l’on pourrait penser, cette augmentation s’est faite essentiellement pour des températures extérieures comprises entre 10 et 22°C. Or, à ces températures, nous pouvons valoriser l’air extérieur frais : pour ventiler directement le bâtiment (free cooling) ou pour refroidir l’eau froide qui elle-même circulera dans les faux plafonds des locaux.
  4. Des besoins simultanés de chaud et de froid apparaissent : le cœur du bâtiment doit être refroidi en permanence alors que les locaux en façade sont à réchauffer, un local informatique demande du froid en hiver et en mi-saison alors que la préparation de l’air hygiénique demande de la chaleur,…D’accord, c’est le boulot du bureau d’études : à lui de mettre en place le système de climatisation qui valorisera ces énergies positives et négatives, qui exploitera l’air neuf extérieur disponible.Mais c’est aussi le boulot de l’architecte de créer un bâtiment qui favorise la ventilation naturelle des locaux, qui exploite la lumière naturelle tout en créant des masques solaires pour limiter la surchauffe, qui diminue tous les besoins thermiques … au point que des plafonds froids irrigués par de l’eau à 18°C suffisent pour rafraîchir les espaces, facilitant ainsi le travail de l’ingénieur !Aujourd’hui, dès la conception, une analyse des besoins du bâtiment devrait permettre de visualiser l’impact des mesures URE et d’établir une stratégie. En voici un exemple.

Qu’entend-on par analyse des besoins thermiques ?

Chaque local reçoit des apports (internes ou externes) et a besoin de chaleur ou de froid pour maintenir le confort intérieur.

Ainsi, pour un bureau, on distingue :

  • des apports :
    • solaires,
    • internes (luminaires, bureautique, occupation, etc.),
    • des parois (positifs ou négatifs selon la saison),
    • de ventilation et d’infiltration (positifs ou négatifs selon que l’air pénétrant dans le local est plus chaud ou plus froid que l’ambiance).
  • des demandes :
    • de chauffage ou de refroidissement du local,
    • de préparation de l’air de ventilation (chaud ou froid, humidification ou déshumidification) lorsque l’air pulsé est traité.

La demande thermique d’un local est donné par la relation :

Demande thermique = Puissance des équipements x Temps

La demande thermique du bâtiment regroupe ainsi les besoins thermiques des locaux, et les besoins thermiques liés à la préparation de l’air neuf pulsé.

On peut établir la puissance demandée par les équipements chaque heure de l’année et la représenter en fonction de la température extérieure qu’il fait à ce moment.

Par exemple, si l’on regarde la demande des parois, la puissance de chauffe est d’autant plus grande que la température extérieure est basse; la puissance de refroidissement est d’autant plus forte que la température extérieure est élevée. Entre les deux, il existe une zone neutre où la température ambiante évolue entre 21 et 24°C. Par exemple, pour un bureau type on aurait :

Les 8 760 heures de l’année se répartissent en fonction de la température extérieure comme suit (année type moyenne) :

En multipliant la puissance par le temps, on obtient donc un graphique du type :

La demande de chaleur est représentée en rouge sous l’axe des x, la demande de froid est représentée en bleu au dessus de l’axe des x, tout au long d’une année type moyenne.

On constate dès lors que si la puissance de refroidissement est forte pour des températures élevées, l’énergie correspondante est très faible puisque cela n’arrive (hélas !) que quelques heures par an.


Les caractéristiques du bâtiment étudié

Le bâtiment-type étudié est prévu pour 380 personnes, et a une surface de 3 000 m² répartie entre

  • bureaux (50 %),
  • salle de conférences (10 %),
  • couloirs (20 %),
  • réserves et sanitaires (12 %),
  • salle de réunions, salle informatique et cafétéria (8 %).

Les locaux sont occupés de 8h à 18h sauf pour la salle de réunions (2 X 2 heures par jour) et la salle de conférences (2 heures par jour).

Pour plus de détails sur le bâtiment étudié, consultez l’ (sous format Word).


Comparaison d’une version « années 60 » avec une version « années 2000 »

Comparons les bilans énergétiques entre une construction ancienne (simple vitrage, murs non isolés, …) avec une version plus récente (double vitrage, murs isolés, …)

Voici les bilans obtenus par simulation informatique des 2 bâtiments :

On constate logiquement que le bâtiment récent demande nettement moins de chauffage, mais plus de refroidissement. Si autrefois le bâtiment était chauffé jusque 15°C, la température d’équilibre s’établit aujourd’hui vers 12°C.

À noter que simultanément certains locaux demandent d’être refroidis (au Sud, à l’Ouest) alors que des locaux au Nord demandent encore de la chaleur.

Curieusement, l’accroissement de la demande de climatisation se fait surtout pour une température extérieure comprise entre 14 et 24°C, c’est-à-dire à un moment où de l’air frais extérieur peut être utilisé pour refroidir naturellement le bâtiment.

Alors, faut-il faire marche arrière et ne pas isoler nos bâtiments ?

Non ! La consommation totale est nettement plus faible qu’avant, surtout si le système de climatisation valorise intelligemment l’air frais extérieur !

Il restera sans doute une période où la machine frigorifique est nécessaire, mais elle ne représente proportionnellement qu’une très faible consommation : alors pourquoi se priver de ce confort ?


Profil de consommation standard aujourd’hui

Partons du bâtiment « récent » et décomposons les courbes de chauffage et de refroidissement :

Remarque : les paramètres d’exploitation ont été légèrement modifiés, aussi les demandes totales sont légèrement différentes.
Les besoins de chauffage (ancienne courbe rouge) se décomposent en 3 postes :

  • le chauffage apporté dans les locaux (rouge),
  • le chauffage de l’air neuf hygiénique (bleu clair),
  • l’humidification de l’air (mauve).

La demande de refroidissement est composée :

  • du refroidissement apporté dans les locaux (par les ventilos-convecteurs, par exemple)
  • et un peu du refroidissement de l’air neuf extérieur (lorsque le local est refroidi, l’air neuf est pulsé à 16°C).

Quelques réactions « URE » immédiates !

Le premier réflexe est de se dire que l’on a tout intérêt à maîtriser le débit d’air neuf en période de chauffage ! Par exemple, un détecteur de présence peut activer l’apport d’air neuf dans les salles de réunions uniquement lors de la présence effective des occupants, ou dans la salle de conférences, le débit d’air neuf peut être régulé en fonction de l’indication d’une sonde CO2.

Deuxième réflexion : l’humidification de l’air n’est nécessaire que par température extérieure très froide. On pourrait la supprimer au-dessus de 8°C, par exemple.

Enfin, des besoins simultanés de chaud et de froid existent. Or une machine frigorifique qui extrait du froid, libère de la chaleur à son condenseur : on pourrait donc transférer de la chaleur d’un local vers l’autre ou préchauffer l’air neuf qui entre.

Mieux : imaginons que le refroidissement se fasse par des plafonds froids. L’eau entre à 15°C et sort à 17°C. Cette eau à 17°C peut préchauffer l’air neuf directement pour éviter le fonctionnement du groupe frigorifique. L’eau se refroidit et l’air se réchauffe : le bilan énergétique est nul !

Question : n’est-ce pas curieux de refroidir le local et de simultanément réchauffer l’air neuf de ce local ? Oui, mais le problème est que l’on ne peut pulser de l’air à 10°C dans un local sans créer un désagréable courant d’air.

Il n’empêche que l’on va privilégier les bouches hélicoïdales ou à jets toriques (qui réalisent un bon brassage de l’air) afin de pouvoir pulser de l’air dans les locaux à basse température, sans devoir le réchauffer de trop préalablement.

  

Les consommations énergétiques, rendement des équipements compris

Jusqu’à présent nous n’avons regardé que les demandes de chaud et de froid. Analysons à présent les consommations réelles en tenant compte des rendements de la chaudière et de la machine frigorifique et en intégrant les consommations des équipements (éclairage, bureautique, .)

Toujours pour cet immeuble de bureaux-type, voici des ordres de grandeur

  • de la consommation du bâtiment,
  • de sa consommation en énergie primaire (en tenant compte du rendement des centrales électriques),
  • du coût des consommations.

(Pour connaître les valeurs de rendement et de coût de l’énergie, consultez l’).

Représentation graphique du bilan énergétique du bâtiment

Consom. du bât.

[kWh/m²]

Cons. nrj primaire

[kWh/m²]

Coût de la consom.

[€]

Consom. relative du bât.

Consom. Relative nrj primaire

Coût relatif de la consom.

Traitement des locaux

    – apports de chaleur

30,6 30,6 0,765 17,2 % 7,9 % 6,0 %

    – apports de froid

10,9 31,1 1,088 6,1 % 8,1 % 8,5 %

Préparation de l’air

    – énergie sensible

37 39,6 1,03 20,8 % 10,3 % 8,0 %

    – énergie latente

14,6 41,7 1,46 8,2 % 10,8 % 11,4 %

Pulsion de l’air

7,8 22,4 0,78 4,4% 5,8 % 6,1 %

Ventilo-convecteurs des locaux

6,7 19 0,66 3,8 % 4,9 % 5,2 %

Charges internes électriques

   – éclairage

27,8 79,4 2,78 15,6 % 20,6 % 21,7 %

   – équipements

42,6 121,7 4,26 23,9 % 31,6 % 33,2 %

TOTAL

178 385,5 12,83

Bilan énergétique du bâtiment initial : consommation du bâtiment,  consommation d’énergie primaire et du coût de la consommation.

À l’analyse de ce bilan énergétique, on constate que :

  • L’éclairage et l’équipement bureautique sont les postes les plus importants dans la consommation d’énergie primaire (21 et 32 % respectivement) et dans le coût de la consommation (22 et 33 % respectivement).

 

  • La préparation et la pulsion de l’air pulsé constituent le poste le plus important du conditionnement d’air (33 % de la consommation d’énergie primaire totale et 25 % du coût de la consommation).

 

  • La consommation du traitement des locaux est finalement relativement faible (8 % de l’énergie primaire et du coût pour le refroidissement; 8 % de l’énergie primaire et 6 % du coût pour le chauffage).

L’impact de différentes améliorations énergétiques

Au regard du bilan énergétique global du bâtiment, c’est dans la consommation électrique des équipements que l’on peut faire le maximum d’économies : gestion automatisée de l’éclairage, mise en veille des équipements bureautiques.

Mais au niveau des besoins de chaud et de froid du bâtiment lui-même, profitons de notre bâtiment simulé pour lui injecter quelques rénovations URE et analysons l’impact de chacune de ces mesures.

Stopper l’humidification lorsque la température extérieure dépasse 8°C > – 14 %
Placer un double vitrage à basse émissivité et avec un facteur solaire de 0,4 > – 13 %
Placer des stores extérieurs mobiles (facteur solaire de 0,2) > – 12 %
Organiser une ventilation nocturne naturelle de 4 renouvellements/heure, tout en augmentant l’inertie du bâtiment pour valoriser ce free cooling (si la ventilation était mécanique il faudrait ajouter la consommation des ventilateurs) > – 11 %
Pulser l’air neuf à 16°C dès que le local est en mode refroidissement (au lieu de 21°C) > – 10 %
Passer de 60 % de surfaces vitrées en façade à 40 % > – 8 %
Adopter une consigne de climatisation en été à 25°C au lieu de 24°C (surtout si plafonds froids rayonnants) > – 7 %
Améliorer l’étanchéité de la façade (taux d’infiltration passant de 0,3 à 0,1 vol/h) > – 2 %

Les différentes modifications ont été comparées indépendamment les unes des autres, toutes autres choses restant identiques.

Lorsqu’on cumule ces interventions, elles s’influencent l’une l’autre. Si bien que, si l’ensemble des améliorations est réalisé, la consommation thermique totale diminue de 42 % en énergie primaire, et de 44 % en coût, mais il est alors difficile de déterminer la part de chaque intervention sur la réduction totale.

Au niveau de la consommation globale du bâtiment, on constate une diminution de 26 % de la consommation en énergie primaire, et une diminution de 26 % du coût de l’énergie consommée (les consommations électriques pour la bureautique restant les mêmes).

Le cumul des interventions permet donc de diminuer de façon importante la consommation totale du bâtiment.

Demande thermique [kW/m²]

 

Consom. totale [kW/m²]

 

Énergie primaire [kW/m2]

 

Emission de CO2 [kg de CO2/m² x 10]

 

Coût de l’énergie [€]

 

Différence par rapport au bât. initial

 

Traitement des locaux

    – demande de chaud

19,8 24,8 24,8 65,3 0,62 – 19,2 %

    – demande de froid

4,6 1,8 5,3 6,2 0,185 – 83,1 %

Préparation de l’air

    – nrj sensible

21,0 23,3 25,9 62,5 0,687 – 37,1 %

    – nrj latente

9,4 9,4 26,9 90,5 0,94 – 35,6 %

Pulsion de l’air

7,8 22,4 26,4 0,78

Ventilo-convecteurs des locaux

6,7 19,0 22,4 0,66

Charges internes électriques

    – éclairage

14,1 40,3 47,5 1,41 – 49,3 %

    – équipements

42,6 121,7 143,6 4,26

TOTAL thermique

54,8 59,3 82,7 224,5 2,43

Par rapport au bâtiment initial

– 44,3 % – 36,4 % – 42,2 % – 37,1 % – 44,1 %

TOTAL global

130,4 286,1 464,4 9,54

Par rapport au bâtiment initial

– 26,7 % – 25,8 % – 27,8 % – 25,6 %

Une stratégie URE ?

> Il n’existe pas de « mesures miracles » pour faire chuter la consommation des bâtiments.
> C’est un ensemble de mesures qui permet d’améliorer progressivement le bilan final.
> Certaines de ces mesures sont du ressort de la créativité de l’architecte dès le stade de la conception (le traitement des apports solaires par exemple, ou le refroidissement naturel du bâtiment par une ventilation transversale des locaux).
> D’autres sont apportées par l’ingénieur de bureau d’études dans la gestion des équipements (la régulation de l’humidification en fonction de la température extérieure, par exemple).
> Mais lorsqu’architecte et ingénieur travaillent de concert, on peut atteindre des bâtiments de confort avec des solutions très économes.

Par exemple :

  • Si les apports solaires sont bien maîtrisés par la conception de la façade, une climatisation de 60 Watts/m² peut suffire. Des plafonds froids peuvent être prévus et alimentés au régime entrée-sortie de 17° – 19°. L’eau à 19° peut être alors récupérée pour préchauffer l’air neuf hygiénique. Et de l’eau à 17° diminue le risque de condensation sur le plafond et donc le besoin de déshumidifier l’air. Au plus fort de l’été, le régime de refroidissement 15° – 17° pourra être temporairement établi.
  • Si différentes salles de réunion sont prévues, l’architecte les disposera de telle façon qu’elles soient alimentées sur un même réseau de préparation d’air (par exemple une par étage, raccordée par une trémie commune). L’ingénieur prévoira une climatisation à débit d’air variable (VAV), avec dans chaque local une bouche de pulsion commandée par détecteur de présence. Le ventilateur travaillera à vitesse variable en fonction de la demande réelle. Le groupe de préparation sera dimensionné avec un facteur de simultanéité (défini de commun accord avec le Maître d’Ouvrage) pour tenir compte du fait que toutes les salles ne seront pas occupées en même temps.

 

  • Si un local informatique est prévu, il sera heureux de l’associer avec des locaux demandeurs de chaleur (au Nord, par exemple). Par exemple, un réseau de climatisation à débit de réfrigérant variable permettrait d’assurer le transfert entre le local donneur et les locaux demandeurs de chaleur.

Privilégier les outils de régulation et de gestion

Privilégier les outils de régulation et de gestion


Privilégier la régulation

La régulation est le cerveau des installations. Elle doit atteindre plusieurs objectifs :

  • fournir le service à l’endroit souhaité, au moment voulu, avec l’intensité voulue,
  • ne jamais détruire de l’énergie (= casser du chaud par du froid),
  • conserver une logique et une technicité simple, accessible à l’exploitant.

Quelle que soit la technique en jeu, on sera attentif à ne pas raboter sa qualité.

Le premier objectif peut s’écrire en d’autres mots : « une bonne installation est celle qui ne consomme rien lorsque la demande est nulle »…

Exemple, la production d’eau chaude sanitaire.

Est-on sûr que le système ne consomme pas essentiellement pour se maintenir en température (en été, par exemple) et non pour préparer de l’eau chaude ?

Mais les deux premiers objectifs peuvent se contredire : à force de vouloir apporter à chaque occupant la bonne température, donc de préparer un réseau « chaud » et un réseau « froid »,… de la chaleur et du froid se détruisent à la distribution.

Exemple, la production d’eau chaude sanitaire.

En été, les pertes de la boucle de distribution d’eau chaude sanitaire viennent augmenter la température des locaux, donc la consommation de la climatisation le cas échéant.

S’il est bien une amélioration majeure de ses 20 dernières années, c’est l’arrivée de la vitesse variable (basée par exemple sur l’utilisation d’un variateur électronique de fréquence). Au minimum, tous les équipements « rotatifs » (pompes, ventilateurs, compresseurs) devraient être équipés d’une régulation par vitesse variable pour s’adapter aux besoins réels.

Quelques exemples.

  • Couper les ventilateurs dans les parkings en fonction d’une sonde CO.
  • Moduler les débits d’air dans les salles de réunion par sonde CO2.
  • Éclairage et débits d’air dans les auditoires d’étudiants commandés par des détecteurs de présence.
  • Couper l’humidification au dessus d’une T°ext de 8°C.
  • Couper les luminaires en façades lorsqu’il y a du soleil.
  • Placer des vannes thermostatiques sur les radiateurs et des circulateurs à vitesse variable.
  • Commander la température de départ de l’eau glacée à l’évaporateur par une sonde de température extérieure.
  • Régler le débit de déconcentration de l’humidificateur par une sonde de conductibilité électrique.
  • Moduler la hotte d’extraction de la cuisine collective en fonction de la température sous celle-ci.

Parfois chères en rénovation, ces mesures coûtent peu si elles sont prises dès la phase de conception.

Le « on-off », c’était pour papa ! Donner un tel objectif de gestion à un bureau d’études doit se faire dès l’Avant-Projet afin qu’il puisse optimaliser les applications.

Par exemple, si les débits d’air sont modulés en fonction des besoins, il faut définir le découpage de l’unité gérée (par local, par zone de locaux sur une même façade, …) afin de pouvoir définir le réseau. Mieux, si les locaux de réunion sont réunis autour d’une même conduite de distribution d’air, un seul groupe de préparation va gérer ceux-ci. On pourra profiter d’un effet de foisonnement, tablant sur le fait que toutes les salles ne seront pas occupées en même temps, et au taux de remplissage maximal. Le coût d’installation en sera réduit d’autant.


Quels outils de comptage ?

L’installation de compteurs devra permettre :

  • De mesurer toutes les consommations d’électricité et de combustibles de chaque bâtiment (donc y compris la consommation de fuel).
  • De mesurer distinctement la part liée à la climatisation (présence d’un compteur électrique distinct sur chaque machine frigorifique de plus de 10 kW).
  • De mesurer la performance des installations de production d’eau glacée (compteur d’énergie thermique sur la boucle d’eau glacée).
  • De mesurer la consommation en eau chaude sanitaire.
  • De réaliser un partage des consommations par locataires : s’il existe une multi-propriété ou différents locataires dans le bâtiment, chaque entité devra disposer de compteurs d’énergie propres, tant en électricité qu’en énergie thermique.
  • De mesurer la quantité d’eau entrant dans le réseau de chauffage à partir du réseau d’eau de ville (ce simple compteur sur le raccordement au réseau permet de surveiller si des apports d’eau anormaux sont réalisés, apports qui, à terme, risquent de corroder le réseau).

Ne jamais lésiner sur les indicateurs…

Les outils de gestion, se sont également tous les plans, schémas, logique de régulation,… à recevoir lors de la réception du bâtiment.

Ventilation [ Concevoir l’avant projet ]

Ventilation


Organiser une ventilation permanente des bâtiments

En ventilation naturelle, il peut paraître curieux de placer des joints pour étanchéifier les châssis et, simultanément, de placer des grilles de ventilation dans le même châssis ! Et pourtant, c’est correct. Toute la différence tient dans ce qu’on ne maîtrise pas le débit d’air qui passe dans les joints et que l’on maîtrise le débit qui passe dans la grille…

Dans le bâtiment-passoire de papa, toute la chaleur s’échappait la nuit et le WE par les inétanchéités.

La Citroën 2CV était sympathique, avec une ventilation naturelle extraordinaire, … mais on ne la vend plus aujourd’hui.

Le maintien de la qualité de l’air intérieur est aussi fondamental aujourd’hui que la réalisation du confort thermique. L’organisation d’une ventilation permanente, qu’elle soit naturelle ou mécanique, est un objectif logique, en plus que d’être une obligation réglementaire.

On y sera d’autant plus attentif dans les bâtiments scolaires où la tradition n’existe pas.


Privilégier la ventilation mécanique ?

Le chauffage de l’air neuf hygiénique représente près de la moitié de la consommation de chauffage d’un bâtiment isolé. Pour diminuer ce poste, le choix du système de ventilation n’est pas neutre.

En pratique, si on excepte le système B peu répandu, la norme propose 3 systèmes de ventilation, représentés ci-dessous de façon simplifiée dans le cas d’un immeuble d’hébergement :

Système A
(ou ventilation naturelle).
Amenée d’air naturelle

Évacuation d’air naturelle

 

Système C
(ou simple flux avec extraction mécanique).

Amenée d’air naturelle

Évacuation d’air mécanique

 

Système D
(ou double flux).

Amenée d’air mécanique

Évacuation d’air mécanique

 

L’investissement minimal, le souci d’éviter le bruit et le coût d’exploitation des ventilateurs, … feraient pencher pour le système A. Mais ce système est celui qui génère la plus grande consommation énergétique puisque le débit d’air est permanent et que l’on imagine difficilement que l’on va fermer les grilles lorsque l’occupant est absent.

Tout au contraire, le système D peut être arrêté la nuit et le WE (soit les 2/3 du temps) et une récupération de chaleur peut être réalisée sur l’air extrait (récupération de 50 % de la consommation). Dès lors, le chauffage de l’air de ventilation via un système D (muni d’un récupérateur de chaleur) chute donc au sixième de celui du système A ! Mais c’est le plus cher à l’investissement…

Le système C est sans doute un compromis : l’arrêt des extracteurs limite l’entrée d’air en dehors des périodes d’occupation.

À première vue, le système D est optimal pour un immeuble de bureaux.

Le système A est possible en théorie, en pratique c’est un système quasi irréalisable et de façon générale peu recommandable.

Ce choix n’est pas neutre sur la conception du bâtiment, dès la phase d’avant-projet. Notamment suite aux interactions avec la climatisation éventuelle.

Concevoir

Pour plus d’informations sur le choix des systèmes de ventilation.

Surdimensionner (pour une fois !) les conduits d’air

À débit transporté égal, si la section d’un conduit d’air double, la vitesse diminue de moitié… et la puissance du ventilateur est diminuée par 8 !

Il faut le prévoir dès l’avant-projet pour réserver des espaces techniques suffisants (encombrement des conduits) et des trajectoires rectilignes (le moins de coudes possible).

En général c’est le contraire qui se produit : le bureau d’études est obligé de travailler à haute vitesse pour faire passer le débit d’air dans les petites sections tortueuses.

Et du bruit sera inévitablement entendu. À moins que des baffles acoustiques soient placés. Mais ces baffles augmentent fortement la perte de charge (= le frein) du conduit et donc la consommation du ventilateur…

Et puis, la consommation du ventilateur 8 x trop importante va se libérer en chaleur dans l’air transporté. Si l’air doit rafraîchir les locaux, il faudra augmenter d’autant l’énergie frigorifique pour combattre cet apport de chaleur…

L’ingénieur dirait : « posez les larges conduites d’abord et construisez le bâtiment autour ! ». Bon, cette caricature ne va pas motiver l’architecte…! Mais quand même, pourquoi ne pas tenter une « conception douce » des équipements ?

Concevoir

Pour plus d’informations sur le choix des réseaux de ventilation.

Réguler en fonction des besoins réels

On a déjà attiré l’attention sur l’intérêt de la ventilation mécanique, permettant une programmation horaire générale. Mais si en plus, chaque local (ou zone de locaux) à occupation variable est équipé d’une régulation indépendante, il est possible d’en moduler l’apport d’air frais hygiénique. Par exemple, la ventilation d’une salle de réunion peut être gérée en fonction de la lecture d’une sonde de présence ou d’une sonde CO2 traduisant la présence effective d’occupants.

À noter dans cette même logique de débit d’air contrôlé : un sas sera prévu à l’entrée du bâtiment. C’est d’autant plus important si le bâtiment est conditionné, car les locaux seront mis en surpression.

Concevoir

Pour plus d’informations sur les techniques de régulation de la ventilation.

Sélectionner des bouches fonctionnant à basse température

Pour éviter l’inconfort, l’air hygiénique est souvent préchauffé à 20°C en centrale avant d’être pulsé dans les locaux.

Or, imaginons une température extérieure de 13°C. Si le bâtiment est conditionné, dans beaucoup de locaux, le refroidissement est déjà enclenché.

On assiste alors à un gaspillage énergétique : l’air extérieur est chauffé de 13 à 20°C… et du froid est apporté dans les locaux.

Le concepteur doit sélectionner des bouches qui permettent de pulser de l’air à 14…15°C dans le local, sans inconfort.
Il se tournera, par exemple, vers des diffuseurs à jet hélicoïdal qui favorisent pour un même débit, un brassage plus rapide entre l’air ambiant et l’air pulsé.

 

Si la climatisation n’est pas présente, la possibilité de pulser de l’air frais limitera le risque de surchauffe en mi-saison.

Concevoir

Pour plus d’informations sur le choix des bouches de ventilation.

Découvrez ces quelques exemples de systèmes optimisés de ventilation : l’antenne communale de Louvain-la-Neuve, le bâtiment PROBE du CSTC ou encore l’école TANGA.

Stratégie « soft-énergie » à tous niveaux

Stratégie "soft-énergie" à tous niveaux


L’énergie dans le bâtiment, ce n’est pas que chauffer et refroidir…

L’énergie consommée par un immeuble de bureaux, c’est le double de celle demandée par le chauffage et le refroidissement du bâtiment. En effet, l’éclairage, la bureautique, les pompes et ventilateurs, … alourdissent fortement la facture.

Il est utile de prendre le temps d’étudier tous ces aspects globalement, dès le départ. La place réservée à l’éclairage naturel des locaux en est un exemple clair.

Photo bâtiment Iveg à Anvers.   Photo bâtiment Iveg à Anvers - 02.

Le siège d’Iveg à Anvers consomme 2 x moins que la moyenne … mais sa conception a été étudiée durant 2 ans, en collaboration avec le centre de recherches du CSTC.

 

Le siège d’Elia à Bruxelles est Passif, BREEAM et NZEB grâce à la lumière naturelle, 30 cm d’isolation, du triple vitrage et ses 4 000 m² de PV.

L’énergie dans un immeuble, c’est combien par an ?

L’analyse énergétique d’un local type de bureau (Bâtiment ancien avec 8 cm d’isolant)  :

  • entre 70 et 100 kWh/m²/an de chauffage,
  • 120 kWh/m² électricité (soit 300kWh d’énergie primaire /m²).
  • TOTAL de 385kWh/m²/an d’énergie primaire,
    • dont +- 8,5 m³ de gaz naturel et 120 kWh d’électricité ;
  • Soit +- 47€/m²/an

Dans un immeuble de bureaux QZEN construit aujourd’hui, l’énergie hors bureautique représente un coût d’environ 10 €/m²/an €.

Évaluer

Pour plus d’informations sur les consommations dans différents types d’immeubles climatisés.

Quelle répartition des consommations dans un bâtiment ?

Dans un bâtiment climatisé, en très grosse approximation (puisque tout dépend du type de bâtiment, des vecteurs énergétiques et de son usage), ce coût se répartit en :

  • 15 % pour le chauffage des locaux et de l’air neuf hygiénique,
  • 15 % pour le refroidissement des locaux,
  • 15 % pour l’éclairage,
  • 15% pour les auxiliaires (pompes et ventilateurs) et équipements électriques divers ;
  • 40 % pour la bureautique.

À partir du programme du bâtiment, on demandera au bureau d’études d’établir un bilan global prévisible des sources de consommation.

Concevoir

Pour découvrir un exemple d’analyse des besoins thermiques d’un immeuble de bureaux.


Un choix d’équipements électriques à faible consommation

Une politique « soft-énergie » globale

Pour limiter l’énergie, il est donc tout aussi important d’agir sur le choix du luminaire, sur le mode de régulation de la ventilation que sur l’épaisseur de l’isolant.

Mieux, l’investissement sur des équipements électriques performants permet de faire « coup double » :

  • économie directe d’électricité,
  • économie indirecte sur la demande de refroidissement et donc sur la capacité de « s’en sortir sans climatisation » !

Toute consommation électrique se transforme en chaleur…

La consommation électrique a doublé en 15 ans dans le secteur tertiaire ! La bureautique (PC, imprimante, photocopieuse, …) explose. De plus en plus, nous chauffons nos bureaux … à l’électricité !

Mais ce chauffage-là, il nous est impossible de l’arrêter en été. Pire, le ventilateur de l’air de refroidissement chauffe l’air de 1 degré, environ. Donc plus nous surdimensionnons nos installations, plus le ventilateur sera puissant, plus il faudra le refroidir …

Ne sommes-nous pas là dans un cercle infernal ?

Si on ne peut aller totalement contre cette évolution qui impose l’équipement électrique comme outil de développement économique, il nous est possible de l’infléchir lorsque l’on prend conscience de l’impact de nos choix.

Par exemple, à débit constant, si nous doublons le diamètre d’un conduit d’air, la consommation du ventilateur chute au 32ème de sa valeur !!!

Des options à prendre dès le début du projet

Voici une série de propositions qui peuvent permettre concevoir un bâtiment « low-tech », « low-energy » … tout en étant « high-design » !

Assurer dans tous les locaux de vie, un éclairement naturel qui rende l’éclairage artificiel nécessaire pendant moins de 40 % du temps d’occupation.

Concevoir

Choisir les luminaires.
 Limiter l’éclairage artificiel à une puissance de 8 Watts/m² pour un éclairement de 500 lux : choix de luminaires et de lampes performantes.

Concevoir

Choisir les luminaires.

Réguler l’éclairage artificiel en fonction de l’éclairage naturel pour ne pas avoir de cumul de chaleur entre éclairage artificiel et éclairage solaire.

Concevoir

Apport d’éclairage naturel dans la page Choisir la gestion et la commande
Réguler l’éclairage et la bureautique en fonction de la présence effective de l’utilisateur.

Concevoir

Choisir les ordinateurs
 Placement de l’imprimante et de la photocopieuse à proximité de l’extraction d’air hygiénique (évacuation directe des polluants et de la chaleur dissipée).
 Concentration des équipements informatiques et de communication communs (centraux téléphoniques et data, serveurs informatiques, etc…) dans un local séparé des zones de vie ou de travail. Ce local pouvant être refroidi mécaniquement d’une façon distincte.
Intégration des conduits d’air dès la phase de l’esquisse pour favoriser des sections larges et droites, et ainsi limiter les puissances des ventilateurs.

Un emplacement central des groupes de traitement d’air est aussi favorable à ce niveau.

La même démarche peut être réalisée pour les tuyauteries d’eau, mais l’impact énergétique est 10 fois plus faible.

Concevoir

Choisir le réseau de distribution.

Vers une stratégie « soft-énergie »

Poursuivons la traque aux sources de consommation

Sans être ici exhaustif, mais plutôt pour expliquer la logique du raisonnement, on envisagera de :

Maîtriser les apports solaires par le choix de surfaces vitrées limitées (= ne pas vitrer toute la façade) et équipées de protections solaires.

Concevoir

Choisir la fenêtre comme capteur d’énergie solaire.
Prérefroidir l’air hygiénique de ventilation par le passage dans un conduit enterré.
Éviter toute boucle de circulation d’eau chaude sanitaire dans le bâtiment, en décentralisant la production près des points de puisage.

Concevoir

Choisir le réseau d’eau chaude sanitaire

Vers un bâtiment inerte et stable en température intérieure

Si les sources (internes et externes) d’échauffement sont bien maîtrisées, le risque de surchauffe est nettement diminué. Si le bâtiment comporte un grand « réservoir thermique de stockage » : c’est l’inertie de ses parois.

Prévoir d’emblée une inertie thermique accessible suffisante dans les parois : sous l’effet du soleil, le bâtiment ne doit pas se comporter comme une voiture ! Sans inertie, la température intérieure monterait très rapidement et la climatisation mécanique devrait être enclenchée.

Finalement, dans quel type de bâtiment trouvons-nous de la fraîcheur naturelle en été : le préfab de chantier ou l’ancien immeuble de la maison communale ?

Evaluer

Repérer l’origine de la surchauffe

Équipé d’une régulation peu sophistiquée

Et dans ce bâtiment massif, fortement isolé, efficacement ombré, les fluctuations de température seront relativement lentes. Il est donc possible d’y intégrer une forme de régulation qui combine des prises de mesure limitées (la température de quelques locaux représentatifs par exemple) et des actions « douces » (modification d’un régime de température, ouverture modulée d’un dispositif de ventilation, etc.). L’important sera que l’action du système de régulation soit basée sur une mesure la plus représentative possible du ressenti, et donne lieu à des actions mesurées, auxquelles les occupants peuvent déroger. Dans tous les cas, le fonctionnement du bâtiment devra être le plus intuitif possible pour les occupants, et induire naturellement des comportements d’utilisation rationnelle de l’énergie.

Retenons qu’une stratégie « soft-énergie », appliquée à l’ensemble des consommateurs, est un point de départ qui permet ensuite d’envisager pour le traitement thermique des locaux de nombreuses alternatives… douces !


Favoriser les énergies renouvelables

Pour diminuer encore l’appel à des énergies fossiles, il est possible de recourir à la production :

  • d’eau chaude par des capteurs solaires thermiques ou photovoltaïque,
  • d’électricité par des capteurs solaires photovoltaïques,
  • cogénération,
  • pompe à chaleur à haut rendement,
  • de chaleur par utilisation de la biomasse (essentiellement le bois).

Concevoir

Pour plus d’informations sur le chauffage solaire de l’eau chaude sanitaire.

Préparer l’exploitation du bâtiment

Préparer l'exploitation du bâtiment


Keep it simple !

Les bâtiments à haute performance environnementale peuvent devenir très complexes. Parfois, simplifier les techniques permet de garder le contrôle et de faciliter l’obtention du confort des utilisateurs.

Il est primordial de s’assurer que le niveau de technicité des installations de chauffage, refroidissement et ventilation correspond aux capacités de compréhension et d’action des personnes qui seront chargées d’assurer leur conduite. Selon les situations, cela nécessitera de rédiger des notices explicatives claires ou d’organiser des séances de formation et d’information des futurs occupants et gestionnaires.

Dans tous les cas, il conviendra de mettre en balance la complexité liée à une recherche de performance optimale, et le risque éventuellement accru d’un mauvais usage des installations.

La simplification des techniques : Pierre Sommers vous conseille from Bruxelles Env. on Vimeo.


L’importance de la mise en service

Pris par l’urgence, par le déménagement, … la mise en service est bien souvent négligée.

Et pourtant la mise au point des installations est une étape fondamentale de la vie du bâtiment. Il faut passer de la théorie du projet à la réalité in situ.

Les régulateurs numériques d’aujourd’hui sont hyperpuissants. Mais ils doivent être paramétrés avec soin… et le technicien en charge du travail n’a pas participé aux réunions de conception.

A la fin de son travail, il est impératif que le technicien écrive tout, comme s’il devait partir à la retraite le lendemain et qu’il transmettait le dossier à son collègue ! Une fois le technicien parti, le gestionnaire se retrouvera bien seul…


La rédaction du projet « as built »

En pratique, il devrait y avoir :

  • La liste de tous les équipements de chauffage et climatisation, avec caractéristiques techniques nominales (dont les courants nominaux absorbés) et année de fabrication.
  • Les schémas de principe hydrauliques des circuits de chauffage et des circuits d’eau glacée et le schéma de principe aéraulique de la ventilation, « as built », avec débits et pressions des pompes et ventilateurs.
  • Le schéma électrique des armoires de commande,
  • Le repérage de chaque équipement technique dans le bâtiment (conduit et appareil).

   

   

C’est si simple et cela facilite tellement la vie …

  • La description détaillée du fonctionnement des installations (liste des régulateurs, paramètres de régulation et logique de régulation).
  • La description des réglages lors de la dernière mise au point.

Ces documents seront placés dans une armoire prévue à cet effet dans les locaux techniques de production de chaleur, de froid et de ventilation.
On procédera à l’affichage au mur du principe du schéma hydraulique dans chaque chaufferie, avec revêtement protecteur.

Sans revêtement, il sera trop rapidement dégradé…

Un double de tous ces documents sera en possession du gérant.


Le contrat de maintenance

Objectifs

Les installations techniques de chauffage, de ventilation et de climatisation doivent être entretenues, mais aussi réglées et conduites avec les objectifs suivants :

  • Le maintien des conditions de confort des occupants, tant en été qu’en hiver.
  • L’économie des énergies, fuel/gaz et électricité, en effectuant les meilleurs réglages possibles des équipements existants.
  • Le maintien des équipements en bon état de fonctionnement par un entretien adapté à leurs spécificités.
  • La sécurité de fonctionnement des équipements.
  • La sécurité des personnes.

Contenu du contrat d’entretien

Un cahier des charges technique d’entretien doit être établi par le client au moment de l’appel d’offres aux différentes entreprises de maintenance.

Ce document doit contenir, en plus des principales clauses générales administratives et juridiques, les deux documents techniques suivants :

  • La liste de tous les équipements à entretenir avec leurs dates de fabrication et leurs principales caractéristiques techniques.
  • La liste des prestations techniques d’entretien et de contrôle à réaliser sur chaque type d’équipement avec leur fréquence.

Le nombre minimum de visites de contrôle par an (en plus de celles indispensables pour l’entretien) est donc imposé, suivant complexité des installations : 4 (minimum) à 12 fois par an.

Il ne faut donc pas laisser les sociétés de maintenance proposer librement le programme d’entretien et le nombre de visites pour les contrôles, les réglages et la conduite. Sinon, on risque de confier l’entretien à l’offre la moins chère,… qui est souvent la moins bonne ou la moins complète. En effet, dans le but d’emporter le marché certaines entreprises proposent un programme insuffisant.

La maintenance URE doit permettre d’accorder à chacun le droit au confort thermique et à la qualité de l’air, mais de refuser tout gaspillage, par négligence de conduite, de gestion ou d’entretien. Elle doit garantir au propriétaire que son bâtiment est exploité « au mieux » compte tenu des équipements existants.

Pour garantir une exploitation URE optimale, il y a lieu :

1. De vérifier l’existence d’un d’entretien régulier des installations, sous forme :

  • D’un planning d’avancement de l’entretien, c.-à-d. un document qui donne la liste avec date des opérations d’entretien qui ont déjà été faites pour cette année.
  • D’un carnet d’entretien, càd un carnet vierge dans lequel le(s) responsable(s) note(nt) toutes les interventions qui ne sont pas sur le planning d’entretien : les dépannages, les remplacements, les ajouts ou modifications, les mesures ou autres constatations, les visites de contrôles, les modifications de réglages, etc.
  • Des attestations de contrôle des brûleurs.
  • De la vérification régulière des courants absorbés par les groupes de pulsion et par les groupes frigorifiques, avec comparaison par rapport au courant nominal pour repérer une dérive.
  • Des attestations de fourniture des filtres ou autres pièces de remplacement prévues à l’entretien.
  • Des check-lists des contrôles mensuels ou trimestriels avec les paramètres relevés (température, pressions, réglages, etc.).
  • Des principales consommations annuelles ou mensuelles, par poste.

Remarque : il pourrait être vérifié simultanément d’autres données relatives à la pollution et la sécurité, à la consommation en eau, en sel de traitement des eaux, … Nous n’abordons pas ces points ici qui dépassent notre champ d’investigation, mais il est certain qu’une vision globale doit être donnée à ces contrôles d’exploitation.

2. De vérifier l’absence de « gaspillage » lors de l’exploitation des installations

Une maintenance correcte devra vérifier que l’installation ne puisse :

  • Humidifier l’air inutilement (respect strict du critère RGPT, sauf salle informatique).
  • Déshumidifier l’air inutilement,
  • Chauffer l’ambiance au-delà de la température minimale de la plage de confort (arrêt effectif du chauffage si la température de l’air dépasse 21°C).
  • Refroidir l’ambiance en deçà de la température maximale de la plage de confort (enclenchement du refroidissement si la température dépasse 24°C).
  • Détruire, lors du traitement d’un local donné, de l’énergie frigorifique par un apport d’énergie calorifique complémentaire, excepté si le froid est réalisé par l’air extérieur ou si le chaud est basé sur une récupération de chaleur au condenseur de la machine frigorifique.
  • Traiter et pulser dans les locaux un débit d’air neuf excessif par rapport à la présence effective des occupants (débit à définir : par exemple dépassant 50 m³/h/pers effectivement présente).

Elle devra vérifier également :

  • Le fonctionnement effectif des fonctions URE disponibles telles que free cooling ou free-chilling, récupérateur de chaleur sur l’air extrait ou sur condenseur, …
  • L’arrêt effectif d’équipements en fonction de la température extérieure ou du moment de la journée ou de la semaine (nuit, week-end, congés, …).

3. De signaler au gestionnaire toutes les mesures URE qu’il serait utile de réaliser

On ne peut reprocher à une société de maintenance qu’une vanne soit déficiente ou qu’un récupérateur soit manquant. Mais on peut lui reprocher de ne pas avoir signalé au gestionnaire les mesures qui lui permettraient de diminuer ses coûts d’exploitation.
Exemples : le placement d’un récupérateur sur l’air extrait, la mise en place d’un free-chilling, l’absence d’une régulation performante, l’intérêt de placer un circulateur à vitesse variable,… sont des mesures dont la société de maintenance peut apprécier la pertinence et la rentabilité.
Elle devrait avoir l’obligation de le signaler par écrit.

Contrôle de maintenance

Il est très utile de prévoir dès la rédaction du contrat d’entretien un système de contrôle d’entretien par le client, par son Responsable Énergie ou par son Ingénieur Conseils. Et donc d’en faciliter le travail ultérieur.

En général, les sociétés de maintenance préparent pour chaque chantier un planning d’entretien prévisionnel, ce planning ne donne que les dates prévues pour les différents entretiens et ne permet donc aucun contrôle de ce qui a été effectivement réalisé. Il est donc très utile de prévoir l’obligation d’afficher en chaufferie un planning mensuel ou trimestriel d’entretien vierge sur lequel la société de maintenance aura l’obligation de noter la date de chaque prestation contractuelle après qu’elle ait été effectuée.

Après une saison de chauffe complète, le planning doit donc être complètement rempli. Ce système permet de contrôler mois par mois l’état d’avancement de l’entretien. En plus de cela, les techniciens inscriront dans le carnet d’entretien conservé en chaufferie toutes les autres interventions non contractuelles, comme les dépannages, les visites supplémentaires, les modifications, etc.

Critères de qualité.

Il faut prévoir des critères de qualité énergétique à respecter. Par exemple, pour une grosse installation, on peut imaginer de placer un compteur d’énergie sur l’eau glacée et un compteur électrique sur le compresseur (coût de l’ordre de 5 000 €). Il sera alors possible d’imposer un COP moyen annuel minimum à la société de maintenance… en laissant celle-ci se débrouiller pour y arriver. Un remboursement de la différence peut être prévu comme pénalité en cas de non-respect.

Bien sûr, le contrôle d’entretien ne sert à rien non plus s’il n’y a pas de sanctions prévues en cas de manque d’entretien. Il est donc conseillé de prévoir dans le contrat des clauses du type :

  • Le paiement des factures trimestrielles pourra être bloqué jusqu’à la réalisation complète des prestations prévues.
  • Une pénalité de 125 € par brûleur et par contrôle sera due au cas où les deux contrôles annuels contractuels n’auraient pas été effectués à la fin de l’année et les attestations de réglage envoyées au Client.
  • Même type de pénalités pour l’oubli du nettoyage ou du remplacement des filtres, ou autres opérations ponctuelles importantes.

Il faut aussi éviter de mettre dans le contrat d’entretien des clauses qui vous obligent à perdre du temps et de l’argent en passant devant un tribunal pour le plus petit litige.

Prix du Contrat d’Entretien

Le bon fonctionnement économique des installations dépend beaucoup de l’entretien et des réglages des équipements. Or, ceux-ci ne seront réalisés correctement que si le prix du contrat d’entretien est suffisant. Il faut donc éviter de souscrire à une offre de contrat d’entretien dont le prix est anormalement trop bas.

Depuis de nombreuses années, les grosses sociétés de maintenance se font une concurrence féroce afin d’augmenter leur part de marché et d’aboutir à la faillite et à la reprise des plus faibles. Il en résulte souvent des offres de prix anormalement basses pour de gros chantiers.

Lorsque ces offres sont faites à perte, ce qui est parfois le cas, l’entreprise qui a obtenu le marché a plusieurs possibilités pour ne pas y perdre : le plus simple est de ne faire qu’une petite partie de l’entretien et des contrôles prévus, une autre solution est de remplacer par du neuf (avec 20 à 30 % de bénéfice) tous les équipements qui devraient être dépannés, ou remis en état.

Cas vécu.

Sur base d’un cahier des charges précis et identique pour tous les soumissionnaires, les offres étaient de : 22 150 €/an, 13 700 €/an et 5 828 €/an ! Heureusement, le Client (secteur privé) a éliminé l’offre la plus basse et a choisi celle de 13 700 €/an.

Personnel d’entretien

Le choix de la société d’entretien et du personnel de contrôle et de conduite est un problème très important, car pour une grosse installation, toutes les sociétés de maintenance ne se valent pas.

D’abord, il faut vérifier que les sociétés qui présentent une offre de contrat d’entretien ont bien la compétence nécessaire pour les installations en place, en particulier concernant les groupes frigorifiques, les régulations digitales ou les régulations informatisées avec télésurveillance. Il faut aussi vérifier si la société de maintenance possède bien un service de dépannage 24h sur 24h, y compris (et surtout) en juillet et août, à l’époque ou la climatisation est indispensable et où une panne ne peut pas attendre la fin des congés annuels du bâtiment.

Voici 2 cas vécus.

  • La société de maintenance qui propose l’entretien des installations de climatisation ne possède pas de technicien frigoriste. Elle sous-traite alors une fois par an un gros entretien du groupe frigo mais ne peut donc pas assurer correctement les autres prestations contractuelles de contrôle de ces équipements spécifiques.
  • Une société de maintenance qui n’a pas de frigoriste constate la panne complète d’un groupe frigo de 2 ans d’âge, elle diagnostique une destruction complète au niveau des clapets et propose le remplacement du groupe pour un montant de 12 400 € HTVA. Heureusement, le Client a eu recours à un Bureau d’Ingénieur Conseil et vérification faite, il n’y avait qu’un problème de fluide frigorigène et aucun dégât aux machines.

Gestion énergétique

Pour accéder au cahier des charges d’exploitation énergétique des installations_Exploitation_HVAC.

Organiser le rafraîchissement par free-cooling

Organiser le rafraîchissement par free-cooling


Organiser un balayage nocturne

Le free cooling naturel

Dans un bâtiment existant, le free cooling peut se faire au moyen d’une ventilation naturelle, par de grandes ouvertures en façades, c’est-à-dire a priori, par les fenêtres (on imagine mal de percer des ouvertures dans la façade et les planchers).

Ventilation naturelle individuelle de chaque locaux.

Ventilation naturelle transversale.

Grille de ventilation nocturne intensive. Ces grilles, réalisées sur mesure, se fixent par l’intérieur en été, laissant toute liberté de manipulation de la fenêtre par les occupants.

Il existe évidemment une série de contraintes à la réalisation et à l’efficacité d’une ventilation naturelle nocturne intensive. Citons notamment :

  • la collaboration nécessaire des occupants,
  • les risques de sous-refroidissement des locaux, le matin,
  • l’inertie nécessaire des parois,

Pour garantir l’efficacité du free cooling nocturne malgré ces contraintes, la ventilation naturelle peut être automatisée (ouvertures automatiques, régulées en fonction de la température intérieure et extérieure).

Hors de prix ? Pas vraiment, ainsi la « fenêtre de toiture » avec ouverture automatique est aujourd’hui un produit vendu en grande série (si la T° intérieure dépasse in certain seuil, la fenêtre s’ouvre via une petite vis sans fin motorisée. Si nécessaire, un détecteur de pluie entraîne sa fermeture).

Il est difficile d’estimer, dans un cas particulier, le gain réalisable grâce au free cooling nocturne. Cela dépend de la structure du bâtiment, de mode de ventilation, de la taille des ouvertures, de la température extérieure, …

Pour fixer un ordre de grandeur, nous avons simulé le comportement d’un immeuble de bureaux type.

Dans ce bâtiment de 3 000 m², la température intérieure maximum est maintenue sous 24°C par un système de climatisation. Une ventilation naturelle nocturne, de 4 renouvellements par heure, est organisée lorsque la température intérieure dépasse 23°C et la température extérieure est inférieure à 18°C. Nous avons constaté une diminution de la consommation due à la climatisation :

  • de 44 % si le bâtiment présente une inertie thermique importante (pas de faux plafond, de faux plancher, cloisons en béton);
  • de 21 % si le bâtiment présente peu d’inertie thermique (faux plafonds et planchers, cloisons en plaques de plâtre).

Ce cas est évidemment idéal puisqu’il suppose la présence d’un système d’ouvertures automatiques régulé en fonction des températures. Ces estimations doivent être revues à la baisse dans le cas d’une gestion manuelle du free cooling.

Mentionnons cependant qu’il existe des exemples de bâtiments existants dans lesquels, au moyen de grilles installées dans les châssis existants et manipulées manuellement par les occupants, on est parvenu à des résultats probants en matière de maîtrise des surchauffes d’été.

Études de cas

Le bâtiment « PROBE » du CSTC à Limette : une ventilation intensive de nuit permet, sans climatisation, d’y limiter la température intérieure de la plupart des bureaux en dessous de limites de confort d’été.

Intégrer l’air frais dans le système de climatisation

Le free cooling mécanique

Il est possible également de valoriser la présence du système de climatisation, en forçant la ventilation mécanique durant la nuit. Ce n’est pas toujours intéressant du point de vue énergétique : la consommation électrique des ventilateurs pour assurer un débit suffisant durant la nuit pourrait être pratiquement semblable à la consommation de la climatisation pour évacuer la même quantité de chaleur à la relance matinale !

En pratique, la ventilation ne devrait s’enclencher que si l’écart de température entre l’intérieur et l’extérieur dépasse 5 K à 8 K. Tout dépend de la perte de charge du réseau qui est associé au ventilateur et à la performance de celui-ci.

Il faut de bons débits d’air pour assurer un effet de refroidissement notable. Si c’est uniquement l’air de ventilation qui est pulsé, cela n’apportera qu’une puissance de 10 W/m² environ. Ce sont donc les systèmes « tout air » qui sont les plus efficaces à ce niveau. Ce sera le cas pour des salles de réunion, de conférence, etc …

Avec les systèmes de climatisation « tout air », le free cooling de jour est également possible. En effet, lorsque des besoins en refroidissement se font ressentir pour une température extérieure inférieure à la température intérieure, il y a tout intérêt à valoriser le pouvoir rafraîchissant de l’air extérieur plutôt que faire fonctionner la batterie de refroidissement. La régulation devra alors augmenter l’ouverture des volets d’admission d’air neuf au détriment de l’air recyclé.

Cas particulier : les bâtiments équipés de roof-top

Schéma bâtiments équipés de roof-top.

Ce sont des appareils dimensionnés pour vaincre les pires canicules de l’été. Le débit des ventilateurs est donc fort important. Non seulement on lui adaptera utilement un variateur de vitesse pour limiter le débit d’air en hiver, mais en plus on l’exploitera durant la nuit en été pour réaliser le free cooling du bâtiment à faible coût. Avec un peu de tâtonnement au début pour ajuster la courbe, un régulateur en fonction de l’air extérieur devrait faire des merveilles !

Concevoir

Pour en savoir plus sur les possibilités d’exploitation du pouvoir rafraîchissant de l’air extérieur et sur application pratique du free-cooling.

Exploiter la ventilation hygiénique en complément de la climatisation

On a vu que le free cooling nocturne ne pouvait remplacer la climatisation que sous certaines conditions, notamment la réalisation de renouvellements d’air importants, ce qui impose l’utilisation de la ventilation naturelle.

Dans un bâtiment climatisé, on peut aussi se demander si, durant la nuit, on ne peut pas profiter du réseau de ventilation hygiénique pour décharger la chaleur accumulée durant la journée et faciliter la relance matinale du système de climatisation.

Exemple.

Comparons 2 systèmes, dans un bureau individuel maintenu, par la climatisation, à 26°C en journée :

Journée Nuit
Système 1 Ventilo-convecteurs ventilation hygiénique double flux
Système 2 Ventilo-convecteurs Ventilo-convecteurs, ventilation coupée

Système 1

durant la nuit, les ventilo-convecteurs sont mis à l’arrêt. La ventilation hygiénique (soit 30 m³/h) est maintenue en fonctionnement pour profiter du pouvoir refroidissant de l’air extérieur.

Si la température de pulsion de l’air est de 16°C (ce qui équivaut à une température extérieure de l’ordre de 14°C si on considère que les pertes du ventilateur et les pertes de charge augmentent la température de l’air neuf de 2°C), la puissance frigorifique fournie par l’air équivaut à :

0,34 [W/(m³/h).K] x 30 [m³/h] x (26 [°C] – 16 [°C]) = 100 [W]

La puissance absorbée par les ventilateurs (pulsion et extraction) nécessaire à cette ventilation est de l’ordre de 0,65 W/(m³/h) (ordre de grandeur courant pour un réseau de ventilation hygiénique double flux équivalent à une perte de charge totale de 1 500 PA et un rendement total de ventilateur de 0,65), soit :

0,65 [W/(m³/h)] x 30 [m³/h] = 19,5 [W]

Bilan : on appelle donc une puissance électrique de 19,5 W pour produire 100 W de froid.

Système 2

durant la nuit, la ventilation est mise à l’arrêt et les ventilo-convecteurs assurent l’abaissement nocturne de la température.

Pour fournir une même puissance frigorifique que dans le premier système, soit 100 W, le système de climatisation consommera (avec une efficacité frigorifique de 3) :

  • 100 [W] / 3 = 33 [W] pour la production de froid,
  • 1 [W] pour la pompe de circulation d’eau glacée,
  • 50 [W] / 20 = 2,5 [W] pour le ventilateur du ventilo-convecteur (le ventilateur d’un ventilo-convecteur de 2 kW absorbe une puissance voisine de 50 W).

Soit un total de 36,5 W.

Bilan : on consomme donc 36,5 W pour produire 100 W de froid.

Conclusions

Dans l’exemple ci-dessus, réaliser un free cooling de nuit au moyen d’une ventilation mécanique consomme nettement moins d’électricité que l’élimination de la chaleur résiduelle du bâtiment par les ventilo-convecteurs. On ne peut cependant pas en faire une généralité. Ceci dépend évidemment des consommations respectives des différents équipements.

Par exemple, la puissance électrique des ventilateurs (ici : 0,65 W/(m³/h)) dépend de la perte de charge du réseau de distribution d’air, donc de la complexité du réseau de distribution et de la présence d’équipements comme des batteries de chauffage, des humidificateurs ou silencieux.

Dans un simple circuit de ventilation hygiénique particulièrement étudié pour diminuer la consommation électrique (rendement de ventilateur élevé, pertes de charge faibles), cette puissance peut être réduite à 0,25 W/(m³/h), ce qui favorise grandement le free cooling mécanique nocturne par rapport à la climatisation. Par contre dans un réseau complexe (avec batterie de traitement d’air, …), on peut arriver à des puissances de ventilateur de l’ordre de 1 W/(m³/h).

De même, l’efficacité frigorifique de la production de froid est variable en fonction de sa qualité intrinsèque et des conditions de fonctionnement. On repère, par exemple, dans les spécifications techniques d’un fabricant que l’efficacité frigorifique de la machine x varie de 1,8 (pour une température d’eau froide de 5°C et une température d’air au condenseur de 45°C) à 3,7 (pour une température d’eau froide de 10°C et une température d’air au condenseur de 25°C).

Comme le montre le tableau suivant, le choix du mode de fonctionnement peut varier en fonction de la qualité des équipements.

Exemple : comparaison de la puissance absorbée par le free cooling nocturne et la puissance absorbée par une machine frigorifique pour évacuer 100 W (dans les conditions de fonctionnement de l’exemple ci-dessus) en fonction de la qualité énergétique de la ventilation et de la production de froid .

Puissance spécifique de la ventilation

[W/(m³/h)]

Efficacité frigorifique de la machine frigorifique

Puissance absorbée par la ventilation

[W]

Puissance absorbée par la climatisation

[W]

0,25 1,8

7,5

59

0,65

3

19,5

36,5

1

3,7

30

30

L’idéal serait donc de pouvoir comparer sur site les consommations des deux systèmes existants.

En outre, pour que le type de free cooling décrit ici soit efficace, il faut que la température extérieure soit suffisamment basse pour permettre un refroidissement réel.

Dans l’exemple ci-dessus, si la différence entre la température intérieure et la température de l’air neuf pulsé diminue en dessous de 10°C, il est nécessaire d’augmenter le débit d’air neuf pour garantir la même puissance frigorifique de 100 W. Ainsi si la température de pulsion est inférieure de 5°C par rapport à la température intérieure (ce qui équivaut à une température extérieure de 26 [°C] – 5 [°C] – 2 [°C] = 19 [°C]), le débit de ventilation devrait être augmenté à 56 m³/h, ce qui entraîne une consommation électrique au minimum identique à celle des ventilo-convecteurs. Si l’écart de température diminue encore, ce qui est possible durant les nuits chaudes d’été, le free cooling mécanique sera plus consommateur que le système de climatisation par ventilo-convecteurs !

Ce qui montre la limite du free cooling nocturne mécanique.

Évaluer l’efficacité de la production frigorifique

Évaluer l'efficacité de la production frigorifique


L’efficacité de la production frigorifique

Un indice de mesure d’efficacité : le COP

De l’analyse du fonctionnement thermodynamique de la machine frigorifique, on déduit son efficacité énergétique. C’est le rapport entre la quantité de chaleur absorbée par l’évaporateur et la quantité d’énergie électrique totale absorbée par l’installation, soit principalement le compresseur mais également les équipements annexes (ventilateurs, pompes de circulation d’eau, … )

Efficacité théorique d’une machine frigorifique.

Le bilan énergétique d’une machine frigorifique apparaît sur le diagramme : toute l’énergie captée dans le bâtiment par l’évaporateur (II), plus l’énergie utilisée par le compresseur (I), doit être évacuée par le condenseur vers l’air extérieur (I + II).

L’installation de réfrigération sera donc énergétiquement efficace si elle demande peu d’énergie électrique au compresseur pour atteindre une puissance frigorifique donnée à l’évaporateur.

Appliquons ceci à un climatiseur :

Évaluer l’efficacité frigorifique d’un appareil, c’est établir le rapport entre énergie frigorifique fournie et énergie électrique absorbée par le compresseur.

Quelle valeur de COP atteindre ?

On trouvera dans le tableau ci-dessous, les valeurs recommandées par le standard ARI.

Type d’équipement

COP min. recommandé (kWr/kWe)
Climatiseurs de fenêtre 2,8
Split systèmes
    – Jusqu’à 4 kWr
– Supérieur à 4 kWr
2,8
3,0
Conditionneurs d’air monobloc

À refroidissement par air

    – Jusqu’à 10 kWr
– Supérieur à 10 kWr

À refroidissement par eau

 

2,5
2,9

3,5

Groupes de production d’eau glacée à pistons

À refroidissement par air

– Jusqu’à 100 kWr
– Supérieur à 100 kWr

À refroidissement par eau

    – Jusqu’à 10 kWr
– Supérieur à 10 kWr

 

 

3,0
3,0

 

3,7
4,0

Groupes de production d’eau glacée à vis

À refroidissement par air

À refroidissement par eau

    – Jusqu’à 800 kWr
– Supérieur à 800 kWr

 

4,5

 

4,6
5,0

Groupes de production d’eau glacée centrifuges

À refroidissement par air

    – Jusqu’à 800 kWr
– Supérieur à 800 kWr

A refroidissement par eau

    – Jusqu’à 800 kWr
– Supérieur à 800 kWr

3,8
3,84,5
4,7
  • Conditions standard pour climatiseurs, splits et systèmes monoblocs à refroidissement par air (standard ARI 510) : conditions intérieures = 27°C, 50% HR; conditions extérieures = 35°C bulbe sec et 24°C bulbe humide.
  • Conditions standard pour groupes de production d’eau glacée à refroidissement par eau (standard ARI 550-92) : température départ / retour eau glacée = 6,7°C / 12,2°C ; température entrée/sortie eau de condensation = 29,4°C / 35,0°C.

Une évaluation dans les conditions nominales grâce aux catalogues

A priori, le catalogue du fabricant permet d’évaluer cette situation dans les conditions nominales.

Exemple : voici les spécifications techniques d’un climatiseur réversible présent sur le marché.

Unité intérieure FHYB35FJ
Unité extérieure RY35D7

Puissance frigorifique

kcal/h 3 100
Btu/h 12 300
kW

3,60

Puissance calorifique

kcal/h 3 500
Btu/h 14 00
kW

4,10

Puissance absorbée

rafraîchissement

kW

1,51

chauffage

kW

1,33

On y repère :

– l’efficacité frigorifique, E.F. ou coefficient de performance COPfroid

puissance frigorifique / puissance absorbée = 3,6 kW / 1,5 kW = 2,4 

– l’energy efficiency ratio, E.E.R

puissance frigorifique / puissance absorbée = 12,3 Btu/h / 1,5 kW = 8,2 

Et si l’on souhaite utiliser l’appareil en mode chauffage :

– le coefficient de performance au condenseur, COPchaud

puissance calorifique / puissance absorbée = 4,1 kW / 1,3 kW = 3,2

Remarques.
1. Il ne faut pas confondre COPfroid et COPchaud ! Le COPchaud est le rapport entre l’énergie thermique délivrée au condenseur et l’énergie électrique demandée par le compresseur (c’est un terme qui vient de l’évaluation du rendement d’une pompe à chaleur). Alors que le COPfroid part de la chaleur captée à l’évaporateur. La confusion étant fréquente, il n’est pas inutile lorsque l’on compare le rendement des machines dans les documentations de constructeurs, de vérifier ce qui se trouve derrière l’appellation COP.

2. Il est intéressant de s’inquiéter également de l’efficacité globale de la machine frigorifique installée, c’est à dire du rapport entre le froid produit et l’ensemble de toutes les consommations électriques, y compris les ventilateurs aux échangeurs, les pompes, les tours de refroidissement,… Une machine frigorifique, avec une efficacité excellente, placée sur le toit d’un immeuble de plusieurs étages, peut voir son efficacité fortement chuter si la machine est placée en cave et que le condenseur est refroidi via un gainage d’air traversant les étages ! La consommation du ventilateur sera alors importante dans le bilan final.

Exemple.

Dans l’ouvrage « Diagnostic énergétique des installations frigorifiques industrielles » (ADEME + EDF), on propose un COP compresseur optimal de 4,8 pour un régime 13°/7°. Ce COP descend à 3,9 si on prend l’ensemble du système en compte (consommation des auxiliaires), et à 3,7 si le régime devient 11°/5° (baisse de 6 % du rendement suite à l’abaissement de 2°C à l’évaporateur).

3. L’énergie mécanique des ventilateurs et des pompes se dégrade en chaleur. Donc, non seulement le COP se dégrade par la consommation électrique des auxiliaires, mais aussi la puissance frigorifique disponible diminue.

4. À défaut de mesures spécifiques, on peut prendre une valeur de COPfroid de 4 (c’est la valeur choisie par le CSTC dans le cadre de l’élaboration de la future Réglementation flamande EPR, pour évaluer la consommation d’une machine frigorifique). À cette valeur s’ajoute une consommation globale de 8 [MJ/m².an] pour la consommation des pompes associées au système de refroidissement (soit 2,2 [kWh/m².an]). Cette valeur est réduite de moitié si une régulation de vitesse est appliquée aux pompes.

Exemple d’application

L’éclairage de 10 000 m² de bureaux entraîne aujourd’hui une puissance électrique de 125 kW (sur base de 12,5 W/m²), mais demande 31 kW complémentaires si la charge thermique de l’éclairage est reprise par une installation de conditionnement d’air, sur base d’un COPfroid de 4.

À noter que des compresseurs à vis génèrent des COP dépassant 5 ou 6, mais ce coefficient est généralement établi pour des conditions extérieures très favorables et il n’intègre pas la consommation des ventilateurs, de la tour de refroidissement, …

Comment évaluer l’efficacité énergétique d’une machine en fonctionnement ?

La procédure est complexe, il faut l’admettre. Mais pour une grande partie des installations à condensation par air, il est possible de mesurer approximativement le Delta T° des échangeurs et d’en déduire le COP de l’installation. La précision est suffisante pour déceler des anomalies à l’installation.

Les mesures seront réalisées pendant un temps « stable », la température extérieure étant de 20 à 30°C car l’installation doit être bien chargée, le compresseur doit fonctionner à plein régime, tous les ventilateurs étant en fonctionnement continu.

On mesure :

  • la température de l’air aspiré par le condenseur Ta (en °C) et la température de l’air à la sortie du condenseur Ts (le plus près de la sortie possible, pour éviter que cet air soit déjà mélangé avec de l’air ambiant),
  • la température de l’air aspiré par l’évaporateur et la température de l’air refoulé par l’évaporateur,
  • avec un anémomètre, la vitesse de l’air parcourant chacune des batteries (en m/sec),
  • avec un kWh-mètre, l’énergie absorbée par le compresseur uniquement Qa (en kWh), et éventuellement l’énergie absorbée par la totalité de l’installation Qt en kWh,
  • le temps de fonctionnement du compresseur t (en heures),
  • la surface frontale du condenseur S, c.-à-d. la surface aspirant l’air (en m²).

On calcule alors :

Puissance condenseur = S x v x 1,2 x (Ts – ta) [kW]

Le facteur 1,2 est la chaleur volumique de l’air (1,2 kJ/m³.K), et doit éventuellement être corrigée en fonction de la température.

Puissance absorbée = Qa / t [kW]

Puissance totale = Qt / t [kW]

La puissance évaporateur, l’EE (COPfroid) et le COPchaud se calculent alors aisément.

Finalement, on mesure au manomètre (demander à un frigoriste) la pression d’aspiration et de refoulement du compresseur.

En connaissant le réfrigérant, on peut déduire des tables thermodynamiques la température d’évaporation T0 [en °C] et de condensation Tc [en °C]. Sur base de ces mesures, il est possible de déduire le point de fonctionnement de l’appareil et de vérifier son adéquation avec les données du constructeur et les données du concepteur de l’installation.

Cette méthode est précise à moins de 10 %, en fonction de la précision des mesures. Pour l’avenir, il est important de bien noter les mesures et les résultats obtenus, pour vérification ultérieure et suivi de l’évolution du matériel.

En fait, ce n’est pas tant l’exactitude absolue des mesures qui compte, que la possibilité de comparer les valeurs d’une mesure à l’autre et de repérer une dérive, un jeu dans les clapets, … L’intervention à temps du fabricant permet alors de sérieuses économies.


Le bilan énergétique annuel

Si l’estimation ponctuelle du COP de la machine frigorifique n’est déjà pas simple, réaliser le bilan énergétique annuel de l’appareil est vraiment complexe.

Qui consomme de l’énergie ?

  • le compresseur Cc,
  • les auxiliaires permanents Cp (ventilateurs, pompes, etc.),
  • les auxiliaires non permanents Cnp (résistances de carter, etc.),
  • le dégivrage éventuel Cd (notons qu’il augmente aussi les besoins de froid en produisant de la chaleur à l’évaporateur qu’il faudra compenser par un fonctionnement supplémentaire du compresseur en cycle froid),
  • les pertes en réseau qui augmentent les besoins de froid, donc la durée de fonctionnement du compresseur (consommation intégrée dans cc).

La consommation globale annuelle de l’installation est :

C = cc + Cp + Cnp + Cd (kWh)

Des conditions de fonctionnement très variables

Pour évaluer ces consommations, il ne suffit pas, hélas, de multiplier la puissance des consommateurs par leur temps de fonctionnement…

En effet, la puissance du compresseur est fonction de ses conditions d’utilisation, donc des besoins de froid réels au cours d’une saison. À tout besoin de froid correspond une condition de fonctionnement de l’installation (température d’évaporation, température de condensation) et la chose se complique lorsque le fluide de refroidissement du condenseur n’a pas une température constante tout au long de la saison (ce qui est quasiment toujours le cas).

Pour déterminer la consommation d’énergie d’une installation, il est donc nécessaire d’intégrer tout au long de l’année les puissances absorbées à chaque régime de marche de tous les éléments consommant de l’énergie. Pour cela, il faut déterminer la variation des besoins de froid et le nombre d’heures correspondant à chacun de ses besoins; ceux-ci seront spécifiques à chaque installation. Le calcul est donc complexe …

En pratique, c’est un compteur électrique qui pourra totaliser les consommations, et l’historique du régulateur numérique qui pourra établir le fonctionnement sur une saison.

Reprenons cependant l’exemple d’une installation frigorifique dont le bilan thermique est décrit dans l’ouvrage de J. Bernier (« L’itinéraire d’un frigoriste » paru chez PYC- Éditions) : l’analyse est intéressante pour visualiser l’origine des consommations d’une installation.

L’installation fonctionne toute l’année avec des besoins maximum de froid (Besoin de Froid = BF) de 10 kW. Pour simplifier, on répartira la puissance frigorifique par pas de 1 kW.

Le tableau ci-dessous illustre le calcul de consommation de cette installation fictive. Par exemple, l’installation a fonctionné durant 400 heures à 6 kW-froid, avec une température de condensation de 40°C.

 

BF – Besoin de Froid (kW)

 

10 9 8 7 6 5 4 3 2 1
 

Durée totale heures

 

800 1 500 2 000 1 500 1 000 700 500 300 260 200
 

Durée heures condensation 50°

 

600 1 000 1 300 700 300 200 100
 

Durée heures condensation 40°

 

200 400 500 600 400 300 200 80 60 50
 

Durée heures condensation 30°

 

100 200 200 300 200 200 220 200 150

Exemple de répartition sur l’année des besoins de froid
et des temps de fonctionnement à chaque régime (en heures).

On remarquera que le nombre d’heures de la deuxième ligne correspond à un total de 8 760 heures, soit une année. Les lignes 3, 4 et 5 indiquent la répartition de ces heures en fonction du régime de fonctionnement du compresseur, lui-même fonction de la température extérieure.

Nous allons mettre en situation le compresseur et déterminer ainsi ses consommations partielles à chaque régime de marche. La température d’évaporation est supposée constante à – 10°C.

Consommation du compresseur

La puissance frigorifique et la puissance absorbée d’un compresseur varient suivant les températures d’évaporation et de condensation. La figure ci-dessous illustre ces variations pour notre exemple. La puissance frigorifique au régime extrême – 10/+ 50°C est de 11 kW. (On notera que les courbes utilisées correspondant aux conditions réelles de surchauffe et de sous refroidissement, et non aux conditions nominales données par le constructeur).

Reprenons maintenant notre tableau de fréquences que nous allons compléter avec :

  • la puissance absorbée à chaque régime,
  • le taux de fonctionnement (pourcentage temps de marche horaire),
  • le nombre d’heures de fonctionnement.

Cependant, il faut savoir que pour les faibles taux de fonctionnement, le rendement de production de froid s’écroule littéralement. C’est normal, iI ne doit pas seulement couvrir le BF, mais aussi la mise à température du circuit, qui après chaque arrêt se réchauffe complètement.

Exemple d’affaiblissement de la Production de froid en fonction
du taux d’utilisation du compresseur (Rendement de production de froid RPF).

Ainsi, l’installation étudiée doit assurer pendant 50 heures une puissance froid de 1 kW lorsque la condensation se produit à 40°C. La figure ci-dessus prévoit à ce régime 13,2 kW frigorifique. Le taux de fonctionnement sera de 1 kW/ 13,2 kW, soit 7,5 %. Mais à un tel taux de charge, le rendement de production de froid est de 80 %. Si bien que le temps de fonctionnement réel sera de :

50 heures x 1 kW / (0,80 x 13,2 kW) = 5 heures

D’une manière générale, le nombre d’heures de fonctionnement du compresseur hc à chaque fonctionnement partiel est égal à :

hc = nh x BF / (RPF x Qo)

où,

  • hc, le nombre d’heures de fonctionnement du compresseur
  • NH, le nombre d’heures d’utilisation
  • BF, le besoin de froid
  • RPF, le rendement de production de froid
  • Qo, la puissance frigorifique disponible à l’évaporateur

La consommation totale annuelle du compresseur est égale à la somme de toutes les consommations partielles, aux divers régimes.

 

Besoin de Froid – BF (kW)

 

10 9 8 7 6 5 4 3 2 1
 

Régime : – 10°/50°

 

 

Nbre heures utilisat. NH

 

600 1 000 1 300 700 300 200 100
 

Puissance frigo Qo (kW)

 

11 11 11 11 11 11 11
 

Taux fonct. (%)

 

90 82 73 64 55 45 36
 

Rendement RPF (%)

 

100 100 100 99 99 98 98
 

Puissance absorbée (kW)

 

6 6 6 6 6 6 6
 

Heures fonct. hc

 

545 818 945 445 164 92 37
 

Consommation cc (kWh)

 

3 270 4 908 5 670 2 670 984 552 222
 

Régime : – 10°/40°

 

 

Nbre heures utilisat. NH

 

200 400 500 600 400 300 200 80 60 50
 

Puissance frigo Qo (kW)

 

13.2 13.2 13.2 13.2 13.2 13.2 13.2 13.2 13.2 13.2
 

Taux fonct. (%)

 

76 68 61 53 45 38 30 23 15 7.5
 

Rendement RPF (%)

 

100 99 99 99 98 98 97 95 91 80
 

Puissance absorbée (kW)

 

5.6 5.6 5.6 5.6 5.6 5.66 5.6 5.6 5.6 5.6
 

Heures fonct. hc

 

152 275 306 321 185 116 62 19 10 5
 

Consommation cc (kWh)

 

851 1 542 1 713 1 800 1 039 649 347 107 56 28
 

Régime : – 10°/30°

 

 

Nbre heures utilisat. NH

 

100 200 200 300 200 200 220 200 150
 

Puissance frigo Qo (kW)

 

15.2 15.2 15.2 15.2 15.2 15.2 15.2 15.2 15.2
 

Taux fonct. (%)

 

59 53 46 39 33 26 20 13 6.5
 

Rendement RPF (%)

 

99 99 98 98 97 95 92 89 75
 

Puissance absorbée (kW)

 

5.3 5.3 5.3 5.3 5.3 5.3 5.3 5.3 5.3
 

Heures fonct. hc

 

60 106 94 121 68 55 47 30 13
 

Consommation cc (kWh)

 

317 563 498 640 359 294 250 157 70

Calcul de la consommation annuelle du compresseur

En additionnant toutes les consommations partielles, on trouve pour notre exemple :

cc = 29 556 kWh/an (soit 106 400 MJ/an)

De la même manière, le temps total de fonctionnement annuel du compresseur est égal à la somme des temps de fonctionnement partiels aux divers régimes : hc = 5 091 heures.

Consommation des auxiliaires permanents

Comme leurs noms l’indiquent, ces auxiliaires consommateurs d’énergie fonctionnent en permanence. Dans notre exemple, le ventilateur de l’évaporateur fonctionne en permanence, soit 8 760 heures par an.

Il absorbe 500 W et va donc consommer par an :

Cp = 0,5 kW x 8 760 h = 4 380 kWh/an

Consommation des auxiliaires non permanents

Ce sont les auxiliaires asservis au fonctionnement du compresseur (ventilateur de condenseur, vanne magnétique départ liquide, résistance de carter, etc.)

Pour notre exemple, le ventilateur de condenseur absorbe 300 W et est asservi au compresseur. La bobine de l’électrovanne absorbe 10 W. Le compresseur comporte en outre une résistance de carter (non régulée) qui consomme 20 W quand le compresseur est à l’arrêt.

Nous avons vu que le compresseur fonctionnait 5 091 heures par an. Les auxiliaires non permanents vont donc consommer :

Cnp = (0,3 + 0,01) x 5 091 + 0,02 x (8 760 – 5 091)

Cnp = 1 651 kWh/an

Consommation du dégivrage

Estimer sans observation les consommations d’un dégivrage n’est pas chose toujours facile car leur fréquence est très variable. Pour notre exemple, nous estimerons en moyenne quatre dégivrages par jour de 15 minutes (0,25 heure) à l’aide dune résistance électrique de 6 kW, ce qui conduit à une consommation annuelle de :

Cd = 6 x 0,25 x 365 x 4 = 2 188 kWh/an

Récapitulation des consommations annuelles

La consommation totale annuelle est égale à la somme des consommations de tous les composants de l’installation soit :

C = 29 556 + 4 380 + 1 651 + 2 188 = 37 775 kWh/an ( soit 136 000 MJ)

Traduire en coût une telle consommation dépend essentiellement du régime tarifaire appliqué : entre 11 et 16 c€/kWh, généralement. Tout dépend du moment de fonctionnement de l’installation : jour ? jour durant la pointe ? nuit ? … .

Quelle efficacité énergétique ?

Déterminons l’énergie froid utilisée sur l’année. Il suffit d’intégrer les besoins de froid sur l’année, donc de totaliser les produits des besoins frigorifiques par le temps, pour les 3 régimes de marche.

 

BF – Besoin de Froid (kW)

 

10 9 8 7 6 5 4 3 2 1
 

Nbre d’heures régime : – 10°/50°C

 

600 1 000 1 300 700 300 200 100
 

Nbre d’heures régime : – 10°/50° C

 

200 400 500 600 400 300 200 80 60 50
 

Nbre d’heures régime : – 10°/50°C

 

100 200 200 300 200 200 220 200 150
Total heures 800 1 500 2 000 1 500 1 000 700 500 300 260 700
BF x heures (kWh) 8 000 13 500 16 000 10 500 6 000 3 500 2 000 900 520 200

Exemple de calcul simplifié de l’énergie froid annuelle

L’énergie froid annuelle nécessaire est la somme des chiffres de la dernière ligne du tableau soit :

EF annuel = 61 120 kWh (220 000 MJ)

L’efficacité énergétique moyenne annuelle de l’installation frigorifique est le rapport entre l’énergie froid produite et l’énergie électrique consommée soit, pour notre exemple :

EEmoy = 61 120 / 37 775 = 1,62

On est loin de la valeur nominale de 2,9 pour le cop au fonctionnement (- 10°C (évaporateur) / + 30°C (condenseur) sur base des données du catalogue (15,2 kW / 5,3 kW) !

Plus l’installation sera performante, bien réglée, et bien entretenue et plus ce coefficient sera élevé, ce qui veut donc dire tout simplement que moins l’installation sera gourmande en énergie électrique.

Remarque : ce coefficient EEmoy de 1,62 correspond à une installation frigorifique (« froid négatif ») et pas une installation de climatisation puisque la température d’évaporation est de – 10°C . Généralement, une installation de climatisation aura une température d’évaporation positive, et le EEmoy sera plus élevé.


Le diagnostic d’une installation existante

Les signes de surconsommation énergétique d’une installation frigorifique :

  • L’augmentation des temps de fonctionnement du compresseur, dont les causes sont :
    • soit le manque de fluide frigorigène,
    • soit l’encrassement des échangeurs (condenseur et évaporateur),
    • soit encore le mauvais état du compresseur.
    Le placement d’un compteur horaire de fonctionnement sur l’alimentation du compresseur est un petit investissement qui permettra de déceler une dérive de consommation.
  • La diminution de la température d’évaporation, dont la cause principale est l’encrassement des échangeurs.
  • L’augmentation du nombre de démarrages pour les petites installations (compresseurs hermétiques des split-systems par exemple) ou du nombre de cylindres ou de compresseurs en service. Ceci est généralement dû à un encrassement du condenseur, à des fuites de réfrigérant ou à une mauvaise alimentation de réfrigérant liquide des détendeurs. Ils ne peuvent être pris en compte que si les autres paramètres restent constants, c’est-à-dire pour des conditions ambiantes identiques (même demande au point de vue température et humidité relative) et pour des conditions extérieures identiques (température de condensation, apports internes et externes).

Les tests à effectuer

Les tests à effectuer consistent :

  • Soit à donner des indications sur un fonctionnement anormal de l’installation (mesure du courant absorbé en fonctionnement continu et comparaison avec le courant nominal, comptage des heures de fonctionnement, mesure du débit de l’eau de la tour de refroidissement et du débit d’eau glacée,…).
  • Soit à vérifier l’efficacité énergétique de l’installation frigorifique, c’est-à-dire le rapport entre la puissance électrique absorbée et la puissance frigorifique fournie.

Certaines grosses installations comportent deux compteurs d’énergie qui intègrent le débit de fluide frigorigène et le delta T° avec lequel soit l’évaporateur, soit le condenseur travaillent. Ceci permet de connaître les consommations thermiques sur une période donnée (parfois, c’est sur la boucle d’eau glacée que se trouve le compteur d’énergie).

L’énergie du compresseur peut alors être déduite puisque l’on sait que les relations suivantes sont toujours vérifiées :

Puissance évaporateur + puissance compresseur = puissance condenseur

Énergie évaporateur + énergie compresseur = énergie condenseur

Pour vérifier la qualité de l’installation, il faut établir ce bilan à plusieurs régimes de fonctionnement et le comparer à la courbe d’efficacité en fonction de la charge du constructeur.

Chaque installation est particulière et il est donc difficile de comparer sa consommation à des ratios standards. Les seules références sont : soit celles données par le constructeur, soit l’installation elle-même, à une période antérieure, lorsqu’elle était soumise à une charge similaire.

Remarque.
Une des principales consommation énergétique est liée à la mise en dérogation des fonctions automatiques de régulation. Dès lors, en entrant dans le chaufferie, un coup d’oeil vers l’armoire électrique renseignera l’auditeur : bouton vert = marche, bouton orange = dérogation, bouton rouge = arrêt.


La rentabilité énergétique des interventions de maintenance

La rentabilité énergétique des opérations de contrôle et de maintenance n’est pas évidente à chiffrer.

Toutefois, on peut donner les  économies suivantes (chiffres établis sur base de l’expérience de la société SECA mais qui n’ont pas fait l’objet de mesures en laboratoire),  :

  • Nettoyages réguliers (au moins annuel) des condenseurs à air et des évaporateurs directs : rentabilité de 10 à 30 %
    • 10 % dans le cas d’un encrassement faible,
    • 30 % si ce nettoyage n’a jamais été réalisé.
  • Nettoyage des échangeurs fluide frigorigène – eau (évaporateur et condenseur) : rentabilité de 15 à 25 %

L’absence d’entretien peut créer des surconsommations importantes :

  • dégradation de la qualité de l’eau du circuit de condensation, absence d’installation d’adoucissement et de traitement anti-algues : surconsommation de 5 à 20 %;
  • engorgement des filtres déshydrateurs sur le circuit de fluide frigorigène : surconsommation de 10 à 15 %;
Exemple.

Voici les résultats dune simulation informatique réalisée par Mr De Smet de l’ABF.

Soit une machine frigorifique conçue pour fonctionner 16 heures sur 24 au régime – 10°/40° avec des gaz aspirés à + 10°, et avec un sous-refroidissement liquide de 6 K.

Elle présente un manque d’entretien et une dégradation de l’isolation. Elle fonctionne à – 15° (évaporateur partiellement pris en glace), à + 50° (condenseur encrassé), avec une température d’aspiration des gaz de + 15° (isolation des conduites endommagée).

Résultats : elle devra tourner 23h/24 pour un même bilan frigorifique et consommera 39 % d’énergie en plus.

En appliquant ceci à un groupe de 7,5 CV en fonctionnement 4 000 heures par an, cela entraîne une surconsommation de 6 789 kWh/an, soit un surcoût annuel de 1086 € (à 0,16 €/kWh) De quoi faire entretenir l’installation convenablement !


L’analyse de la puissance frigorifique installée

Pas besoin d’un camion si une camionnette suffit ! Une installation surdimensionnée génère des pertes de fonctionnement supplémentaires…

Comment évaluer les puissances frigorifiques nécessaires ? Quels sont les ratios ?

On considère généralement qu’une climatisation devient nécessaire dans un local si l’ensemble des apports thermiques dépasse 50 W/m² au sol.

Pour refroidir un local (bureau, par ex), on installera une puissance frigorifique de 60 à 80 W/m² utile (hors circulations) lorsque les besoins sont limités :

  • Soit parce que des mesures particulières ont été prises pour limiter les apports solaires (stores extérieurs) ou les charges internes (éclairage performant, bureautique avec gestion des puissances,…).
  • Soit parce qu’il s’agit d’un bâtiment ancien, à forte inertie, pour lequel on souhaite simplement compenser les charges nouvelles apportées par le développement de la bureautique.

On atteindra des puissances de 80 à 120 W/m² lorsque des apports solaires non maîtrisés viennent s’ajouter aux charges internes. Un cas critique apparaît dans les locaux d’angle puisque ceux-ci cumulent les apports solaires de 2 orientations différentes de façade (au pire : un local avec des baies vitrées au Sud et à l’Ouest…).

Des valeurs dépassant 150 W/m² apparaissent lorsque des charges ponctuelles supplémentaires sont placées

  • salle informatique,
  • salle de réunion ou de formation,

Calculs

Pour se faire une première idée des puissances frigorifiques en jeu dans un local, et l’importance relative de chaque source de chaleur, un logiciel d’évaluation est à disposition : cliquez ici !

L’intérêt d’une récupération de chaleur au condenseur

Principe

Une machine frigorifique extrait la chaleur excédentaire du bâtiment et la rejette à l’extérieur.

Si des besoins de chauffage (de locaux, d’eau chaude sanitaire, …) sont présents simultanément dans le bâtiment, il semble alors logique de tenter de récupérer la chaleur sur le condenseur de la machine frigorifique.

Par exemple, un supermarché Delhaize à Bruxelles évacue la chaleur du condenseur du groupe frigorifique (armoires de congélation) en créant un rideau d’air chaud à l’entrée du magasin. En été, la chaleur est déviée en toiture par un clapet.

Domaines d’application

Dans le bâtiment tertiaire, cette technique est moins évidente qu’elle n’en a l’air :

  • parce que des besoins de réfrigération constants toute l’année existent peu,
  • parce que les besoins de chauffage et de refroidissement apparaissent généralement en opposition (lorsque les besoins de froid augmentent, les besoins de chauffage diminuent…).

Seul un local informatique présente des besoins de refroidissement permanent, été comme hiver. Mais ce local est traité généralement à partir d’une machine indépendante et celle-ci pourra être refroidie directement par l’air extérieur, en by-passant la machine frigorifique (technique de free-chilling).

Enfin, si l’on imagine un transfert directement au niveau des locaux (refroidir le cœur du bâtiment et réchauffer les locaux en façades), le système DRV (Débit de Réfrigérant Variable) dispose d’une version avec récupération d’énergie apte à réaliser ce type de transfert.

Il n’empêche que si le bâtiment comprend simultanément des besoins de froid (centrale frigorifique de la cuisine collective) et des besoins de chauffage (eau chaude sanitaire des douches), il semble clair qu’une récupération d’énergie doit être étudiée par un bureau d’études.

Des ballons de préchauffage de l’eau chaude sanitaire pré-équipés d’un échangeur en série avec le condenseur de la machine frigorifique existent sur le marché.

Améliorer

Pour plus d’infos : la mise en place d’une récupération de chaleur au condenseur.

La technique du free-chilling peut-elle s’appliquer ?

Le principe de base du free-chilling est simple :

Lorsque la température extérieure descend sous les … 12°…10°…, l’eau est directement refroidie par l’air extérieur et la machine frigorifique est mise à l’arrêt.

Schéma principe de base du free-chilling.

Quelles sont les installations adaptées au free-chilling ?

L’économie d’énergie est évidente si des besoins de refroidissement existent en hiver.

L’intérêt est augmenté si les échangeurs des unités terminales travaillent à « haute » température : ce sera le cas de plafonds froids, ou de ventilos-convecteurs surdimensionnés pour travailler au régime 12°-17°,… Si l’installation demande une puissance de refroidissement faible (de l’ordre de 60 W/m²), on peut même faire travailler les plafonds froids au régime 17° – 19°C, ce qui permet un refroidissement par l’air extérieur pendant un plus long moment de l’année.

De plus, si l’installation dispose déjà d’un refroidissement à eau, une adaptation sera aisée : l’investissement est alors pratiquement nul !

Améliorer

Pour plus d’infos : la mise en place d’un free-chilling.

Y a-t-il intérêt à placer un stockage de froid ?

Deux techniques sont possibles

  • insérer une bâche d’eau glacée dans le circuit (sorte de très grand ballon tampon),
  • créer un stock de glace la nuit et la faire fondre en journée afin de refroidir l’eau glacée du bâtiment.

Photo stockage de froid.

L’intérêt d’un stockage de froid

D’emblée, soyons clairs : si la bâche d’eau glacée permet d’améliorer le rendement du compresseur (augmentation de la durée de fonctionnement des compresseurs), le stockage de froid ne génère lui aucune économie d’énergie.

Pourtant, le stockage de froid est intéressant à plus d’un titre :

Diminution de la facture électrique

  • Le kWh frigorifique produit la nuit et/ou en dehors des heures de pointe revient nettement moins cher.
  • Si la réserve de froid est utilisée au moment de la pointe ¼ horaire du bâtiment, les compresseurs peuvent être délestés, ce qui permet de réelles économies financières sur le coût de la pointe.
  • Mais lorsque la machine frigorifique « fait de la glace », la température à l’évaporation descend. Elle travaille avec un moins bon rendement que lors du régime normal de préparation de l’eau glacée ! Ceci est partiellement contrebalancé par le fait que la température de condensation va également pouvoir diminuer, suite aux températures plus fraîches de la nuit.
  • La puissance de la machine frigorifique descend à 60 % … 70 % de sa valeur nominale lorsqu’elle prépare de l’eau glacée. Par exemple, voici l’évolution pour une machine particulière : la puissance lors de la charge de nuit est donc réduite à 324 kW / 458 kW = 71 % de la valeur nominale.

Diminution de la puissance frigorifique installée

  • Pour les nouvelles installations, il y aura diminution de la puissance frigorifique installée, par étalement de la charge dans le temps, et donc diminution de l’investissement initial en machines frigorifiques et équipements annexes.
  • Pour les installations existantes, on peut augmenter la charge frigorifique sans augmentation de la puissance électrique installée (c’est intéressant pour des bâtiments en rénovation dont on souhaite augmenter l’équipement bureautique, sans devoir augmenter la puissance du transformateur).

Réduction de l’encombrement des condenseurs/tours de refroidissement en toiture

Photo condenseurs/tours de refroidissement en toiture.

C’est un avantage lié à l’absence de placement d’une machine frigorifique supplémentaire, mais il faut prévoir la place du stockage lui-même…

Le stockage thermique est volumineux et sera donc généralement limité à une part de la consommation journalière.

Réserve stratégique de froid en cas de rupture de la machine frigorifique

  • possibilité d’un secours partiel (quelques heures seulement…) en cas de panne de la machine frigorifique ou d’interruption de la fourniture d’énergie électrique, seules les pompes étant alimentées par le groupe de secours. C’est une sécurité parfois recherchée pour les salles ordinateur ou télécommunication.

La rentabilité d’un stockage de glace

La rentabilité d’un stockage de glace s’établit par le rapport entre le surcoût au niveau de l’installation frigorifique et l’économie financière réalisée.

Le surcoût est estimé entre 20 et 30 % de l’installation frigorifique initiale. Cette estimation comprend :

  • Les bacs à glace : on peut compter 30 €/kWh de stockage pour une petite installation de 2 000 kWh, 25 €/kWh pour une installation de 5 000 kWh, 20 €/kWh pour une belle installation de 10 000 kWh.
  • Les équipements annexes : pompes, échangeurs,…
  • L’installation de régulation plus complexe pour la gestion des cycles charge-décharge.
  • La déduction du prix de la machine frigorifique que l’on a pu économiser.

Ce qui est difficile à chiffrer et qui constitue un frein majeur du développement du stockage de nuit, c’est le volume nécessaire dans le bâtiment pour entreposer les bacs !…

L’économie financière est essentiellement résultante de l’écrêtage de la pointe quart-horaire. L’économie réalisée sur le coût moindre du kWh de nuit par rapport au kWh de jour est proportionnellement plus faible.

Par exemple, prenons le tarif « binôme A – Éclairage » :

Le prix du kWh de jour est de 6,23 c€/kWh (HTVA) contre 4,33 c€/kWh la nuit. En passant dune production de jour vers une production de nuit, l’économie est donc de 21 %. Mais le fait de produire de la glace engendre un abaissement de la température d’évaporation, et le compresseur n’apprécie pas !

Ainsi, un compresseur qui voit la température d’évaporation passer de + 2°C à – 5°C voit son rendement baisser de 20 % environ. Si, parce qu’un échangeur intermédiaire supplémentaire est placé, la température d’évaporation passe à – 10°C, le rendement chute de 30 %… ! En y ajoutant quelques pertes inévitables par les parois des bacs, et les consommations des pompes,… tout le bénéfice est mangé !

Il n’empêche que les installations à – 5°C sont possibles et que l’on peut sélectionner des machines frigorifiques capables de valoriser la faible température nocturne (et donc la faible température de condensation).

Mais c’est sur le coût de la pointe de puissance que le gros de l’économie doit être trouvé (7,8 €/kW de pointe, chaque mois) ! Le temps de retour du projet pour une installation électrique de 500 kW et plus descend sous les 3 ans, d’après les fournisseurs.

Chaque scénario doit être étudié sérieusement. Ainsi, un bâtiment avec une prédominance de consommation électrique en été aura avantage à choisir le tarif horo-saisonnier. Dans ce cas, le délestage du groupe frigorifique durant le 4 mois d’hiver sera très rentable : 13,5 €/kW HTVA. Mais c’est également le moment où la demande de froid est la plus faible… L’équipement peut-il s’amortir sur ces mois d’hiver ?

Améliorer

Pour plus d’infos : la mise en place d’un stockage de froid.

 

Limiter les pertes de chaleur

Limiter les pertes de chaleur


Un profil de demande thermique en forte évolution

Les conséquences de l’isolation des parois extérieures

Hier et aujourd’hui
(couleur beige = isolant).

Le fonctionnement thermique des bâtiments tertiaires subit une révolution depuis 20 ans suite à la conjugaison de 3 facteurs :

  1. Un renforcement de l’isolation et surtout l’arrivée de vitrages très performants.
  2. Une explosion des apports internes électriques.
  3. Une tendance à augmenter les surfaces vitrées en façade.
Résultats d’une simulation informatique

Pour un même immeuble type de bureau, nous avons comparé les bilans énergétiques entre une construction ancienne (simple vitrage, murs non isolés, …) avec une version usuelle aujourd’hui (double vitrage, murs isolés, …).

Voici les bilans obtenus (évolution de la demande en fonction de la température extérieure, celle-ci variant de – 10 à + 30 °C) :

Une évolution sensible par rapport aux bâtiments des années 70 apparaît :

  • L’isolation élevée diminue les besoins de chauffage en hiver.
  • La bureautique couvre une part des besoins d’hiver… mais augmente les besoins de refroidissement en été et en mi-saison.
  • Le soleil génère des pointes de température difficile à accepter par l’occupant. Les périodes de canicule sont présentes, elles génèrent un risque d’inconfort majeur, mais ne représentent pas une consommation d’énergie élevée, car le temps est court.

Si autrefois le chauffage était arrêté par + 15°C extérieur, aujourd’hui le chauffage des locaux est arrêté dès + 11°C extérieur, voire moins s’il y a beaucoup d’apports internes (la chaudière reste en service pour l’éventuel chauffage de l’air neuf et de l’eau chaude sanitaire). En mi-saison, des locaux restent en demande de chaleur au nord, alors que la façade sud est déjà en demande de refroidissement.

L’isolation diminue la demande de chauffage (hiver) et augmente la demande de refroidissement (été). Mais le bilan global des consommations annuelles est toujours positif en faveur de l’isolation.

Par rapport à un bâtiment mal isolé, la consommation de chauffage tombe au tiers de sa valeur. Et parmi ce tiers restant, le chauffage de l’air neuf hygiénique représente la moitié des besoins.

Si autrefois il y avait 8 mois d’hiver et 4 mois d’été, aujourd’hui la période de chauffe est limitée à 6 mois (15 octobre – 15 avril).

Mais le besoin de rafraîchissement est accru, en été et en mi-saison.

La diminution de l’inertie et l’augmentation des gains internes

Autrefois, le bâtiment disposait d’une bonne inertie thermique qui lissait les pointes d’apports solaires en journée (les bâtiments ne se comportaient pas comme une voiture laissée en plein soleil …) grâce à l’immense réservoir que constituait la masse des parois.

Suite à sa faible isolation, le bâtiment se « déchargeait » la nuit de la chaleur accumulée en journée.

Aujourd’hui, la tendance va vers :

  • La diminution de l’inertie pour des raisons fonctionnelles (tapis, faux plafond, cloisons mobiles, …).
  • L’augmentation des équipements de bureautique (doublement des consommations électriques du secteur tertiaire durant ces 15 dernières années !).
  • L’amplification des apports solaires suite au souhait du Maître d’Ouvrage de larges baies vitrées.
  • La chaleur interne se retrouve « piégée » dans le bâtiment suite à l’isolation des parois.

Faut-il une forte isolation ? Ne perd-on pas en climatisation ce que l’on gagne en chauffage ?

Non, toutes les simulations informatiques montrent que le bilan reste bénéficiaire en faveur de l’isolation, notamment parce que la saison de chauffe est plus longue que l’été.

Voyons les choses positivement : autrefois, on n’avait pas conscience de l’existence d’une « chaleur interne » parce que celle-ci était négligeable face aux déperditions des parois. A présent, les fuites de chaleur étant maîtrisées et les apports internes amplifiés par l’évolution technologique, ces apports viennent à satisfaire en bonne partie nos besoins hivernaux. Nous arrivons à chauffer nos bureaux avec 7 litres de fuel au m², contre 20 à 25 dans les années 50. Et c’est tant mieux.

Puisqu’une consommation électrique minimale est nécessaire (bureautique, éclairage, …), tant mieux si nous pouvons « utiliser une deuxième fois » cette énergie pour nous chauffer.

Quant aux besoins de rafraîchissement, la courbe bleue du diagramme ci-dessus montre qu’ils apparaissent majoritairement lorsque la température extérieure est entre 14 et 22°C, c.-à-d. plus froide que l’ambiance intérieure. À ce moment, il devrait être possible « d’ouvrir le bâtiment » pour valoriser l’air frais et décharger le bâtiment,… mais le bruit, la pollution de l’air ou le risque d’intrusion rendent cette ouverture parfois complexe.

Ceci renforce l’importance d’une conception initiale du bâtiment adaptée à ce nouveau profil de consommation et la mise en place d’un système de refroidissement qui valorise l’air frais extérieur.

Théories

Pour plus d’informations sur l’évolution des besoins thermiques des immeubles, suite à l’isolation des parois.

Et ceci ne nous épargne pas la nécessité de trouver une solution pour gérer la période de canicule !


Optimaliser le volume du bâtiment

En réalité la chose n’est pas simple : il s’agit de trouver, selon la programmation du bâtiment et le contexte d’implantation (forme et taille du terrain, environnement bâti ou paysager, …) le compromis optimal entre :

  • une grande compacité pour limiter les pertes de chaleur,
  • et une faible compacité pour profiter d’éclairage naturel et faciliter le rafraîchissement par ventilation naturelle.

L’intérêt de la forte compacité

Un bâtiment compact, s’approchant du cube, a peu de pertes de chaleur. La surface de déperdition de l’ensemble de ses façades est limitée par rapport au volume des locaux. Les zones centrales, en contact avec d’autres locaux à la même température, ont beaucoup moins de pertes de chaleur que les locaux périphériques.

Par contre, ces zones sont difficilement éclairées et ventilées naturellement.

L’intérêt de la faible compacité

Un bâtiment peu compact (barre, en « peigne », carré avec cour intérieure, présentant de nombreux décrochements, …) a une surface de façade plus importante par rapport au volume des locaux et aura donc plus de déperditions, et une demande de chauffage accrue.

Par contre, le fait d’avoir plus de locaux en façade permet de les éclairer naturellement, et d’organiser relativement facilement une ventilation naturelle.

Exemple : Queen’s Building de l’Université de Montfort, en Angleterre. Les locaux, ventilés naturellement, sont agencés par rapport à leur fonction et la développée de l’enveloppe est importante.

Photo Queen's Building.

Plan Photo Queen's Building.

Plan du premier niveau :

  1. ateliers d’électricité
  2. salles de cours
  3. atrium
  4. auditoires
  5. laboratoire de mécanique

Concrètement

Selon les cas, le juste compromis sera en faveur de l’une ou de l’autre solution.

Dans les bâtiments récents, bien isolés, le problème de la surchauffe et de la consommation de froid prend de plus en plus d’importance par rapport à celui de la consommation de chauffage.

Il convient donc, a priori, de favoriser autant que possible l’éclairage naturel et les possibilités de refroidir naturellement le bâtiment par ventilation naturelle intensive en :

  • Limitant la profondeur des locaux. On recommande de limiter la profondeur des bureaux au double de la hauteur du local, soit à environ 6 m. Ainsi, si deux rangées de bureaux sont séparées par un couloir central, cela donne une profondeur de bâtiment d’environ 15 m.
  • Limitant le nombre d’étages à 2 ou 3 idéalement. Les contraintes techniques pour organiser une ventilation naturelle intensive dans des bâtiments plus hauts deviennent très lourdes (exemple : cheminées hautes).

Limiter les besoins de chauffage

Opter pour un bâtiment bien isolé

L’isolation de l’enveloppe est, et de loin, le moyen le plus efficace pour réduire la consommation d’un bâtiment. Et les vitrages très performants permettent aujourd’hui de diminuer drastiquement les consommations d’hiver.

Non, on n’isole JAMAIS trop. L’isolation diminue la demande de chauffage en hiver et augmente celle de refroidissement en été, mais le bilan global des consommations annuelles est toujours en sa faveur.

Il est toujours utile d’isoler, même si cela entraîne la nécessité de climatiser. Bien entendu, l’idéal est de trouver des solutions naturelles pour rafraîchir le bâtiment et éviter ainsi le refroidissement mécanique.

Dans les propos ci-dessous, on supposera toujours que le bâtiment est bien isolé.

On donnera également aux concepteurs le temps et les moyens nécessaires pour étudier les détails de construction à prévoir pour éviter les ponts thermiques (principe de continuité de l’isolation).

Concevoir

Pour plus de détails sur la conception des détails de façades.

Favoriser l’étanchéité de l’enveloppe

Le problème est qu’il est impossible d’arrêter ce type de ventilation lorsqu’elle n’est pas nécessaire, en dehors des temps d’occupation notamment. Or elle est fortement consommatrice d’énergie.

Aujourd’hui, il convient de réaliser une enveloppe très étanche à l’air (parois, joints, portes, etc.) et d’organiser une ventilation hygiénique contrôlée (naturelle ou mécanique).

  • Lors de la construction, on sera très attentif à l’étanchéité à l’air des parois. Le bâtiment ne doit pas se « décharger » de sa chaleur en hiver par des fuites multiples de son enveloppe. La norme européenne EN 13779 recommande un taux de renouvellement d’air maximum sous la pression d’essai de 50 Pa (n50) de 1/h, ce qui génère en moyenne un taux de renouvellement d’air par infiltration de 4 % (0,04/h).

« Blower-test » de contrôle de l’étanchéité .

  • Il sera très utile de prévoir un sas à l’entrée du bâtiment, particulièrement en cas de climatisation de celui-ci.
  • On sera très attentif également à la fermeture des grilles de châssis (ventilation hygiénique) pendant la nuit et le week-end, quitte à installer des grilles motorisées si la motivation future de l’occupant paraît faible…

Limiter les besoins de chauffage de l’air neuf hygiénique

Dans un immeuble bien isolé d’aujourd’hui, le chauffage de l’air neuf hygiénique génère plus de la moitié des consommations de chauffage. On veillera dès lors à :

  • Limiter le débit d’air neuf à 30 m³/heure/personne en période de chauffe. Ce débit peut bien sûr être augmenté en mi-saison et/ou en été.
  • Favoriser les installations de ventilation « double flux » : une école est occupée 25% du temps, un bureau 30% du temps ! Il est donc fondamental de pouvoir stopper le débit d’air en période d’inoccupation.
  • Gérer ce débit en fonction de la présence effective des occupants : un capteur (détecteur de présence, sonde CO2, …) peut permettre de moduler le débit, par palier (ventilateur à plusieurs vitesses) ou en continu (ventilateur à vitesse variable). Tout particulièrement, le débit d’air neuf sera stoppé lors de la relance du bâtiment (le lundi matin, par exemple), avant l’arrivée des occupants.
  • Préchauffer l’air neuf hygiénique par récupération de chaleur
    • Sur l’air extrait (échangeur à plaques, par exemple). Idéalement, il faudra prévoir alors que les conduites d’extraction soient proches des conduites de pulsion d’air.
    • Sur une zone tampon du bâtiment. Par exemple, une prise d’air placée dans un atrium captera de l’air déjà préchauffé par le bâtiment et/ou le soleil.
    • Sur un puits canadien dans le sol pour capter l’énergie géothermique.
    • Sur un condenseur de machine frigorifique, si celui-ci présente un fonctionnement annuel. On imagine par exemple qu’un rideau d’air chaud à l’entrée du bâtiment puisse être alimenté par le refroidissement de la salle informatique ou de la chambre froide de la cuisine.

Si ces idées sont retenues dès le début du projet, elles entraînent peu de surcoûts.

Concevoir

Pour plus de détails sur la conception des installations de ventilation.

Faut-il forcément climatiser le bâtiment ?

Pour certains, le rafraîchissement de l’ambiance intérieure semble aujourd’hui incontournable. Le maître d’ouvrage se trouve-t-il alors confronté à l’obligation d’investir à la fois dans une installation de chauffage, certes plus petite qu’avant, mais aussi dans une installation de refroidissement ?

Non, une machine frigorifique ne doit pas être obligatoirement être installée dans nos régions. Mais une « stratégie de rafraîchissement active » doit être étudiée si la puissance thermique des apports de chaleur dépasse 50 à 60 W/m² au sol.

Décrivons ci-dessous ces diverses possibilités.

Calculs

Pour évaluer la puissance thermique prévisible dans un local et vérifier que les 60 W/m² ne sont pas dépassés, nous vous proposons

une feuille de calcul simplifiée sur Excel.

Trois stratégies sont possibles :

Stratégie 1 : limiter les sources de chaleur et se passer de la machine frigorifique

Constat : depuis l’âge de la pierre, l’homme se chauffe. Cela se comprend, il souhaite vivre dans une ambiance entre 20 et 24°C. Or la température moyenne extérieure annuelle dans nos Régions est de 10°C. Un complément de chaleur est nécessaire.

Par contre, la température à Uccle dépasse 24° durant 2 % de l’année seulement ! Autrement dit, 98 % du temps, il fait plus froid à l’extérieur du bâtiment qu’à l’intérieur. Comment se fait-il que nous ayons alors besoin d’une machine frigorifique pour le refroidir ???

Inspirons-nous du mas provençal (qui reste bien frais même lorsqu’il fait torride à l’extérieur) pour construire un bâtiment.

  • Il dispose de suffisamment d’inertie intérieure pour stabiliser les variations de température en journée,
  • il « décharge » le bâtiment via un rafraîchissement nocturne par air (free cooling) ou par eau (slab cooling) pour évacuer l’excédent de chaleur grâce à l’air frais de la nuit.

Free cooling et slab cooling.

Pour vous faire une opinion, voici trois exemples conçus en Angleterre, pays qui a pris beaucoup d’avance dans ce domaine :

Études de cas

Le bâtiment environnemental du « BRE ».

Études de cas

Le centre administratif de Powergen.

Études de cas

Le « Queen’s Building » de l’Université De Monfort.

Mais en Belgique aussi, des initiatives sont prises, comme dans le bâtiment IVEG à Anvers :

Études de cas

Le bâtiment IVEG.

Stratégie 2 : installer chauffage et refroidissement, mais en limiter l’usage aux périodes extrêmes

Analysons la répartition des températures extérieures à Uccle :

Admettons l’évolution actuelle vers l’installation d’une machine frigorifique. Ce n’est pas en soit plus mauvais de refroidir que de chauffer (contrairement à une idée couramment répandue, avec un 1 kWh électrique au compresseur, on produit 3 kWh de froid. Et pour obtenir 1 kWh électrique en sortie de centrale, il faut consommer 2,8 kWh d’énergie primaire. Donc le bilan entre chauffage et refroidissement est neutre).

L’objectif de conception devient :

  • recours au chauffage des locaux durant les seules périodes de grands froids (T°ext <…5°C…),
  • recours au refroidissement mécanique aux seules périodes chaudes (T°ext >…18°C…),
  • durant le reste du temps (5°C < T°ext > 18°C), c.-à-d. plus de 60 % de l’année, les apports internes et externes « gratuits » assurent le chauffage, et l’air extérieur assure le refroidissement de mi-saison. Aucun apport thermique par combustible ne doit être apporté à ce moment.

Cela sous-entend une conception adaptée du bâtiment (pouvoir ouvrir les façades dès qu’il fait trop chaud à l’intérieur, par exemple) et du système de climatisation (conçu comme un appoint), ainsi que le placement d’un récupérateur de chaleur sur l’air extrait, …

C’est une solution à très basse consommation, mais qui nécessite parfois un investissement plus élevé, sauf si le même système gère le chaud et le froid (slab cooling, pompe à chaleur, …). En contre-partie, elle apporte une garantie de résultat final : chauffage et climatisation sont présents pour couvrir toute période de pointe, toute évolution future du bâtiment.

Comment choisir ?

La première stratégie devrait a priori être toujours étudiée. Puisqu’elle ne fonctionne que si les apports de chaleur sont drastiquement réduits, ceci sous-entend que l’approche énergétique est globale. On y gagne donc deux fois : parce que les équipements sont à faible consommation et parce qu’ils n’ont pas entraîné le fonctionnement d’un climatiseur. De plus, la simplification des systèmes est une garantie d’exploitation future à faible coût. Enfin, elle permet à l’occupant de retrouver le contact avec l’extérieur par l’ouverture des fenêtres, ce qui est luxe à nul autre pareil.

La deuxième stratégie est certainement prometteuse. Cette recherche « d’autonomie » maximale du bâtiment sans énergie autre que celle des équipements interne (éclairage et bureautique) et externe (soleil), cette conception des systèmes de chauffage et de refroidissement comme appoint en période de pointe, … constitue un des défis majeurs à relever pour les bâtiments futurs. Lorsque le contexte l’impose (environnement bruyant et pollué, volonté de garantir une stricte consigne de température intérieure, …), c’est la voie à suivre. Elle demande de la créativité tant à l’architecte qu’à l’ingénieur. Encore faut-il leur en laisser le temps et les moyens dans la phase de conception.

À noter une troisième stratégie « de compromis » :

Peut-être qu’une climatisation partielle du bâtiment est la solution ?

Dans les locaux avec forte production de chaleur interne (le centre informatique d’une société d’assurances, par exemple), la climatisation s’impose. Mais il est possible de regrouper dans cette partie du bâtiment les équipements les plus dispensateurs de chaleur (photocopieuses, imprimantes, …) et d’y prévoir une installation de free-chilling (by-pass de la machine frigorifique en hiver et refroidissement direct sur l’air extérieur).

Une telle centralisation des équipements de bureautique permet également de mieux gérer le bruit dans les locaux : les moniteurs des PC sont centralisés en ne laissant plus l’accès qu’aux écrans et claviers. Des lecteurs communs de CD ou de disquettes sont accessibles en partage.

De même, l’ensemble des locaux de réunion peuvent être regroupés (superposés, un ou deux par étage) et gérés par une installation « à volume d’air variable » (VAV).

Enfin, les autres locaux, dégagés des apports thermiques principaux, peuvent alors être gérés par refroidissement naturel.

A chaque besoin,… sa solution. Et cette « décomposition thermique » du bâtiment peut avoir un impact extérieur visible sur son architecture, … ce qui n’est pas inintéressant !

Check-list pour une installation [Ventilation URE]

Voici un résumé des points essentiels qui garantissent une installation de ventilation énergétiquement efficace et confortable.

On sera attentif à 3 aspects du projet :

Paramètres de dimensionnement

Exigences

Pour en savoir plus

Le débit d’air doit correspondre aux exigences des réglementations en vigueur (ni plus, ni moins).

Concevoir

Idéalement, les pertes de charge du réseau de distribution double flux ne doivent pas dépasser 900 Pa (recommandation SIA pour les installations très performantes).

Concevoir

La vitesse de l’air dans les conduits doit être limitée pour limiter les pertes de charge et la production acoustique.

Concevoir

Le niveau acoustique dans les locaux ne doit pas dépasser (grand standing/moyen/minimal):

Concevoir


Choix de matériel

Exigences

Pour en savoir plus

Tout bâtiment neuf doit comporter un dispositif de ventilation avec au minimum des amenées d’air neuf naturelles ou mécaniques dans les locaux de travail et une extraction d’air vicié dans les sanitaires (ventilation simple ou double flux).

Concevoir

Idéalement, une pulsion d’air neuf doit être accompagnée d’un préchauffage (T° de 12 .. 16°C), pour éviter les risques de courant d’air et les risques de condensation sur les conduits et d’une humidification en hiver.

Concevoir

Le debit nominal des amenées d’air doit correspondre aux réglementations pour une différence de pression de 2 Pa.

Concevoir

Pour éviter les risques de courant d’air, les grilles d’amenées d’air naturelles doivent comporter un système autoréglable maintenant le débit dans une plage acceptable.

Concevoir

Pour éviter les courants d’air, les grilles d’amenées d’air naturelles doivent être disposées à plus de 1,8 m de haut et de préférence au-dessus d’un corps de chauffe.

Concevoir

Le coefficient k des grilles d’amenées d’air en position fermée ne doit guère dépasser 3 W/m²K.

Concevoir

Dans les ambiances extérieures bruyantes, des grilles d’amenées d’air naturelles peuvent être équipées d’une isolation accoustique.

Concevoir

Pour assurer un balayage correct de locaux, des dispositifs de transfert (grilles ou détalonnage des portes) doivent être prévus entre les locaux nécessitant un apport d’air neuf et les locaux d’où l’air est évacué.

Concevoir

Pour éviter les risques de courant d’air, les bouches de pulsion doivent être choisies telles que :

En résumé

Grandeurs à respecter

Où ? Combien ?
Débit zone d’occupation selon les besoins
Puissance acoustique au niveau de la bouche max : 45 dB(A)
Vitesse de l’air zone d’occupation
(à 1,8 m de haut)
max : 0,2 m/s
le long des murs
(à 1,8 m de haut)
max : 0,4 m/s
Écart de température dans l’air ambiant zone d’occupation max : + 1,5°C
(chauffage)
zone d’occupation max : – 1°C
(en refroidissement)

Concevoir

Les entrées et les sorties d’air doivent être disposées de manière à garantir un balayage correct des locaux et l’évacuation des polluants.

Concevoir

Si les bouches de pulsion peuvent être fermées (automatiquement par détection de présence ou manuellement par les occupants), un système d’autoréglage des débits doit être prévu sur chacune des bouches.

Concevoir

Aucune perturbation ne doit être prévue aux abords des bouches (registre, coude, …) sous peine d’une production acoustique importante.

Concevoir

Les ventilateurs à aubes recourbées vers l’arrière sont en général à privilégier. Les ventilateurs à aubes recourbées vers l’avant ne sont permis que pour des débits inférieurs à 5 000 m³/h.

Concevoir

Le ventilateur choisi doit avoir le rendement maximum au point de fonctionnement.

Exigences du cahier des charges 105 :

Puissance utile Rendement minimum
> 7,5 kW 80 %
7,5 kW >  > 3,5 kW 75 %
3,5 kW >  > 2 kW 70 %

 

Concevoir

Le ventilateur choisi doit avoir une pression dynamique minimum au point de fonctionnement.

Exigences du cahier des charges 105 :

Type de ventilateur % de pression dynamique max par rapport à la pression totale
centrifuge à aubes inclinées vers l’avant 20 %
centrifuge à aubes inclinées vers l’arrière 10 %

Concevoir

L’entraînement direct des ventilateurs avec convertisseur de fréquence présente moins de perte que l’entraînement par courroies.

Concevoir

Dans le cas d’un entraînement par courroies, il faut choisir les poulies les plus grandes possibles ou augmenter le rendement de transmission.

Concevoir

Pour des puissances inférieures à 1 kW, les moteurs à courant continu ont de meilleurs rendements que les moteurs asynchrones.

Concevoir

Pour limiter les pertes de charge, la section du raccord entre le ventilateur et le réseau doit être comprise entre 87,5 % et 107,5 % de la section de sortie du ventilateur et l’angle du raccord ne peut dépasser 15° pour un convergent et 7° pour un divergent. La pièce de transformation doit être placée à une distance du ventilateur supérieure à deux fois le diamètre de sa roue.

Concevoir

Le réseau de distribution doit être dessiné pour en diminuer la longeur et donc pour limiter la hauteur manométrique du ventilateur : préférer les branches parallèles au réseau en série.

Concevoir

Le réseau ne peut comporter de brusques changements de section ou de direction. Des aubes directrices peuvent être disposées dans les coudes présents dans le local technique.

Concevoir

Les conduits circulaires avec joints aux raccords sont préférables aux conduits rectangulaires (meilleure étanchéité, facilité de placement, pertes de charge moindres).

Concevoir

La vitesse de l’air au niveau des batteries doit rester dans une plage allant de 2 à 4 m/s.

Concevoir

Les conduits ne doivent pas passer à travers des locaux à haut niveau sonore.

Concevoir

Des tresses de laine minérale ou un mastic à élasticité permanente doivent être placés entre les conduits et les murs ou planchers traversés pour limiter la transmission acoustique.

Concevoir

Des fixations souples (couche élastique en Néoprène, par exemple) sont requises autour du caisson de traitement et pour le conduit principal.

Concevoir

Un filtre à poches (à partir de 85 % OPA (F7)) placé sur l’entrée d’air neuf est nécessaire et suffisant.

Concevoir

La perte de charge initiale des filtres ne doit pas dépasser 90 Pa pour un filtre F6 et 120 Pa pour un filtre F7.

Concevoir

Le filtre à poches choisi devra avoir le média filtrant le plus épais possible.

Concevoir

L’étanchéité du pourtour des filtres doit être soignée.

Concevoir

Les filtres doivent être faciles d’accès pour l’entretien.

Concevoir

Un manomètre différentiel doit mesurer en permanence la perte de charge des filtres et fournir une alarme si celle-ci dépasse la pression recommandée par le fabricant. Un affichage à proximité du filtre doit reprendre les données telles que type de filtre, pertes de charge initiale et finale, date du dernier remplacement …

Concevoir

Les prises d’air et les rejets d’air extérieurs doivent respecter une série de conditions quant à leur emplacement pour garantir la qualité de l’air neuf et éviter les gênes pour le voisinage.

Concevoir

Le préchauffage de l’air se fera de préférence au moyen d’une batterie à eau chaude et non d’une batterie électrique.

Concevoir

Un récupérateur sur l’air extrait est à conseillé d’un point de vue énergétique. De préférence (si possible) : un échangeur à plaque pour les petits débits (.. 5 000 .. m³/h), un échangeur rotatif pour les grands débits (.. 20 000 .. m³/h).

Concevoir

La régulation du récupérateur en mi-saison (surchauffe) et en hiver (givre) doit se faire de façon modulante pour maximaliser les temps de récupération.

   Concevoir 


Systèmes de commande

Exigence

Pour en savoir plus

Dans les bâtiments à horaire de travail fixe, la ventilation doit être coupée par une horloge en période d’inoccupation (maintien d’un débit minimum dans les sanitaires).

Concevoir

Dans les salles de réunion ou de conférence à taux d’occupation variable et ventilation double flux indépendante, une sonde CO2 peut gérer la vitesse du ventilateur en fonction de l’occupation.

Concevoir

Dans des bâtiments avec des locaux à occupation variable, la ventilation peut être liée à un détecteur de présence dans chaque local.

Concevoir

Concevoir le raccord entre le bas du versant isolé et le mur

Concevoir le raccord entre le bas du versant isolé et le mur


Isolation entre chevrons – cas d’une gouttière pendante

Schéma - isolation entre chevrons - gouttière pendante

  1. Sablière.
  2. Pare-vapeur.
  3. Isolant.
  4. Sous-toiture rigide.
  5. Contre-latte.
  6. Lattes.
  7. Couverture.
  8. Planche de rive.
  9. Chevron.
  10. Voliges.
  11. Gouttière.
  12. Finition intérieure.
  13. Latte de pied.
  14. Peigne.
  15. Bande de raccord de la gouttière.
  16. Tuile de pied à bord recourbé.
  17. Crochet.

Continuité de la fonction de la couverture (étanchéité à la pluie)

La couverture a pour objectif d’arrêter l’eau et de l’évacuer vers la gouttière.

Comment placer la gouttière pendante pour éviter les risques d’infiltrations ?

> Des voliges sont fixées entre ou sur les chevrons ou fermettes avec découpes éventuelles de ces derniers. Celles-ci vont servir de support à la gouttière.
Des planches de rive viennent fermer l’espace sous la toiture.

> La gouttière proprement dite prolongée par une bande de raccord est agrafée sur les voliges prévues à cet effet. L’extrémité de la bande de raccord doit se trouver au moins 80 mm plus haut que le côté extérieur de la gouttière.

Remarque : la bande de raccord de gouttière peut être indépendante de la gouttière pour autant qu’il n’existe pas de risque de remontée d’eau.

> Dans le cas de tuiles, la position et l’épaisseur de la première latte en pied de toiture est déterminée en fonction de la position des tuiles de pied :

  • le débordement de ces tuiles par rapport à la gouttière doit être d’environ 1/3 de la largeur de la gouttière;
  • la pente de ces tuiles doit être la même que celle des autres tuiles.

Attention, la bande de raccord de la gouttière et la sous-toiture ne peuvent être perforées lors du clouage de cette latte.

> Une bande métallique ou synthétique (ou peigne plastique) protège la latte de pied contre la pluie et évite la pénétration d’oiseaux ou d’insectes.

  1. Ardoises.
  2. Lattes.
  3. Contre-lattes.
  4. Sous-toiture.
  5. Volige.
  6. Peigne.

> Contrairement aux prescriptions, il n’est en général pas donné de pente aux gouttières pendantes, et ce pour des raisons de pratique et d’esthétique. Cette dérogation n’entraîne, en général, pas de problème en pratique.

Continuité de la fonction de la sous-toiture (évacuation des eaux infiltrées ou condensées)

> La sous-toiture doit aboutir dans la gouttière.

> Le recouvrement minimal entre la sous-toiture et la bande de raccord de la gouttière est de 60 mm en projection verticale

Continuité de l’isolation

La continuité de l’isolation exige une bonne coordination entre les corps de métier.

En effet, dans le cas d’une isolation entre chevrons, l’isolant de toiture est posé après la sous-toiture et la couverture.

Or, la jonction correcte de l’isolant entre le mur et la toiture ne peut être réalisée que par l’extérieur, et la sous-toiture déjà posée condamne l’accès à cette zone.

Aussi, une partie de l’isolant, celle située au-dessus du mur de façade et raccordée à l’isolant de la façade, doit être posée juste avant la pose de la sous-toiture.

Continuité du pare-vapeur et raccord de la finition intérieure de toiture avec celle des murs

Le pare-vapeur doit être correctement raccordé contre la face intérieure du mur de façade. La finition fixée sous le pare-vapeur est raccordée de manière étanche avec la finition intérieure du mur de façade de façon à supprimer tout risque de courant d’air à travers la toiture.


Isolation entre fermettes – cas d’un chéneau et de combles non utilisés

Schéma - isolation entre fermettes - chéneau et de combles non utilisés

  1. Panne sablière.
  2. Volige.
  3. Planche de rive.
  4. Fond de chéneau.
  5. Fermette.
  6. Sous-toiture.
  7. Contre-latte.
  8. Lattes.
  9. Couverture.
  10. Double latte.
  11. Bande métallique ou synthétique.
  12. Porte à faux de la tuile de pied.
  13. Bande de raccord de la gouttière.
  14. Pare-vapeur.
  15. Vide technique.
  16. Finition intérieure.
  17. Echelle de corniche.
  18. Plafond de rive.
  19. Étanchéité du chéneau.
  20. Comble perdu.

Une échelle de corniche en bois mise à plat au-dessus du mur porteur ou de la dalle permet de réaliser le support du chéneau en porte-à-faux. Elle remplace ou supporte la sablière.

Continuité de la fonction de la couverture (étanchéité à la pluie)

La couverture a pour objectif d’arrêter l’eau et de l’évacuer vers la gouttière.

Comment placer la gouttière pour éviter les risques d’infiltrations ?

Des cales posées sur l’échelle vont servir à donner la pente au chéneau.
Des voliges sont fixées entre ou sur les chevrons ou fermettes (avec découpes de ces dernières dans le second cas). Celles-ci vont servir de support à la bande de raccordement du chéneau.
Des planches (planche de rive, plafond de rive + moulure de finition, fond de chéneau, …) viennent former la corniche assurant par la même occasion la fermeture du bâtiment au pied du versant de la toiture.

Le caisson en bois de la corniche est pourvu d’une étanchéité métallique, en plastique rigide ou en matériaux souples d’étanchéité tels que le bitume polymère armé de polyester et/ou de fibre de verre.

De plus, comme dans le cas précédent :

> L’extrémité de la bande de raccordement de la gouttière doit se trouver au moins 80 mm plus haut que le côté extérieur de la gouttière.

> La hauteur de la première pièce de support des éléments de couverture (liteaux, voliges) en pied de toiture, est adaptée de manière à leur conserver la même pente.
Attention, la bande de raccord de la gouttière et la sous-toiture ne peuvent être perforées lors du clouage de cette pièce.

> Dans le cas de tuiles, la position de la première de latte en pied de toiture est déterminée de manière à ce que la tuile de pied déborde au-dessus du chéneau.

> Une bande métallique ou synthétique (ou peigne plastique) protège la latte de pied contre la pluie et évite la pénétration d’oiseaux ou d’insectes.

Continuité de la fonction de la sous toiture (évacuation des eaux infiltrées ou condensées)

Comme dans le cas précédent :

> La sous-toiture doit aboutir dans la gouttière.

> Le recouvrement minimal entre la sous-toiture et la bande de raccord du chéneau est de 60 mm en projection verticale.

Continuité de l’isolation

L’échelle de corniche permet de réaliser une jonction continue entre l’isolation du mur et de la toiture (ici, la dalle des combles).

Continuité du pare-vapeur et raccord de la finition intérieure de toiture avec celle des murs

Le pare-vapeur doit être correctement raccordé contre la face intérieure du mur de façade. La finition fixée sous le pare-vapeur est raccordée de manière étanche avec la finition intérieure du mur de façade de façon à supprimer tout risque de courant d’air à travers la toiture.


Toiture « Sarking » – cas d’une gouttière pendante

Au niveau du raccord, la continuité, de la fonction de la couverture, est assurée de la même manière que pour une toiture traditionnelle (isolée par l’intérieur).

Par contre la continuité des fonctions :

  • de la sous-toiture;
  • de l’isolation thermique;
  • et de l’étanchéité à la vapeur et à l’air,

est spécifique à la toiture « Sarking », vu que le panneau isolant assure, à lui seul, ces différentes fonctions.

Cette technique impose de tenir compte de l’épaisseur supplémentaire apportée par l’isolant.

Schéma - Toiture "Sarking" - gouttière pendante.

  1. Panne sablière.
  2. Chevron ou fermette.
  3. Planche de rive.
  4. Cale de bois.
  5. Panneaux isolants.
  6. Isolant entre chevrons ou fermette.
  7. Sous-toiture éventuelle.
  8. Contre-latte.
  9. Lattes.
  10. Latte plâtrière.
  11. Couverture.
  12. Gouttière.
  13. Bavette indépendante.
  14. Peigne.
  15. Finition intérieure.

Une cale en bois est fixée sur le chevron en bas de versant, celle-ci servira à poser le premier panneau isolant.

Des planches (planches de rive, …) viennent fermer l’espace sous la toiture. La gouttière est fixée dans la planche de rive.

Continuité de la fonction de la sous-toiture

Pour assurer la continuité de la fonction de la sous-toiture des panneaux isolants en bas de versant, une bavette indépendante est engravée dans la partie supérieure du panneau sur une profondeur minimum de 30 mm. Elle est maintenue en place par un joint continu de mastic souple. La bavette est constituée d’un matériau rigide (cuivre, zinc, aluminium).

Continuité de l’isolation

Afin d’assurer la continuité de l’isolation entre celle du mur et celle de la toiture, via la panne sablière, des panneaux d’isolation complémentaires doivent être placés sur la panne sablière, entre les chevrons.

Étanchéité à l’air

Ces panneaux d’isolation complémentaire doivent également assurer l’étanchéité à l’air au niveau de bas de versant. Sinon, des dispositions spéciales sont à prévoir.


Toiture « Sarking » – cas d’un chéneau

Au niveau du raccord, la continuité, de la fonction de la couverture, est assurée de la même manière que pour une toiture traditionnelle (isolée par l’intérieur).

Par contre la continuité des fonctions :

  • de la sous-toiture;
  • de l’isolation thermique;
  • et de l’étanchéité à la vapeur et à l’air,

est spécifique à la toiture « Sarking », vu que le panneau isolant assure, à lui seul, ces différentes fonctions.

Cette technique impose de tenir compte de l’épaisseur supplémentaire apportée par l’isolant.

Schéma - Toiture "Sarking" - cas d'un chéneau.

  1. Mur de parement extérieur.
  2. Mur porteur intérieur.
  3. Isolation.
  4. Ossature corniche.
  5. Panne sablière.
  6. Chevron ou fermette.
  7. Cale de pente.
  8. Fond de chéneau.
  9. Volige.
  10. Panneaux isolants.
  11. Isolant entre chevrons ou fermettes.
  12. Sous-toiture.
  13. Contre-latte.
  14. Latte.
  15. Peigne.
  16. Bavette indépendante.
  17. Couverture.
  18. Planche de rive.
  19. Plafond de rive.
  20. Chéneau.
  21. Finition intérieure.

Une volige est fixée sur le chevron en bas de versant, celle-ci servira à poser le premier panneau isolant.

Continuité de la fonction de la sous-toiture

Pour assurer la continuité de la fonction de la sous-toiture des panneaux isolants en bas de versant, une bavette indépendante est engravée dans la partie supérieure du panneau sur une profondeur minimum de 30 mm. Elle est maintenue en place par un joint continu de mastic souple. La bavette est constituée d’un matériau rigide (cuivre, zinc, aluminium).

Continuité de l’isolation

Afin d’assurer la continuité de l’isolation entre celle du mur et celle de la toiture, via la panne sablière, des panneaux d’isolation complémentaires doivent être placés sur la panne sablière, entre les chevrons.

Étanchéité à l’air

Ces panneaux d’isolation complémentaire doivent également assurer l’étanchéité à l’air au niveau de bas de versant. Sinon, des dispositions spéciales sont à prévoir.

Choisir l’emplacement des prises et des rejets d’air extérieurs

Prises d’air

Les prises d’air neuf doivent :

  • Être les plus proches possible de la centrale de traitement de l’air. On sait que les pertes de charge en aspiration sont plus faibles qu’en refoulement, car il s’agit d’une mise en vitesse; mais le dessin des prises d’air doit néanmoins être bien tracé, car la perte de charge existe, elle est une source de bruit et elle peut avoir une grande influence sur le fonctionnement des équipements placés en aval : ventilateurs, filtres, échangeurs.

Pour minimiser les pertes de charge,
il faut assurer un passage progressif entre l’espace infini extérieur
et la section du conduit d’aspiration.

  • Ne pas aspirer du côté de rues à fort trafic.

 

  • Éviter les effets de by-pass entre prise d’air neuf et évacuation d’air vicié. Les aspirations doivent naturellement être faites loin des zones de refoulement d’air vicié. Les prises d’air neuf doivent être faites plus bas que les sorties des rejets d’air vicié. De même, il faut s’éloigner des orifices d’évacuation des fumées de parking et tours aéroréfrigérantes, tout en tenant compte des vents dominants.

 

  • Pour limiter les charges calorifiques inutiles, éviter de disposer les prises d’air dans des endroits fortement ensoleillés (toitures, terrasses, façade ensoleillée, …) sans protection.

 

  • Résister aux intempéries. Pour cela, les aspirations se font en général du bas vers le haut, sinon sous la protection d’une visière assez longue, car l’aspiration a évidemment tendance à entraîner la pluie ou la neige. Ne pas oublier que neige et brouillard givrant peuvent très vite obturer les grillages de protection et faire se coller les uns aux autres les volets mobiles des registres automatiques ou autobasculants.

 

  • Limiter le transfert des bruits. Il est fréquent de confier aux prises d’air une fonction d’insonorisation permettant non seulement de réduire le bruit extérieur pénétrant dans l’installation, mais également le bruit de celle-ci partant vers l’extérieur, en particulier celui des ventilateurs.

 

  • Prévoir un accès pour le nettoyage. Celui-ci peut être fréquent puisque les grilles de prise d’air extérieur ne sont pas protégées par des filtres.

 

  • Ne pas permettre l’intrusion de rongeurs par exemple grâce à un grillage. Celui-ci sera réalisé avec une section de câble la plus faible possible pour limiter les pertes de charge à l’entrée.

La norme européenne EN 13779 définit certaines dispositions à respecter pour les prises d’air extérieures :

  • Le placement préférentiel de la prise d’air est face aux vents dominants.

 

  • Le dimensionnement de la prise d’air non protégée s’effectue sur base d’une vitesse d’air maximum de 2 m/s.

 

  • Les principales distances à respecter par rapport à la prise d’air sont reprises dans le tableau suivant :
Exigences EN 13779
en [m]
Distance au sol 1,5 x l’épaisseur de neige maximum
Distance minimale des sources polluantes (point de ramassage d’ordure, parking de plus de 3 voitures, …) 8

Rejets d’air

La norme européenne EN 13779 définit certaines dispositions à respecter pour les rejets d’air vers l’extérieur.
Si une bouche de rejet d’air est disposée sur un mur, elle doit respecter les prescriptions suivantes :

  • Les rejets d’air doivent se trouver à plus de 8 m d’un immeuble voisin.

 

  • Les rejets d’air doivent se trouver à plus de 2 m d’une prise d’air neuf située sur le même mur et de préférence au-dessus de celle-ci.

 

  • Le débit d’air par bouche ne peut dépasser 0,5  m³/s et la vitesse de l’air au droit de la bouche doit dépasser 5 m/s.

Si une de ces conditions n’est pas respectée, les rejets d’air doivent être installés en toiture.
L’Annexe C3 de la PEB complète la EN 13779 en imposant que dans le cas d’une ventilation naturelle, les bouches d’évacuation soient raccordées à un conduit d’évacuation qui débouche au-dessus du toit. Les conduits d’évacuation doivent avoir un tracé vertical autant que possible. Des déviations de maximum 30° par rapport à la verticale sont admises.


Combinaison rejet-entrée d’air

   

Distance minimum entre entrée et rejet d’air pour un air de ventilation courant à faible niveau de pollution (norme EN 13779).

Diminuer les charges thermiques internes

Diminuer les charges thermiques internes


L’apport des occupants

L’homme apporte chaleur sensible (par notre corps à 37°C) et chaleur latente (par notre production de vapeur d’eau en respiration et transpiration).

Ces valeurs varient en fonction de la température ambiante.

En hiver, l’occupant d’un bureau à 22°C fournit 85 Watts de chaleur gratuite au local. Par ailleurs, il disperse 47 grammes d’eau dans l’atmosphère chaque heure. Cet apport d’eau ne modifie pratiquement pas la température du local et ne constitue donc pas un apport complémentaire en hiver.

Par contre, en été, la vapeur d’eau délivrée augmente (70 gr/h à 26°C) et sera condensée sur la batterie froide du ventilo-convecteur, par exemple. La chaleur de condensation correspondante devra être comptabilisée dans le bilan thermique de la machine frigorifique.

Peut-on diminuer ces consommations ?

En hiver, l’apport des personnes est bénéfique pour l’installation de chauffage.

En été, il est difficile d’empêcher les gens de transpirer ! Quoique… il faudrait suggérer au patron une petite sieste salutaire pour diminuer le métabolisme et donc cette coûteuse charge thermique pour le climatiseur !

Plus sérieusement, il est parfois possible d’augmenter la température du fluide refroidissant (boucle d’eau glacée, par exemple), afin de limiter la charge thermique de condensation de la vapeur d’eau.

Dans un climatiseur de local par contre, on travaille « en détente directe », la température du fluide frigorigène (que l’on ne peut modifier) sera inférieure au point de rosée, et la condensation aura toujours lieu…


L’apport des équipements

Toute charge électrique (éclairage, bureautique, machine à café, …) dans un local refroidi est payée deux fois : une fois pour effectuer le travail attendu, une fois pour évacuer ce travail qui s’est transformé en énergie calorifique.

Par exemple : 100 lampes de 60 Watts vont entièrement convertir l’énergie qu’elles utilisent en chaleur. Il faudra donc évacuer 6 000 W, ou 6 kW de chaleur… !
  Puissance installée du compresseur est inférieure à la puissance frigorifique apportée à la pièce par le système de refroidissement !

en choisissant dans un catalogue un appareil de « 6 kW », on sélectionne un climatiseur dont l’évaporateur est capable d’apporter 6 kWh de froid (= de retirer 6 kWh de chaleur) au local en 1 heure de fonctionnement. Donc, « 6 kW » constitue sa puissance frigorifique.

Mais pour ce faire, curieusement, le compresseur demande une puissance électrique plus faible, de l’ordre de 2 kW. Après une heure, il aura consommé une énergie de 2 kWh (sur base d’une efficacité frigorifique de 3).

Et la facture d’énergie électrique en une heure sera de 8 kWh (6 kWh pour les lampes + 2 kWh pour la climatisation).

Quelle réduction des charges thermiques ?

Dans les bâtiments plus anciens, on peut généralement diminuer les puissances électriques utilisées pour l’éclairage des locaux et pour les équipements de bureautique notamment (ordinateur, photocopieuse, …). Une meilleure gestion de ces équipements peut également permettre de diminuer la consommation de la climatisation.

Évaluer

  Pour évaluer la qualité de l’éclairage existant.

Améliorer

 Pour examiner les améliorations possibles.

La rentabilité des interventions sur ces équipements est améliorée par l’économie complémentaire faite sur le coût d’exploitation de la climatisation.

En construction nouvelle, la climatisation est-elle nécessaire ?

En construction nouvelle, la climatisation est-elle nécessaire ?


Comprendre l’évolution thermique des bâtiments aujourd’hui

Un inconfort d’été trop important

La climatisation d’un immeuble entraîne des coûts d’exploitation 3 à 4 fois plus importants que le simple chauffage traditionnel des locaux, suite à l’énergie frigorifique demandée mais aussi à l’importance des consommations liées au transport de l’air (ventilateurs). C’est ce qui ressort d’un vaste travail de simulation réalisé par l’ISSO aux Pays-Bas et dont nous avons développé un extrait dans l’analyse des coûts d’exploitation de la climatisation.

Évaluer

Pour accéder à l’étude comparative entre les coûts d’exploitation d’une installation de chauffage et ceux d’une installation de conditionnement d’air.

Reprenons-en le tableau final où les coûts sont globalisés et ramenés à une échelle de 100 pour la situation 1 (radiateurs et ventilation naturelle) :

SUD EST OUEST NORD
1 radiateurs + ventilation naturelle coût : 100
Inconfort : 370 h/an
coût : 105
Inconfort : 400 h/an
coût : 105
Inconfort : 450 h/an
coût : 106
Inconfort : 310 h/an
2 radiateurs + ventilation mécanique double flux coût : 219
Inconfort : 260 h/an
coût : 221
Inconfort : 280 h/an
coût : 222
Inconfort : 310 h/an
coût : 223
Inconfort : 230 h/an
3 radiateurs + ventilation mécanique double flux + rafraichissement* + free cooling de nuit** coût : 337
Inconfort : 25 h/an
coût : 346
Inconfort : 45 h/an
coût : 346
Inconfort : 60 h/an
coût : 348
Inconfort : 20 h/an
4 conditionnement d’air
(installation 4 tubes avec éjecto-convecteurs)
coût : 392
Inconfort : 0 h/an
coût : 387
Inconfort : 0 h/an
coût : 392
Inconfort : 0 h/an
coût : 373
Inconfort : 0 h/an

*Par « rafraîchissement » en été, on entend ici une pulsion d’air « rafraîchi » correspondant à 4 renouvellements horaires : refroidi à une température de 18 [°C], lorsque la température extérieure est < 23 [°C] et refroidi à une température de (T° ext – 5°), lorsque la température extérieure est > 23 [°C]

**Par « free cooling de nuit », on entend ici une pulsion d’air extérieur de ventilation correspondant à 4 renouvellements horaires, si T°ext < T°int  et si T°int > 20 [°C]

Si le coût de l’installation traditionnelle est moins élevé, il faut constater que le nombre d’heures d’inconfort empêche sa mise en œuvre pratique !

Par « inconfort », on entend le nombre d’heures durant la période de travail où le PMV (Vote Moyen Prédictif) des occupants serait > 0,5. Autrement dit, le nombre d’heures où l’on peut s’attendre à recevoir des plaintes du personnel… On considère que si ce nombre d’heures est inférieur à 100 heures par an, il s’agit d’une gêne temporaire tout à fait acceptable. Au-delà de 200 h/an, des mesures de refroidissement sont nécessaires pour garder un climat intérieur correct. Cette vision du confort est assez limitée, car elle ne tient par exemple pas compte de la théorie du confort adaptatif.

Dans d’autres simulations de cette étude, il apparaît que seuls les bâtiments dont la charge interne est limitée à 20 W/m², ce qui correspond à une situation d’absence d’équipement bureautique, peuvent encore se passer d’un système de refroidissement. C’est le cas du secteur domestique, mais pas du secteur des bureaux, … et encore moins des hôpitaux.

Bien que certaines hypothèses de l’évaluation de l’ISSO pourraient être remises en cause, il apparaît clairement que la simple ventilation diurne ne permet pas d’évacuer les charges calorifiques excédentaires en été. Le confort d’été ne pourrait être assuré. Cela ne veut cependant pas dire que la climatisation est devenue un mal nécessaire sans alternative …

Est-ce une conséquence « perverse » de l’isolation renforcée des parois ?

Certains critiquent l’évolution actuelle de l’augmentation de l’isolation des parois (y compris le placement de vitrages à traitement sélectif) et se justifient en disant « qu’on n’avait pas tous ces problèmes autrefois ! »

Ils oublient de dire combien les consommations de chauffage des anciens bâtiments sont élevées et le gouffre financier que représente une vieille école, un vieil immeuble administratif, …

Le bilan énergétique global annuel (hiver + été) est largement en faveur de l’isolation des parois, même pour un immeuble de bureaux.

Reste qu’une surchauffe apparaît … Est-elle une conséquence du renforcement de l’isolation ?

L’analyse de l’évolution des puissances thermiques d’un local de bureau-type fait apparaître que, en renforçant l’isolation, la puissance maximale de réfrigération (par 30°C extérieurs) est inchangée, voire en légère baisse. Le profil de puissance s’est cependant décalé. Ainsi, le besoin de refroidir le local apparaît pour des températures plus basses que si le local n’est pas isolé. Le besoin de chauffage n’apparait lui aussi que pour des températures plus basses.

On constate donc que le renforcement de l’isolation modifie fondamentalement le profil de consommation du local

  • il diminue fortement les consommations d’hiver,
  • il diminue la durée de la période de chauffe des bâtiments,
  • il augmente la demande de rafraîchissement, surtout pour une température extérieure comprise entre 10 et 20°C,
  • les besoins de chaleur et de refroidissement apparaissent plus ou moins équilibrés dans l’année.

Pour en savoir plus :

Théorie

L’évolution des besoins thermiques des immeubles suite à l’isolation des parois.

Concevoir 

Analyse  des besoins thermiques : exemple pour un immeuble de bureaux.

Concevoir

Analyse  des besoins thermiques : exemple d’une salle d’opération.

Quels sont les éléments qui renforcent cette évolution ?

  1. L’augmentation des charges internes par l’équipement électrique des bureaux.
  2. La tendance actuelle des architectes d’accroître sensiblement le pourcentage de vitrage de la façade, et donc les apports solaires peu désirables (les vitrages performants ne créent plus l’inconfort de la surface froide en hiver, phénomène qui limitait leur surface autrefois).
  3. La diminution de l’inertie des parois (cloisons légères mobiles, tapis au sol, faux plafond avec absorbeur acoustique).
  4. Une attente accrue de confort et de productivité du personnel.

Faut-il faire marche arrière ?

Voyons les choses positivement : autrefois, on n’avait même pas conscience de l’existence d’une « chaleur interne » parce que celle-ci était négligeable face aux déperditions des parois. A présent, les fuites de chaleur étant maîtrisées et les apports internes amplifiés par l’évolution technologique, ces apports viennent à satisfaire en bonne partie nos besoins. Nous arrivons à chauffer nos locaux avec 5 litres de fuel au m², contre 20 à 25 dans les années 50. Et c’est tant mieux.

Mais cela rend le bâtiment beaucoup plus sensible que précédemment aux apports solaires …

Autrefois, le chauffage constituait le principal poste énergivore, mais à présent, l’équilibre thermique entre les déperditions du bâtiment et les apports « gratuits » est plus rapidement atteint.  Des besoins de réfrigération apparaissent mais l’origine de la surchauffe (apports solaires, équipements intérieurs) est cette fois maîtrisable, par opposition à l’origine du chauffage : la froide température extérieure.

Cela renforce l’importance d’une bonne conception initiale du bâtiment et de la mise en place d’une stratégie adaptée à ce nouveau profil de consommation.


En conclusion : agir dès la conception

Autrefois, les besoins de refroidissement d’un bâtiment étaient résolus par une simple ventilation, avec une période d’inconfort limitée à quelques jours par an. L’isolation actuelle accroît cette période d’inconfort et demande une réponse nouvelle.

Dans certaines conditions, une conception architecturale et technique poussée permet de garantir le confort estival sans recours à la climatisation. Dans tous les cas, des mesures doivent être prises pour limiter la duré d’utilisation et la puissance des installations frigorifiques.

C’est dès la phase de conception que les concepteurs pourront mettre en place une stratégie dans ce sens, intégrée à une approche globale du confort :

  • en limitant les apports solaires (choix de l’orientation, masques architecturaux, stores,…), tout en conservant un bon éclairage naturel.
  • en limitant des apports internes (éclairage et équipements performants),
  • si possible, en renforçant l’inertie des locaux (pour lisser la pointe de puissance frigorifique liée aux apports de chaleur), tout en préservant la qualité acoustique des locaux.
  • en valorisant la fraicheur de l’air extérieur en journée (la majorité de la demande de réfrigération apparaît lorsque la température extérieure est comprise entre 10 et 20°C), sans créer de courant d’air inconfortable.
  • en valorisant la fraîcheur nocturne, sans provoquer de surrefroidissement et d’inconfort matinal.
  • en exploitant des « sources de fraicheur » telles que le sol, une rivière, …

Concevoir

Limiter les apports solaires.

Concevoir 

Limiter les charges internes.

Concevoir 

Exploiter le pouvoir rafraîchissant de l’environnement.

Il existe cependant des situations où, par la spécificité du bâtiment et/ou parce que la dimension énergétique n’a pas été intégrée dès sa […] la climatisation va s’imposer. Le challenge devient alors : quel système performant mettre en place pour limiter la consommation de la climatisation ?
Quelques exemples :

  • Dans un bâtiment en milieu urbain pollué et bruyant : l’air et le bruit passent volontiers par les fentes des châssis … L’étanchéité des parois combinée à une ventilation mécanique permet de prévoir des châssis fixes, non ouvrants et donc très étanches, … tout en assurant une qualité hygiénique de l’air aux occupants, mais complique la valorisation de la fraîcheur de l’air.
  • Dans locaux « aveugles », dans les parties centrales des larges immeubles, dans les larges bureaux paysagers bien isolés : les apports thermiques des équipements de bureautique, des personnes, de l’éclairage, … doivent être évacués artificiellement puisque les déperditions de l’enveloppe sont proportionnellement très faibles (ce sont des bureaux dont le système de chauffage ne s’enclenche que lorsque la température extérieure descend en dessous de 0°C…).
  • Dans les endroits où la qualité de l’air doit être surveillée : les salles d’opération, les laboratoires, les ateliers de production des entreprises pharmaceutiques, … Le conditionnement d’air permet de pulser plus d’air dans une pièce que d’en extraire. La pièce est alors mise en surpression et aucune petite « bébête » ne peut rentrer (pas de contamination par l’air des pièces environnantes). on parle de « salles blanches ».
  • Dans des locaux avec forte production de chaleur interne : le centre informatique, par exemple.
  • Dans les salles de réunion, salles de conférence, … : la forte concentration de personnes apporte une chaleur sensible et latente élevée, et nécessite de toute façon un apport d’air neuf hygiénique important, qui ouvre la porte à des techniques de « conditionnement d’air ».
  • Dans les locaux fortement vitrés et à parois très légères : la conception architecturale inadaptée génère un déséquilibre thermique et seul l’équipement de climatisation peut artificiellement restaurer le confort des occupants…

Choisir le programme de bâtiment

Définir le programme, c’est aussi imaginer l’ambiance intérieure …


Mise en commun et chasse à l’inoccupation des espaces

Un point important pour réaliser des économies d’énergie consiste mettre en commun un maximum de services de manière à réduire le nombre de ceux-ci tout en permettant qu’ils soient de taille et qualité satisfaisante.

Lors des premiers dessins, il faut se poser la question du taux d’occupation des différents espaces et étudier la possibilité de combiner des usages de manière à réduire la quantité d’espace non utilisé de longues heures chaque jour. En agissant ainsi, le coût de la construction sera réduit et ce sont autant de m² et de m³ qui ne devront être chauffés alors qu’ils sont inoccupés la plupart du temps.

Est-il nécessaire d’avoir 8 imprimantes par étage ? Faut-il réellement une salle de réunion par département ? Chaque étage doit-il avoir sa cafétéria ? Plutôt que d’avoir un parking de 200 places chacun, nos deux enseignes ne pourraient-elles pas se contenter d’un parking commun de 300 places utilisable en soirée par les riverains ?

Un point important pour réaliser des économies d’énergie consiste mettre en commun un maximum de services de manière à réduire le nombre de ceux-ci tout en permettant qu’ils soient de taille et qualité satisfaisante.

Lors des premiers dessins, il faut se poser la question du taux d’occupation des différents espaces et étudier la possibilité de combiner des usages de manière à réduire la quantité d’espace non utilisé de longues heures chaque jour. En agissant ainsi, le coût de la construction sera réduit et ce sont autant de m² et de m³ qui ne devront être chauffés alors qu’ils sont inoccupés la plupart du temps.

Plus la mise en commun sera forte et plus le taux d’occupation des espaces sera optimisé, plus les économies d’énergie seront grandes.

Schéma sur le principe de mise en commun des espaces.


Choisir l’ambiance intérieure souhaitée

L’architecte et le bureau d’études ne pourront développer des stratégies adéquates que si le Maître de l’Ouvrage s’est préalablement positionné sur l’ambiance intérieure qu’il souhaite créer dans son bâtiment.

Le souhait de pouvoir gérer son propre environnement

Parmi les attentes exprimées auprès des promoteurs, on entend de plus en plus souvent le souhait des occupants de pouvoir ouvrir leur fenêtre. Il y a un certain rejet des ambiances feutrées, trop coupées du bruit du monde extérieur.

Malgré la fluctuation des températures que cela peut entraîner, il apparaît que l’occupant est beaucoup plus conciliant avec le confort lorsqu’il gère lui-même son environnement. Par contre, il sera très exigeant avec le service de maintenance lorsqu’il se trouve face à une fenêtre fixe, totalement dépendant de la pulsion d’une bouche d’air…

Dans les bureaux paysagers, les personnes qui ont vue sur l’extérieur et accès à l’ouverture de la fenêtre sont généralement beaucoup plus satisfaites que les autres occupants.

Plus généralement, c’est donc l’accès éventuel par l’occupant à la ventilation, à l’éclairage, aux protections solaires, au chauffage, … qui doit être défini dès le départ du projet.

Attention : la définition de l’ambiance dépasse le simple souhait et demande une réflexion approfondie. Ainsi,

  • l’ouverture des fenêtres peut générer des nuisances acoustiques,
  • l’air extérieur peut être pollué et nécessiter une filtration,
  • si la climatisation est installée, elle devra être coupée lors de l’ouverture de la fenêtre. L’occupant devra alors choisir : fermer sa fenêtre et avoir une ambiance refroidie, ou ouvrir sa fenêtre et laisser la température monter.

Par exemple, au siège d’ELIA à Bruxelles, chaque zone de 40 m² peut réguler la température locale de +-2 °C par rapport à la température de consigne générale et ouvrir une bouche d’aération naturelle sur simple pression d’un bouton. La hauteur et l’exposition au vent grâce au site dégagé du bâtiment rendent la ventilation naturellement puissante et sensible par les occupants.

Le remplacement de la climatisation par un free cooling de nuit

Voici un autre exemple de choix d’un type d’ambiance : une stratégie de « free-cooling », c’est à dire de refroidissement naturel du bâtiment sans climatisation mécanique, peut être décidée. On profite de la fraîcheur de la nuit pour ventiler le bâtiment.

Ceci sous-entend une variation de la température intérieure sur la journée puisque c’est le bâtiment qui fait tampon, accumule la chaleur en journée et attend la nuit pour se décharger.

Il faut donc décider d’accepter ou non le fait qu’en été le bâtiment soit par exemple à 22°C au matin et à 26°C au soir.

L’intégration de la lumière dans le bâtiment

Photo d'un atrium.

Par un jeu d’atria, par des puits de lumière, par des coupoles vitrées,… il est possible d’intégrer la lumière naturelle au sein du bâtiment. La consommation d’éclairage artificiel en sera diminuée d’autant, mais surtout, le bâtiment y trouvera son âme.

A contrario, ce sont des m² ou des m³ à financer. Et ce sont bien souvent des apports de chaleur excédentaires en été, qui ne pourront être maîtrisés que par une possibilité d’ouverture automatisée en toiture. Donc un coût.

Il faut trouver l’optimum entre une grande compacité pour limiter les pertes de chaleur et une moins grande compacité (augmenter les surfaces déperditives) pour profiter davantage d’accès à de la lumière naturelle. La compacité du bâtiment joue un rôle fondamental dans le calcul du niveau K du bâtiment.

Mais la qualité architecturale est un élément de satisfaction de l’employé sur son lieu de travail qui influe aussi sur sa productivité professionnelle…
En caricaturant quelque peu, on peut aller jusqu’au fait que le choix de la hauteur sous-plafond caractérisera la « hauteur d’esprit » des occupants !


Choisir des consignes de confort réalistes

Les études du « sick building syndrom » ont montré l’impact négatif d’un choc thermique trop important à l’entrée du bâtiment climatisé. Ceci ne veut pas dire que l’on apprécie pas la fraîcheur d’un bâtiment en plein été, mais bien que notre corps s’adapte au climat et trouve très confortable une ambiance à 26°C lorsqu’il fait 30°C dehors.

Si aux États-Unis l’ambiance intérieure semble établie sur base d’un « 22°C toute l’année, quelle que soit la température extérieure », un mouvement d’opinion se dessine chez nous pour rejeter ce « tout air conditionné » et réintégrer une certaine saisonnalité de l’ambiance intérieure. On parle plutôt de « rafraîchir » l’ambiance afin de passer plus facilement les quelques jours de canicule de l’année.

Le bureau d’études concevra le système et le dimensionnera en fonction des exigences de son client. C’est donc ce niveau d’exigence qui sera à la base du projet. On sera donc attentif à définir avec soin les consignes intérieures souhaitées.

Température et humidité

Solution 1

Classiquement, on impose au cahier des charges des températures intérieures à vérifier dans les situations extérieures les plus critiques.
Par exemple :

  • Température en hiver : 21°C par – 10°C extérieur (- 8° à Bruxelles et – 12°C en Ardennes).
  • Température en été : 24°C (26°C si plafonds froids) par + 30°C et 50 % HR.
  • Humidité : min 40 % en hiver, max 65 % en été.

Imposer une telle exigence à un bureau d’études, c’est forcément imposer une climatisation mécanique.

Solution 2

On peut également lui proposer un niveau d’exigences plus compatible avec la recherche de solutions alternatives, admettant de dépasser temporairement certaines limites de température. Par exemple, en Hollande, il est proposé le critère de « 100 heures par an au dessus de 25,5°C, dont 20 heures au dessus de 28°C ». C’est une simulation informatique qui devra prouver que cette exigence sera bien satisfaite pour une année climatique type moyenne.

Solution 3

On peut également aborder le problème sur base d’un rafraîchissement garanti. Ce n’est plus une consigne intérieure fixe mais bien un abaissement de 3 ou 4°C par rapport à la température extérieure.

Solution 4

Et un compromis peut être trouvé : une climatisation partielle des lieux. Pourquoi ne pas concentrer les locaux générateurs de surchauffe (locaux informatiques, salles de réunion, …) dans une zone du bâtiment qui sera refroidie mécaniquement ? Les autres locaux seront moins chargés en apports internes et seront plus facilement refroidis naturellement. Les niveaux d’exigence sont alors adaptés en fonction des lieux.

Apport d’air neuf hygiénique

Dans un bâtiment bien isolé, la consommation liée au traitement de l’air neuf hygiénique (chauffage et humidification en hiver, refroidissement en été) dépasse les pertes par les parois de l’enveloppe. La définition du débit est donc d’une importance capitale pour la consommation future du bâtiment.

La norme européenne EN 13779 (Ventilation for buildings – Performance requirements for ventilation and air-conditionning systems, Commission technique CEN/TC 156, 1999) propose différents débits d’air neuf à respecter en fonction de la qualité de l’ambiance à respecter :

Norme européenne EN 13779 pour les locaux sans fumeur.
Catégorie de qualité d’air Débit d’air neuf
Excellente qualité
(niveau ambiant de CO< 400 ppm au dessus du niveau extérieur)
> 54 [m³/h.pers]
Qualité moyenne
(niveau ambiant de CO400 – 600 ppm au dessus du niveau extérieur)
de 36 à 54 [m³/h.pers]
Qualité acceptable
(niveau ambiant de CO600 – 1 000 ppm au dessus du niveau extérieur)
de 22 à 36 [m³/h.pers]
Faible qualité
(niveau ambiant de CO> 1 000 ppm au dessus du niveau extérieur)
< 22 [m³/h.pers]

L’exigence du RGPT, 30 [m³/h.pers], correspond donc à une qualité acceptable. Un courant actuel venu des pays nordiques tend à installer de 50 à 70 [m³/h.pers]. Compte tenu des fortes conséquences énergétiques de ce choix (chauffage, humidification, refroidissement), une valeur située entre 30 et 40 m³/h semble adéquate. On choisira certainement 30 m³/h si une possibilité d’ouvrir les fenêtres existe. Un système double flux avec récupération de la chaleur sur l’air rejeté permet de préchauffer l’air neuf et réduire considérablement les pertes liées à la ventilation.

Éclairage

Une des techniques les plus économes pour un immeuble de bureaux consiste à assurer un éclairement général de 200 lux, tout en dotant chaque poste de travail de son éclairage individualisé. On atteint dans ce cas une puissance installée de 7 Watts/m²/500 lux… soit 3 x moins que ce qui était installé dans les années 70.

Question : lorsque le bureau d’études estime les charges thermiques du local, doit-il cumuler la charge d’éclairage et celle d’ensoleillement ? Si le soleil est présent, ne peut-on tabler sur une extinction des luminaires ?

Bureautique

Il existe des solutions pour diminuer les charges internes. Un PC dégage 150 Watts, dont 100 pour l’écran. Si le choix d’écran plat est décidé, les apports de chaleur diminuent au tiers. Et le gain énergétique est double puisqu’à l’énergie électrique plus faible pour alimenter l’équipement est ajoutée l’énergie économisée en climatisation.

En tant que maître de l’ouvrage, il faut clairement définir les charges liées à l’équipement. Cela évitera au bureau d’études de prendre des coefficients de sécurité trop importants. Si le niveau énergétique est faible, cela lui donnera également plus d’aisance pour proposer des solutions alternatives.

Par exemple, si la charge thermique est faible (équipements à faible consommation et apports solaires limités), il est possible d’utiliser des plafonds froids ou des poutres froides, alimentés par de l’eau à 17°C (régime 17/19).

Photo plafond froid.

Le risque de condensation est faible lors de l’ouverture des fenêtres et l’on ne devra plus consommer beaucoup d’énergie pour déshumidifier l’air neuf hygiénique. De plus, une partie de l’année, l’eau réchauffée à 19°C pourra être refroidie en toiture sans équipement frigorifique, simplement en passant dans un aéroréfrigérant (= échangeur eau/air avec ventilateur). Ce sera particulièrement efficace la nuit et le bâtiment pourra ainsi être déchargé de la chaleur accumulée en journée.


Choisir le degré de flexibilité

La flexibilité est aujourd’hui un must, surtout si l’on est promoteur. Le bâtiment devient une boîte dans laquelle le client futur installera ce qu’il souhaite.

Cette approche génère généralement trois difficultés majeures :

  1. Les cloisons intérieures légères sont sans inertie et des faux-plafonds (et/ou faux-planchers) coupent l’accès thermique aux dalles de béton. L’espace intérieur devient très sensible aux apports solaires (effet similaire à la voiture laissée au soleil…) et une climatisation s’impose.
  2. Si le client peut intégrer où il veut une salle de réunion (apport d’air neuf hygiénique élevé) ou une salle informatique (apports thermiques élevés), le bureau d’études va devoir surdimensionner les installations de tout le bâtiment, créant des coûts d’exploitation nettement plus élevés des auxiliaires (pompes, ventilateurs).
  3. L’architecture du projet en soufre et donc la qualité des ambiances. Sans citer de marque, on peut tenter un parallèle avec des hôtels préfabriqués aux abords de nos villes… que nous acceptons pour dormir une nuit, mais pas pour vivre ou travailler.

Il apparaît important de limiter dans le programme les zones de flexibilité, réservant à certains espaces des tâches spécifiques.

Il est d’ailleurs curieux de constater que les anciens bâtiments de qualité sont toujours là, rénovés certes, mais en y adaptant un nouveau programme. À l’opposé, les bâtiments légers modulaires, pourtant très flexibles, sont abandonnés et détruits.


Une réflexion qui intègre le bureau d’études dès l’esquisse

La conception d’un bâtiment à basse énergie forme un tout : choix de l’orientation, choix de l’enveloppe, choix des équipements, … tout est lié.

Architecte et bureau d’étude doivent y travailler ensemble dès le départ. Par exemple, le free cooling naturel du bâtiment demande des taux de renouvellement d’air horaires > 4, donc des débits d’air importants, donc des sections élevées, donc des « cheminées » à intégrer dès le début du projet architectural.

Cheminées de ventilation naturelle du bâtiment du BRE.

Une des difficultés à ce niveau est créée par le principe des concours d’architecture. L’architecte y travaille seul pour limiter les frais (il travaille souvent à perte…). Il conçoit une enveloppe attractive pour gagner le concours… et se voit contraint de la respecter ensuite. C’est là que l’on voit parfois les bureaux d’études s’arracher les cheveux !

Suggestion : idéalement, le maître d’ouvrage devrait prendre en compte le coût d’exploitation du bâtiment et proposer parmi les critères d’évaluation du concours un quota de 30 %, par exemple, pour la vision globale des coûts sur la durée de vie du bâtiment. Le bureau d’études doit alors être associé au concours…


Acoustique

L’ambiance acoustique de chaque espace doit également être conçue dès la programmation tant les nuisances sonores peuvent être à l’origine de tensions ou de problèmes de concentration. Il conviendra de regrouper les espaces en fonction du niveau sonore produit et accepté dans le cadre des activités ayant cours dans cet espace et/ou, à défaut, de recourir à des dispositifs d’isolement et/ou d’absorption acoustique adéquats.

 

À gauche : dispositifs d’absorption acoustique appliqués sur un plafond à forte inertie.
À droite : paroi légère vitrée et dédoublée séparant un openspace d’une salle de réunion.

Choisir la fenêtre comme capteur de lumière naturelle [Esquisse du projet]

Favoriser l’éclairage naturel extérieur

Dans une démarche de construction ou de rénovation lourde, on privilégiera l’utilisation de la lumière naturelle à la place de l’éclairage artificiel. La qualité « spectrale » de la lumière naturelle ainsi que sa variabilité et ses nuances offrent une perception optimale des formes et des couleurs. L’éclairage artificiel devrait donc être considéré comme un complément à la lumière naturelle. Aussi, d’un point de vue énergétique, l’utilisation de l’éclairage naturel comme « source » lumineuse est gratuite ; ce qui signifie que la facture en électricité sera d’autant plus réduite que l’éclairage naturel exploité.

Dans bien des projets de conception ou de rénovation de bâtiments tertiaires, en confort lumineux, l’objectif premier est de privilégier l’ouverture des espaces de travail vers la lumière naturelle tout en sachant qu’une trop grande ouverture des façades est souvent synonyme d’éblouissement, de surchauffe et déperditions thermiques au travers des baies vitrées. Le compromis reste de rigueur !

Bien des paramètres viennent influencer de manière plus ou moins significative la pénétration de la lumière dans les espaces de travail :

  • L’orientation des façades ;
  • La présence d’ombres reportées (bâtiments ou autres façades du bâtiment étudié faisant de l’ombre) ;
  • La taille, la forme et la position des baies vitrées dans les façades ;
  • La forme et les dimensions des trumeaux ;
  • Les caractéristiques des vitrages ;
  • La présence de protection solaire (fixe, mobile, …) ;
  •  …

Vitrage clair.           Vitrage sélectif.           Auvent.           Lamelles.           Ombre reportée.

Pour un projet de taille importante, une étude par un bureau spécialisé est toujours intéressante sachant qu’il est possible d’optimiser conjointement les conforts lumineux et thermiques par des simulations dynamiques tenant compte de l’ensoleillement et du climat à tout moment de l’année disponible sous forme de bases de données type « météonorm » par exemple.

L’éclairage naturel extérieur n’est pas uniforme

L’intensité de la lumière naturelle varie fortement en fonction du type de ciel, du moment de l’année, de l’heure dans la journée, de l’orientation de l’ouverture, de son inclinaison et de son environnement.

Les études d’éclairage naturel des locaux sont basées, conventionnellement, sur un ciel couvert donnant un niveau d’éclairement de 5 000 lux sur une surface horizontale en site dégagé (Commission Internationale de l’Énergie).

Or, en Belgique, un tel éclairement est dépassé 80 % du temps entre 8h00 et 16h00, par ciel couvert. Et ce ciel couvert ne se présente que 36 % du temps de l’année.

À l’extrême, en juin, à midi et par ciel serein, l’éclairement dépasse 100 000 lux! (Franchement, de quoi se plaint-on ?!)

Lumière solaire directe ou lumière solaire diffuse ?

La lumière solaire directe dispense un flux considérable, facile à capter et à diriger. Elle présente une dynamique intéressante (création de reliefs dans le bâtiment) et peut être utilisée en tant qu’énergie thermique. Par contre, le rayonnement solaire direct est souvent une source d’éblouissement et parfois de surchauffe du bâtiment. De plus, sa disponibilité est épisodique et dépend de l’orientation des ouvertures.

La lumière diffuse du ciel est disponible dans toutes les directions. Elle suscite peu d’éblouissement, ne provoque pas de surchauffe, mais elle peut être insuffisante dans de nombreux cas. En outre, elle crée peu d’ombres et de très faibles contrastes. Une lumière diffuse est donc idéale pour des locaux de travail où il est important d’avoir un éclairage constant, sans source d’éblouissement. La lumière du nord est assurément une lumière diffuse (depuis toujours exploitée dans les ateliers d’artistes). Mais il est possible de valoriser également la lumière directe venant des autres orientations, pour autant qu’une protection masque le disque solaire ou qu’un rideau intérieur diffuse la lumière incidente.

L’influence de l’environnement

Lors de la conception d’un bâtiment, il est donc important de mesurer l’impact de l’environnement existant sur le nouvel édifice afin de profiter au mieux des possibilités offertes par le terrain pour capter la lumière.

Le relief du terrain, les constructions voisines, … peuvent modifier fortement l’apport.

L’effet de rue est caractérisé par le masque solaire que créent les bâtiments situés de l’autre côté de la rue. Il dépend de la hauteur de ces constructions et de la distance qui sépare les deux côtés de la rue.

Des surfaces réfléchissantes placées au sol telles qu’un dallage brillant ou un plan d’eau peuvent contribuer à capter davantage de lumière. Ainsi, l’eau, en réfléchissant le ciel et l’environnement, intensifie l’impression lumineuse d’un lieu.

Mais la présence d’un bâtiment voisin équipé de vitrages réfléchissants, précisément pour se protéger de l’ensoleillement, risque de provoquer un éblouissement excessif des occupants.

Des éléments liés au bâtiment lui-même, tel que des murs de refends, des surplombs, des light shelves, … peuvent aussi provoquer un ombrage en fonction de leur taille, de leur réflectivité et de leur orientation.

La végétation se distingue des autres écrans parce qu’elle peut être saisonnière, ce qui est le cas des arbres à feuilles caduques, et que par ailleurs elle ne possède qu’une opacité partielle. Elle se contente de filtrer la radiation lumineuse plutôt que de l’arrêter.


Sélectionner la fenêtre comme espace capteur de lumière

Pour quels locaux ?

A priori, tous les locaux devraient disposer d’un éclairage naturel (sauf archives et locaux techniques). On peut parler de nécessité pour les « locaux de vie » (où les occupants séjournent plusieurs heures par jour) et de souhait pour les sanitaires et les circulations (où les occupants ne font que passer).

Voici deux couloirs du même bâtiment, avec les mêmes orientations.
Dans le premier cas, l’architecte a introduit une dissymétrie dans la distribution des locaux, et des ouvertures vers l’extérieur pour introduire de la lumière naturelle.
Faut-il préciser que la première mise en œuvre est plus chère ?..
On parle ici de qualité de l’ambiance intérieure dans un lieu de travail.

Ouverture latérale ou zénithale ?

Ouverture latérale et ouverture zénithale.

Au niveau de l’apport de lumière naturelle, une ouverture zénithale s’ouvre sur la totalité de la voûte céleste. Elle induit une meilleure pénétration de lumière, particulièrement par temps nuageux. La distribution lumineuse obtenue par une ouverture zénithale est aussi beaucoup plus homogène que celle produite par une fenêtre latérale. De plus, la lumière entre dans les locaux par le plafond, ce qui limite a priori les phénomènes d’éblouissement. L’éclairage zénithal convient spécialement à la pénétration de la lumière naturelle dans les bâtiments bas et profonds.

Distribution de lumière très homogène,
mais défavorable à la perception du relief.

Mise en évidence du relief par l’éclairage latéral,
malgré un couloir rectiligne.

Par contre, la lumière latérale est favorable à la perception du relief. L’entretien est également plus facile que pour une ouverture zénithale. De plus, le bilan thermique est en faveur d’une ouverture verticale. En été, les apports peuvent être limités (particulièrement au sud, via une « casquette » architecturale).

Tandis que les apports d’été sont toujours excédentaires au niveau d’une ouverture en toiture.

Seule solution : la décapotable ! Si la coupole ou la verrière peut être largement ouverte en été, le problème peut être résolu. Reste la gestion de la pluie et du vent…

Quelle orientation de la fenêtre latérale ?

Les pièces orientées au nord bénéficient toute l’année d’une lumière égale et du rayonnement solaire diffus. Il est judicieux de placer des ouvertures vers le nord lorsque le local nécessite une lumière homogène, peu variable ou diffuse, et lorsque les apports internes sont élevés.

Les pièces orientées à l’est profitent du soleil le matin, mais le rayonnement solaire est alors difficile à maîtriser, car les rayons sont bas sur l’horizon. L’exposition solaire y est faible en hiver, mais elle permet d’apporter des gains solaires au moment où le bâtiment en a le plus besoin. Par contre, en été, l’orientation est présente une exposition solaire supérieure à l’orientation sud, ce qui est peu intéressant.

Une orientation ouest présente un risque réel d’éblouissement et les gains solaires ont tendance à induire des surchauffes. En effet, les vitrages tournés vers l’ouest apportent des gains solaires l’après-midi, au moment où le bâtiment est depuis longtemps en régime.

Une orientation sud entraîne un éclairement important. De plus, les pièces orientées au sud bénéficient d’une lumière plus facile à contrôler. En effet, en hiver, le soleil bas (environ 17°) pénètre profondément dans le bâtiment, tandis qu’en été, la hauteur solaire est plus élevée (60°) et la pénétration du soleil est donc moins profonde. En été, les apports solaires sur une surface verticale sont également nettement inférieurs au sud qu’à l’est ou à l’ouest, car ils sont diminués par un facteur égal au cosinus de l’angle d’incidence.

Les dimensions de l’ouverture

On peut quantifier l’apport de lumière naturelle dans un local par le facteur de lumière du jour (FLJ). Exprimé en %, il exprime le rapport entre l’éclairement intérieur sur le plan de travail dans le local, et l’éclairement extérieur sur le plan horizontal, en site dégagé, par ciel couvert.

Plus le facteur de lumière du jour est élevé, plus le temps d’utilisation des locaux avec la lumière naturelle est élevé, limitant ainsi la consommation d’éclairage artificiel.

Un objectif raisonnable est d’arriver à un temps d’utilisation de l’éclairage naturel d’au moins 60 %. Ceci entraîne un facteur de lumière du jour de 2,5 (exigence de 300 lux) à 4 % (exigence de 500 lux) dans les locaux de vie, et de 1,5 % dans les circulations et sanitaires (exigence de 100 lux).

Une méthode approchée permet d’évaluer le Facteur de Lumière du Jour moyen d’un local donné, en fonction de sa surface vitrée.

L’emplacement de l’ouverture

Bien sûr, plus la surface est importante, plus l’éclairage naturel est élevé. Mais on sait que les apports solaires augmenteront eux aussi et donc le risque de surchauffe du local. Il nous faut donc optimiser l’efficacité lumineuse de la fenêtre.

Pour évaluer l’influence de l’emplacement de la fenêtre sur la répartition de la lumière dans un local, nous comparons trois fenêtres identiques, situées à 3 hauteurs différentes.

Plus la fenêtre est élevée, mieux le fond du local est éclairé et plus la zone éclairée naturellement est profonde. Si le fond du local (situé à 7 m de la façade dans notre test) reçoit une valeur de référence 100 pour la fenêtre basse, il recevra 128 pour la fenêtre à mi-hauteur et 143 pour la fenêtre haute.

A surface égale, l’efficacité lumineuse d’une fenêtre est donc maximale au niveau d’un bandeau horizontal, situé en partie supérieure de la paroi.

Une telle fenêtre en hauteur procure les avantages suivants :

  • Une répartition très uniforme de la lumière dans l’espace ainsi qu’un bon éclairage du fond du local.

 

  • Une source de lumière au-dessus de la ligne de vision, ce qui réduit les risques d’éblouissement direct.

Cependant, le seuil se trouve au-dessus du niveau de l’oeil, la vue sur l’extérieur est impossible. La fenêtre ne peut jouer son rôle de lien entre un local et son environnement. De plus, une zone d’ombre est formée à proximité du mur de fenêtre. En général, il est préférable de coupler une telle fenêtre avec une fenêtre classique, équipée de protections solaires.

Pour maximiser les apports de lumière naturelle, on peut également interrompre un faux plafond à proximité de la fenêtre pour favoriser la pénétration de la lumière naturelle par cette ouverture. Ce procédé est connu sous le nom de « plafond biaisé ».

De cette étude, on peut déduire une autre conclusion très intéressante : c’est la zone inférieure d’une fenêtre qui est la moins efficace en matière d’éclairage naturel. La présence d’une allège opaque est donc thermiquement préférable (présence d’une isolation pour diminuer les pertes en hiver et opacité vis-à-vis des apports solaires).

La forme de la fenêtre

Analysons l’influence de la forme de la fenêtre en comparant la répartition lumineuse fournie par trois fenêtres de proportions différentes, pour une surface vitrée identique et une hauteur de l’allège constante.

Lorsque la largeur de la fenêtre diminue, la répartition devient moins uniforme, bien que l’éclairement moyen soit pratiquement le même dans les trois cas étudiés. Par contre, l’éclairement du fond du local augmente avec la hauteur de la fenêtre. Pour une même surface vitrée, une fenêtre haute éclaire davantage en profondeur. L’idéal réside donc dans une fenêtre horizontale, mais dont le linteau est élevé. En première approximation, une pièce est convenablement éclairée jusqu’à une profondeur de 2 à 2,5 fois la hauteur du linteau de la fenêtre par rapport au plancher.

Analysons l’influence de la répartition des ouvertures dans une façade : comparons la grande fenêtre centrée et deux fenêtres plus petites, placées symétriquement.

Dans les deux cas, les fenêtres ont une superficie vitrée totale identique et la même hauteur; leur allège est située au même niveau par rapport au sol. La moyenne des éclairements varie peu, mais la répartition de la lumière dans la partie du local avoisinant les fenêtres est différente. Dans le cas de deux fenêtres séparées, une zone d’ombre apparaît entre celles-ci, ce qui peut créer des problèmes de confort visuel pour les occupants.

Le type de châssis

Le type et la taille du châssis modifient la vue vers l’extérieur et la quantité de lumière admise dans un édifice.

Le châssis fixe sera sans conteste le plus mince mais il empêche le plaisir du contact direct avec l’air extérieur…

Le matériau utilisé pour le châssis détermine également son encombrement : en général, un châssis en bois est plus mince qu’un cadre en aluminium à coupure thermique. Les châssis en PVC sont les plus larges.

Mais les innovations récentes permettent de plus en plus de diminuer l’impact visuel des châssis et d’augmenter ainsi la quantité de lumière captée.

Cafétéria dans un lycée.


Valoriser l’éclairage naturel capté

Les dimensions du local

La profondeur du local ne devra pas dépasser le double de la hauteur du linteau de la fenêtre, puisque l’intensité de la lumière naturelle décroît très rapidement en fonction de l’éloignement de la fenêtre.

Ainsi, la profondeur des bureaux devrait être limitée à 6 mètres.

À noter qu’une variation de la hauteur sous plafond (pour une même baie vitrée et une surface de plancher identique) induit une très faible différence dans la répartition lumineuse du local. Le niveau d’éclairement est cependant un petit peu plus élevé dans les pièces ayant un plafond plus bas.

La réflexion sur les parois

La nature et la couleur des surfaces intérieures influencent directement l’éclairage naturel dû aux réflexions intérieures. Une bonne distribution de la lumière nécessite des parois et du mobilier de couleurs claires.

L’importance de la clarté des surfaces est due à un double effet

  • les facteurs de réflexion plus élevés permettent à la lumière d’être davantage réfléchie.

 

  • l’œil humain analyse des niveaux de luminance : sous les mêmes conditions d’éclairage, une surface claire est donc subjectivement perçue comme mieux éclairée qu’une surface foncée.

On peut dire que si le facteur de réflexion moyen des murs d’un volume quelconque est inférieur à 50 %, la lumière pénétrera difficilement en profondeur dans cet espace. Or la plupart des matériaux architecturaux ont de faibles facteurs de réflexion. Un plancher clair peut avoir un facteur de réflexion de 30 %, mais pas beaucoup plus, ce qui est nettement plus bas que les murs (~ 50 % ) et que les plafonds (~ 70 %).

Dès lors, pour favoriser la pénétration de la lumière dans un local, on adoptera un revêtement du sol et du mobilier relativement clair, possédant donc un facteur de réflexion élevé. De plus, la clarté des tables de travail s’avère un élément favorable au confort visuel dans la mesure où la réduction du contraste entre le papier et le support de la table induit une diminution des efforts d’accommodation que l’œil doit effectuer à chacun de ses mouvements.

En revanche, les sols sont souvent de couleur relativement sombre afin de faciliter leur entretien. Il faut donc envisager un compromis susceptible de satisfaire simultanément les exigences de confort et de maintenance.

Comme le plafond ne reçoit la lumière naturelle que de manière indirecte, son influence sur la répartition de la lumière est relativement faible. En revanche, lorsqu’un dispositif de distribution lumineuse dévie la lumière vers le haut, par exemple à l’aide d’un  light shelf, le plafond reçoit une grande quantité de lumière qu’il doit répartir dans toute la pièce; le facteur de réflexion de cette surface doit alors être élevé (> 70 %), valeur correspondant à celle du plâtre blanc propre.

Lorsque les matériaux de revêtement présentent une certaine brillance, la lumière arrive plus facilement en fond de pièce.

En contrepartie, les surfaces en question acquièrent une luminance élevée et peuvent donc devenir des sources d’éblouissement.

De manière générale, les surfaces brillantes sont donc à conseiller comme moyen de transmission de la lumière naturelle, mais elles sont à éviter dans les locaux de travail, dans la mesure où les activités (lecture, écriture,…) peuvent être perturbées lorsque l’environnement lumineux est fort contrasté.

Distribuer l’éclairage dans les locaux

L’inconvénient de la lumière naturelle par rapport à la lumière artificielle réside dans la grande inhomogénéité des éclairements qu’elle induit. La répartition de la lumière représente donc un facteur clef pour assurer un éclairage de qualité.

Un éclairage naturel direct engendre des risques importants d’éblouissement et entraîne une répartition des luminances très irrégulière dans le local.

L’éclairage naturel indirect utilise les réflexions des rayons lumineux sur une paroi pour obtenir une distribution lumineuse plus homogène. Cependant, le niveau d’éclairement assuré dépend fortement du coefficient de réflexion de la paroi et donc de sa maintenance régulière.

Le Kimbell Art Museum, conçu par L. Kahn, renferme un exemple d’éclairage naturel indirect fabuleux.

De longs plafonds cylindriques laissent pénétrer la lumière naturelle en leur centre grâce à un système filtrant et réfléchissant, qui redirige la lumière solaire éclatante du Texas sur les voûtes du musée.

L’aménagement des parois intérieures

La distribution de l’éclairage dépend aussi de l’organisation des espaces intérieurs. Utiliser des cloisons transparentes ou translucides permet à la lumière de se répandre dans les deux pièces séparées par la surface vitrée. À l’intérieur d’un bâtiment, l’architecte est tributaire des effets de lumière qui se créent : il dote les espaces intérieurs de l’atmosphère désirée par une disposition étudiée des ouvertures et des obstacles à la lumière. Par exemple, un local disposé à l’est peut, par le truchement des baies intérieures, recevoir un peu de lumière de l’ouest.

Dans un long couloir, la présence de fenêtres translucides donne un relief agréable et permet d’éviter l’éclairage artificiel (bandes verticales à côté des portes ou impostes au-dessus des portes).

Les meubles sont parfois de réels obstacles qui empêchent la transmission de la lumière vers certaines parties de la pièce. Il est donc essentiel de réfléchir au type de meubles, ainsi qu’à leur emplacement, de manière à favoriser la pénétration de la lumière naturelle.

Ces deux modes d’éclairage peuvent aussi être combinés pour créer un éclairage direct/indirect, alliant une ouverture directe à la lumière naturelle à un système d’éclairage indirect. Un exemple de ce type d’éclairage est une façade qui unit une fenêtre normale et un light shelf. Ce mode d’éclairage possède, en général, les avantages de l’éclairage indirect, mais la partie directe permet en plus de créer des ombres, qui mettent en valeur le relief des objets. D’autre part, la maintenance des coefficients de réflexion des parois est un peu moins critique vu qu’une partie de l’éclairage entre de manière directe dans l’espace.

Gérer l’éclairage artificiel en fonction de l’éclairage naturel

Force est de constater que les occupants d’un bâtiment tertiaire sont peu motivés à éteindre leurs luminaires, même si l’éclairage naturel est suffisant. De plus, la modulation ON-OFF n’est pas souple et provoque un choc psychologique lors de l’extinction.

      

Par exemple, il est possible aujourd’hui de placer une cellule sensible à l’intensité lumineuse en dessous du luminaire. Si, en présence de soleil, celle-ci dépasse les 500 Lux souhaités, l’alimentation électrique du luminaire est automatiquement réduite. Sans que l’occupant ne s’en rende compte, l’éclairage naturel est directement valorisé. C’est « la vanne thermostatique » du luminaire !

Concevoir

Pour plus d’informations sur la mise en place d’une technique de gestion de l’éclairage artificiel.

Renforcer l’éclairage naturel à l’intérieur du bâtiment

Le puits de lumière

Certaines zones centrales dans un bâtiment n’ont pas d’accès direct à la lumière du jour. Dès lors, un conduit de lumière, passant à travers différentes pièces, permet de répandre la lumière naturelle captée en toiture ou en façade dans ces locaux aveugles.

Signalons toutefois que les puits de lumière risquent d’occuper un assez grand volume dans le bâtiment. Leur surface interne doit être d’autant plus réfléchissante que la lumière naturelle doit être amenée profondément dans le bâtiment. Pour limiter au maximum les pertes par absorption, il faut utiliser des matériaux très performants au niveau photométrique.

Architecte : M. Botta.

Utilisation du verre
dans des éléments de sol ou d’escalier.

Si le puits de lumière prend de plus larges dimensions, on parle d’atrium. Sa gestion thermique est souvent difficile (refroidissement par la surface vitrée en hiver, surchauffe par l’excès d’apports solaires en été). Un équilibre dans le degré d’ouverture doit donc être trouvé pour favoriser l’éclairage des pièces centrales, tout en évitant un déséquilibre thermique … coûteux en climatisation !

   

Exemple d’un atrium bien dimensionné.

Au Lycée Vinci de Calais, une dynamique est donnée par les 3 ouvertures : bandeau lumineux sur toute la longueur, coupole en toiture, pignons vitrés aux deux extrémités.

Si toute la toiture avait été ouverte, l’énergie incidente aurait entraîné des surchauffes en été.

Le conduit solaire

Un conduit solaire transmet la lumière solaire directe au cœur même du bâtiment. Le rayonnement solaire est capté au moyen d’un système de miroirs et de lentilles ou de capteurs paraboliques, éléments qui se meuvent en fonction de la trajectoire du soleil. La transmission du rayonnement solaire se fait par des systèmes de miroirs, de lentilles, de prismes réflecteurs, de fibres optiques, de baguettes acryliques, de fluides de cristaux liquides ou des conduits creux, dont les faces intérieures sont recouvertes de métaux polis. Les faisceaux lumineux ainsi obtenus peuvent alors être dirigés sur une surface précise ou diffusés dans l’espace.

Ce conduit, beaucoup moins volumineux qu’un puits de lumière, peut facilement atteindre une longueur de 15  mètres. Il est parfois associé à un puits de lumière.

Le conduit solaire apporte un flux lumineux nettement plus important et plus concentré que le puits de lumière. Cependant, tous ces systèmes de gestion du rayonnement solaire direct sont relativement chers à installer et s’appliquent donc plus particulièrement aux régions fortement ensoleillées.

Le « light shelf »

Un light shelf est un auvent, dont la surface supérieure est réfléchissante.

L’objectif est double

  1. Rediriger la lumière naturelle vers le plafond, ce qui permet de faire pénétrer la lumière profondément dans la pièce.
  2. Protéger l’occupant des pénétrations directes du soleil (éblouissement et rayonnement direct).

La surface du light shelf doit être aussi réfléchissante que possible, mais peut-être mate, brillante ou spéculaire. Une surface spéculaire renvoie théoriquement plus de lumière, mais il faut pour cela qu’elle soit nettoyée très régulièrement, ce qui n’est pas toujours aisé. En pratique, un light shelf brillant (semi-spéculaire) est sans doute le meilleur choix.

La couleur du plafond doit être aussi claire que possible, car il joue le rôle de distributeur de la lumière naturelle réfléchie par le light shelf. Sa pente a également de l’importance : un plafond incliné vers le fond du local ou de forme arrondie incurvée vers l’intérieur de l’espace augmentera fortement la profondeur de pénétration de la lumière dans le local.

Architecte : Michael Hopkins and Partners.

Dans nos régions, il est surtout applicable pour des locaux profonds d’orientation sud. Ses performances sont fortement réduites pour des orientations est et ouest, pour lesquelles le rayonnement solaire a un angle d’incidence plus faible.

De manière relative, plus le local est sombre, plus l’apport d’un light shelf peut être intéressant. Si la composante réfléchie interne est déjà grande dans un local, le même système sera proportionnellement moins efficace. L’emploi d’un light shelf en rénovation sera particulièrement profitable dans les pièces dont les murs ont des coefficients de réflexion faibles et un mobilier foncé (à noter qu’il sera moins cher de commencer par repeindre les murs !).

Le choix de la meilleure configuration de light shelf résulte d’un équilibre entre les demandes d’éclairage naturel et les besoins d’ombrage d’un local.

Un light shelf est habituellement situé à environ deux mètres de hauteur, divisant la fenêtre de façade en deux parties. Sa position dépend de la configuration de la pièce, du niveau des yeux et de la hauteur sous plafond pour permettre une vue vers l’extérieur et ne pas causer d’éblouissement. Une position basse augmente la quantité de lumière réfléchie vers le plafond … mais accroît les risques d’éblouissement.

L’augmentation de la profondeur du light shelf limite l’éblouissement, mais diminue aussi la pénétration de la lumière et la vue vers l’extérieur. Le light shelf, affectant la conception architecturale et structurelle d’un édifice, est de préférence introduit au début de la phase de conception puisqu’il nécessite un plafond relativement haut pour être efficace.

Les light shelves horizontaux sont un bon compromis entre une inclinaison du système vers le centre de la pièce ou vers l’extérieur. Tournée vers l’extérieur, le light shelf crée un plus grand ombrage, mais tournée vers l’intérieur il éclaire mieux le fond de la pièce.
On peut classer un light shelf selon sa position : intérieur, extérieur ou combiné.

Ainsi que le montre les simulations de l’éclairage d’un local, sans et avec light shelf,

  • Le light shelf extérieur donne les meilleurs résultats du point de vue du niveau d’éclairement en fond de pièce, tout en ombrant la grande fenêtre.

 

  • Placé à l’intérieur, il réduit le niveau d’éclairement moyen du local, mais offre toutefois un ombrage pour la partie supérieure du vitrage.

 

  • Enfin, le light shelf combiné assure la distribution lumineuse la plus uniforme dans le local; il se révèle également la meilleure protection solaire.

Récupérer les sources de chaleur « perdues » du bâtiment

Récupérer les sources de chaleur "perdues" du bâtiment


Placer un récupérateur de chaleur sur l’air extrait

L’air hygiénique est extrait à une température de l’ordre de 21° durant tout l’hiver. Or la température moyenne extérieure saisonnière est de l’ordre de 6° dans nos régions. Il faut donc chauffer l’air neuf de 15°C durant 8 mois. Pour un bâtiment bien isolé, cela représente 50 % de la consommation de chauffage annuelle.

Or il est possible de récupérer 50 % de la chaleur du fluide qui traverse un récupérateur de chaleur. C’est donc un potentiel énergétique non négligeable. Tout se passe comme si l’air extérieur passait en moyenne à 13,5 °C !

Avantage : c’est directement l’air vicié qui préchauffe l’air neuf. Il y a donc synchronisme des besoins en période de chauffe. La rentabilité est variable, mais elle se situe entre 4 et 6 ans, ce qui est très faible face à la durée de vie de l’installation. Classiquement un échangeur à plaques sera choisi, mais plusieurs autres systèmes sont à étudier. Pour diminuer les coûts à l’investissement, il faut organiser un regroupement des conduits de pulsion et d’extraction dès l’Avant-Projet.

Schéma récupérateur de chaleur sur l'air extrait.

Cette technique demande un soin particulier lors du dimensionnement afin que le bénéfice thermique ne soit pas trop « mangé » par le supplément de consommation des ventilateurs.

Précisons qu’il s’agit bien d’un échange thermique et qu’il n’y a pas de mélange entre l’air vicié et l’air neuf.

Une bonne gestion doit être étudiée, car en mi-saison, l’air extérieur peut être à 18°C et il serait dommage de le chauffer avec de l’air à 23°C, par exemple. Un by-pass doit être prévu.

Concevoir

Pour plus d’informations sur le choix d’un récupérateur de chaleur.

Re-pulser l’air extrait dans une autre zone du bâtiment

Une solution classique consiste à pulser l’air extrait des bureaux dans les parkings situés sous le bâtiment, ce qui permet de chauffer en même temps ce lieu. Très honnêtement, cela nous paraît une faible économie, car le chauffage des parkings est luxe peu utile. La consommation des ventilateurs sera plus forte que si des simples ventilateurs axiaux organisent le balayage. Enfin, avec une sonde CO, il est possible de diminuer drastiquement les besoins en journée (moteurs à l’arrêt), or les besoins des bureaux sont constants…

Il paraît plus utile de valoriser cet air une deuxième fois : extraction par les zones d’archives, extraction par l’atrium qui constitue une zone tampon (attention au risque de surchauffe en mi-saison… by-pass ?), … Il faut repartir de la logique appliquée dans le secteur domestique : l’air est apporté au living et est extrait en cuisine. Il sert donc deux fois.


Récupérer la chaleur au condenseur de la machine frigorifique

Si une machine frigorifique fonctionne en hiver et en mi-saison, il y a probablement moyens de combler des besoins de chauffage dans le bâtiment. Difficulté : la chaleur fournie par un condenseur est à très basse température (40°C à 50°C). Il faut donc trouver des besoins à basse température

  • boucle d’eau chaude des ventilos-convecteurs,
  • préchauffage de l’eau chaude sanitaire (premier ballon en série avec le ballon final),
  • préchauffer l’air neuf hygiénique du bâtiment,
  • postchauffer l’air neuf déshumidifié pour une installation de plafonds froids (obligatoire dans la Nouvelle Réglementation Thermique française),

Chaque cas est un cas d’espèce à étudier par le bureau d’études, mais l’imaginer dès l’Avant-Projet permet souvent de se faciliter la vie par la suite !

Exemple d’application très intéressante.

Le plus logique est de récupérer la chaleur sur le condenseur à air pour chauffer directement l’air d’un local. Ainsi, un supermarché Delhaize à Bruxelles évacue la chaleur du condenseur du groupe frigorifique (armoires de congélation) en créant un rideau d’air chaud à l’entrée du magasin. En été, la chaleur est déviée en toiture par un clapet.

Concevoir

Pour plus d’informations sur la récupération de chaleur au condenseur d’une machine frigorifique.

Utiliser les systèmes de climatisation à débit de fluide réfrigérant variable

Imaginons une demande de chaleur dans un local en façade et des apports de chaleur dans un local de réunion juste à côté. Il existe aujourd’hui un équipement capable de refroidir un local et de transférer la chaleur vers un local voisin ! C’est en quelque sorte une pompe à chaleur dont la source froide est constituée par un des locaux. La performance énergétique pourrait en être très élevée.

Pour être rentable, il faut que le bâtiment présente souvent cette complémentarité des besoins. On pense par exemple à un bâtiment qui aurait des locaux aveugles (intérieurs), en demande de refroidssement toute l’année.

Concevoir

Pour plus d’informations sur les systèmes de climatisation à débit de fluide réfrigérant variable.

Placer une pompe à chaleur sur les sources chaudes du bâtiment

Par exemple, il est possible de refroidir (et déshumidifier par la même occasion) une buanderie surchauffée et produire ainsi de l’eau chaude sanitaire : on fait coup double !

Schéma pompe à chaleur sur les sources chaudes du bâtiment.

Concevoir

Pour plus d’informations sur les systèmes de récupération avec PAC.

Puits canadien

Puits canadien


Principe et utilisation

Le puits canadiens (ou son homologue le « puits provençal ») permet de préchauffer (prérefroidir) l’air neuf d’un système de pulsion mécanique par l’intermédiaire d’un conduit d’amenée d’air enfoui dans le sol, en complément de la récupération de chaleur éventuelle.

  • En hiver, le sol, à cette profondeur, est plus chaud que la température extérieure : l’air froid est donc préchauffé lors de son passage dans les tuyaux. Avec ce système, l’air aspiré ne sera pas prélevé directement de l’extérieur, d’où une économie de chauffage.
  • En été, le sol est, à l’inverse, plus froid que la température extérieure : ce principe va donc utiliser la fraîcheur relative du sol pour le refroidissement naturel de l’air entrant dans le bâtiment.

Il semble que le puits canadien permette une économie de l’ordre de 20 .. 25 % de la consommation liée au chauffage de l’air neuf (5 .. 10 % de la consommation totale de chauffage) et permette un rafraîchissement naturel de l’air en été. Le coût du puits canadien dépend de la conception du bâtiment. Par exemple, l’intégration dans les fouilles du bâtiment ne demande pas d’excavation supplémentaire.

Cependant, vu l’investissement important qu’il requiert, les risques de condensation internes, les pertes de charges supplémentaires dans le système de ventilation qu’il amène et l’entretien, le puits canadien/provençal n’est généralement pas une priorité. En effet :

  • En hiver, il est en concurrence avec le récupérateur de chaleur.
  • En été, il permet certes d’améliorer le confort hivernal mais son rôle reste faible comparativement à d’autres stratégies passives de froid comme la bonne définition des surfaces vitrées, les protections solaires extérieures, la ventilation naturelle intensive ou l’inertie.
Saison Récupérateur de chaleur sur l’air extrait uniquement Puits canadien/provençal uniquement Récupérateur de chaleur sur l’air extrait + puits canadien/provençal
Hiver
Été


Règles de conception

Les règles de conception suivante constituent une bonne pratique pour le secteur domestique :

  • la conduite sera enterrée entre 2 à 4 m de la surface du sol,
  • la vitesse de l’air dans le conduit ne dépassera pas 3 m/s (conseillé 2 m/s, voire moins),
  • le dimensionnement du conduit tiendra compte de la nature du sol,
  • le conduit comprendra une pente d’environ 2 % et une évacuation des condensats produits en été,
  • le conduit sera lisse et étanche, de manière à éviter l’infiltration d’eau et les développements bactériens,
  • l’entrée d’air sera équipée d’un ou plusieurs filtres et protégée contre l’intrusion des rongeurs, insectes et pollens,
  • l’entrée d’air sera située à une hauteur de 120 cm minimum ou dans un mur de soutènement,
  • le diamètre des conduits ne dépassera pas 20 cm,
  • si plusieurs conduits sont nécessaires, ils seront espacés d’au minimum 5 fois leur diamètre,
  • l’installation sera équipée d’un by-pass thermostatisé de manière à court-circuiter le conduit enterré lorsque la température extérieure est supérieure à la température du sol et en absence de besoin de rafraîchissement.

Toutes les garanties devront être prises pour assurer la qualité hygiénique du puits canadien. Il s’agit de permettre le nettoyage du système et éviter le développement bactérien consécutif aux condensations estivales.

Exemples de précautions :

  • Il est important de pouvoir accéder à la conduite pour un entretien, et un nettoyage fréquent (à prévoir dans l’entretien du bâtiment).
  • Les conduites doivent être en pente, l’eau éventuelle coule vers le point d’aspiration.
  • Une pompe peut être prévue au point d’aspiration pour évacuer l’eau éventuelle.
  • Dans le cas d’un gainage en béton, les cycles d’imprégnation et de séchage du béton peuvent limiter les risques.


Exemple

Voici les photos d’un puits canadien posé à l’entrée de l’arrivée d’air d’un immeuble de bureaux (bâtiment Worx – Kortrijk – conception Cenergie), en utilisant des conduits d’égout.

Une fois les travaux terminés, voici la vue de la prise d’air :

Résultats : évolution de la température dans le conduit (courbe rose « grondbuis »), au mois de mai (température du sol avoisinant les 10°C). La température de l’air en sortie de puits avoisine les 15°C :

Et quelques mois plus tard, lors d’une période de canicule (t° de l’air en sortie de puits de 22°C alors que l’air extérieur est à 35°C) :

Évaluer les gains et la rentabilité de l’isolation thermique

Évaluer les gains et la rentabilité de l'isolation thermique


ρ

Les gains se situent au niveau de :


La diminution de la facture énergétique

L’isolation thermique d’une paroi permet d’économiser énormément d’énergie.

Exemple.

On pose sur un toit plat non isolé de 100 m² une couche d’isolant, dont la résistance thermique R = 2.5 (exemples : 12 cm de laine de roche ou 9 cm de mousse de polyuréthanne ou 14 cm de verre cellulaire). Ceci permet d’économiser au moins 1 000 litres de gasoil par an au centre du pays, dans un immeuble non chauffé la nuit et le WE (bureaux, par exemple).

Calculs

Si vous voulez accéder aux détails des formules utilisées ci-dessous, cliquez ici !

Détail :

  • Résistance sans isolant :

R = 0.50 m²K/W => U = 2 W/m²K

  • Résistance avec isolant :

R = 3,00 m²K/W => U = 0,33 W/m²K

  • Différence de U = 1,67 W/m²K
  • Température extérieure moyenne pendant la période de chauffe : 6.5°C
  • Durée de la période de chauffe : 242 jours
  • Température moyenne intérieure : 20° (T° de jour) – 3° (intermittence) – 3° d’apports gratuits = 14°C
  • Différence moyenne de température :

14°C – 6,5°C = 7,5 K

  • Rendement moyen de l’installation de chauffage : 0,7
  • Différence de perte annuelle par m² :

(ΔU x S x Δ Tm)  x durée de chauffe / η =
1,67 W/K x 7,5 K x 242 j x 24 h/j / 0,7 = 103 922 Wh

  • Soit en combustible 104 kWh x 0.1 l/kWh = 10,4 litres de gasoil par m² par an.
  • Soit ici 1 000 litres de gasoil pour la toiture par an.

Exemple de rentabilité :

  • Avec un prix du gasoil de 0,8 € par litre, l’économie financière annuelle par m² de toiture est de 8 €.
  • Le prix de l’isolation est très variable (isolation des combles ou de la toiture ? l’étanchéité est-elle de toute façon à refaire ? …). Un prix de 50 €/m² permet de boucler un projet, étanchéité comprise. Le temps de retour de l’isolation est donc de ( 50/ 8) = moins de 7 ans.
  • À noter que si le bâtiment est chauffé jour et nuit (hôpital, maison de repos) et que l’on considère une température moyenne intérieure de 21°C, l’économie monte à 16 litre de gasoil/m² et le temps de retour descend à 6 ans.
  • Si le bâtiment est situé en Ardenne, le temps de retour descend à 5 ans (bureau) ou 3 ans (hôpital).
  • Si l’institution (bureau d’une administration ou home) obtient la prime UREBA de 30 %, (ou une autre prime et déduction fiscale pour les bureaux privés, voir http://energie.wallonie.be), le prix de l’isolation descend à 35 €/m², et donc les temps de retour descendent à :
bureau
home
Brabant
5 ans
3 ans
Ardenne
3 ans
2 ans
  • Si le chantier est important et qu’une négociation est possible, le prix peut encore descendre. Et si l’étanchéité de la toiture est de toute façon à envisager, le prix de l’isolant s’amortit alors très rapidement.

Calculs

Si vous voulez calculer vous-même la rentabilité de l’isolation d’une paroi, cliquez ici !

Calculs

Dans le programme de calcul ci-dessus, il vous sera demandé le coefficient de transmission thermique (U) de la paroi avant et après isolation.  Ces valeurs ont été calculées pour certaines parois types.

Évaluer

Il vous sera également demandé d’évaluer le rendement de votre installation de chauffage.
Vous trouverez des indications concernant les valeurs à considérer pour une installation à eau chaude en cliquant ici. Pour le chauffage électrique, le rendement est de 100 %.

L’amélioration du confort

L’isolation de la paroi va augmenter la température de surface de celle-ci, augmentant ainsi le confort thermique pour les occupants, et réduisant les risques de condensation en surface et donc les problèmes d’hygiène.
Vous pouvez évaluer la température de surface de la paroi à l’aide de la formule :

θoi = θi – (U x 0,125 x(θi – θe))

avec :

  • θi : température intérieure (en °C)
  • θe : température extérieure (en °C)
  • U : coefficient de transmission thermique de la paroi (en W/m²K)
  • θoi : température de surface intérieure de la paroi (en °C)

Exemple : si la température extérieure est de 0°C et que la température intérieure est de 20°C, la face inférieure d’une paroi plate passera de 15 à 19°C après isolation.


La protection du bâtiment

L’amélioration de l’isolation de la paroi correctement réalisée par l’extérieur augmente la longévité des matériaux, car elle :


La diminution des rejets polluants

Du point de vue environnemental, les économies de chauffage engendrées par l’isolation permettent de réduire fortement les rejets de gaz polluants (CO2, SO2, NOX, …)

Exemple.

Dans le Brabant, la pose, sur le toit plat non isolé de 100 m² d’un immeuble de bureau, d’une couche d’isolant dont la résistance thermique R = 2.5 (exemples : 12 cm de laine de roche ou 9 cm de mousse de polyuréthanne ou 14 cm de verre cellulaire) permet de diminuer les rejets annuels (chauffage au gasoil) :

  • d’environ 104 kWh/m² x 100 m² x 0,264 kg > CO2/kWh = 2 746  kg de CO2
  • d’environ 104 kWh/m² x 100 m² x 0,169 mg NOx/kWh = 1,7  kg de NOx

Choisir le lieu d’implantation

Suivant le lieu d’implantation, la consommation liée au transport des occupants
risque de dépasser la consommation de l’immeuble de bureaux …


Valoriser les réseaux de transport en commun

 

Dans un immeuble de bureaux, la consommation journalière des 12 m² occupés par une personne correspond à un parcours aller/retour en voiture de 30 km.

La consommation liée au transport des occupants du bâtiment est donc souvent plus élevée que la consommation du bâtiment lui-même !

Lors du choix d’implantation, parmi les autres critères, on prendra en compte l’intégration dans un réseau de transport en commun.

Pour plus d’info sur ce thème, vous pouvez consulter le site ouverture d'une nouvelle fenêtre ! http://mobilite.wallonie.be de la Région Wallonne.


Favoriser le transport à pied ou à vélo

L’accessibilité des piétons et des cyclistes est essentiellement du ressort de l’urbanisme. Cependant, localement, il est possible de favoriser cette politique, par la réservation d’une zone de parkings pour les vélos, par exemple. Ou l’insertion au programme du bâtiment d’une salle de douches pour les occupants cyclistes.


Valoriser les services de proximité

Dans un zoning industriel, les repas de midi, les courses durant la pause, … génèrent des déplacements énergivores.

On peut donc penser au contraire à une implantation qui limite cet usage :

  • présence de restaurants, de commerces,
  • présence de sociétés de services à proximité,

Valoriser les ressources locales

Les matériaux qui entreront dans le projet représenteront chacun un investissement énergétique.

On privilégiera donc le choix de matériaux de construction locaux, l’utilisation de matériaux recyclables ou recyclés,…

Plus largement encore, une réflexion peut être menée sur la valorisation de la main-d’œuvre locale, voire sur l’appel à des organismes locaux d’insertion professionnelle.


Intégrer le bâtiment au sein d’un projet urbain global

Est-il normal de concevoir des immeubles similaires dans nos régions et sous les tropiques… ?

Ceci dépasse le seul critère énergétique, mais peut être porteur d’une réflexion intéressante :

  • Intégrer le bâtiment dans son contexte topographique, architectural, urbanistique, culturel, …
  • Apporter de la mixité dans les affectations urbaines (bureaux, logements, écoles, commerces, …).
  • Proposer un aménagement local dont la logique s’intègre au projet urbain existant ou peut s’étendre ultérieurement au voisinage futur.
  • Valoriser les espaces publics et semi-publics.

Plus localement, il est aussi utile de réintroduire le contact avec l’environnement grâce aux espaces extérieurs qui environnent le bâtiment.

 

Les fontaines, les bassins,… créent un rapport ludique et symbolique avec l’eau.
Ils favorisent la diversité biologique.

Mais aussi, ils modifient le microclimat dans l’espace environnant, réduisant en été la température de l’air extérieur par évaporation (chaleur latente).

 

Projet et cahiers des charges

Projet et cahiers des charges


Pour intégrer l’efficacité énergétique dans les projets :
  • Le bureau d’études doit rédiger des clauses énergétiques dans ses prescriptions :
    c’est l’objet des « Cahiers des Charges énergétiques ».
  • L’architecte ou encore le Maitre d’ouvrage doivent pouvoir vérifier la qualité énergétique à chaque étape du chantier :
    c’est l’objet des « Check-Lists énergétiques ».

Attention : ces documents ont été rédigés en 2004 et datent donc quelque peu. Il est important de les utiliser avec précaution même si l’esprit général reste valable.

Des cahiers des charges pour le bureau d’études

Les clauses énergétiques à intégrer dans les prescriptions.

Le chauffage > pdf
L’eau chaude sanitaire > pdf
L’éclairage > pdf
La climatisation (HVAC) > pdf 

Des check-lists pour l’architecte et le Maitre d’Ouvrage

Les critères de qualité énergétique pour chaque étape du chantier.

Le chauffage > pdf 
L’eau chaude sanitaire > pdf 
L’éclairage > pdf 
La climatisation > pdf 
La ventilation hygiénique > pdf 
À ce stade, il sera aussi utile de préparer l’exploitation du bâtiment

Concevoir l’esquisse du projet – généralité

Concevoir l'esquisse du projet

Préalable, un document de synthèse peut être imprimé à destination du Maître d’Ouvrage.

Avertissement : l’esquisse décrite ici ne prend en compte que des considérations énergétiques et de confort s’adressant aux bâtiments du tertiaire de manière générale. La prudence est de mise lorsqu’on aborde certaines zones à risque de l’hôpital.

Conception énergétique d’un bâtiment tertiaire :

>  version PDF

Choisir entre les différents types de fenêtre : récapitulatif

A. Les châssis

Concevoir

Pour en savoir plus sur les critères de choix des châssis.

Techniques

Pour en savoir plus sur les différents types de châssis.

Le châssis en bois

Avantages

  • Thermiquement performant.
  • Traditionnel dans nos régions.
  • Produit naturel (si bien géré).
  • S’adapte facilement à des formes complexes.
  • Relativement stable au feu.
  • Relativement résistant à l’effraction.

Inconvénients

  • Nécessite un entretien périodique.

Le châssis en PVC

Avantages

  • Thermiquement performant.
  • Entretien très facile.

Inconvénients

  • Produit synthétique contenant du chlore.
  • Dilatation thermique importante.
  • Faible résistance au feu.
  • Faible résistance à l’effraction

 Le châssis en aluminium à coupure thermique

Avantages

  • Bonne résistance mécanique.
  • Bonne résistance à l’effraction.
  • Facile à entretenir.

Inconvénients

  • Thermiquement moins performant que le bois ou le PVC.
  • Faible résistance au feu.

Le châssis mixte et le châssis à haute performance thermique

Il existe une grande variété de châssis constitués de différents matériaux assemblés en vue de conférer à ceux-ci des caractéristiques spécifiques adaptées à leurs usages : Isolation renforcée, facilité d’entretien, résistance mécanique, …

Le choix de ceux-ci se fera en fonctions des niveaux de performances à atteindre par le bâtiment. Ils sont plus coûteux que des châssis classiques.

B. Le vitrage

Concevoir

Pour en savoir plus sur les critères de choix du vitrage.

Techniques

Pour en savoir plus sur les différents types de vitrage.

Le vitrage thermique

On n’envisagera plus actuellement de mettre en œuvre des vitrages autres que thermiquement performants.

Un double vitrage basse émissivité avec gaz dont le coefficient de transmission thermique Ug est compris entre 1.0 et 1.3 W/m²K, est un minimum à prévoir. De plus, le rapport qualité/prix de ce type de vitrage est intéressant.

Pour des ambitions plus hautes en matière de performance thermique, le triple vitrage s’impose. Il est normal que son prix soit plus élevé. Le châssis doit évidemment être adapté à l’épaisseur du vitrage et à son poids.

Le vitrage thermique solaire

Outre ses qualités thermiques, sa principale fonction est de diminuer les apports solaires pour réduire la surchauffe dans le bâtiment. Il est donc indiqué lorsque le bâtiment ne peut pas être équipé de protections solaires fixes ou mobiles efficaces et qu’il est sensible à la surchauffe à cause de sa faible inertie et/ou d’apports internes importants.

Les vitrages thermiques ont cependant certains inconvénients.

  • Ils peuvent, dans certaines conditions atmosphériques, assombrir l’intérieur au point de nécessiter l’usage de l’éclairage artificiel.
  • Ils peuvent diminuer les apports solaires gratuits en hivers.
  • Leur aspect extérieur n’est pas aussi neutre que celui d’un vitrage normal (couleur et réflexion).
  • Depuis l’intérieur du bâtiment, la perception de la lumière extérieure est modifiée (intensité et couleur).
  • La nuit, la visibilité vers l’extérieur est fortement réduite à cause de la réflexion de la lumière intérieure.

Le vitrage thermique acoustique

Le choix d’un vitrage thermique acoustique n’est justifié que par la localisation du bâtiment dans une zone bruyante. Il protège des bruits extérieurs sans avoir un impact significatif sur l’acoustique intérieure du bâtiment. Il n’est efficace que lorsque les fenêtres sont fermées et donc inutile dans un bâtiment dont les fenêtres doivent être ouvertes souvent.

Ce type de vitrage est plus lourd que le vitrage thermique normal (une des vitres est plus épaisse) et thermiquement légèrement moins performant (à épaisseur totale égale, l’espace entre les vitres est moins large – 12 mm au lieu de 15 ou 16 mm). Il est aussi plus cher.

Le vitrage thermique de sécurité

Comme le vitrage acoustique, le vitrage de sécurité n’est justifié qu’aux endroits où il y a risque de blessure ou de chute pour les personnes, ou d’effraction. Les règles de sécurité à respecter sont reprises dans la norme NBN S23-002 : 2007 et son addendum NBN S 23-002/A1 : 2010. Le principe de base de cette norme est qu’il faut examiner si un verre de sécurité est nécessaire du côté du vitrage thermique où se trouve une zone d’activité humaine.

Ainsi, dans le cas des vitrages thermiques de sécurité (double vitrage ou triple vitrage), le verre de sécurité doit être placé du côté où le choc risque de se produire, ou des deux côtés si le choc peut se produire des deux côtés. En toiture, le verre feuilleté doit se trouver en dessous de manière à éviter la chute de morceaux de vitre. Etc.

Comme le vitrage thermique acoustique, le vitrage thermique de sécurité est plus lourd que le vitrage thermique normal (une des vitres est plus épaisse) et thermiquement légèrement moins performant à épaisseur totale égale. Il est aussi plus cher.

C. L’intercalaire

Normal ou amélioré ?

Les écarteurs qui relient les vitres d’un vitrage double ou triple provoquent un pont thermique plus ou moins important qui augmente le coefficient thermique Uw de la fenêtre.

Certains intercalaires, dits améliorés, réduisent ce pont thermique. Le Uw peut ainsi être diminué de 0.12 W/m²K (voire plus si l’intercalaire est thermiquement très performant).

Il faut être très attentif au moment de la commande de spécifier si on souhaite qu’un intercalaire amélioré soit placé. Il coûte un plus cher qu’un intercalaire normal (supplément 10 à 15 % du prix total du vitrage).