Score agrégé de performance environnementale

La multiplicité des scores d’impact environnemental lorsqu’ils sont pris de manière individuelle constitue rarement une bonne base pour la prise de décision. C’est pourquoi, TOTEM permet de visualiser le profil environnemental d’un élément ou du bâtiment à l’aide d’un score agrégé. L’agrégation de tous les impacts environnementaux en un score unique s’inscrit dans cette logique « decision- making » et permet aux utilisateurs d’effectuer une sélection orientée vers la prise de décision quant aux solutions de construction.

 

Pondération selon la méthode PEF

Au sein du logiciel TOTEM, il est donc possible de calculer un score unique pour l’ensemble des dix-neuf indicateurs environnementaux. Dans la suite logique de la mise à jour de la norme EN 15804 + A2 en juillet 2021 sur laquelle TOTEM s’aligne, il a été décidé d’abandonner l’ancienne approche de monétisation et d’appliquer l’approche de pondération PEF (Performence Environmental Footprint). La méthodologie PEF calcule, sur base des indicateurs environnementaux caractérisés, un score unique au moyen d’une étape de normalisation suivie d’une étape de pondération.

L’approche de la pondération PEF comprend deux étapes : normalisation et pondération, qui sont ensuite regroupée dans une agrégation.

Normalisation

La normalisation vise à calculer l’ampleur du phénomène de l’indicateur de catégorie par rapport à un système de référence.  Pour chaque indicateur environnemental, les valeurs caractérisées sont divisées par leurs facteurs de normalisation respectifs, exprimés en impact global annuel par habitant (sur la base d’une valeur globale pour l’année de référence 2010). Les résultats normalisés sont donc logiquement sans dimension.

TOTEM applique les facteurs de normalisation proposés par la plateforme européenne sur l’analyse du cycle de vie (EPLCA 2019). Par exemple, le facteur de normalisation pour le changement climatique est de 8,1 X 10³ kg CO2 eq./personne par an. L’ensemble des facteurs de normalisation utilisé dans la méthode PEF a été élaboré à partir de données statistiques sur les émissions et les ressources utilisées dans le monde pendant un an par habitant.

Pondération

Dans un deuxième temps, les valeurs normalisées sont pondérées en les multipliant par des facteurs de pondération afin de refléter l’importance relative perçue des catégories d’impact environnemental considérées. Par exemple, le facteur de pondération pour le changement climatique est de 21,06 %.

Les facteurs de pondération proposés sont calculés sur la base d’une combinaison d’ensembles de pondération :

  • un ensemble de pondérations provenant d’une enquête publique (25 %)
  • un ensemble de pondérations dérivé d’une enquête menée auprès d’experts en ACV (25 %), et
  • une approche hybride combinant des critères fondés sur des preuves (par exemple, l’étendue, la durée, la réversibilité des impacts…) et un jugement d’expert (50 %). Pour tenir compte de la robustesse des indicateurs d’impact, un facteur de correction (sur une échelle de 0,1 à 1) est appliqué aux facteurs de pondération afin de réduire l’importance des catégories d’impact dont la robustesse est faible (degré d’incertitude trop grande, données peu représentatives,…).

Agrégation

Après pondération, les résultats des différents indicateurs environnementaux peuvent être additionnés pour obtenir une note globale unique (exprimée en millipoints dans TOTEM). Le tableau ci-dessus un aperçu des facteurs de normalisation et de pondération.

Après normalisation et pondération, les scores peuvent être agrégés en un seul score. Dans les tableaux de résultats de Totem, un « facteur d’agrégation » par indicateur d’impact est donné sur la base de la combinaison des facteurs de normalisation et de pondération du PEF. Ces facteurs d’agrégation sont calculés en multipliant l’inverse de chaque facteur de normalisation avec son facteur de pondération correspondant et puis en multipliant par 1000 pour la conversion de Pt en millipoints.

Si vous voulez en savoir plus sur le score environnemental unique de Totem, nous vous recommandons la video ci-dessous :


Ventilation des résultats

Disposer d’un score unique permet de combiner des impacts différent, mais ne bride pas toute capacité d’analyse plus fouillée. Totem propose différentes décompositions des résultats, par indicateurs, composant, ou étape du cycle de vie.

Impact par indicateur

La figure ci-illustre la décomposition de l’impact environnemental d’un élément choisi en exemple est issu de la bibliothèque de TOTEM. Il s’agit d’un élément correspondant à la description suivante: Élément de toiture en pente / Recouvrement en ardoise_Fibre-ciment | Poutres_Bois résineux (172 mm – entraxe 400 mm) | Matelas_Laine de roche (170 mm) | Panneau_Plâtre.

Cette figure permet d’identifier facilement les impacts les plus impactant dans le score global de cet élément : dans ce cas, il s’agit de la contribution u changement climatique, de l’épuisement des ressources abiotiques et des émissions de particules fines.

Si vous voulez en savoir plus sur les différents indicateurs environnementaux utilisés dans TOTEM, nous vous recommandons la video ci-dessous :

Impact par composant

Le même exemple peut être analysé par composant :

On voit ici que 46% de l’impact est lié aux pertes de chaleur par transmission associée à cette paroi, et que le deuxième élément le plus impactant est lié au recouvrement en ardoise, ce qui suggère de mettre en question ce choix de recouvrement avant d’autres composants, tels que le matériau isolant (5% de l’impact uniquement dans ce cas).

Impact par étape du cycle de vie

Cette troisième visualisation permet de voir que la phase B6, représentant l’énergie de chauffage associée à l’élément, est de loin dominante. Deux autres phases se détachent : A1-A3, qui couvre la production des éléments, et B4, qui représente le remplacement de certains éléments durant le cycle de vie. Les étapes de transport et de fin de vie pèsent par contre peu, ce qui relativise les incertitudes pesant sur les scénarios de réemploi, recyclage ou traitement en fin de vie.

isolation d'une école

Réduire les consommations d’énergie de chauffage dans une démarche zéro-carbone

 

Comme mentionné en introduction du dossier consacré à la rénovation des écoles, l’énergie de chauffage dans une école représente en moyenne 60 à 70% des consommations totales. Cette part importante du poste chauffage est liée d’une part à une faible performance énergétique des bâtiments.

Dans le cas de rénovations de bâtiments scolaires dans une démarche zéro carbone, il est prioritaire de réduire cette consommation excessive de carbone liée à l’énergie de chauffe. Pour cela, des solutions « classiques »  peuvent être envisagées (changement combustible, remplacement de la chaudière…). Ou alors, dans une démarche plus innovante, nous proposons 3 pistes de réflexion afin d’atteindre l’objectif de neutralité carbone souhaité :

  • Repenser les besoins
  • Optimiser les performances énergétiques de l’enveloppe
  • Compenser les besoins résiduels avec une production propre

Repenser les besoins

Face aux enjeux énergétiques auxquels nous faisons face aujourd’hui, il s’avère de plus en plus clairement qu’un changement radical de nos pratiques et de nos standards de confort thermique s’impose afin de réduire les émissions de carbone liées à notre consommation d’énergie.

Qui dit repenser les besoins thermiques, dit aussi repenser les attentes thermiques des occupants. Celles-ci reposent habituellement sur un modèle classique d’espaces chauffés à une température standard de 20°, par un système de chauffage centralisé alimentant en chaleur l’ensemble du bâtiment. Cependant, dans une optique zéro-carbone, il est intéressant de retourner le modèle en se basant sur un principe visant à “chauffer les personnes, pas le bâtiment”. Ou encore, en poussant cette réflexion à l’extrême, il serait également envisageable de ne plus avoir recours à un contrôle permanent sur l’ambiance, mais uniquement à un apport ponctuel à certains moments critiques (relance…). Ceci est particulièrement vrai dans les école où la densité d’occupants constitue un apport thermique significatif.

  Effet du chauffage par air                                           Ce dont nous avons besoin

Une vue de l’esprit ? Pas si sûr : la théorie du confort adaptatif met en évidence l’existence, moyennant la présence d’opportunités adaptatives dans le bâtiment, de plages de températures dites “confortables” plus larges que celles dont nous avons l’habitude. Cette théorie est généralement appliquée uniquement pour la réponse aux surchauffe, faute d’études suffisante en hiver. Mais elle mérite d’être explorée.

Selon cette théorie, il serait possible de réduire les besoins thermiques à l’école en offrant aux occupants des capacités d’adaptation pour corriger localement leur ressenti. On ne parle donc pas ici de simplement placer une vanne thermostatique, mais des mettre à dispositions des solutions individuelles et proches du corps, regroupées sous l’appellation “systèmes de confort personnels (PCS)”.


Optimiser les performances énergétiques de l’enveloppe

Comme mentionné plus haut, agir sur les flux de chaleur intérieur-extérieur passe par un travail accru sur les niveaux d’isolation et d’étanchéité de l’enveloppe. Néanmoins, dans une optique zéro-carbone, “isoler plus” rime inévitablement avec “plus de carbone”. En effet, ce qui peut paraître négligeable dans un contexte global de faible efficacité énergétique devient significatif, voire prépondérant au regard de l’objectif de sobriété et d’efficacité à atteindre.

Il en va ainsi de l’énergie grise. Négligeable dans une construction courante au regard de l’énergie utilisée pour l’exploitation du bâtiment tout au long de son cycle de vie, elle devient significative pour une construction performante énergétiquement. Bien que le choix de matériaux durables – excepté leurs performances d’isolation thermique – ne soit pas une obligation pour viser les normes QZen ou plus ambitieux, il y trouve un champ d’application tout à fait opportun.

Personne n’aura pu y échapper, aujourd’hui, la tendance en termes d’isolation tend vers “toujours plus”. En effet, au cours de ces dernières années, les réglementations concernant les niveaux U des parois ne cessent de se renforcer, visant des niveaux de conductibilité thermique toujours plus faibles.

Réduire les échanges de chaleur entre intérieur et extérieur dans une démarche zéro carbone nécessite donc de trouver un réel équilibre entre le coût en carbone des matériaux utilisés pour améliorer l’isolation et la consommation en carbone liée à l’énergie de chauffage.

L’idée vous intéresse ? Consultez notre article « améliorer l’enveloppe dans une démarche zéro-carbone« .


Combiner les deux, pour se passer de chauffage ?

En poussant les deux pistes ci-dessus à l’extrême, pourrait-on envisager de se passer complètement de chauffage ? Nous avons étudié cela sur base de simulations thermiques dynamiques, en considérant une salle de classe typique. Celles-ci ont porté sur l’influence du changement d’orientation de la classe et sur le changement de position dans le bâtiment. Voici nos conclusions :

  • Il est possible de se passer d’un contrôle permanent sur l’ambiance dans des classes mitoyennes de tous les côtés (graphique SB et SBS ci-dessous), à condition que celles-ci soient composées de parois performantes et étanches. Dans le meilleur des cas, ces classes pourraient bénéficier d’une simple relance du chauffage au matin avant l’arrivée des élèves pour ainsi garder une température optimale (entre 18° et 20°) à l’intérieur tout au long de la journée. Pour tous les autres locaux de classes (graphiques SI et SIS), ne bénéficiant pas d’une position favorable, un besoin de chauffage permanent reste indispensable, malgré une amélioration des performances de l’enveloppe et une exposition favorable((HANDRIEU R, Validation par modélisation thermique d’une stratégie de rénovation énergétique d’écoles centrée sur l’autonomie thermique des salles de classes, Faculté d’architecture, ingénierie architecturale, urbanisme, Université catholique de Louvain, 2020. Prom. : Geoffrey Van Moeseke)).

Classe non mitoyenne orientée « ouest »                   Classe mitoyenne orientée « ouest » 

Classe non mitoyenne orientée « sud »                     Classe mitoyenne orientée « sud » 

  • Si l’on veut se passer de chauffage dans la classe, des concessions doivent être faites ; soit sur la qualité de l’air, soit sur la température ambiante, soit sur les deux en même temps. Nous estimons qu’il est préférable de mettre la priorité sur une ambiance saine dans la classe. La qualité de l’air (graphique de droite ci-dessous) ayant un impact plus important sur les performances que la baisse de température (graphique de gauche) ((HANDRIEU R, Validation par modélisation thermique d’une stratégie de rénovation énergétique d’écoles centrée sur l’autonomie thermique des salles de classes, Faculté d’architecture, ingénierie architecturale, urbanisme, Université catholique de Louvain, 2020. Prom. : Geoffrey Van Moeseke)).

  • Il ne faut pas négliger l’impact de systèmes d’apport de chaleur alternatifs. Si l’on prend par exemple le cas d’une installation de batteries de chauffe sur le système de ventilation complétée par des panneaux rayonnants et des systèmes de chauffe individuels, il devient possible de se passer d’un contrôle continu sur l’ambiance, même pour des locaux de classe en situation moins favorable (graphique SI ci-dessous). Il s’avère même, grâce à ces apports ponctuels de chaleur, envisageable de se passer complètement de chauffage pour des classes complètement mitoyennes (graphiques SB) ((HANDRIEU R, Validation par modélisation thermique d’une stratégie de rénovation énergétique d’écoles centrée sur l’autonomie thermique des salles de classes, Faculté d’architecture, ingénierie architecturale, urbanisme, Université catholique de Louvain, 2020. Prom. : Geoffrey Van Moeseke)).

Supprimer le chauffage dans les écoles est une utopie qui permet de remettre en questions beaucoup de pratiques concernant les activités scolaires, l’organisation des espaces et les besoins thermiques. Se passer d’un contrôle permanent sur l’ambiance est une opportunité pour créer un programme scolaire en adéquation avec les activités pédagogiques et l’environnement naturel qui l’entoure. Agir sur le besoin de chauffage des occupants est un projet éducationnel intégrant des éléments d’architecture. Ces considérations poussent donc à concevoir nos écoles de manière différente, en réfléchissant aux usages, au degré d’ouverture, et aux besoins en chaleur de chaque espace((Siraut,  Astrid.  Vers une école sans chauffage : adaptabilité de la construction et des occupants. p.67, Faculté d’architecture, ingénierie architecturale, urbanisme, Université catholique de Louvain, 2020. Prom. : Geoffrey Van Moeseke – http://hdl.handle.net/2078.1/thesis:24912 )).

 

Stratégie hiver (fermé)                                        Stratégie été (ouvert) 

Imagination de composition architecturale selon les ambiances thermiques et les besoins scolaires  


Compenser les besoins résiduels avec une production renouvelable

Une fois les deux pistes précédentes prises en compte et les besoins thermiques de l’école considérablement diminués, il est nécessaire de se focaliser sur les technologies. Aussi réduites soient-elles, les consommations en énergie de chauffage de l’école devront être assurées par des techniques cohérentes avec l’objectif zéro-carbone de l’école. A ce titre, toute combustion d’énergie fossile doit être proscrite. Cela laisse donc deux possibilités : la biomasse et l’électricité par l’intermédiaire d’une pompe à chaleur, mais dans les deux cas, sous certaines conditions seulement. Quelles sont-elles ?

Pour la biomasse, il faut s’assurer que la ressource brûlée est effectivement “neutre en carbone”, ce qui n’est pas si évident. Pour en savoir plus, allez consulter la rubrique « impact environnemental et socio-économique » de cet article. En plus de cela, le mode de production d’énergie doit être soit très efficace en termes de rejet de carbone, soit avoir un très haut rendement (chaudière bois-énergie), soit être une cogénération. Attention toutefois à la complexité des systèmes de cogénération, qui rendent l’application en milieu scolaire difficile (à moins de passer via un tiers investisseur).

Dans le cas présent d’installations de chauffage dans des écoles à optique zéro-carbone, les technologies de biomasse s’y prêtent relativement bien. Au-delà des avantages et inconvénients évoqués ici, la biomasse offre un potentiel communautaire non négligeable par le développement de synergies territoriales autour de modes de chauffage. Pour en savoir plus sur les communautés d’énergies, consultez cet article.

Pour l’électricité, il faut s’assurer que celle-ci provienne le plus possible d’une source renouvelable. Idéalement, le besoin électrique sera compensé par une production sur site, pour obtenir un bilan annuel équilibré. On parlera alors de bâtiment zéro-énergie (ZEB). Cela nous amène à envisager des sources de production renouvelables , qui sont traitées plus loin dans ce dossier.Et bien sûr, pas question de se contenter de résistances thermiques pour alimenter un réseau de chauffage central. La pompe à chaleur est la condition sine qua non du recours à l’électricité pour le chauffage.

Les pompes à chaleur peuvent, en étant multipliées et fonctionnant par zone, offrir des gammes de puissance suffisantes afin de répondre aux besoins d’une école. Cependant, tout comme pour la biomasse, les systèmes peuvent prendre beaucoup de place et générer du bruit. Une étude préliminaire sur l’implantation des unités extérieures sur le site de l’école est donc impérative. En fonction du site de l’école, cette technologie permet également de tirer parti des techniques de géothermie afin de proposer une production d’énergie au bilan carbone neutre. La pompe à chaleur offre donc de nombreux avantages en termes de neutralité carbone de l’école, mais à quel prix ? Des études de faisabilité et de rentabilité sont indispensables avant de se lancer dans de tels projets pour une école.

Adoucisseur d’eau [ECS]

Adoucisseur d'eau [ECS]


L’adoucisseur échangeur d’ions

Au départ, la présence de calcaire

L’eau est un solvant très efficace ! au contact de l’atmosphère elle capte du CO2 et devient légèrement acide (H2CO3). Par percolation au travers des sols, elle entre en contact avec la roche calcaire CaCO3, qu’elle dissout.

Schéma l'eau sous ces différentes formes.

Le carbonate de calcium CaCO3 présent dans l’eau va précipiter sur les parois lors d’une montée en température de celle-ci.
Photo adoucisseur.

L’adoucisseur est dès lors un appareil destiné à capter les ions Ca++ et Mg++ présents dans l’eau en les fixant sur une résine cationique. En effet, l’eau passe au travers d’une cartouche contenant des millions de petites billes de résine, chargées d’ions sodium.

Adoucisseur.

  1. Distributeur d’eau et de solution de régénération
  2. Résine échangeuse d’ions
  3. Plancher à buses (crépines) avec fentes de 0,4 mm

Par exemple, il peut s’agir de la zéolithe, silicate d’Al et de Na :

Na2O . Al2O3. n SiO2. m H2O

On dira en abrégé : Na2Z

Schéma principe principe adoucisseur.

Au passage de l’eau sur cette résine, les ions calcium seront captés :

Na2Z + Ca++  –>  CaZ + 2 Na+

ou encore :

Na2Z + Ca(HCO3)2 –>  CaZ + 2 Na(HCO3)

De même pour les ions magnésium :

Na2Z + Mg(HCO3)2 –>  MgZ + 2 Na(HCO3)

Remarque : le sel sodique produit (Na (HCO3)) passera dans l’eau mais ne contribuera pas à la dureté de l’eau; si la température augmente, il ne se dépose pas.

Régénération

Lorsque la résine est saturée en ion Ca++, il faut les éliminer et replacer les ions Na+. C’est la phase de régénération :

CaZ + 2 NaCl  –>  Na2Z + CaCl2

Schéma principe principe régénération.

Prolifération de micro-organismes

Les échangeurs d’ions offrent, comme d’autres filtres, de bonnes conditions de prolifération aux micro-organismes en raison de l’importante surface de leurs pores internes. Si aucune mesure n’est appliquée, on constate donc souvent une augmentation de la teneur en bactéries de l’eau traitée. La prolifération microbienne peut être combattue de façon efficace par l’adjonction d’environ 1 % de résine échangeuse d’ions imprégnée d’argent.

La corrosion des eaux trop adoucies

L’eau adoucie présente une concentration en calcium proche de zéro. Dès lors, l’équilibre calco-carbonique rend l’eau très agressive (les dépôts calcaires protecteurs sont rapidement dissous). On conseille dès lors de ne pas adoucir l’eau en dessous des 15°F, soit grâce à un réglage de l’adoucisseur, soit par le placement d’un bypass qui réalise un mélange entre de l’eau traitée et de l’eau totalement adoucie.

Attention à la propreté des sels

Si des impuretés sont mélangées au sel de régénération (bacs restant ouverts…), elles pourront servir de nutriments aux bactéries et tout particulièrement à la légionelle !


Les inhibiteurs de tartre

Le principe consiste à inhiber l’entartrage plutôt qu’à éliminer le calcium, par l’injection d’un produit chimique, tel que le polyphosphate qui va se dissoudre dans l’eau et enrober chaque ion calcium d’un « manteau » d’ion phosphate. La croissance des cristaux calcaires est freinée et/ou leur adhésion est empêchée sur les parois.

Mais ce produit est avalé avec l’eau par le consommateur… le contrôle de la concentration doit être rigoureux !

De plus, les polyphosphates n’agissent plus si l’eau est trop chaude.

Le CSTB en France a réalisé récemment une étude sur ce sujet.


Les systèmes physique et/ou magnétique

L’appareil agit par effet électrique et/ou magnétique et transforme le calcium en aragonite (une variété cristalline du carbonate de calcium), plus stable et donc donnant moins lieu à des dépôts.

Certains de ces systèmes ont des effets réels mais variables en fonction de divers paramètres (température, débit, intensité électrique,….) si bien qu’il est difficile de prévoir avec certitude le résultat de leur action dans des conditions particulières.

Pour plus d’informations sur ces différentes techniques, on consultera utilement le Cours – conférence n°51 du CSTC – « la corrosion et les tubes métalliques utilisés pour la distribution d’eau dans les bâtiments ».

Modes de cuisson

Modes de cuisson


Conduction

Transfert par contact étroit entre un corps de chauffe et l’aliment à chauffer.

Température utile : 80 à 250 °C.

Exemples d’application : toutes les méthodes utilisant des ustensiles de cuisson posés sur des réchauds, tels que poêles, casseroles, marmites, procèdent par conduction.

Il en est de même lorsque l’aliment est en contact direct avec le corps de chauffe, par exemple grill, sauteuse, plaque à rôtir, four de pâtisserie à sole.


Rayonnement

Transfert de la chaleur par rayons infrarouges, sans contact d’un corps de chauffe porté à haute température, sur un corps à température inférieure.

Température utile : 250 à 350 °C

Exemples d’application : salamandre, grill tournant, broche, toaster.


Convection

Transfert laminaire ou turbulent de la chaleur, effectué en continu, d’un corps de chauffe à la surface extérieure de l’aliment à chauffer, par l’intermédiaire d’un fluide comme l’air, l’eau ou l’huile.

Température utile : 80 à 250  °C.

Exemples d’application : four à air pulsé, four combiné air-vapeur, marmite (pour blanchir), friteuse.


Condensation

Transfert de la chaleur par condensation de vapeur sèche saturée. Le transfert s’effectue à l’intérieur de l’appareil de cuisson depuis un générateur de vapeur, jusqu’à l’aliment à chauffer.

Température utile : 90 à 120 °C.

Exemples d’application : cuiseur à vapeur avec ou sans pression, marmite à pression avec paniers.


Micro-onde

Génération de chaleur par émission d’ondes à haute fréquence (2400 MHz). Les ondes sont dirigées par une enceinte sur l’aliment à chauffer. L’échauffement se produit par agitation des molécules d’eau contenues dans l’aliment.

Exemples d’application : fours et tunnels à micro-ondes, fours combinés air-vapeur-micro-ondes.

Température utile : max. 100 °C.

Echange thermique par rayonnement

Echange thermique par rayonnement


Définitions

Le rayonnement thermique d’un corps est la quantité d’énergie qu’il cède sous forme d’ondes électromagnétiques comprises entre 0,04 et 800 μm. C’est dans le domaine de l’infrarouge (800 nm et 800 μm) que l’énergie calorifique sous forme de rayonnement est la plus importante.

La loi de Stefan-Boltzman exprime la quantité d’énergie rayonnée par une surface dans toutes les directions et pour toutes les longueurs d’onde :

E = C x (T/100)4 [W/m²]

avec :

  • E = émittance énergétique pour un corps noir;
  • C = coefficient de rayonnement du corps considéré [W/m².K4];
  • T = température absolue [K].

Cette formule n’est pas pratique et ne reflète pas la réalité. Pour les meubles frigorifiques notamment, ce qui est plus intéressant est l’échange de chaleur entre deux surfaces. Dans ce cas, la surface ouverte du meuble, où les températures des denrées sont fort différentes des températures des surfaces environnantes (plafond par rapport à la surface limite d’une gondole), échange de la chaleur rayonnante selon la formule suivante :

Qray = hro x A (tparoi – ti) x φ1 x φ2 [W]

avec :

  • hro = coefficient d’échange par rayonnement entre deux corps noirs[W/m².K]. (Ce coefficient en froid alimentaire est de l’ordre de 4-6 W/m².K) ;
  • A = la surface ouverte du meuble frigorifique [m²]
  • tparoi = température des parois rayonnant vers les parois intérieures au meuble [°C];
  • ti =  température des parois recevant le rayonnement [°C];
  • φ1 = facteur de correction d’émissivité mutuelle entre deux corps gris parallèles (qui n’absorbent pas 100 % du rayonnement contrairement aux corps noirs). 0,8 est une valeur courante;
  • φ2 = facteur de correction d’angle lorsque les surfaces ne sont parallèles. φ2 = 1 lorsque les surfaces sont parallèles et φ2 = 0,65 pour des surfaces orthogonales.


Le coefficient d’émissivité

La capacité d’un matériau à émettre de la chaleur de manière radiative est appelée son émissivité. Ce coefficient d’émissivité ε varie en fonction de la longueur d’onde du signal émis.

Les matériaux que l’on trouve à l’intérieur d’un bâtiment, émettent typiquement des radiations sous forme de rayons infrarouges de très grande longueur d’onde.

A savoir aussi que pour une longueur d’onde donnée, le coefficient d’absorption d’un matériau est égal au coefficient d’émissivité.

Matériaux à basse émissivité

Les matériaux tels que les tôles d’aluminium ou les alliages à base d’aluminium dont les caractéristiques principales sont d’être de type poli et non anodisé ont un coefficient d’émissivité de l’ordre de :

  • 0,1 à 0,15 pour les longueurs d’onde allant du visible à l’infrarouge lointain;
  • 0,8 pour les longueurs d’onde dans l’infrarouge lointain. Pour ces longueurs d’onde, le matériau se comporte comme un corps noir (corps absorbant complètement la lumière visible avec ε=1).

Un matériau dont le coefficient d’émissivité est de 0.1 émettra seulement 10 % de l’énergie possible à cette température, donc absorbera seulement 10 % du rayonnement de grande longueur d’onde qui l’atteint. Autrement dit, il réfléchira 96 % du rayonnement infrarouge de grande longueur d’onde venant des plafonds ou des murs auxquels il fait face.

Attention que ce type de matériau recouvert par un vernis voit son coefficient d’émissivité augmenter en fonction de l’épaisseur. Selon les vernis et le mode de pose, l’émissivité peut varier de 0,3 à 0,96.

Il existe des matières telles que les revêtements argentés et dorés qui présentent des surfaces possédant des coefficients d’émissivité intéressants du même ordre de grandeur que les aluminiums polis non anodisés. Attention à l’état de surface et d’empoussièrement.

Matériaux à émissivité élevée

Les parois laquées (en tôle d’aluminium, d’acier, …) de couleur blanche ou grise ont un coefficient d’émissivité pouvant atteindre 0,8.

Chaleur sensible et chaleur latente

Chaleur sensible et chaleur latente


 

Chaleur sensible

La chaleur sensible modifie la température d’une matière. Par opposition à la chaleur latente qui modifie l’état physique d’une matière (solide, liquide ou gazeux).

Exemple : La chaleur thermique massique de l’eau étant en moyenne de 4,19 kJ/kg.K, il faut fournir 419 kJ pour chauffer un litre d’eau de 0°C à 100°C.


Chaleur latente

La chaleur latente change l’état physique d’une matière. Par opposition à la chaleur sensible qui modifie la température d’une matière.

Quelle que soit la matière, on parle de :

  • chaleur de liquéfaction : chaleur nécessaire pour passer de l’état solide à l’état liquide,
  • chaleur de vaporisation : chaleur nécessaire pour passer de l’état liquide à l’état gazeux.

et inversement :

  • chaleur de condensation : chaleur nécessaire pour passer de l’état gazeux à l’état liquide,
  • chaleur de solidification : chaleur nécessaire pour passer de l’état liquide à l’état solide.

Les changements d’état absorbent des quantités de chaleur nettement plus élevées que les processus d’échauffement ou de refroidissement dans les plages de température usuelles en chauffage ou climatisation.

Certains matériaux sont sélectionnés pour l’importance de leur chaleur latente à un niveau de température déterminé : ce sont les matériaux à changement de phase, ou sels à changement de phase.

Exemple
La chaleur de vaporisation d’un litre d’eau est de 2 257 kJ/kg (à la pression atmosphérique et à 100°C). Soit 5,4 fois plus que pour chauffer le litre d’eau de 0 à 100°C !

C’est un fait dont on peut tirer parti :

  • Le chauffage à vapeur dispose d’une très grande densité de puissance [W/m²] dans un échangeur puisque la vapeur s’y condense au contact avec un milieu froid.
  • Le stockage de froid se fait notamment via des nodules d’eau ou de sels qui sont gelés la nuit et dont on profite de la chaleur de liquéfaction le jour.

À noter que la chaleur de vaporisation varie en fonction de la température de l’eau qui s’évapore : de 2 257 kJ/kg à 100°C, la chaleur de vaporisation est de 2 454 kJ/kg à 20°C et de 2 501 kJ/kg à 0°C. Il est donc un peu plus facile pour une goutte de passer à l’état vapeur lorsqu’elle se trouve déjà à 100°C.

 

Les insectes parasites du bois - energie plus

Insectes parasites du bois

Insectes parasites du bois

Les principaux insectes parasites dont les larves attaquent le bois de construction dans nos régions sont :


 

Le Capricorne

Capricorne adulte.

Larve du capricorne.

Types de bois attaqués

Charpentes, huisseries, solives, lambourdes, planchers.

  • principalement : en bois résineux,
  • parfois : en peuplier,
  • rarement : en hêtre ou en chêne.

Symptômes de l’attaque

  • Trous de sortie de l’insecte adulte de forme ovale, longueur 6 mm, largeur 3 mm,
  • boursouflures à la surface du bois,
  • en éliminant une fine pellicule à la surface du bois : nombreuses galeries remplies de sciure,
  • insectes morts dans les locaux infectés,
  • bruit de grignotement des larves,
  • affaissement anormal du bois,
  • farine de bois sous les pièces attaquées.

Coupe dans le bois attaqué par le capricorne.

Aspect de la sciure

Fine, généralement claire, fortement tassée.

Aspect de la larve

  • Gros vers blanc, poilu avec la partie antérieure élargie et aplatie, et mandibules brun sombre visibles à l’avant de la tête.
  • Cycle larvaire : 3 à 10 ans.

Aspect de l’insecte parfait

  • Gris noir à brun, long et aplati, pourvu de longues élytres cachant les ailes, il présente deux protubérances sur la face dorsale du thorax.
  • Ses antennes sont plus courtes que le corps.
  • Taille : 10 à 20 mm.


Le Lyctus

Lyctus adulte.

Larve du Lyctus.

Types de bois attaqués

Parquets, lambourdes, escaliers, menuiseries, meubles.

Uniquement dans les essences feuillues comme le chêne, le châtaignier, le frêne, l’érable, le cerisier, …, et les bois tropicaux, en général assez récemment mis en œuvre.

Symptômes de l’attaque

  • Trous de sortie de l’insecte adulte de forme ronde ou légèrement ovale, Ø 1 à 1,5 mm,
  • nombreux trous de sortie en cas d’attaque importante,
  • beaucoup d’insectes morts dans les locaux infestés, durant la période de mai à septembre,
  • poussière de bois près ou sous les trous de sortie,
  • pas de bruit.

Bois attaqué par le Lyctus.

Aspect de la sciure

Farine impalpable.

Aspect de la larve

  • Petit ver blanchâtre, mou, en forme de virgule, non poilu, avec une tête de consistance cornée.
  • Cycle larvaire : 6 à 12 mois.

Aspect de l’insecte parfait

  • Roux à brun, dur sous l’ongle, ayant un corps allongé en forme de cylindre.
  • La tête est visible.
  • Les antennes sont terminées par des petites masses en boule.
  • Taille : 3 à 6 mm.


La petite vrillette

Petite vrillette adulte.

Larve de petite vrillette.

Types de bois attaqués

Vieux meubles, menuiseries, planchers, escaliers, vieux parquets.

Dans les bois de toutes les essences, surtout s’ils sont vieux et secs.

Symptômes de l’attaque

  • Trous de sortie très nombreux, ø 2 à 3 mm,
  • perte totale de la résistance mécanique du bois, lors d’attaques importantes,
  • bois ayant l’aspect et la consistance du biscuit,
  • décrochage mécanique de la pellicule extérieure longtemps respectée.

Bois attaqué par la petite vrillette.

Aspect de la sciure

Assez grossière, non tassée dans les galeries.

Aspect de la larve

  • Petit ver blanc nu en forme de virgule, plus poilu que la larve du Lyctus, s’en distinguant par le dernier élément du corps plus gros que les autres.
  • Cycle larvaire : 1 à 3 ans

Aspect de l’insecte parfait

  • Roux à brun, dur sous l’ongle, plus trapu et arrondi que le Lyctus.
  • La tête est cachée par une sorte de capuchon (pronotum).
  • Les antennes sont terminées par une massue.
  • Taille : 2 à 4 mm.


La grosse vrillette

Grosse vrillette adulte.

Types de bois attaqués

Charpentes, planchers, bois de gros œuvre ayant au préalable souffert d’attaque de champignons.

Dans les bois de toutes les essences

Symptômes de l’attaque

  • Trous de sortie ø 4 à 5 mm,
  • bois ayant l’aspect et la consistance du biscuit,
  • décrochage mécanique de la pellicule extérieure longtemps respectée,
  • bruit typique durant la période d’accouplement : coups saccadés et rythmés sur le bois tous les jours, exactement à la même heure.

Aspect de la sciure

Assez grossière, non tassée dans les galeries.

Aspect de la larve

  • Petit ver blanc nu en forme de virgule, plus poilu que la larve du Lyctus, s’en distinguant par le dernier élément du corps plus gros que les autres.
  • Cycle larvaire : 1 à 3 ans

Aspect de l’insecte parfait

  • Roux à brun, dur sous l’ongle, plus trapu et arrondi que le Lyctus.
  • La tête est cachée par une sorte de capuchon (pronotum).
  • Les antennes sont terminées par une massue.
  • Taille : 6 à 9 mm.

Nous venons de lancer note page LinkedIn. Afin d’être informé des dernières actualités sur Energie+, n’hésitez à suivre notre page LinkedIN !

Climats-types en Belgique

Climats-types en Belgique


Journée type moyenne

Pour établir des simulations thermiques de bâtiment ou d’équipement, l’Institut Royal Météorologique et le Laboratoire de Thermodynamique de Liège ont mis au point une année type moyenne. Moyenne tant en température qu’en ensoleillement.

En fait, ce sont des mois moyens qui ont été sélectionnés, mais à l’intérieur des mois, il y a une succession de journées qui peuvent être très chaudes ou très froides. Ce qui rend la chose très réaliste. Il y a des périodes de canicules et des périodes de grands froids.

L’ensemble est repris dans un fichier Excel de 8760 lignes, correspondant aux 8 760 heures de l’année. Et pour chaque heure, y sont données la température extérieure, le rayonnement solaire, l’humidité et la vitesse du vent.

Données

Pour accéder au fichier Excel de l’année type de Uccle.

Données

Pour accéder au fichier Excel de l’année type de St Hubert.
Les fichiers que nous mettons en téléchargement ci-dessus sont relativement vieux, Ils datent des années 90. Malheureusement nous n’avons pas pu obtenir actuellement des données similaires plus récentes. Le climat a bel et bien évolué depuis  : la température maximum dans une année n’est plus de 30°C mais de 33.6°C – actualisation 2023 – et le nombre d’heures pendant lesquelles la température est >=20°C est passé de 500 heures à +de 870 heures.
Voici une source de données en libre accès et actualisée : Climate.OneBuilding.Org. Nous vous encourageons toujours à croiser les informations et à consulter plusieurs sources pour obtenir une perspective complète et la plus exhaustive possible. La diversité des points de vue renforce la compréhension.

Journées chaudes

Calcul des puissances de refroidissement

S’il apparaît clairement ce que l’on entend par « journées froides » en Belgique, il est plus difficile de se mettre d’accord sur ce que représente une « journée chaude ». Notamment, parce que le critère de température chaude coexiste avec le critère de rayonnement solaire intense.

Par exemple, voici les données climatiques d’une journée chaude choisies par une personne chargée des simulations au sein d’Architecture et Climat-UCL. Elles correspondent à une période durant laquelle la température extérieure monte à 29…30°C durant 4 heures et bénéficie d’un rayonnement solaire important.

heure temp. ext. ray. dir. normal ray. dif. hor.

ray. glob. hor.

1 19 0,00 0,00 0,00
2 18,2 0,00 0,00 0,00
3 17,6 0,00 0,00 0,00
4 17,1 0,00 0,00 0,00
5 17,4 2,78 2,78 2,78
6 18,7 169,44 36,11 44,44
7 20,5 477,78 102,78 163,89
8 22,5 622,22 177,78 308,33
9 24,3 670,56 286,11 445,11
10 26,1 720,22 308,33 580,00
11 27,5 783,33 333,33 722,22
12 28,4 811,11 483,33 858,33
13 29,2 822,22 400,00 861,11
14 29,6 811,11 483,33 858,33
15 29,8 783,33 333,33 722,22
16 29,6 747,22 308,33 600,00
17 29,2 705,56 286,11 461,11
18 28,4 622,22 177,78 308,33
19 27,2 477,78 102,78 163,89
20 25,5 169,44 36,11 44,44
21 23,7 2,78 2,78 2,78
22 22,2 0,00 0,00 0,00
23 21 0,00 0,00 0,00
24 19,9 0,00 0,00 0,00

Si nous mettons à jour ces données en 2023, la journée chaude serait sur 34°C maximum plutôt que 30°C. La question reste en débat (les éléments ne sont pas répercutés dans des méthodes officielles de calcul), mais la vague de chaleur devrait désormais être considérer sur plusieurs jours et non plusieurs heures.

Justification

Elle s’est basée sur le fait que le caractère exceptionnel de ce climat « corresponde » au – 7°C pour le calcul de la puissance en chauffage.

Lorsqu’on regarde le tableau donnant les durées annuelles, en nombre d’heures par an, pendant lesquelles la température sèche est comprise dans certains intervalles, on constate qu’il y a 17.25 h durant laquelle la température extérieure est < – 7°C (de 7 à 19 h).

Elle a donc recherché le correspondant pour la température maximale correspondant à la puissance de « cooling », dans une année type moyenne à Uccle.

Or il y a :

> 12.14 h durant laquelle la température extérieure est > 30°C
(de 7 à 19 h)
> 22.68 h durant laquelle la température extérieure est > 29°C
(de 7 à 19 h)

Les données météo choisies pour le calcul de la puissance en « cooling » sont donc bien « le correspondant » des données climatiques (- 7°C) pour le calcul de la puissance en « heating ».

Remarques.

  • Pour tenir compte de l’effet de stockage de la chaleur dans les parois, il est utile de répéter plusieurs fois le jour étudié.
  • Pour Bruxelles, un dimensionnement d’une installation de climatisation basé sur une température extérieure de 30°C paraît confirmé.

Journées froides

Pour calculer la réponse d’un système de chauffe, il est nécessaire de choisir des données climatiques très rudes basées sur les températures de base.

Comme dans le cas de l’étude des surchauffes, il est nécessaire de faire précéder le jour étudié de plusieurs autres jours (en principe 5) afin que les simulations tiennent compte de « l’historique thermique » des murs.

1-1-f11B.gif (12456 octets)

Durant ces journées, le rayonnement solaire est nul.

Source – Logiciel OPTI Bureaux – Architecture et Climat – juin 2000.

Répartition lumineuse et uniformité

Répartition lumineuse et uniformité


Si le niveau d’éclairement et la luminance varient dans le champ visuel, une adaptation de l’œil est nécessaire lorsque le regard se déplace. Durant ce moment, l’acuité visuelle est diminuée, entraînant des fatigues inutiles.

La répartition lumineuse ou l‘uniformité des niveaux d’éclairement caractérise les variations du niveau d’éclairement et est définie comme étant le rapport entre l’éclairement minimum et l’éclairement moyen observé dans la zone de travail.

L’uniformité d’éclairement des zones de travail et des zones environnantes immédiates est définie, dans la zone considérée, comme étant le rapport :

Éclairement minimum / Éclairement moyen

Données

Pour connaitre les valeurs recommandées d’uniformité.
Exemple : implications pour les salles de  sport

L’uniformité d’éclairement est particulièrement importante pour les jeux de ballon : celui-ci semble accélérer lorsqu’il passe d’une zone plus claire à une zone plus foncée. Pour le joueur, il est alors difficile d’évaluer la vitesse de ce dernier. Cet effet se produit, par exemple, lorsque les courbes de répartition photométrique de deux luminaires adjacents ne se recouvrent pas suffisamment.

En ce qui concerne l‘uniformité de la luminance, c’est beaucoup plus compliqué ! En effet, la distribution de la lumière dans un espace dépend de la répartition des sources lumineuses et de la réflexion des parois. Elle est d’autant meilleure que les réflexions de chaque paroi sont élevées et uniformément réparties (couleurs uniformes).

De plus, il faut une certaine uniformité de luminance d’une part entre le champ visuel en position de travail (le plan de travail) et au repos (les murs), d’autre part entre les différentes surfaces de référence (éclairement de la zone de travail et de la zone voisine).

       

Pour un même niveau d’éclairement au niveau du plan de travail, la première situation est nettement plus agréable que la troisième.

Pour garantir une répartition harmonieuse des luminances, il convient de ne pas dépasser certaines valeurs de contraste entre les différentes zones du champ visuel ou les surfaces de référence.

Données

Pour connaitre les valeurs recommandées d’uniformité.

Cependant, pour structurer l’espace, il peut être intéressant de créer des ambiances lumineuses localisées. Dans ce dernier cas, un niveau d’éclairement général existe pour tout l’espace et un éclairage localisé complémentaire est prévu en fonction des besoins spécifiques de la tâche visuelle.

Hygroscopicité des matériaux


Définitions

Hygroscopicité – teneur en humidité hygroscopique

Un matériau donné, poreux et à pores ouverts placés dans un air humide va absorber une certaine quantité d’humidité qui dépend uniquement de l’humidité relative (φ) de l’air et qui lui est proportionnelle.
Ainsi, un matériau tout à fait sec placé dans l’air humide voit sa masse augmenter. Un état d’équilibre s’établit après un certain temps.

Représentation schématique du mécanisme lorsque l’humidité relative augmente :

1. Pour une faible humidité relative, de l’eau est absorbée par le matériau et forme une fine couche d’eau sur les parois des pores.

2. Lorsque l’humidité relative augmente, l’épaisseur de la couche absorbée augmente. Dans les canaux les plus étroits, les couches se touchent.

3. Lorsque l’humidité relative augmente encore, de la condensation se forme dans les pores les plus étroits du matériau; on dit qu’il y a condensation capillaire.
Plus les pores sont étroits, plus la formation de condensation capillaire est rapide.

La teneur en humidité hygroscopique (WH) d’un matériau poreux dans un air à une humidité relative donnée, est la teneur en eau par unité de volume de matériau sec (en kg/m³) qu’il contient à l’équilibre dans cette ambiance.
C’est la teneur en humidité minimale contenue dans un matériau poreux.

Courbe hygroscopique d’un matériau – Matériau hygroscopique

La décomposition du mécanisme d’hygroscopicité lorsque l’humidité relative augmente tel qu’expliqué ci-dessus, explique la courbe en « S » de la courbe hygroscopique d’un matériau. Celle-ci donne la teneur en humidité hygroscopique d’un matériau en fonction de l’humidité relative.

Exemple : WH95 % = 8 à 11 (kg/m³) pour une brique de parement.

Arbitrairement, on a fixé la valeur de la teneur maximale en humidité hygroscopique d’un matériau à la teneur correspondant à une humidité relative de 98 %.

A 100 % d’humidité relative, on atteint une teneur en humidité d’équilibre qui correspond à celle après aspiration capillaire depuis un plan d’eau. C’est la teneur en humidité capillaire.

Un matériau hygroscopique est un matériau où la condensation capillaire se forme rapidement (pour des humidités relatives faibles). Ainsi, il résulte de ce qui précède, qu’un matériau hygroscopique est un matériau avec un pourcentage élevé de pores très étroits (micropores).

Le tableau ci-dessous donne le pourcentage moyen de micropores (pores dont le diamètre moyen est inférieur à 0,1 micromètre) pour quelques matériaux de construction.

Matériau

Masse volumique (kg/m3) Pourcentage de micropores (% du volume de matériau) en (m³/m³)
Brique 1 950 0,8 – 1,1
Béton cellulaire 40 4 – 12
Plafonnage de chaux 1 800 4,7
Plaques de plâtre 800 – 1 400 10
Bois résineux 500 12 – 15

Il montre que ce sont les matériaux traditionnels de parachèvement (plaques de plâtres, plafonnage à base de chaux, bois) qui sont les plus hygroscopiques.


Risque lié à l’hygroscopicité des matériaux et mesures à prendre

Risque de développement de moisissures

Lorsque l’humidité relative de l’air est élevée, la teneur en humidité à l’équilibre des matériaux hygroscopique est si élevée qu’elle favorise le développement de moisissures.

Des moisissures apparaissent :

  • sur des objets en cuir : pour une humidité relative (φ) à partir de 76 %
  • sur du bois et de la laine : pour φ > 85 %
  • sur du coton et de la laine de verre : pour φ > 96 %

ainsi, des moisissures peuvent apparaître sur les meubles, sur les vêtements, sur les chaussures,… dans des bâtiments ou l’humidité relative est en permanence élevée.

Remarquons cependant qu’il faut un certain temps avant que la teneur en humidité à l’équilibre s’établisse. Aussi une humidité relative temporaire élevée, telle qu’on en rencontre dans les salles de bain ou les cuisines, ne provoque pas de moisissures.

Mesures à prendre

L’humidité relative à l’intérieur des bâtiments doit être maintenue en dessous de la valeur qui va provoquer des moisissures dans les matériaux hygroscopiques.

L’humidité relative conseillée, pour des raisons d’hygiène, va de 30 à 70 %. Des études ont montré que l’humidité relative la plus intéressante est de 50 %.

Pour ces humidités relatives conseillées, la teneur en humidité à l’équilibre des matériaux hygroscopiques est suffisamment basse pour ne pas engendrer de problèmes.

Sur-refroidissement

Par temps clair, la voûte céleste présente une température pouvant être jusqu’à 50 K plus faible que celle de l’ambiance terrestre. Une onde infrarouge quitte alors tous les corps « chauds » de la terre vers le ciel. La température de ces matériaux descend jusqu’à 10 K sous la température ambiante. L’humidité de l’air risque alors de condenser au contact de ces corps.

C’est l’origine de la rosée du matin, du givre sur la voiture.

Phénomènes électromagnétiques et harmoniques des variateurs de vitesse

Phénomènes électromagnétiques et harmoniques des variateurs de vitesse


Phénomènes électromagnétiques

On appelle bruit électromagnétique, tous les phénomènes électriques qui influencent un appareil ou l’homme. À l’inverse un appareil peut être source de bruit électromagnétique vis à vis d’autres appareils (et l’homme dans tout cela ? C’est un autre débat).

Les bruits électromagnétiques naturels les plus connus sont, par exemple, la foudre, le champ magnétique terrestre, …; on ne peut pas les éviter, mais du moins les atténuer. Il en va de même pour les perturbations électromagnétiques artificielles provoquées la présence d’appareils électriques et se propageant dans l’air et dans les câbles électriques comme, par exemple, l’allumage des bougies de moteur de voiture qui perturbe votre émission de radio favorite. Des effets plus sérieux peuvent engendrer des dommages importants (microcoupures des ordinateurs entraînant des « plantages » du disque dur par exemple).

Bruit électromagnétique.


Le Marquage CE

En Belgique un Arrêté Royal a été publié au Moniteur le 24/06/94 (dernière publication le 12/12/01) pour la transposition de la Directive Européenne 89/336/CEE concernant la compatibilité électromagnétique des appareils électriques mis sur le marché en Europe. On utilise le terme international CEM (Compatibilité Electro Magnétique) pour les perturbations radioélectriques et pour signaler l’aptitude d’un appareil à combattre les bruits électromagnétiques ou à limiter son émission vers l’environnement.

Le marquage CE donne les garanties nécessaires à la conformité avec la directive CEM.


Voie de propagation

Un variateur de vitesse émet un bruit électromagnétique sous forme d’interférences :

  • basses fréquences dans les câbles du réseau électriques,
  • hautes fréquences dans l’air (10 kHz à 1 GHz).

Couplage

Le couplage, qu’il soit galvanique, capacitif ou inductif, représente le passage d’une perturbation d’un appareil émetteur vers un appareil récepteur. Il varie selon la conception ou la configuration des circuits électriques en présence.


Perturbation

Les variateurs de vitesse, de part la présence de composants électroniques commutant à hautes fréquences variables en leur sein, créent des distorsions des courants et des tensions à leur bornes d’entrée. Ces distorsions se propagent sur le réseau et induisent dans les autres appareils branchés sur le même réseau des distorsions du signal sinusoïdal et des consommations accrue de courant; on parle d’harmoniques.

Les harmoniques générées par les variateurs vitesse sont essentiellement de rang 5, 7, 11, 13, 17 et 19 (250, 350, 550 Hz, …).

Pour limiter les harmoniques et, par conséquent respecter la norme EN 61 000 (concernant le poids admissible des harmoniques de différents rangs par rapport à la fondamentale de fréquence f = 50 Hz), les variateurs de vitesse sont équipés de filtres au niveau du circuit intermédiaire.

Le graphique suivant montre que le placement de filtres dans le circuit intermédiaire du variateur de fréquence réduit d’un facteur 2 les harmoniques dans le circuit d’entrée.

Bruit électromagnétique.

Qualité de l’eau

Qualité de l'eau


La dureté de l’eau

C’est quoi la dureté?

La dureté de l’eau exprime la concentration en ions calcium (Ca++) et magnésium (Mg++) responsable du dépôt de tartre (ou calcaire) à l’intérieur du réseau hydraulique. Cette dureté s’exprime généralement en degrés français (df ou °F). À titre indicatif :

Dureté de l’eau
1°F = 4 mg/l de Ca++ = 10 mg/l de CaCO3
= 2.4 mg/l de Mg++

La dureté de l’eau résulte du passage de l’eau dans les sous-sols rocheux où elle se charge, entre autres, en calcium et de magnésium. En Belgique, les eaux sont assez bien chargées et donc dures pour la plupart des régions (exception faite par exemple dans l’est du pays).
Une eau est :

  • douce de 0 à 18°F,
  • mi-dure de 18 à 30°F,
  • dure + de 30°F.

Comment connaître simplement la dureté de l’eau ?

Des kits de bandelettes sont vendus dans le commerce. En trempant une bandelette dans l’eau à analyser, elle se colore en fonction de la dureté de l’échantillon d’eau. Il suffit de comparer cette couleur à celle de la table colorimétrique livrée avec le kit.

D’autres systèmes plus sophistiqués existent mais ne seront pas abordés ici.


La corrosivité et l’agressivité de l’eau

Il ne faut pas confondre corrosivité et agressivité de l’eau. En effet :

  • La corrosivité est le résultat de l’interaction électrochimique entre le caractère électrolytique de l’eau (présence d’anions et de cations) et le métal. Cette interaction conduit à la dissolution du métal et sa transformation en oxydes insolubles (le plus connu: acier + eau = rouille). On mesure le degré de corrosivité par la conductivité (en µSiemens). Moins il y a de cations et d’anions dans l’eau, moins cette eau sera corrosive.
  • L’agressivité est la tendance à dissoudre du carbonate de calcium dans l’eau; elle est due au CO2 libre présent dans l’eau. Une eau agressive est généralement corrosive mais pas l’inverse.

Lorsqu’on parle de vapeur (c’est le cas en stérilisation), les risques de corrosion sont encore plus importants; ce qui nécessite de réduire la présence d’ions. On y arrive en utilisant entre autres un osmoseur inverse.


L’eau adoucie

Dans la plupart des cas, l’eau brute de « ville » est traitée par un adoucisseur échangeur d’ions. Des résines échangeuse de cations divalents (calcium et magnésium), comme son nom l’indique, échangent des ions sodium (Na) pour du calcium et du magnésium responsables de développement du tartre dans les conduites à température élevée comme c’est le cas en stérilisation.

L’intérêt d’adoucir l’eau est de limiter l’entartrage des équipements travaillant à températures élevées.


L’eau osmosée

C’est l’eau qui a été traitée par osmose inverse. Cette eau, suite à son traitement est pratiquement pure. La membrane semi-perméable de l’osmoseur inverse permet de retenir la plupart des particules, ions et contaminants organiques. En d’autres termes, l’eau osmosée se trouve débarrassée à la fois des ions responsables de la corrosion des équipements et des micro-organismes indésirables en stérilisation (bactéries, …). Il est nécessaire pour garantir une qualité d’eau optimale, d’effectuer des contrôles en continu de la conductivité (en µSiemens) et de la teneur en chlore de l’eau brute de « ville » (sensibilité des membranes semi-perméable au chlore).


Synthèse sur la qualité de l’eau en stérilisation

Dans le tableau ci-dessous sont repris les principaux paramètres physico-chimiques (extrait du CTIN 2002 [7] français ou Comité Technique des Infections Nosocomiales) à mesurer et à respecter afin de conserver une qualité d’eau maximale garantissant la pérénnité des équipements. Il est clair que d’autres tests de qualité d’eau doivent être réalisés afin de garantir l’absence de contaminants organiques mais cela dépasse le cadre de l’énergie.

Qualité de l’eau
Type de mesure Limite de qualité Fréquence
Eau de ville
pH 6,5 à 9
Conductivité 400 µS/cm à 20°C
Chlore résiduel 0,1 mg/l
Température 15°C
Eau adoucie
Dureté 4 à 8°F
Eau osmosée
Conductivité 15µS/cm Périodique ou en continu
dureté 0.02mmol/l
pH 5 à 7

Taux d’éblouissement d’inconfort – UGR

Taux d'éblouissement d'inconfort - UGR


L’éblouissement d’inconfort provenant directement des luminaires doit être quantifié par l’auteur du projet en utilisant la méthode tabulaire d’évaluation du taux d’éblouissement unifié UGR de la CIE.

Sans rentrer dans les détails, le facteur UGR donne une idée de l’éblouissement d’inconfort dans le champ visuel de l’observateur par rapport à la luminance de fond (éblouissement provoqué par l’association de plusieurs luminaires dans un environnement considéré). Ce facteur UGR varie de 10 à 30. Plus la valeur du facteur est élevée, plus la probabilité d’éblouissement d’inconfort est importante.

Des valeurs de référence définissent des classes de qualité :

28 Zone de circulation
25 Salle d’archives, escaliers, ascenseur
22 Espace d’accueil
19 Activités normales de bureau
16 Dessins techniques, postes de travail CAD

Les facteurs suivants jouent un rôle important dans la détermination de la valeur UGR :

  • la forme et les dimensions du local,
  • la clarté de la surface (luminance) des parois, des plafonds, des sols et des autres surfaces étendues,
  • le type de luminaire et de protection,
  • la luminance de la lampe,
  • la répartition des luminaires dans le local,
  • la ou les positions de l’observateur.

Les valeurs de l’UGR données dans la norme EN 12464-1 sont des valeurs maximales à ne pas dépasser.

Exemple.

Type d’intérieur, tâche ou activité Em (lux) UGR Ra Remarques Plan de référence
Classement, transcription 300 19 80 0.85 m du sol par défaut
Écriture , dactylographie, lecture, traitement de données 500 19 80
Dessin industriel 750 16 80
Postes de travail de conception assistée par ordinateur (CAO) 500 19 80 Un contrôle de l’éclairage est recommandé
Salle de conférence et de réunion 500 19 80
Réception 300 22 80
Archives 200 25 80 plans verticaux des rayonnages

On voit tout de suite que l’exigence de confort est moindre (UGR élevé = plus éblouissant) dans des locaux peu fréquentés ou pour des tâches nécessitant moins de concentration visuelle.

Certains fabricants proposent des tableaux simplifiés de détermination des valeurs UGR mais limités à des locaux simples pour une seule famille de luminaires donnée.

Par exemple, le logiciel « Dialux » est capable de calculer l’UGR en un point du plan donné, mais ce calcul prend, néanmoins, beaucoup de temps.

À titre indicatif, la formule de calcul de l’UGR est donnée :

UGR = 8 log (0.25/Lb x Σω/p²)

où :

  • Lp est la luminance de fond exprimée en candela/m² et représente l’éclairement vertical indirect au niveau de l’œil de l’observateur.
  • L est la luminance contenant les parties lumineuses de chaque luminaire dans la direction de l’observateur en candela/m².
  • ωest l’angle solide (stéradian) des parties lumineuses de chaque luminaire au niveau de l’œil de l’observateur.
  • P est l’indice de position de Guth fourni dans des tables spécifiques et représente la position d’un luminaire par rapport à l’axe vertical.

Un problème d’inconfort thermique ou lumineux ? N’hésitez pas à tester notre nouvel outil de diagnostic afin de trouver la solution à votre problématique.

Combustion et combustibles

Date : page réalisée sous l’hégémonie Dreamweaver

Auteur : les anciens, actualisée par Laurent (2010).

Eté 2008 : Brieuc.

Notes : 06.02.09

  • Winmerge : ok – Sylvie
  • Mise en page [liens internes, tdm, en bref !, passage général sur la mise en page de la feuille] – Sylvie
  • Mise en page 2eme, Sylvie (08/2010).

Définition

La combustion peut être définie comme la réaction chimique qui a lieu lors de la combinaison entre l’oxygène et une matière combustible. Cette réaction est globalement exothermique, c’est-à-dire qu’elle se produit avec un dégagement de chaleur. Dans le cas du bâtiment, cette chaleur est essentiellement utilisée pour maintenir une température de confort.
Les combustibles sont multiples (gaz, pétrole, bois, charbon, …) mais ils ont un point commun : celui de contenir principalement des hydrocarbures, c’est-à-dire des combinaisons multiples de carbones et d’hydrogènes. La composition des combustibles peut être représentées par la formule générique :

C Hy Ox

soit pour un atome de carbone (C), on trouve en moyenne « y » atomes d’hydrogène (H) et « x » atomes d’oxygène (O).

Combustible Composition générique typique
Biomasse C H1.44 O0.66
Charbon (tourbe) C H1.2 O0.5
Charbon (anthracite) C H0.4 O0.02
Pétrole C H1.8
Gaz C H3.75 … C H3.95

Par exemple, le CH4, appelé méthane, est le constituant principal du gaz naturel (entre 83 % et 88 % en volume). Un litre de fuel, est, quant à lui, constitué d’environ 726 gr de carbone (C), 110 gr d’hydrogène (H) et 2 gr de soufre (S). De manière générale, on constate qu’il y a plus d’oxygène dans la biomasse que dans les combustibles fossiles.

Produits de la combustion

Deux produits principaux résulteront d’une combustion correcte : du dioxyde de carbone (ou CO2) et de l’eau (ou H2O).
En effet, si on considère la combustion « stoechiométrique » (c’est-à-dire contenant la quantité d’oxygène exacte pour faire réagir le combustible de manière parfaite), on obtient,

CHyOx + (1 + y/4 – x/2) O2 —› CO2  + y/2 H2O

Par exemple, on obtient pour le méthane

CH4 + 2 O2 —› CO2 + 2 H2O

C’est le CO2 dont on parle au niveau de la pollution atmosphérique et de la problématique du réchauffement de la planète qu’il entraîne. Il est principalement lié à l’utilisation des combustibles fossiles, elle-même liée à l’activité économique. Voici 2>les ordres de grandeur du CO2 produit.

Production de CO2 lors de la combustion de
(on peut estimer grossièrement qu’au niveau valeur énergétique, 1 m³ de gaz = 1 litre de fuel) :
1 m³ de gaz 2 kg CO2/m³
1 litre de fuel 2,7 kg CO2/litre

Les fumées en sortie de chaudière contiendront également de la vapeur d’eau (H2O).

Production de H2O lors de la combustion de
1 m³ de gaz 1,68 kg/m³
1 litre de fuel 0,9 kg/litre

Mais l’oxygène provient de l’air atmosphérique et celui-ci contient également de l’azote (N), qui théoriquement reste neutre dans la réaction de combustion et devrait être rejeté comme tel dans les fumées. Cependant, sous certaines conditions de combustion, cela n’est pas le cas. En effet, l’azote se combine avec l’oxygène pour former des oxydes d’azote NO, NO2, N2O,… rassemblés sous la dénomination NOx. Ceux-ci sont en partie responsables des pluies acides.
Les combustibles contiennent également des traces d’autres éléments dont la combustion est nocive pour l’environnement. Le principal est le soufre dont l’oxydation fournira du SO2 et du SO3. Ce dernier formera de l’acide sulfurique par combinaison avec de l’eau (par exemple, lors du contact entre les fumées et les nuages). C’est ce qui entraîne aussi la formation de pluie acide.
Si le gaz naturel ne contient pratiquement pas de soufre, le mazout et le charbon sont à ce niveau assez polluants et la réglementation vise à abaisser la teneur en souffre maximale autorisée.
En résumé, les produits de la combustion sont principalement constitués de CO2, d’H2O, de NOx et de SOx.

Quantité d’air nécessaire

La quantité d’air nécessaire pour brûler 1 m³ ou 1 litre de combustible dépendra des caractéristiques de celui-ci. Mais il est bon d’avoir en tête un ordre de grandeur.

« La combustion 1 m³ de gaz naturel ou d’1 litre de fuel requiert environ 10 m³ d’air à 15°C »

À cette quantité « stoechiométrique », c’est-à-dire requise par l’équation chimique de la combustion, s’ajoute un léger excès d’air pour s’assurer que toutes les molécules de combustible soient bien en contact avec l’oxygène. En effet, il faut prévoir que certaines molécules d’oxygène vont traverser le foyer sans se lier au combustible. Dit autrement, il faut éviter d’avoir des zones, des poches, où le processus de combustion viendrait à manquer localement d’oxygène.
On travaille donc avec un excès d’air comburant qui s’élève par exemple pour la combustion du fuel à environ 20 %. Il faut donc prévoir 12 m³ d’air pour brûler 1 litre de fuel.
Lorsqu’une combustion se fait avec une arrivée insuffisante d’oxygène, on parle de combustion incomplète. Celle-ci se traduit par la production d’imbrûlés (suies qui encrassent la chaudière) ou d’éléments partiellement oxydés, pouvant encore brûler, comme le monoxyde de carbone (CO).

Le CO est un gaz très dangereux : il est inodore, il passe dans le sang, se fixe sur l’hémoglobine à la place de l’oxygène et empêche le transport de celui-ci jusqu’aux cellules. Une teneur de 0,2 % de CO dans l’air entraîne la mort en moins d’une demi-heure …

La figure suivante montre l’évolution de la composition des fumées en fonction de l’excès d’air dans le cas d’une combustion à prémélange (d’air et du combustible). On constate qu’en présence d’un manque d’oxygène, il y production de CO. Lorsque l’excès d’air augmente au-delà d’une certaine valeur, la teneur en CO2 des fumées diminue par dilution, dilution qui diminue le rendement de combustion dans la mesure où les fumées ont une température plus basses.

Evolution du contenu des fumées avec l’excès d’air [%] de combustion : cas de la combustion avec prémélange air-combustible (par exemple mélange d’air et de gaz naturel).

Le pouvoir calorifique d’un combustible

Généralités

Le pouvoir calorifique d’un combustible est la chaleur que peut dégager la combustion complète d’une unité de combustible. Dans le milieu scientifique, on l’exprime souvent en kJ/kg de combustible. Néanmoins, suivant le domaine d’application, on peut l’exprimer dans d’autres unités plus pratiques, par exemple, en kWh/m³ pour le gaz ou kWh/litre pour le fuel.
Dans les produits de la combustion, il y a de la vapeur d’eau, issue de la réaction de l’hydrogène du combustible. Dans certains appareils de combustion, l’eau reste à l’état de vapeur et s’échappe dans cet état vers la cheminée. La chaleur nécessaire pour vaporiser l’eau est donc perdue. Au contraire, certains appareils permettent de condenser l’eau et de récupérer l’énergie dégagée par l’eau pendant son changement de phase. On pense typiquement aux chaudières dites à condensation qui utilisent ce procédé pour augmenter leur rendement.
Sur base de cette distinction, on définit deux pouvoirs calorifiques :

  • Le pouvoir calorifique inférieur (PCI ou Hi), mesuré en conservant l’eau à l’état vapeur,
  • Le pouvoir calorifique supérieur (PCS ou Hs), mesuré après avoir récupéré la chaleur de condensation de l’eau.

Cas des combustibles « purs »

Exemples :

  • Le gaz « riche » algérien présente un PCI d’environ 36 MJ/m³N et un PCS d’environ 40 MJ/m³N.
  • Le fuel présente un PCI d’environ 36 MJ/litre et un PCS d’environ 39 MJ/litre.
PCI du combustible

Vecteur

Unité en MJ (en kWh) (en Wh)
Gaz naturel pauvre 32,97 9,16 9 160
Électricité kWh 3,6 1 1 000
Gaz butane kg 45,56 12,66 12 660
Gaz naturel riche 36,43 10,12 10 120
Houille kg 29,3 8,14 8 140
Anthracite 10/20 kg 31,4 8,72 8 720
Coke kg 28,5 7,92 7 920
Propane L 23,72 6,59 6 590
Gasoil chauffage L 35,87 9,96 9 960
Fuel léger L 36,37 10,10 10 100
Fuel moyen L 37,68 10,47 10 470
Fuel lourd L 38,16 10,60 10 600
Fuel extra lourd L 38,58 10,72 10 720

On peut déduire le PCI par unité de masse d’un combustible pur caractérisé par la composition CHyOx par la formule expérimentale suivante exprimée en MJ/kg :

PCI = enthalpie de réaction / masse molaire = [(393.6 + 102.2 y – (110.6 + 204.4 y) x ) / (1 + y)]  /  [12 + y + 16 x]  en [MJ/kg]

Cette formule est d’application pour tous les combustible, qu’ils soient fossiles ou issus de la biomasse. Néanmoins, il donne l’énergie pour un combustible pur (c’est-à-dire non dilué par un agent supplémentaire comme de l’eau).

Confort thermique : généralité

Confort thermique : généralité

Le confort thermique est défini comme « un état de satisfaction du corps vis-à-vis de l’environnement thermique ».


 

Les 6 paramètres traditionnels du confort thermique

Le confort thermique est traditionnellement lié à 6 paramètres :

  1. Le métabolisme, qui est la production de chaleur interne au corps humain permettant de maintenir celui-ci autour de 36,7°C. Un métabolisme de travail correspondant à une activité particulière s’ajoute au métabolisme de base du corps au repos.
  2. L’habillement, qui représente une résistance thermique aux échanges de chaleur entre la surface de la peau et l’environnement.
  3. La température ambiante de l’air Ta.
  4. La température moyenne des parois Tp.
  5. L’humidité relative de l’air (HR), qui est le rapport exprimé en pourcentage entre la quantité d’eau contenue dans l’air à la température ta et la quantité maximale d’eau contenue à la même température.
  6. La vitesse de l’air, qui influence les échanges de chaleur par convection. Dans le bâtiment, les vitesses de l’air ne dépassent généralement pas 0,2 m/s.

Notez que de façon simplifiée, on définit une température de confort ressentie (appelée aussi « température opérative » ou « température résultante sèche ») :

T°opérative = (T°air + T°parois) / 2

Cette relation simple s’applique pour autant que la vitesse de l’air ne dépasse pas 0,2 m/s.

Ainsi, le lundi matin, la température des parois est encore basse et le confort thermique risque de ne pas être atteint malgré la température de l’air de 20 ou 21°C…


Confort et température

Confort = équilibre entre l’homme et l’ambiance.

Dans les conditions habituelles, l’homme assure le maintien de sa température corporelle autour de 36,7°C. Cette température est en permanence supérieure à la température d’ambiance, aussi un équilibre doit-il être trouvé afin d’assurer le bien-être de l’individu.

La figure ci-dessus considère le sentiment de confort thermique  exprimé par les sujets eux-mêmes. Il s’agit de pourcentages prévisibles d’insatisfaits (PPD), exprimés sur l’axe vertical, pour des personnes au repos en position assise (celle qui font la sieste au bureau, par exemple !), ou pour des personnes effectuant un travail léger (= travail de bureau).

Il est impossible de définir une température qui convienne à tous : il reste au mieux 5 % d’insatisfaits !

Il est intéressant de constater que la courbe des sujets au repos est centrée sur 26°C, et qu’elle est plus resserrée : ces personnes sont plus sensibles à de faibles variations de température.

La courbe représentant le travail léger glisse vers les basses températures : les personnes ayant plus de chaleur à perdre préfèrent des températures plus basses.

La diffusion de chaleur entre l’individu et l’ambiance s’effectue selon divers mécanismes :

Schéma diffusion de chaleur entre l'individu et l'ambiance.

  • Plus de 50 % des pertes de chaleur du corps humain se font par convection avec l’air ambiant (convection et évaporation par la respiration ou à la surface de la peau).
  • Les échanges par rayonnement à la surface de la peau représentent jusqu’à 35 % du bilan alors que les pertes par contact (conduction) sont négligeables (< 1 %).
  • Le corps perd également 6 % de sa chaleur à réchauffer la nourriture ingérée.

Cette importance de nos échanges par rayonnement explique que nous sommes très sensibles à la température des parois qui nous environnent, … et explique l’inconfort dans les anciennes églises, malgré l’allumage de l’aérotherme deux heures avant l’entrée des fidèles !


Confort et humidité

L’incidence sur la transpiration

L’humidité relative ambiante influence la capacité de notre corps à éliminer une chaleur excédentaire.

  • Ainsi, une température extérieure de 24°C et une humidité relative de 82 % (après une pluie en période de forte chaleur), entraînent une forte impression de moiteur, due à l’impossibilité pour la peau d’évaporer l’eau de transpiration et donc de se rafraîchir.
  • Par contre, une température de 24°C conjointe à une humidité relative de 18 % (climat estival méditerranéen) permet de refroidir la peau par l’évaporation de l’eau de transpiration. La chaleur nous paraît  » très supportable « .

L’impact de l’humidité relative dans un bâtiment

L’humidité a relativement peu d’impact sur la sensation de confort d’un individu dans un bâtiment. Ainsi, un individu peut difficilement ressentir s’il fait 40 % ou 60 % d’humidité relative dans son bureau.

L’inconfort n’apparaît que lorsque :

  • L’humidité relative est inférieure à 30 %,
  • L’humidité relative est supérieure à 70 %

De faibles niveaux d’humidité (en deçà de 30 %) donnent lieu à certains problèmes :

  • Augmentation de l’électricité statique (petites décharges lors du contact avec des objets métalliques),À noter que la présence de décharges électrostatiques n’est pas forcément imputable à la sécheresse de l’air (un tapis non traité à l’antistatique peut également provoquer ce type de problème), mais l’air sec (peu conducteur) renforce ce phénomène.
  • Gêne et irritation accrue à la fumée de tabac (du fait d’un abaissement du seuil de perception des odeurs).
  • Augmentation de la concentration en poussières dans l’air (diminution de la taille des particules) et donc de leur vitesse de sédimentation et dès lors du nombre de bactéries aéroportées, ce qui serait susceptible d’induire une augmentation de la fréquence de maladies respiratoires en hiver lorsque l’humidité de l’air est faible.

Les gains énergétiques entraînés par une diminution drastique de l’humidification de l’air doivent être comparés aux pertes entraînées par un absentéisme accru…

De hauts niveaux d’humidité (au-delà 70 % HR) donnent lieu à une croissance microbienne importante et à des condensations sur les surfaces froides :

C’est ce qu’indique le diagramme ci-dessous, précisant la plage de taux d’humidité ambiante optimale d’un point de vue hygiénique (d’après Scofield et Sterling) (Doc.Dri-Steem/Pacare).

La plage de confort température-humidité

Pour un confort optimal et pour une température de l’air aux environs de 22°C, on peut dès lors recommander que l’humidité relative soit gardée entre 40 et 65 %.

Plus précisément, on peut définir une plage de confort hygrothermique dans le diagramme suivant (extrait de l’article de R. Fauconnier L’action de l’humidité de l’air sur la santé dans les bâtiments tertiaires parut dans le numéro 10/1992 de la revue Chauffage Ventilation Conditionnement).

  1. Zone à éviter vis-à-vis des problèmes de sécheresse.
  2. et 3 : Zones à éviter vis-à-vis des développements de bactéries et de microchampignons.
  3. Zone à éviter vis-à-vis des développements d’acariens.
  4. Polygone de confort hygrothermique.

A noter enfin que les limites d’humidité imposées en Suisse par la SIA V382/1 sont beaucoup moins exigeantes : on admet une humidité située en permanence entre 30 et 65 % HR, avec des pointes entre 20 et 75 % HR durant quelques jours par an. De tels taux momentanés sont supportables physiologiquement, sans qu’il ne soit nécessaire de recourir à une humidification artificielle.

Pour plus d’informations sur l’impact du taux d’humidité sur la santé, on consultera l’ouvrage Manuel de l’humidification de l’air.


Confort et vitesse de l’air

La vitesse de l’air (et plus précisément la vitesse relative de l’air par rapport à l’individu) est un paramètre à prendre en considération, car elle influence les échanges de chaleur par convection et augmente l’évaporation à la surface de la peau.

À l’intérieur des bâtiments, on considère généralement que l’impact sur le confort des occupants est négligeable tant que la vitesse de l’air ne dépasse pas 0,2 m/s.

À titre de comparaison : se promener à la vitesse de 1 km/h produit sur le corps un déplacement de l’air de 0,3 m/s.

Le mouvement de l’air abaisse la température du corps, facteur recherché en été, mais pouvant être gênant en hiver (courants d’air).

Condition hivernale

De façon plus précise :

Vitesses résiduelles Réactions Situation
0 à 0,08 m/s Plaintes quant à la stagnation de l’air. Aucune.
0,13 m/s Situation idéale. Installation de grand confort.
0,13 à 0,25 m/s Situation agréable, mais à la limite du confort pour les personnes assises en permanence. Installation de confort.
0,33 m/s Inconfortable, les papiers légers bougent sur les bureaux. Grandes surfaces et magasins.
0,38 m/s Limite supérieure pour les personnes se déplaçant lentement. Grandes surfaces et magasins.
0,38 à 0,5 m/s Sensation de déplacement d’air important. Installations industrielles et usines où l’ouvrier est en mouvement.

La fourniture d’air frais pour la ventilation d’un local n’entraîne en principe qu’un mouvement très faible de l’air.

Exemple.

Local dont l’air est renouvelé toutes les 10 minutes (soit un taux de renouvellement de 6) par circulation transversale :

  • volume local : 10 x 5 x 15 = 750 m³
  • débit d’air : 750 x 6 = 4 500 m³/h
  • section déplacement : 10 x 5 = 50 m²
  • vitesse de l’air : 4 500 x 1/50 = 90 m/h = 0,025 m/s !

Mais ce calcul sous-entend un déplacement uniforme de l’air dans la pièce.

En réalité, ce débit est fourni généralement par des bouches de pulsion de section nettement plus faible où la vitesse est beaucoup plus rapide. De plus, en climatisation, cet air peut être pulsé à une température nettement plus faible que l’ambiance…

Le confort est donc directement lié à la qualité de la diffusion de l’air dans la pièce, afin d’assurer une vitesse réelle inférieure à 0,25 m/s au droit des occupants.

Conditions estivales

Pour les températures de locaux comprises entre 21 et 24°C, un déplacement d’air à la vitesse de 0,5 à 1 m/s donne une sensation rafraîchissante confortable à des personnes assises n’ayant que de faibles activités. Mais lorsqu’on fournit un travail musculaire dans des endroits chauds, des vitesses d’air de 1,25 à 2,5 m/s sont nécessaires pour apporter un soulagement. On produit parfois des vitesses plus élevées lorsque des hommes sont soumis pour de courtes périodes à une chaleur rayonnante intense. Ce mouvement d’air sera obtenu à l’aide de ventilateurs.

L’effet rafraîchissant est ressenti peut-être exprimé en fonction de la diminution de la température de l’air qui donnerait le même effet rafraîchissant en air calme.

Voici les valeurs extraites du Guide pratique de ventilation – Woods, valables pour des conditions moyennes d’humidité et d’habillement :

Vitesse de l’air [m/s] Refroidissement équivalent [°C]
0,1 0
0,3 1
0,7 2
1,0 3
1,6 4
2,2 5
3,0 6
4,5 7
6,5 8

L’importance du mouvement d’air nécessité pour obtenir un effet rafraîchissant peut être évaluée dans une certaine mesure par l’expérience personnelle des vitesses extérieures de l’air. La sensation de fraîcheur produite par un vent léger soufflant par une fenêtre par une chaude journée est familière à chacun. La vitesse généralement désignée par « brise légère » est de l’ordre de 2,5 m/s. L’échelle de Beaufort des vents reproduite sur le tableau ci-dessous donne des vitesses des vents en km/h et en m/s.

Force du vent à l’échelle Beaufort n° Nature du vent Vitesse en m/s Vitesse en km/h
0 Calme
1 Air léger 1.5 5.4
2 Brise légère 3 10.8
3 Brise douce 5 18
4 Brise modérée 7 25
5 Brise fraîche 9 32.4
6 Brise forte 11 39.6
7 Vent modéré 13 47
8 Vent frais 15 54
9 Vent fort 18 65
10 Grand vent 21 76
11 Tempête 28 100
12 Ouragan 45 160


Confort, activité, habillement

L’estimation du niveau d’habillement

Le niveau d’habillement des occupants est caractérisé par une valeur relative, exprimée en « clo », l’unité d’habillement.

Tenue vestimentaire Habillement
Nu. 0
Short. 0,1
Tenue tropicale type (short, chemise à col ouvert et à manches courtes, chaussettes légères et sandales). 0,3
Tenue d’été légère (pantalon léger, chemise à col ouvert et à  manches courtes, chaussettes légères et chaussures. 0,5
Tenue de travail légère (chemise de travail en coton à manches longues, pantalon de travail, chaussettes de laine et chaussures. 0,7
Tenue d’intérieur pour l’hiver (chemise à manches longues,  pantalon, pull-over à manches longues, chaussettes épaisses et chaussures. 1,0
Tenue de ville traditionnelle (complet avec pantalon, gilet et  veston, chemise, chaussettes de laine et grosses chaussures. 1,5

L’évaluation du niveau d’activité

Diverses valeurs du métabolisme sont indiquées ci-après pour diverses activités.

Activité W/m² met
Repos,couché 45 0,8
Repos, assis 58 1
Activité légère, assis (bureau, école) 70 1,2
Activité légère, debout (laboratoire, industrie légère) 95 1,6
Activité moyenne, debout (travail sur machine) 115 2,0
Activité soutenue (travail lourd sur machine) 175 3,0


Indicateurs et plages de confort

Détermination traditionnelle des zones de confort thermique

Le corps humain possède un mécanisme de régulation qui adapte ses pertes de chaleur aux conditions thermiques de l’ambiance.

Ce mécanisme d’autorégulation laisse apparaître une zone où la variation de sensation de confort thermique est faible : c’est la zone dite de confort thermique. Il existe donc pour chaque situation une plage de conditions confortables. Cette plage se représente soit graphiquement sur des diagrammes psychrométriques, soit au moyen d’un indicateur unique regroupant les 6 paramètres cités plus haut. À cet effet l’indice de vote moyen prévisible (PMV) est utilisé et le pourcentage prévisible d’insatisfaits (PPD) est calculé.

Plages de confort pour une activité de bureau et un habillement d’été ou d’hiver, selon l’ASHRAE Hanbook of Fundamentals Comfort Model, 2005 superposées au climat de Bruxelles.

L‘indice de vote moyen prévisible (PMV – Predicted Mean Vote) donne l’avis moyen d’un groupe important de personnes qui exprimeraient un vote de sensation de confort thermique en se référant à l’échelle suivante :

  • Une valeur de PMV de zéro exprime une sensation de confort thermique optimale.
  • Une valeur de PMV négative signifie que la température est plus basse que la température idéale.
  • Réciproquement, une valeur positive signale qu’elle est plus élevée.

On considère que la zone de confort thermique s’étale de la sensation de légère fraîcheur (- 1) à la sensation de légère chaleur (+ 1), soit de -1 à + 1.

+3

 chaud

+2

 tiède

+1

 légèrement tiède

 neutre

-1

 légèrement frais

-2

 frais

-3

 froid

Le pourcentage prévisible d’insatisfaits (PPD – Predicted Percentage Dissatisfied) donne, en fonction de l’indice PMV d’une situation thermique précise, le pourcentage de personnes insatisfaites par rapport à la situation.

Connaissant PMV, la figure ci-après permet d’évaluer directement PPD. Si par exemple, le PMV est de – 1 ou + 1, l’indice PPD montre que près de 25 % de la population n’est pas satisfaite. Pour ramener le PPD à une valeur maximale de 10 % (ce qui est généralement l’objectif à atteindre dans un bâtiment), le PMV doit se situer entre – 0,5 et + 0,5. Et pour une valeur 0 de PMV, soit un état de confort thermique optimal, il y a encore 5 % d’insatisfaits.

Le calcul du niveau de confort

Les mesures étant réalisées, le niveau d’habillement et le niveau d’activités étant connus, il est alors possible de déterminer où se situe la température opérative effective par rapport à l’optimum de confort.


De façon plus précise, des tableaux repris dans la norme donnent l’indice PMV en fonction de la vitesse relative de l’air pour un habillement et une température opérative donnés, lorsque l’humidité relative est de 50 %. Nous reprenons ci-dessous un exemplaire de ces tableaux pour la situation la plus fréquente en hiver. Dans celui-ci est mise en évidence (zone colorée) la zone de confort thermique pour un indice PMV situé entre – 0,5 et + 0,5, c’est-à-dire pour 10 % d’insatisfaits.

Hab. H  (clo)

Temp. opér. to (°C)

PMV  suivant la vitesse relative de l’air (m/s)

– Niveau d’activité M = 70 W/m² –

<0,10

0,10

0,15

0,20

0,30

0,40

0,50

1,00

1,50

0,5

(été)

18

-2,01

-2,01

-2,17

-2,38

-2,70

20

-1,41

-1,41

-1,58

-1,76

-2,04

-2,25

-2,42

22

-0,79

-0,79

-0,97

-1,13

-1,36

-1,54

-1,69

-2,17

-2,46

24

-0,17

-0,20

-0,36

-0,48

-0,68

-0,83

-0,95

-1,35

-1,59

26

0,44

0,39

0,26

0,16

-0,01

-0,11

-0,21

-0,52

-0,71

28

1,05

0,96

0,88

0,81

0,70

0,61

0,54

-0,31

-0,16

30

1,64

1,57

1,51

1,46

1,39

1,33

1,29

1,14

1,04

32

2,25

2,20

2,17

2,15

2,11

2,09

2,07

1,99

1,95

1,0

(hiver)

16

-1,18

-1,18

-1,31

-1,43

-1,59

-1,72

-1,82

-2,12

-2,29

18

-0,75

-0,75

-0,88

-0,98

-1,13

-1,24

-1,33

-1,59

-1,75

20

-0,32

-0,33

-0,45

-0,54

-0,67

-0,76

-0,83

-1,07

-1,20

22

0,13

0,10

0,00

-0,07

-0,18

-0,26

-0,32

-0,52

-0,64

24

0,58

0,54

0,46

0,40

0,31

0,24

0,19

0,02

-0,07

26

1,03

0,98

0,91

0,86

0,79

0,74

0,70

0,57

0,50

28

1,47

1,42

1,37

1,34

1,28

1,24

1,21

1,12

1,06

30

1,91

1,86

1,83

1,81

1,78

1,75

1,73

1,67

1,63

Partons d’un exemple de mesures

Dans un local de bureau où l’activité est légère et s’effectue en position assise, le métabolisme est de 70 W/m² ou 1,2 met. Supposons être en présence d’une personne en tenue d’intérieur pour l’hiver correspondant à un habillement de 1 clo. Les différentes mesures des paramètres physiques de l’ambiance donnent 20°C pour la température de l’air, 19°C pour la température moyenne de surface des parois, une humidité relative de 50 % et une vitesse de l’air de 0,15 m/s.

La température opérative est donc de 19,5°C. En se référant au tableau de la norme ci-dessous, on en déduit que l’indice PMV = – 0,56. Pour cette dernière valeur, le graphe PPD/PMV donne une prévision de 12 % de personnes insatisfaites par rapport à l’ambiance thermique du local.

Cherchons le confort optimal

Dans le cas de la détermination de la température d’ambiance optimale, l’objectif est de déterminer la température opérative optimale qui correspond à l’indice PMV = 0. Ensuite, la zone de confort thermique peut alors être établie pour un pourcentage de personnes insatisfaites donné.

En reprenant les mêmes hypothèses que l’exemple ci-dessus, la norme donne un indice PMV = 0 pour une température opérative optimale de 22°C. En admettant un écart de 1°C entre T°air et T°parois (ce qui n’est pas beaucoup), la température de l’air sera optimale pour 22,5°C !

En admettant 10 % d’insatisfaits (PMV compris entre – 0,5 et + 0,5), la température opérative varie de 19,8°C et 24,2°C. Soit pour la température de l’air : une zone de confort thermique de 4,4°C, allant de 20,3°C à 24,7°C (zone de couleur jaune du tableau).

Autrement dit, en hiver, dans un bureau bien isolé (T°parois élevées), on admettra un confort basé sur une température d’air de 20,5°C. Mais si la température des parois est faible (simples vitrages, par exemple), il faudra apporter un air à 21, voire 22°C pour assurer le confort.

Le confort thermique restera toujours variable en fonction des individus

La zone théorique de confort étant déterminée, la sensation de confort peut aussi être influencée par d’autres éléments comme l’état de santé, l’âge ou l’état psychologique de l’individu. Dans chacun de ces cas, il faudra admettre une température d’ambiance différente qui peut être située hors de la zone de confort thermique. De plus, la qualité ou « chaleur » humaine qui entoure l’individu participe à la sensation de confort ou d’inconfort. Enfin, la possibilité d’une intervention personnelle sur les caractéristiques de l’ambiance de son lieu d’activité est importante si on veut éviter tout sentiment de frustration ou d’enfermement et donc d’inconfort.

Confort au niveau du pied

Le texte ci-dessous est extrait de la brochure du FFC : Technologie de la construction – Méthodes de construction – Isolation thermique – Généralités.

Bien que dans les échanges thermiques, les pertes par contact (conduction) soient négligeables (< 1 %), une problématique courante réside dans le fait qu’avec certains types de plancher, on aura froid aux pieds et non avec d’autres. On admet en général que, pour un pied non chaussé, une température de contact inférieure à 26°C soit désagréable.

Lorsqu’un objet à une température  θ1 est mis en contact avec un objet à une température q2, la surface de contact se mettra à une température comprise entre les deux précitées.

Les relations ci-après permettent de calculer la température de contact ( θc) entre le corps humain et quelques matériaux :

Acier : θC  = 2,1 + 0,93 θ
Béton : θC  = 10,6 + 0,65 θ
Bois : θC  = 19,4 + 0,35 θ
Tapis : θC  = 27,5 + 0,08 θ
θ est la température initiale du matériau.

Ainsi, si on touche un objet en acier dont la température est inférieure à – 2,2°C, la température de contact sera inférieure à 0°C. Ceci explique pourquoi, si en période de gel, des enfants touchent avec la langue un garde-corps de pont en acier par exemple, celle-ci adhérera par le gel.

Il ressort de la relation  θC = 27,5 + 0,08 θ , que pour toutes les températures courantes, un tapis est suffisamment chaud aux pieds. De même, un plancher en bois ne fera généralement pas l’objet de plaintes pour autant que la température de surface ne descende pas sous 19°C.
Par contre, un revêtement de sol en béton ou en dalles ne sera chaud aux pieds que si la température est au moins de 24°C. C’est pourquoi ces types de planchers font souvent l’objet de plaintes auxquelles on ne peut remédier que par la pose d’un tapis ou l’installation d’un système de chauffage par le sol.
Conseiller d’isoler, à sa face inférieure, un plancher en matériau pierreux afin d’augmenter le confort du pied est généralement peu judicieux. Quelle que soit l’isolation, des températures superficielles de 24°C ou plus ne peuvent être atteintes qu’avec une température de l’air de 27 °C, ce qui crée par ailleurs un certain inconfort.

Zones de confort adaptatif

Comme l’a montré la théorie du confort adaptatif, les plages de confort ne devraient pas être vues comme des valeurs statiques, définies une fois pour toutes. En réalité, elles sont susceptibles de varier selon la capacité d’action de l’occupant, l’historique météorologique, etc. C’est déjà partiellement reflété par l’intégration de l’habillement et de l’activité dans les représentations traditionnelles, mais cela reste trop partiel.

Il faut reconnaitre qu’il est difficile de représenter clairement une zone de confort définie sur base de six paramètres, en intégrant en plus la variabilité de ceux-ci. Heureusement, les recherches ont montré que parmi ces 6 paramètres, la température opérative était prédominante, et que la plupart des facteurs d’adaptation sont liés à la température moyenne extérieure. Les développeurs des théories du confort adaptatif ont donc pu simplifier la représentation de leurs résultats. On trouve aujourd’hui dans la littérature des figures donnant des plages de confort intérieur, exprimées uniquement sur base de la température opérative, en fonction d’une température de référence, généralement définie comme une moyenne des températures relevées sur quelques jours. Certains auteurs font cependant remarquer que ces représentations sont trop simplistes et font oublier les autres paramètres du confort thermique, notamment l’humidité.

Températures opératives correspondantes aux différentes plages de confort définies par la norme NBN EN 15251.

En outre, ces plages de références ne sont utilisables que pour certains ‘profils de bâtiment’, et surtout d’occupants. Les théories du confort adaptatif l’on montré, la capacité d’action de l’occupant sur son environnement est un paramètre fondamental du confort. Il est donc nécessaire d’en tenir compte lorsque l’on choisit des systèmes techniques : va-t-on privilégier une gestion automatisée et centralisée, pour éviter « des mauvaises gestions » (oh, le méchant occupant qui dérègle ma belle machine !), ou au contraire choisir un  système laissant à l’occupant la totalité du contrôle ? Bien entendu des solutions intermédiaires existent.

La capacité d’action de l’occupant ne dépend pas uniquement des dispositifs techniques. Elle est aussi liée à son activité ou à l’organisation du travail. Par exemple, on imaginera assez facilement un employé de bureau passant 8 heures continues à son poste de travail contrôler l’ouverture de la fenêtre située juste à côté de lui. Ce sera plus difficile pour quelqu’un qui saute d’une réunion à l’autre et n’a pas de poste de travail fixe.

On parlera d’un occupant actif s’il est capable et motivé à prendre en charge une partie de la gestion de l’ambiance, et d’un occupant passif dans le cas contraire. L’organigramme ci-dessous aide à identifier le type d’occupant auquel on a affaire.

 Profil des occupants, inspiré de Adaptive temperature limits: A new guideline in The Netherlands : A new approach for the assessment of building performance with respect to thermal indoor climate, A.C. van der Linden, A.C. Boerstra, A.K. Raue, S.R. Kurvers, R.J. de Dear.

 

Formation de moisissures

Formation de moisissures


Conditions au développement de moisissures

Le texte ci-dessous est extrait de la Note d’Information Technique (NIT) n° 153 (Problèmes d’humidité dans les bâtiments) du ouverture d'une nouvelle fenêtre ! CSTC.

Qu’est-ce qu’une moisissure ?

Des spores de moisissures, dont les dimensions sont généralement inférieures à 10 microns, sont normalement présentes dans l’air, au même titre que les bactéries.  Leur concentration dans l’air extérieur est de l’ordre de 10spores par m3 d’air, bien qu’elle soit plus faible après une période de pluie ou pendant des périodes de grand froid, et plus élevée aux alentours des bois, des parcs, etc.

La concentration en spores de moisissures dans l’air intérieur est en général un peu moins forte que dans l’air extérieur.

Il existe normalement de nombreuses variétés de spores de moisissures, certaines apparaissent dans des proportions plus diverses que d’autres selon la saison. Selon leur type, les moisissures sont gris verdâtre, brun foncé ou noirâtre.

En se développant, les moisissures produisent d’autres spores, de sorte que leur prolifération peut être très rapide.

Conditions nécessaires au développement de moisissures

La formation de moisissures sur une surface ne se produit que dans des conditions favorables. Il faut notamment :

  • Une quantité d’oxygène suffisante.
  • Des conditions de température adéquates.  Bien que les moisissures puissent se développer à des températures comprises entre 0 et 60°C, la température optimale pour un développement rapide se situe entre 5 et 25°C. Il est important que les variations de température ne soient pas trop importante.
  • Un fond nourrissant approprié.
  • Une humidité suffisante.

Les deux premières conditions ne posent pas de problèmes dans les bâtiments.  En effet, de l’oxygène s’y trouve en suffisance et la température se situe la plupart du temps dans les limites les plus favorables. D’où l’importance des deux dernières conditions : fond nourrissant approprié et humidité suffisante.

Fond nourrissant

Pour leur développement, les moisissures ont besoin de faibles quantités de matières organiques décomposables comme les sucres, les graisses et surtout la cellulose.

Même dans des bâtiments très propres, les traces de souillure sur les parois sont suffisamment nombreuses pour permettre le développement de moisissures.

Il va de soi que les endroits présentant une accumulation de salissures ou de poussières constituent des emplacements de prédilection pour le développement de moisissures.

Certaines sortes de papiers peints et surtout la colle cellulosique avec laquelle ils sont posés, ainsi que certains types de peintures semblent être à des degrés divers de bons fonds nourrissants pour les moisissures.

Présence d’humidité

L’organe reproducteur des moisissures contient environ 95 % d’eau. L’eau est une condition essentielle au développement des moisissures. Celles-ci puisent l’humidité nécessaire principalement dans le support sur lequel elles se développent.

Des variations importantes de la teneur en humidité ne donnent pas lieu, en général, à un développement de moisissures, c’est-à-dire que le développement de moisissures est rarement lié à la pénétration d’eau de pluie.


Condensation de surface ou formation de moisissures ?

La condensation superficielle apparaît lorsque l’humidité relative, à la surface d’une paroi, atteint 100 %. La formation de moisissures sur une paroi peut déjà se produire à partir dune humidité relative de 80 % si le matériau en contact avec l’air humide est hygroscopique. Ceci s’explique par le fait qu’un matériau hygroscopique absorbe une grande quantité d’humidité pour des humidités relatives de l’air situées en dessous du niveau de saturation.

Rendement d’un luminaire intérieur

Rendement d'un luminaire intérieur

Le rendement total ηt d’un luminaire est le rapport entre le flux lumineux émis par le luminaire et le flux lumineux des lampes.

Il est d’autant plus bas qu’il y a des éléments (ventelles, globe opalin ou prismatique) devant les lampes afin d’éviter l’éblouissement ou pour favoriser l’esthétique.

Données

Pour voir des exemples de rendement d’un luminaire.

Attention, le rendement total d’un luminaire ne focalisant pas la lumière vers le bas, c’est-à-dire vers le plan de travail (luminaire à diffuseur opalin, lumière douce, …), n’est pas exactement représentatif du rendement utile du luminaire. En effet une partie de la lumière est diffusée vers les murs ou les plafonds. Il en résulte une perte supplémentaire (qui dépend du facteur de réflexion des parois) non considérée dans la notion de rendement total. Pour comparer ce type de luminaire avec les luminaires purement directs, la notion de rendement inférieur η i (quantifiant le flux lumineux dirigé vers le bas) peut donc également être une indication de l’efficacité du luminaire.

La norme Française UTE C71-121 impose aux fabricants de notifier le rendement inférieur ηi et le rendement supérieur ηs sous la forme :

ηi [A à J] + ηs T

Les lettres A à J permettent d’indiquer le type de répartition du flux inférieur. On utilise les lettres A à E pour les distributions intensives et les lettres F à J pour les distributions extensives. La lettre T désigne toujours la composante indirecte.

Le rendement total ηt du luminaire vaut simplement :

ηt = ηi + ηs

Par exemple, un luminaire caractérisé par un rendement UTE de :

0.75 D + 0.10 T

émettra vers le bas avec un rendement lumineux de 75 % et selon un flux assez intensif, et vers le haut avec un rendement lumineux de 10 %. Le rendement lumineux total du luminaire vaut ici 85 %.

Rendement de 100 % ou plus ?

On voit des rendements de luminaires équipés de lampe T5 supérieurs à 100% et des rendements de luminaires à LED de 100 %.

Explication T5 :

La lampe T5 a son flux maximal à 35 °C. La norme impose une température de 25 °C pour les tests en labo. Les fabricants utilisent un facteur de correction pour compenser cette différence de t° (car ils disent qu’à la lampe, il y aura bien les 35 °C.)

Exemple courbe photométrique d’un luminaire pour T5 à rendement > 100%

Explication LED :

Le module LED fait partie du luminaire, il n’y a plus moyen de mesurer la source sans le luminaire donc on met le rendement à 100 %. Si un diffuseur est placé dans un luminaire à LED, la diminution du rendement du luminaire à LED peut être mesurée et le rendement sera alors inférieur à 100 %.

Exemple courbe photométrique d’un luminaire à LED à rendement 100 %

Luminance moyenne d’un luminaire

Luminance moyenne d'un luminaire


La luminance moyenne (en cd/m²) d’un luminaire représente sa brillance et quantifie les risques d’éblouissement. Elle est définie en fonction de l’angle de vision du luminaire par rapport à la verticale (angle d’élévation).

Luminaire intérieur, coupe transversale et longitudinale.

Les fournisseurs reprennent ces grandeurs sous forme de tableau ou sous forme d’abaque (dans le plan C90 en trait continu et dans le plan C0 en pointillés). Elles sont données soit pour la totalité du flux lumineux émis par les lampes (en lm), soit ramenés à 1 000 lm. Dans ce dernier cas, il faudra multiplier les valeurs par le flux lumineux des lampes /1 000 pour obtenir les valeurs réelles.

Exemple de fiche technique d’un luminaire :

Exemple de fiche technique d'un luminaire 

Théorie des supports antivibratiles

Théorie des supports antivibratiles


Fréquence propre et résonance d’un système

Tirez sur une masse suspendue au bout d’un élastique, puis lâchez la : elle reviendra à la position de repos avec une fréquence qui sera toujours identique. Lancez une balançoire d’enfant, l’amplitude va se réduire progressivement jusqu’à l’arrêt, mais la fréquence d’oscillation restera constante.

Cette fréquence d’oscillation avec laquelle un système élastique quelconque (mécanique, acoustique, …) revient à sa position d’équilibre après avoir été sorti de celle-ci par une force extérieure, est appelée fréquence propre du système.

Si la fréquence d’excitation est égale à la fréquence propre du système, celui-ci « entre en résonance » et le mouvement a tendance à s’amplifier, entraînant des oscillations parfois dangereuses. Quand on pousse une balançoire, on s’arrange pour se synchroniser avec la fréquence propre de la balançoire, pour ne pas la recevoir dans la figure, d’une part, mais surtout pour amplifier le mouvement. Sans le savoir, celui qui pousse « entre en résonance » avec la balançoire… !

D’autres exemples :

  • Le pont suspendu de Tacoma aux États-Unis qui est entré en résonance avec les rafales de vent et qui a été détruit.
  • Un verre mis en vibration par un diapason posé à côté.
  • La vibration de « vieilles » voitures à certaines vitesses de rotation du moteur.


Fonctionnement d’un support antivibratile

Pour réduire la propagation des vibrations de certains appareils (compresseurs, ventilateurs,…) à la structure du bâtiment, on insère des supports élastiques entre l’équipement et la dalle qui le supporte. On parle de « Silentblocs » ou de « supports antivibratiles ».

L’ensemble « équipement-support » constitue un système « masse-ressort », soumis aux lois de la mécanique des vibrations, et disposant dès lors d’une fréquence propre.

On admet généralement que le système ne dispose que d’un seul degré de liberté : il produit des efforts uniquement verticaux sur son support. Dans ce cas, la fréquence propre de vibration du système est donnée par :

fo = (1/2π) x (k/m) 1/2

où,

  • k est la raideur du ressort constitué par les plots antivibratiles (rapport de l’effort transmis sur le déplacement correspondant, exprimé en N/m)
  • m est la masse de l’équipement et de son socle éventuel en kg.

Si le plot élastique est souple et la masse de l’équipement est élevée, le rapport k/m sera faible et donc la fréquence propre sera basse.

Si la fréquence d’excitation de la machine est proche de la fréquence propre du système, il y aura résonance et amplification des déplacements.

Amplification de la vibration en fonction du rapport entre la fréquence d’excitation de la machine et la fréquence propre du système

Par contre, pour permettre une bonne atténuation des vibrations, la fréquence propre du système antivibratile doit être 3 à 4 fois inférieure à la fréquence excitatrice.

Pour dimensionner correctement les plots antivibratiles, il faudra donc connaître :

  • La masse de l’équipement et la répartition de cette masse sur son assise, afin de répartir la position des plots pour qu’ils donnent la même fréquence propre.
  • La fréquence excitatrice liée à la vitesse de rotation du moteur ; s’il s’agit d’une machine tournante, la fréquence excitatrice est déduite de la vitesse de rotation N par la relation f = N/60 [Hz].
Exemple.

Un ventilateur tournant à une vitesse de rotation de 1 500 tours/minute provoque des vibrations de 25 Hz (puisque rotation de 25 tours/seconde). Les plots devront être calculés sur une fréquence propre de 6 à 8 Hz.


En pratique

En pratique, on rencontre :

  • des ressorts, utilisés pour toutes les fréquences propres mais surtout lorsqu’elles sont inférieures à 8 Hz,
  • des plots à base de poudre de liège mélangée à un élastomère, pour des fréquences propres supérieures à 8 Hz,
  • des plots à base d’élastomères, pour les fréquences propres supérieures à 12 Hz,
  • un système de « dalle flottante », c’est-à-dire la construction d’un socle de béton sur un matelas de laine minérale ou de mousse plastique souple, pour les fréquences propres moyennes ou aiguës.

Angle de défilement d’un luminaire

Angle de défilement d'un luminaire

L’angle de défilement d’un luminaire est l’angle sous lequel la source nue ne peut être vue par l’observateur. Il s’exprime en degrés.

On parle d’angle de défilement dans la direction transversale et dans la direction longitudinale.

Angle de défilement transversal et longitudinal d'un luminaire

Attention ! à ne pas confondre avec l’angle d’élévation utilisé dans la norme EN 12464-1 définit comme étant l’angle compris entre la normale verticale à l’axe de la lampe et une direction donnée pour laquelle on mesure une certaine luminance.

Fonctionnement d’une cheminée

Fonctionnement d'une cheminée


Notion de tirage

Lorsqu’un gaz est chauffé, il se dilate. Une même masse de gaz aura donc un volume plus grand si elle est plus chaude ou un même volume de gaz sera plus léger s’il est plus chaud.

Par exemple, la masse volumique de l’air (à la pression atmosphérique) est de 1,293 kg/m³ à 20°C, celle des gaz de combustion à 200°C est de 0,760 kg/m³.

Les gaz légers auront donc tendance à monter s’ils sont immergés dans un gaz plus lourd.

Ceci signifie que plus la différence de température entre les gaz chauds dans la cheminée et l’air extérieur est grande, plus les gaz ont tendance à monter.

Une cheminée fonctionne donc mieux en hiver qu’en mi-saison ou qu’en été (si la chaudière est utilisée pour la production d’eau chaude sanitaire).

Plus la colonne de gaz chaud est haute, plus le tirage est important.

Si on ferme avec une plaque les extrémités hautes et basses de la cheminée remplie de gaz chaud et que l’on mesure la pression dans le conduit, on constatera que le couvercle supérieur est soumis à une certaine pression et que cette pression décroit quand on descend dans la cheminée pour devenir nulle au niveau de la plaque inférieure.

Si on enlève la plaque supérieure, la pression au sommet de la cheminée devient subitement égale à la pression atmosphérique et comme la pression décroit le long du conduit une dépression s’exerce sur la plaque inférieure.

Si on ouvre la bas de la cheminée, tout en maintenant la température dans le conduit, la colonne de gaz chaud montera de plus en plus vite pour atteindre un maximum et sa vitesse ne changera plus.

La dépression créée ou tirage de la cheminée est calculée par :

ΔPch = g x h x (ρair – ρgaz)

où,

  • ΔPch = tirage de la cheminée [Pa]
  • g ≈ 9,81 m/s² = accélération de la pesanteur [m/s²]
  • h = fauteur de la cheminée [m]
  • ρair et ρgaz = masses volumiques de l’air à la température extérieure et des fumées [kg/m³]

Donc plus la cheminée est haute et plus les fumées sont chaudes, plus le tirage est important.


Régulateur de tirage

Le tirage dans la cheminée est fonction de sa hauteur et de la différence de température entre l’air extérieur et les fumées. Cette dernière est variable en fonction de la saison.

La pression différentielle au niveau du raccordement de la chaudière et donc au niveau du brûleur varie donc. Comme presqu’aucun brûleur pulsé (gaz ou fuel) n’adapte la vitesse de son ventilateur en conséquence, l’amenée d’air comburant est donc influencée par les conditions atmosphériques. Il en va de même pour l’échange de chaleur dans la chaudière (les fumées sortent plus vite et plus chaudes de la chaudière) et donc pour le rendement de combustion.

Le rôle du régulateur de tirage est de compenser cette fluctuation. Il peut être motorisé ou non motorisé. Dans ce deuxième cas, il est composé d’un clapet circulaire ou carré placé sur un axe excentrique. Un contre-poids réglable permet d’ajuster l’ouverture en fonction de la dépression.

Régulateur de tirage.

Si le tirage augmente (entraînant une perte de rendement de combustion), le régulateur de tirage s’ouvre et mélange les fumées avec de l’air de la chaufferie. Le volume de gaz aspiré par la cheminée augmente et la température diminue. Il y a donc moins de tirage.

Le tirage reste ainsi quasiment constant au niveau du raccordement de la chaudière.

Charges thermiques internes pour les bureaux

Charges thermiques internes pour les bureaux


L’apport des occupants

L’humain apporte de la chaleur sensible (par notre corps à 37°C) et de la  chaleur latente (par notre production de vapeur d’eau en respiration et transpiration).

Différentes valeurs sont données dans la littérature. Généralement, les bureaux d’études suivent les valeurs reprises dans la méthode du « Bilan CARRIER », couramment utilisée pour le dimensionnement des installations de conditionnement d’air.

Activité T° intérieure Chaleur sensible Chaleur latente Chaleur totale Apports en eau
Travail de bureau – hiver 21°C 83 W 49 W 132 W 71 g/h
Travail de bureau – été 24°C 71 W 60 W 131 W 86 g/h
Travail de bureau – été 26°C 63 W 69 W 132 W 99 g/h

En hiver, l’occupant d’un bureau à 21°C fournit donc 83 Watts de chaleur gratuite au local. Par ailleurs, il disperse 71 grammes d’eau dans l’atmosphère chaque heure. Ceci ne modifie pratiquement pas la température du local et ne constitue donc pas un apport complémentaire en hiver.

Par contre, en été, cette vapeur d’eau risque d’être condensée, sur la batterie froide du ventilo-convecteur par exemple. La chaleur de condensation correspondante devra être comptabilisée dans le bilan thermique de la machine frigorifique. La chaleur de vaporisation/condensation étant de 2 500 kJ/kg environ, la correspondance est donnée par :

(99 [g/h] x 2 500 [J/g] ) / 3 600 [s/h] = 69 [Watts]

En conclusion

  • La présence d’un homme apporte 83 Wh, chaque heure, en diminution des besoins de chauffage d’hiver dans un bureau à 21°C.
  • Un homme augmente de 132 W, chaque heure, les besoins de refroidissement d’un local climatisé, dans un bureau maintenu à 26°C.
Remarques

1. Ces valeurs sont fort élevées et correspondent au regard d’un fournisseur de matériel frigorifique, soucieux de vaincre les situations les plus critiques. Dans « Le Recknagel », on trouve des valeurs plus modérées, en apport d’eau surtout.

T° intérieure Chaleur sensible Chaleur latente Chaleur totale Apports en eau
20°C 92 W 27 W 121 W 38 g/h
22°C 85 W 33 W 118 W 47 g/h
24°C 77 W 41 W 118 W 58 g/h
26°C 69 W 49 W 118 W 70 g/h

Ces valeurs conviennent mieux pour estimer la consommation d’une installation de chauffage ou de climatisation.

Elles peuvent être utilisées également par le responsable technique d’un bâtiment pour vérifier a posteriori les puissances installées des équipements thermiques, sur base d’un nombre moyen d’occupants correspondant à la réalité.

2. Les valeurs « Carrier » sont valables pour une climatisation par convection. Les occupants augmentent l’échange par évaporation lorsque la température de l’air augmente, pour compenser la perte d’échange par convection.

Dans le cas d’une climatisation avec un plafond froid, une partie de l’échange se fait par rayonnement et cette partie n’est pas fonction de la température ambiante et donc les occupants produisent moins de vapeur.


L’apport des équipements

Si la consommation des nouveaux appareils d’éclairage a été fortement réduite ces dernières années, par contre, celle des équipements informatiques de bureau a augmenté de manière spectaculaire.

La quantité totale de chaleur libérée par l’équipement est déterminée par l’utilisation/allumage de l’équipement. Les charges moyennes réelles dépendent de la configuration et de l’occupation des locaux de bureaux.

Vu la grande influence de l’équipement sur la quantité totale de chaleur libérée, une distinction peut être faite entre une charge d’équipement faible, normale ou élevée.

Appareil Puissance (W)
Unité centrale d’un PC 50 – 60 W
Écrans
Écran noir et blanc – 14 pouces 30 – 40 W
Écran couleurs – 14 pouces 50 – 70 W
Écran couleurs – 15 pouces 60 – 90 W
Écran couleurs – 17 pouces 70 – 100 W
Écran couleurs – 21 pouces 110 – 160 W
Imprimantes
Iimprimante à jet d’encre 20 – 60 W (puissance en attente : 10 W)
Imprimante laser 150 – 250 W (puissance en attente : 70 W)
Fax
Fax thermique 0.3 – 0.7 Wh / page A4 (en attente 5 – 10 W)
Fax laser 1.4 – 2.6 Wh / page A4 (en attente 60 – 70 W)
Fax jet d’encre 0.3 Wh / page A4 (en attente 4 W)
Photocopieurs
Photocopieuse 20 pages / minute 1 000 W (en attente 150 W)
Photocopieuse 40 pages / minute 1 500 W (en attente 350 W)

L’apport de l’éclairage

Pour les immeubles de bureaux, il y a 5 principaux systèmes d’éclairage à considérer. En voici les puissances installées dans une réalisation récente.

Éclairage général : 12 – 14 W/m²
Éclairage uniforme via des luminaires encastrés dans le plafond. La reprise d’air par les luminaires permet de diminuer la charge interne.

Éclairage général par zone : 10 – 12 W/m² (on peut aujourd’hui descendre jusqu’à 6-9 W/m²) 
Éclairage via des luminaires encastrés dans le plafond, certaines zones de la pièce ont un éclairage plus faible. La reprise d’air par les luminaires permet de diminuer la charge interne.

Éclairage de base et éclairage du plan de travail : 10 W/m²
Un éclairage de base (niveau de lumière relativement bas) via des luminaires encastrés dans le plafond complété par des lampes de bureau. La reprise d’air par les luminaires permet de diminuer la charge interne.

Éclairage ponctuel uniquement : 8 – 12 W/m²
Luminaires au-dessus des plans de travail et fixés à un niveau inférieur à celui du plafond de sorte qu’une partie de la lumière est rayonnée vers le haut. La reprise d’air par les luminaires est impossible.

Éclairage indirect : 20 – 25 W/m²
La lumière est réfléchie sur le plafond. La reprise d’air par les luminaires est impossible.

Le nombre d’heures d’utilisation de l’éclairage dépend de son mode de gestion.

Avec une gestion centralisée de l’éclairage, le nombre d’heures d’utilisation maximum est atteint : l’éclairage est allumé en début de journée de travail et éteint en fin de journée par une centrale. On admet que l’éclairage est utilisé 10 heures par jour, 5 jours par semaine et durant 52 semaines.

Avec une gestion individualisée, l’éclairage est allumé en début de journée de travail et éteint en fin de journée par une centrale. Lors des pauses, l’éclairage est coupé par la centrale. En outre, un interrupteur manuel individuel est disponible pour chaque utilisateur.

Avec une bonne gestion individualisée ainsi qu’une liaison éclairage naturel, l’éclairage est allumé et éteint en fonction de la lumière naturelle disponible. Le système automatique éteignant l’éclairage est muni d’un retardateur.


Apports internes d’un local de bureau

Pour fixer des ordres de grandeur, on adopte parfois les valeurs moyennes suivantes pour définir les charges internes d’un bureau :

Local sans ordinateur

apports internes faibles 20 W/m²
(= occupant + éclairage)

Local avec ordinateur

apports internes moyens 30 W/m²
(= occupant + éclairage + PC)

Local avec ordinateur et imprimante

apports internes élevés 40 W/m²
(= occupant + éclairage + PC + imprimante)

Ces valeurs ne sont pas normalisées et pourtant elles influencent fortement le bilan énergétique du local et le dimensionnement des appareils.

 

Eléments théoriques de base en acoustique

Eléments théoriques de base en acoustique


Le son et le spectre sonore

Qu’est-ce qu’un son ?

Schéma principe son.

Le son est la sensation auditive engendrée par la fluctuation périodique de la pression de l’air.

Cette fluctuation se fait par rapport à la pression d’équilibre (la pression atmosphérique) et est ressentie au niveau de l’oreille.

Ainsi, une lame d’acier qui vibre entraîne la formation d’une succession de zones de pression et de dépression qui se propagent.

Cette variation de pression est sinusoïdale

Schéma variation de pression est sinusoïdale.

La variation de la pression se représente sous forme d’une onde sinusoïdale dont l’amplitude « P » caractérise le niveau de pression acoustique.

Cette amplitude traduit l’intensité de la sensation,et est encore appelée le niveau sonore. Elle est mesurée en Pascal [Pa]. C’est la pression exercée par l’onde sonore sur le récepteur (tympan, membrane d’un microphone, …).

Plus l’amplitude P est grande, plus le son est fort.

Et cette sinusoïde a une fréquence

Un son pur (à une seule fréquence), qui présente une allure sinusoïdale en fonction du temps, se représentera seulement par un trait (dont la hauteur correspond à son amplitude P) dans un diagramme en fonction de la fréquence.

Le nombre de fluctuations par seconde définit la fréquence du son. Si la durée d’une fluctuation ou « période » est de T secondes, la fréquence sera de 1/T Hertz [Hz ou 1/s].

Ainsi, le « la » du diapason vibre à la fréquence de 440 Hz, sa période est donc de 2,3 millièmes de seconde.

Plus la fréquence 1/T est élevée, plus le son paraît aigu.

En réalité, nous vivons dans du bruit, mélange de multiples sons

Le son décrit au paragraphe ci-dessus est un son « pur ». En réalité, le bruit que nous entendons est généralement composé d’un mélange complexe de sons de fréquences et d’amplitudes différentes.

Spectre sonore d’un bruit, représentant l’amplitude des sons en fonction de leur fréquence.
(un octave est une bande de fréquence d’une largeur telle que la plus grande fréquence a une valeur double de la plus faible. 8 bandes d’octave sont définies en acoustique avec comme fréquence centrale : 62,5 Hz, 125 Hz, 250 Hz (sons graves), 500 Hz, 1 kHz(sons moyens), 2 kHz, 4 kHz, 8 kHz (sons aigus)).

Pour le représenter, il faut réaliser une analyse spectrale décrivant pour toutes les fréquences le niveau de pression acoustique : c’est le spectre sonore du bruit.

On précisera alors la hauteur du bruit : un bruit est plus ou moins haut (= aigu) suivant que sa fréquence dominante est plus ou moins élevée.

On distingue deux types de bruit dans le bâtiment : bruit aérien et bruit solidien (ou bruit d’impact)

Une source de bruit aérien (parole, radio, TV, …) produit dans l’air du local où elle se trouve, une onde se propageant en ligne droite jusqu’à ce qu’elle heurte une paroi.

Celle-ci est mise elle-même en vibration et transmet un son dans le local voisin.

Par contre, un bruit d’impact est dû au choc d’un objet sur une paroi (meubles, pas, marteau sur un clou, …).

Au moment du choc, une quantité d’énergie importante est communiquée à la paroi (beaucoup plus que dans le cas d’un bruit aérien) et le son se propage facilement dans tout l’immeuble.


Le niveau sonore en décibels Lp

L’oreille est un organe extrêmement sensible ! Il perçoit des pressions acoustiques variant de 2.10-5 PA à 20 PA L’échelle varie donc de 1 à 1 000 000 !

Pour simplifier la mesure du niveau de pression acoustique, encore appelé « niveau sonore », les acousticiens ont adopté une échelle logarithmique :

L= 10 log [p²/po²]
= 20 log [p/po]

où,

  • p = pression acoustique mesurée
  • po = pression acoustique de référence = 2.10-5 PA
  • Lp est exprimé en décibels (dB)

Le décibel n’est donc pas une unité de mesure absolue mais est basée sur le rapport entre la pression mesurée et la pression de référence po. De plus, son évolution n’est pas linéaire, ce qui complique l’addition de 2 sons différents…
Mais ce mode de mesure correspond assez bien à la manière dont notre oreille entend et compare les sons !

Exemple.

  • Une pression acoustique de 2 PA entraîne un niveau sonore de :

20 x log [2 / 2 x 10 – 5] = 100 dB

  • Une pression acoustique de 0,02 PA (soit 100 fois moindre) entraîne un niveau sonore de :

20 x log [0,02 / 2  x 10 – 5] = 60 dB…

Rappel mathématique sur les propriétés des logarithmes

log X = log10 X = y si X : 10y

« Le logarithme en base 10 d’un nombre est l’exposant auquel il faut soumettre 10 pour retrouver le nombre ».

ex : log (10) = 1 , log (100) = 2, … ,

log (10 000) = 4, …

propriétés

log (X.Y) = log X + log Y
log (X²) = log (X.X) = 2 log X
log (2X) = log X + log 2 = log X + 0,3


L’addition de niveaux sonores

Le problème de l’addition de plusieurs niveaux sonores se pose lorsque plusieurs sources sonores produisent un son simultanément. Comme les niveaux sonores sont des grandeurs logarithmiques, elles ne peuvent être additionnées comme telles.

Il faut soit repasser aux pressions correspondantes, soit utiliser le graphe ci-dessous qui donne l’accroissement D L en décibels à ajouter au niveau le plus élevé pour obtenir le niveau résultant, connaissant la différence L– L2 entre les 2 niveaux à composer.

Exemple.

Soit deux niveaux sonores

L= 47 dB et L= 41 dB.

Quel sera le son total perçu ?

La différence

L1-L= 47 – 41 = 6 dB.

L’addition de ces deux sons donnera

L1 + 2 = 47 + ΔL = 47 + 1 = 48 dB

Curieux, non ? Cela provient de notre regard linéaire sur les valeurs 47 et 41 qui nous semblent proches. En réalité, l’expression du son en décibels utilise une échelle logarithmique : un son de 47 dB est en fait beaucoup plus élevé qu’un son de 41 dB. Et l’addition d’un son très faible à un son fort est considéré par notre oreille comme négligeable.

(si la chaîne HiFi de notre ado génère 47 dB, il ne sera que peu perturbé par notre symphonie de Bach à 41 dB… C’est chouette pour lui non ?…).

Application

On demande de déterminer le niveau global des 4 sources sonores suivantes : 84, 69, 82 et 78 dB.

Solution 1 : par calcul

L1 = 84 dB = 10 log [p1²/po²] › p1² = po².1084/10
L2 = 69 dB = 10 log [p2²/po²] › p2² = po².1069/10
L3 = 82 dB = 10 log [p3²/po²] › p3² = po².1082/10
L4 = 78 dB = 10 log [p4²/po²] › p1² = po².1078/10
›  Ltot = 10 log [(p1² + p2² + p3² + p4²)/po²]

= 10 log (1084/10+1069/10+1082/10+1078/10)

= 86,8
Il faut donc faire attention de ne pas additionner les niveaux sonores mais bien les carrés des pressions acoustiques (on dit que les pressions s’ajoutent « quadratiquement »).

Solution 2 : par abaque

L= 84 dB
L= 69 dB
L– L= 15 dB  › Δ  L = 0 dB
L1 + 2 = 84 + 0 dB
L1 + 2 = 84 dB
L3 = 82 dB
L1 + 2 – L= 2 dB  ›  Δ L = 2 dB
L1 + 2 + 3 = 84 + 2 dB = 86 dB
L1 + 2 + 3 = 86 dB
L4 = 78 dB
L1 + 2 + 3 – L= 8 dB  ›  Δ L = 1 dB
L1 + 2 + 3 + 4 = Ltot = 86 + 1 = 87 dB
Remarque.

Deux sons de niveaux sonores identiques entraînent un son total de 3 dB plus élevé, tout juste perceptible. (par exemple, deux baffles d’une chaîne Hifi de 60 dB fourniront un son total de 63 dB… et, à distance, notre oreille aura difficile à percevoir si 1 ou 2 baffles fonctionnent !).

Par ailleurs, pour deux enceintes qui diffuse le même signal, la sommation est de +6dB au centre, elle n’est de +3dB que si elles sont alimentées par des signaux décorréler, ce qui n’est vrai que si elles ont une différence de distance très grande en rapport a la longueur d’onde.

En effet, Ltot = 10 log [(p1² + p2²)/po²] = 10 log 2 [p1²/po²]
= L1 + 10 log 2
= L1 + 3


La puissance acoustique Lw

On entend par puissance acoustique P la puissance d’une source sonore transmise sous forme de bruit aérien au milieu environnant. Comme pour la pression sonore, on utilisera la notion plus pratique de niveau de puissance acoustique L:

L= 10 log[P/Po]

où,

  • P = puissance acoustique en Watt (W)
  • po = puissance acoustique de référence = 10-12 W

Lw est également exprimé en décibels (dB). (Attention aux confusions avec le niveau sonore L!)

Le niveau de puissance acoustique est une valeur caractéristique de sources sonores (machines, haut-parleurs, …), alors que le niveau sonore en un lieu dépendra de l’éloignement de la source sonore, des caractéristiques de réverbération de la pièce, …

Source sonore

P (W) Lw (dB)

Source sonore

P (W) Lw (dB)
Bruissement des feuilles 1.10-9 30 radio bruyante 1.10-1 110
Chuchotement 1.10-8 40 klaxon, marteau pneumatique 1 120
Conversation à voix basse 1.10-7 50 grand orchestre 10 130
Conversation normale 1.10-5 70 hélice d’avion 1.103 150
Conversation à haute voix 1.10-4 80 réacteur d’avion 1.105 170
fusée Saturne 4.107 195

Différence entre puissance acoustique et niveau sonore

Il est important de comprendre la différence entre puissance acoustique et pression acoustique (= pression sonore), car les documents techniques abordent ces deux notions…

Exemple. l’écouteur d’un baladeur est de très faible puissance acoustique, mais peut engendrer une pression sonore très élevée lorsqu’il est situé à quelques millimètres du tympan !

Une analogie existe entre lumière et son :

Quel éclairage donnera cette ampoule ? Quel bruit fera ce climatiseur ?
L’éclairage dépend de la puissance lumineuse de la lampe. Le bruit dépend de la puissance sonore de la source Lw.
Le niveau d’éclairement en un endroit de la pièce est donné en lux. Le niveau de pression acoustique Lp en un endroit de la pièce est donné en décibel.

Plus on s’éloigne de la lampe, plus le niveau d’éclairement diminue. Plus on s’éloigne de la source, plus le niveau de pression sonore diminue.
Pour une lampe donnée, le niveau d’éclairement est plus élevé dans une petite pièce que dans un grand local. Pour une source sonore donnée, le niveau de pression sonore est plus élevé dans une petite pièce que dans un grand local.
Le niveau d’éclairement est plus élevé dans une pièce avec des murs blancs réfléchissants qu’avec des murs sombres. Le niveau de pression acoustique est plus élevé dans une pièce à parois lisses (béton, par ex.) qu’avec des parois absorbantes (tapis, p.ex.).

Lien entre puissance acoustique et niveau sonore

Le niveau de puissance acoustique est une valeur caractéristique des sources sonores (machines, haut-parleurs, …). Pour une puissance acoustique donnée, la pression acoustique dans le local va dépendre du milieu qui entoure la source et de la position du point de mesure. Plus on s’éloigne de la source sonore, plus la pression acoustique décroît. Elle va dépendre également des qualités d’absorption des parois.

On pourrait établir une analogie avec une lampe d’éclairage : elle possède une puissance donnée mais le niveau d’éclairement dépend de la distance à laquelle on se trouve de la lampe. De plus, le niveau d’éclairement (= de pression acoustique) est plus élevé dans une pièce dont les murs sont blancs (= dont les murs sont réfléchissants) que lorsque les murs sont sombres (= dont les murs sont absorbants).

En première approximation , le lien entre Lp et Lw peut s’établir par différentes relations empiriques :

Relation 1 :

L= L– 5 log V – 10 log r + 3      [dB]

où,

  • V est le volume de la pièce et r la distance entre émetteur et récepteur.

Cette relation ne s’applique qu’aux locaux « normaux », c’est-à-dire ni trop réverbérants ou ni trop sourds.

Exemple.

Dans un bureau de 75 m, quel est le niveau de pression sonore engendré par un climatiseur dont la puissance sonore est de 50 dB, aux oreilles de la secrétaire située à 3 m de l’appareil ?

Réponse.

39 dB car Lp = 50 – 5.log(75) – 10.log(3) + 3

Relation 2 :

L= L– 10 log V + 10 log T + 14       [dB]

où,

  • V est le volume de la pièce et T le temps de réverbération du local.
Exemple.

Dans un bureau de 75 met dont le temps de réverbération est de 0,8 sec, quel est le niveau de pression sonore engendré par un climatiseur dont la puissance sonore est de 50 dB, aux oreilles de la secrétaire ?

Réponse.

44 dB car Lp = 50 – 10.log(75) + 10.log(0,8) + 14

La comparaison des deux résultats montre qu’il n’est pas simple de donner cette relation (comme il n’est pas simple de donner l’éclairement d’un point du local si les couleurs des parois ne sont pas connues…).
D’une manière approchée, on a souvent :

L= L– 5…10       [dB]


Coefficient d’absorption

Tous les matériaux absorbent plus ou moins d’énergie sonore. Le coefficient d’absorption précise le rapport entre l’énergie acoustique absorbée et l’énergie incidente.

Exemple.

Si local de bureau possède un coefficient d’absorption moyen de 0,2, chaque fois qu’un son frappe une paroi, il est absorbé de 20 %.

Une paroi lisse, dure et lourde est très réfléchissante : son coefficient d’absorption a est proche de 0. Par contre, les matériaux fibreux, à porosité ouverte, auront un coefficient d’absorption a proche de 1, du moins pour les hautes fréquences. Car il faut distinguer la capacité d’absorption des matériaux en fonction de la fréquence.

Le fabriquant d’un matériau absorbant fournira un diagramme du type repris ci-dessous  (c’est le spectre d’absorption) :

Le tableau ci-dessous fournit des coefficients d’absorption typiques de matériaux.

Élément

Facteur d’absorption α
(moyennes de bande d’octave)
125 Hz 250 Hz 500 Hz 1 000 Hz 2 000 Hz 4 000 Hz
Crépis lisse sur maçonnerie ou béton 0,01 0,01 0,02 0,02 0,03 0,04
Plafond de plâtre suspendu, lisse 0,25 0,2 0,1 0,05 0,05 0,1
Revêtement de paroi en bois ou panneau de bois aggloméré sur lattage 0,4 0,3 0,2 0,1 0,1 0,2
Revêtement de sol collé (bois, liège, caoutchouc) 0,02 0,03 0,04 0,05 0,05 0,1
Parquet etc. sur faux plancher 0,2 0,15 0,1 0,1 0,05 0,1
Moquettes d’épaisseur moyenne 0,05 0,08 0,2 0,3 0,35 0,4
Rideaux (qualité moyenne) 0,1 0,15 0,3 0,4 0,5 0,6
Panneau acoustique de 2 cm, collé 0,1 0,15 0,4 0,6 0,7 0,7
Panneau acoustique de 2 cm, sur lattage 0,2 0,3 0,6 0,7 0,7 0,7
Fenêtre fermée 0,1 0,04 0,03 0,02 0,02 0,02
Surface occupée par des spectateurs, un orchestre ou des chœurs 0,60 0,74 0,88 0,96 0,93 0,85
Surface des sièges (rembourrage de tissu tendu, sans spectateurs 0,49 0,66 0,80 0,88 0,82 0,70
Surface des sièges (rembourrage de cuir) sans spectateurs 0,44 0,54 0,60 0,62 0,58 0,50

En général, on considère un coefficient d’absorption moyen par local de :

  • 0,4 pour des locaux très absorbants (salles de concerts, cinémas,…)
  • 0,2 pour des locaux moyennement absorbants (bureaux, habitations, …)
  • 0,1 pour des locaux réverbérants (églises, ateliers, salles de sports,…)


Le temps de réverbération

Lorsque cesse l’émission d’un bruit dans une salle fermée, il subsiste pendant un moment une traînée sonore. Cette traînée est longue si le volume du local est grand, si les parois sont lisses, nues et parallèles deux à deux. On dit qu’il y a une importante « durée de réverbération ».

Pour la mesure, on a fixé la durée de réverbération T au temps correspondant à une décroissance de 60 dB du niveau sonore après l’arrêt du fonctionnement de la source.

Supposons que l’on tapisse les parois d’un épais matelas fibreux. Dès que la source cesse d’émettre, on n’entend plus rien : on dit que la salle est sourde. Le temps de réverbération est court.

Le temps de réverbération évolue dans la plupart des locaux entre 0,5 et 1 seconde.

Comment évolue le temps de réverbération en fonction des parois d’un local ?

La formule empirique de Sabine détermine le temps de réverbération T (en secondes) :

T = (0,16 xa V) / A [s]

où,

  • V = volume du local (m³),
  • A = surface d’absorption équivalente de la salle (m²)

avec A = Somme des Si * αi de toutes les parois du local,

  • où Si = surface couverte par le matériau i (m²),
  • αi = coefficient d’absorption moyen du matériau i.

Par exemple, un mètre carré de matériau de facteur d’absorption a  = 0,5 sera équivalent à 0,5 m² de surface parfaitement absorbante.

Porosité des matériaux

Porosité des matériaux


La porosité est la propriété d’un matériau qui contient des pores ou cavités de petite taille et pouvant contenir des fluides (liquide ou gaz).

Une structure poreuse peut être :

  • fermée, lorsque les pores ne sont pas reliés entre eux (exemple : le verre cellulaire),
  • ouverte, lorsque les pores sont reliés entre eux (exemples: brique, béton) et forment des canaux très fins.

Lorsque la structure est ouverte, elle permet :

  • l’absorption d’eau : les canaux se comportent comme des tubes capillaires; on parle de matériaux capillaires,
  • la progression de la vapeur d’eau : on parle de matériaux perméables à la vapeur d’eau,
  • le passage de l’air : on parle de matériaux perméables à l’air.

Corrosion

Corrosion


L’oxygène renforce la corrosion de l’acier

Au départ, la corrosion électronique du fer par l’hydrogène

Le fer, en présence d’un électrolyte, va se dissoudre sous la forme d’un ion positif Fe++ et libérer 2 électrons. Il envoie donc dans la solution un cation (atome de métal chargé d’électricité positive) et en même temps, il se charge lui-même d’électricité négative. On dit qu’un potentiel électrique se crée entre le métal et la solution de ses ions.

Si l’eau est de très haute pureté, il n’existera aucun corps susceptible de capter les électrons issus de la dissolution du fer. Le phénomène se poursuivra jusqu’à une valeur d’équilibre où le nombre de charges électriques en présence (positives dans l’eau, négatives à la surface du métal) créera un champ magnétique suffisant pour bloquer la migration du fer.

Mais si le fer est en contact avec l’eau du robinet, ou a fortiori avec l’eau de mer ou un électrolyte quelconque, le circuit électrique va pouvoir se refermer. En effet, l’eau sera partiellement ionisée :

H2O –> H+ + (OH)-

Et une certaine quantité d’ions H+ vont réagir sur une partie du métal en récupérant les électrons libérés par la dissolution du fer et former de l’hydrogène gazeux (apparition de petites bulles d’hydrogène) :

2 H+ + 2 électrons –> H2

La corrosion se traduit par une circulation d’électrons. Le métal qui cède des électrons constitue l’anode, les ions H+ qui absorbent les électrons constituent la cathode. Cette fois, le Fe continue à se dissoudre en Fe++ !

Remarque : par convention, le courant (+) est représenté dans le sens contraire de la circulation des électrons (-).

La quantité de courant qui traverse cette pile est proportionnelle à la quantité de métal qui se dissout à l’anode. Un ampère par an dissoudra environ 9 kg d’acier par an. Seule, la présence de bulles d’hydrogène sur la cathode formera une couverture isolante capable de réduire le débit de courant et de freiner la corrosion.

Un responsable de la maintenance peut contrôler si de la corrosion se produit dans son réseau : en approchant une flamme du dégazeur, s’il y a présence d’hydrogène une petite explosion se fera lors de l’ouverture de la soupape.

Le renforcement de la corrosion en présence d’oxygène

La plupart des eaux contiennent de l’oxygène dissous. Cette teneur en oxygène diminue si la température augmente, mais augmente si la pression s’accroît.

Cet oxygène se combine avec l’hydrogène H2 pour former de l’eau :

2 H+ + 1/2 O2 + 2 électrons –> H2O

On évite ainsi l’accumulation d’hydrogène et la corrosion continue alors sans empêchements.

L’oxygène capte lui-même les électrons et forme des ions OH- :

O2 + 2 H2O + 4 électrons –> 4 (OH)-

Ceux-ci vont se combiner avec les Fe++ pour former des hydroxydes ferreux et ferriques.

Fe++  + 2 (OH)-  –> Fe(OH)2
Fe(OH)2  +  1/2 O2  +  2 H2O  –> Fe(OH)3

Ce qu’on appelle couramment de la rouille !

Conséquence

Pour éviter ces corrosions, l’eau des circuits de chauffage est désaérée (dégazée par des purgeurs automatiques) : les quantités d’oxygène seront réduites.

De plus, dans un circuit de chauffage, c’est toujours la même eau qui circule, on parle « d’eau morte ». Si de l’eau nouvelle est ajoutée au circuit, il faut rechercher l’origine de la fuite pour éviter de recharger l’eau en agent corrosif.


La présence de boues renforce la corrosion de l’acier

La formation d’une pile au sein d’un métal

Comme vu ci-dessus, une pile est donc formée au sein d’un même métal : entre deux points voisins de la tuyauterie se constitue un couple électrique. Comment se fait-il qu’une zone devienne anodique et une autre cathodique ?

Une différence locale dans la qualité de l’acier peut déjà le justifier : présence d’impuretés (oxydes), d’éraflures ou d’entailles, … Ce n’est pas un hasard si de la corrosion apparaît souvent à l’endroit du filetage des tuyauteries assemblées.

Mais ce qui sera souvent l’élément facilitateur de la corrosion, c’est l’existence d’une aération différentielle en oxygène : les zones faiblement aérées constituent des anodes, alors que les zones fortement aérées deviennent des cathodes.

C’est Evans qui a mis en évidence cette propriété par l’expérience ci-dessous :


Lorsqu’un matériau métallique plonge dans un milieu dont les teneurs en oxygène sont différentes (par injection d’oxygène localement), il apparaît un courant électrique. La plaque la moins aérée se dissout dans le milieu et libère des électrons.

Par exemple pour le Fer :

Fe –> Fe++  +  2 électrons

Une corrosion sous les boues du réseau

Cette corrosion par aération différentielle se rencontre dans les installations de chauffage : les zones sous une couche de boues au fond d’un radiateur ou d’une chaudière (faiblement aérées) se corrodent car elles constituent des anodes, alors que les zones soumises à un débit plus élevé (fortement aérées) deviennent des cathodes.

Ces boues sont formées de résidus de montage (limailles, produits de soudure,…) ou encore des sédiments présents dans l’eau (sable, argile,…). L’usage d’un filtre à l’entrée du réseau sera toujours utile, filtre avec un pouvoir de rétention de 25 à 50 microns.


Deux métaux différents se corrodent entre-eux

La noblesse des métaux

Comme le fer, tous les métaux plongés dans une solution établissent un potentiel électrique entre eux et la solution : c’est le potentiel d’électrode simple. Ces potentiels sont repris dans le tableau ci-dessous, avec le potentiel de l’hydrogène pris comme zéro de référence (pour une raison non développée ici).

Élément

Potentiel (Volts)

Sodium – 2.7
Magnésium – 2.3
Aluminium – 1.7
Zinc – 0.8
Chrome – 0.7
Fer – 0.4
Nickel – 0.3
Etain – 0.1
Plomb – 0.1
Hydrogène 0
Cuivre + 0.3
Argent + 0.8
Platine + 1.2
Or + 1.4

Il est intéressant d’analyser de plus près cette liste : elle nous fournit les tendances relatives à la corrosion pour ces éléments. Par exemple, le sodium réagit violemment avec l’eau tandis que le platine n’est pas attaqué par l’eau. Pour cette raison, l’or et l’argent sont souvent trouvés à l’état natif, tandis que le fer et l’aluminium sont toujours trouvés sous formes combinées (oxydes) dans les mines.

On parle couramment de hiérarchie, de noblesse des métaux, l’or étant le plus noble.

La création d’une pile entre 2 métaux

Lorsque deux métaux sont mis en contact, une différence de potentiel électrique apparaît entre eux, un couple galvanique est créé. Une corrosion dite galvanique va s’enclencher et ce, d’autant plus fortement que la différence de potentiel entre les métaux sera forte.

Par exemple, le cuivre et l’aluminium forment une pile puissante : 2,0 V (= 1,7 + 0,3).
Attention à l’association entre radiateurs en aluminium et tuyauteries en cuivre !

Par contre, le magnésium et l’aluminium formeront une pile plus faible : 0,6 V (2,3 – 1,7).

Un métal situé plus haut dans la série agira comme anode et celui plus bas se comportera comme cathode lorsque les deux métaux sont en contact. Ainsi, entre le fer et le cuivre, c’est l’acier, moins noble, qui constituera l’anode et cédera ses électrons, alors que le cuivre, plus noble, constituera la cathode.

Les phénomènes de couple galvanique seront renforcés ou diminués par d’autres paramètres. Par exemple, le cuivre s’érode facilement et de nombreuses particules de cuivre se mettent en circulation, se déposent sur les tuyauteries acier et constituent de nombreuses micropiles enclenchant le processus de corrosion. C’est une des raisons qui font que l’utilisation du cuivre est proscrite en amont de tuyauteries galvanisées.

Un ballon d’eau chaude sanitaire en acier galvanisé se détériore s’il est raccordé à l’arrivée d’eau de ville par des tuyauteries en cuivre. Si le cuivre est situé en aval de l’acier, il y aura peu de problèmes.

À noter que si l’aluminium est un métal réactif (il se situe très haut dans la série des potentiels …), il possède une bonne résistance à la corrosion. Ce métal forme rapidement en surface une couche d’alumine (Al2O3) qui arrête la corrosion en beaucoup de milieux environnants.


La protection contre la corrosion électrochimique

Voici quelques exemples de procédés utilisés pour combattre la corrosion :

  • Choix de combinaisons de métaux aussi voisins que possible dans la série galvanique.
  • Revêtements protecteurs tels que la peinture. Un tel revêtement constitue une barrière entre le métal et son environnement, empêchant le courant de circuler.
  • Addition d’inhibiteurs chimiques dans la solution en contact avec le ou les métaux. Ils créent généralement une fine pellicule d’hydroxydes ou de sels à la surface du métal. Le passage du courant est freiné et la corrosion aussi.
  • Isolation des métaux différents par une rondelle de Bakélite, de plastique, … à l’endroit de leur contact.

Isolement électrique intégré dans un raccord boulonné entre deux métaux différents.

  • Protection cathodique : un courant électrique extérieur est appliqué au métal de telle sorte que le courant entre dans le métal par la totalité de sa surface. Les régions anodiques sont transformées en régions cathodiques. Ce courant s’oppose au courant anodique de corrosion.
  • Protection par « anode sacrificielle » : un métal ne peut s’oxyder si l’on fait en sorte qu’il soit la cathode d’une pile. Ainsi, dans l’eau de mer, un objet en cuivre est protégé s’il est relié électriquement à une électrode de fer. C’est le fer qui sera oxydé puisqu’il constitue l’anode de la pile associant les couples Cu++/Cu et Fe++/Fe). De même, un objet en fer (une coque de bateau, par exemple) est protégé par des anodes en zinc fixées sur lui : c’est le zinc qui sera attaqué (= « anode consommable »). De même encore, on peut protéger des canalisations en fonte enfoncées dans le sol en les reliant de loin en loin, à des électrodes d’un métal plus réducteur que le fer (Zn, Mg), également enterrées.Dans les boilers (réservoirs d’eau chaude sanitaire), c’est souvent une électrode soluble de magnésium qui sera placée pour protéger la cuve en acier. Elles doivent être renouvelées après quelques années.
  • Ne pas adoucir trop fortement l’eau : un léger dépôt renforce la protection interne de la tuyauterie. On évitera donc de régler l’adoucisseur en dessous des 15°F.

Infiltration d’air au travers de l’enveloppe

Infiltration d'air au travers de l'enveloppe


Pourquoi l’air s’infiltre-t-il au travers d’un bâtiment ?

L’air se déplace des zones de haute pression vers les zones de basse pression, tout comme la chaleur se déplace des zones à température plus élevée vers les zones à température plus faible.
Dans un bâtiment, deux causes peuvent être à l’origine d’une différence de pression entre l’extérieur et l’intérieur :

  • Le vent exerce une pression sur les façades exposées et une dépression sur les façades opposées.

  • Le chauffage dilate l’air ambiant à l’intérieur du bâtiment et crée ainsi une surpression par rapport à l’extérieur.

La différence de pression entre l’extérieur et l’intérieur est, en général, comprise entre 0 et 100 Pa.


Trois modes de transport de l’air au travers de l’enveloppe d’un bâtiment

Le transport de l’air au travers de l’enveloppe du bâtiment se réalise de 3 manières ci-dessous :

  • L’air passe au travers des matériaux poreux dont les pores sont en liaison les uns avec les autres et relient l’intérieur du bâtiment à l’extérieur via des chemins tortueux.
  • L’air passe à travers les défauts de construction (joints de maçonnerie mal fermés, joints d’étanchéité entre la maçonnerie et les châssis défectueux, etc.).
    Ce transport d’air est, en général, plus important que celui au travers des matériaux même.
  • L’air passe par les fuites des châssis de portes et de fenêtres (entre l’ouvrant et le dormant).
    Ce transport d’air est, en général, également important même dans le cas de châssis fermant bien.

Durée de vie d’une lampe

Durée de vie d'une lampe


Définitions

La durée de vie moyenne d’un lot de lampes est le nombre d’heures pendant lesquelles ces lampes ont fonctionné jusqu’au moment où 50 % d’entre elles ne fonctionnent plus.

La durée de vie utile d’un lot de lampes est le nombre d’heures après lequel elles n’émettent plus que 80 % du flux lumineux d’origine.

La perte de 20 % du flux lumineux  provient d’une part de la diminution progressive du flux des lampes et d’autre part de l’arrêt de fonctionnement d’un certain nombre de lampes.

Elle correspond également à la durée de service, c’est-à-dire la durée après laquelle les lampes doivent être remplacées.


Courbes de durée de vie

1. Chute du flux lumineux

Le flux lumineux d’une lampe diminue progressivement.

Le schéma ci-dessous montre la chute du flux lumineux de différents lots de lampes aux iodures métalliques d’un fabricant donné.

Schéma flux lumineux lampe.

2. Durée de vie moyenne

Après un certain temps, une lampe s’arrête de fonctionner.

Dans un lot de lampes, celles-ci ne s’arrêtent pas toutes en même temps. Au début, quelques lampes s’arrêtent de fonctionner. Ensuite, les lampes restantes s’arrêtent les une après les autres.

Le schéma ci-dessous indique l’évolution du pourcentage de lampes survivantes pour différents lots de lampes aux iodures métalliques d’un fabricant donné.

Schéma durée de vie moyenne lampe.

La durée de vie moyenne est l’abscisse correspondant à 50 % de lampes « survivantes ».

La durée de vie moyenne de la lampe associée au graphe ci-dessus est de 15 000 heures.

3. Durée de vie utile

Si l’on multiplie, pour chaque heure de fonctionnement, le « pourcentage du flux lumineux d’une lampe » par le « pourcentage de lampes survivantes », on obtient le « flux lumineux restant de l’ensemble de l’installation ».

Le schéma ci-dessous indique l’évolution du flux lumineux de l’ensemble des lampes aux iodures métalliques de différents lots d’un fabricant donné.

Schéma durée de vie utile lampe.

La durée de vie utile est l’abscisse correspondant à un flux lumineux utile restant de 80 %.

La durée de vie utile de la lampe associée au graphe ci-dessus est de 5 000 heures.

Si l’on regarde sur le graphe donnant la durée de vie moyenne, on voit que cela correspond à un arrêt de fonctionnement d’environ 5 % des lampes du lot. Cette correspondance permet de savoir, en pratique, quand la fin de la durée de vie utile (la durée de service) est atteinte : lorsque 5 % des lampes ne fonctionnent plus il est temps de procéder au remplacement de toutes les lampes.

Ces courbes sont données par les fabricants pour chaque type de lampes.

Remarque.

Les durées de vie des lampes présentées ici sont les durées de vie utiles. Dans leur catalogue, les fabricants utilisent soit les durées de vie moyennes, soit les durées de vie utiles (inférieures aux durées de vie moyenne). Quelle que soit la définition utilisée, il faut être conscient que ces données sont déterminées dans des conditions particulières souvent différentes des conditions réelles de fonctionnement (par exemple : cycles d’allumage/extinction différents). Elles sont donc indicatives et ne peuvent être considérées comme absolues.

Attention : certains fabricants (principalement américains) utilisent une autre définition de la durée de vie d’une lampe : c’est la durée mesurée jusqu’à la mise hors service de la lampe. Ainsi, les lampes américaines sembleront avoir une durée de vie 2 à 3 fois plus élevée que celle des lampes européennes. Ce n’est évidemment pas le cas en réalité.

Champignons parasites du bois

Champignons parasites du bois

Les champignons provoquent la pourriture du bois.
Leurs spores sont présentes en permanence dans l’air. Lorsqu’elles rencontrent des conditions favorables, elles germent et les champignons se développent.

Les conditions favorables au développent sont les suivantes :

  • Humidité environnante trop importante provenant :
    • d’infiltrations,
    • de condensation,
    • ou d’humidité ascensionnelle.
  • Ventilation trop faible,
  • Température favorable,
  • Hygiène générale défectueuse,
  • Vapeur ammoniacales (fosses, étables, …),
  • Absence de traitement du bois.

Les champignons détruisent le bois par transformation chimique.
Ses filaments microscopiques, invisibles à l’oeil nu, produisent des enzymes qui digèrent le bois.

L’attaque du bois n’apparaît que lorsque l’état de celui-ci est déjà fortement avancé.
À ce stade, les filaments se sont groupés en tissus pour former des masses bien visibles à la surface du bois. L’aspect du bois se modifie et la pourriture de celui-ci apparaît.

L’identification exacte du champignon présent n’est pas toujours possible. Elle n’est pas nécessaire, car les traitements à préconiser sont les mêmes dans tous les cas.

Les principaux champignons parasites du bois de construction dans nos régions sont


 

La mérule (Serpula lacrymans)

Photo mérule.

Symptômes de l’attaque :

  • fructifications visibles,
  • spores répandues,
  • paquets d’ouate,
  • forte odeur fétide,
  • débris et réseaux de fils accrochés aux maçonneries.

Aspect du bois :  pourriture cubique

  • Les bois attaqués prennent une coloration brun clair.
  • Des cassures nettes suivant trois directions perpendiculaires fractionnent le bois en une série de petits parallélépipèdes visibles.

Photo aspect bois attaqué par la mérule.

Description du champignon

Ce champignon dégage une forte odeur fétide.

Il peut se présenter sous différentes formes.

Sous sa forme la plus spectaculaire :

Il s’étale en paquets d’ouate blanche à la surface du bois et de la maçonnerie. En vieillissant ces paquets se parcheminent et prennent une couleur foncée. A la lumière le champignon développe des fructifications en forme de disques plus ou moins complets, avec bordure plissée blanche et partie centrale brune couverte de spores. Ces spores envahissent les locaux infectés avant de s’envoler et de contaminer l’atmosphère.

Sous sa forme la plus discrète :

Accroché à la maçonnerie, il ressemble à des débris de peau ou à des réseaux des fils qui peuvent être confondus avec des toiles d’araignée. De gros cordons s’insinuent dans les joints des maçonneries et amènent l’eau des zones humides jusqu’aux tissus du champignon qui se sont développés dans des endroits plus secs.


Le champignon des caves (Coniophora puteana)

Photo champignon des caves.

Symptômes de l’attaque

Présence du mycélium peu abondant en voile ténu sur la surface du bois ou de la maçonnerie. Fructification rare.

Aspect du bois :  pourriture cubique

  • Les bois attaqués prennent une coloration brun foncé.
  • La pourriture cubique est, dans ce cas, interne. A la dessiccation, le bois atteint est extérieurement légèrement déprimé. Sous cette pellicule de bois relativement intact, le bois est entièrement fissuré longitudinalement et transversalement. Il se réduit en poudre sous la pression.

Photo aspect bois attaqué par le champignon des caves..

Description du champignon

Fructifications rares dans le bâtiment sous forme de croûte membraneuse continue de forme irrégulière, épousant la forme du substrat, dont la surface est bosselée ou tuberculée, brun ocre à violacé à l’état frais, brun-tabac à l’état sec.

Marge étroite ou large suivant les conditions (1 à 15 mm) blanche ou jaunâtre.

Les cordons mycéliens se développent en éventail. Ils sont d’abord blancs, puis brunissent pour devenir noirs.

Production de radio interférence [éclairage]

Production de radio interférence [éclairage]


Les ballasts ou encore les transformateurs pour lampes halogènes basse tension produisent des signaux haute fréquence qui peuvent affecter les autres consommateurs électriques.

Les luminaires choisis doivent donc être protégés pour éviter ce genre de désagrément. Tel est le cas des luminaires portant les marquages :

P2313-4.gif (1251 octets)  P2313-5.gif (1500 octets)  P2313-6.gif (1173 octets)  P2313-7.gif (1318 octets)

  • Pour les luminaires à ballast électromagnétique.
  • Pour les luminaires à ballast électronique.
  • Pour tout luminaire.

En principe, les luminaires marqués « CE » respectent toutes les exigences de qualité et de sécurité prescrites par les normes. Cependant, vu le caractère obligatoire de ce marquage depuis le 1er janvier 1997, les luminaires sont maintenant tous marqués « CE » par leur fabricant, qui ne sont pas tenu de faire vérifier leurs appareils par un organisme de contrôle. Seul un marquage européen « ENEC » garantit le contrôle des produits par un organisme tiers.

Efficacité lumineuse des lampes

Efficacité lumineuse des lampes

On évalue la qualité énergétique d’une lampe par son efficacité lumineuse (en lm/W) définie comme le rapport du flux lumineux (en lumen) par la puissance électrique absorbée (en watt).

À partir des catalogues de fournisseurs, il est possible de connaître exactement l’efficacité lumineuse d’une lampe.

Attention : l’efficacité lumineuse est fonction de la température ambiante autour de la lampe en situation stable. Une lampe fluorescente T8 (26 mm de diamètre) a une efficacité lumineuse maximale à 25°C de température ambiante tandis que la lampe fluorescente T5 (16 mm de diamètre) atteint, quant à elle, sa valeur optimale à 35°C. La performance énergétique des LED dépend fortement de la température. Les LED aiment le froid. Une bonne évacuation de la chaleur produite par la diode est donc très importante pour le rendement lumineux de la source. Pour autant que l’on s’écarte des températures idéales, les valeurs des flux lumineux chutent très vite.

Exemple : voici un extrait d’un catalogue existant. On y repère pour la première lampe, un flux lumineux de 1 000 lm pour une puissance de 15 W, ce qui équivaut à une efficacité lumineuse de 1 000 lm / 15 W = 67 lm/W.

Type Watt Teinte K ICR Tension arc V Courant A Flux lum lm Culot Diam
TL’D 15 W 82 2 650 85 51 0.34 1 000 G13 28
83 3 000 85 51 0.34 1 000
84 4 000 85 51 0.34 1 000
TL’D 18 W 82 2 650 85 59 0.37 1 350 G13 28
83 3 000 85 59 0.37 1 350
84 4 000 85 59 0.37 1 350
86 6 500 85 59 0.37 1 300

Notions de temps

Notions de temps


Le temps solaire vrai en un lieu

Sur un diagramme solaire on repère l’heure solaire par la position du soleil au-dessus de l’horizon à une date donnée ; le midi solaire ou midi vrai correspond à la hauteur maximum du soleil lors de son passage au méridien du lieu. Ce temps se compte de 0 à 24 heures à partir de midi.


Le temps solaire moyen

Schéma temps solaire moyen.

Au cours de son orbite annuelle autour du soleil, la terre voit sa vitesse s’écarter de sa valeur moyenne. Ces variations de la vitesse de déplacement de la terre sont responsables de faibles écarts entre le temps solaire vrai et le temps solaire moyen, qui correspond à un découpage uniforme du temps. La courbe ci-dessous représente « l’équation de Temps », c’est-à-dire l’écart en minutes entre l’heure solaire vraie et l’heure locale du temps solaire moyen. La partie supérieure de la courbe (+) donne l’avance de l’heure solaire vraie sur l’heure solaire moyenne ; la partie inférieure (-) indique cette fois, le retard de l’heure solaire vraie. Il se compte aussi de 0 à 24 heures à partir de midi.


Le temps universel

Les notions de temps se référant au méridien d’un lieu donné, il faut, lorsqu’on veut comparer des temps en des lieux différents, se reporter à son temps moyen universel. Par convention, celui-ci a été choisi comme étant le temps solaire moyen correspondant au méridien de Greenwich augmenté de 12 heures (pour les usages de la vie civile, le jour commence à minuit et non à midi).


Le temps officiel ou le temps légal

Pour bénéficier de la commodité d’une même heure de référence dans une région assez étendue, on a divisé la terre en 24 fuseaux horaires ou secteurs longitudinaux de 15° chacun (soit au total 24 x 15° = 360°, ou un tour complet), allant d’un pôle à l’autre. L’écart entre les heures normalisées d’un fuseau au suivant est de une heure, soit 24 heures pour un tour complet (1 heure correspond donc à un écart de 15° en longitude, soit 4 minutes par degré).

Schéma temps légal.

Donc le temps officiel ou légal diffère du temps universel d’un nombre entier d’heures selon des règles définies par la loi dans chaque pays et qui peuvent changer suivant la saison (heure d’été). Ce nombre entier suit approximativement le système théorique des fuseaux horaires.

Source – Logiciel OPTI Bureaux – Architecture et Climat – juin 2000

Echanges « hygro-thermiques » des rideaux d’air


Échange de chaleur par induction

Les rideaux d’air qui protègent les meubles frigorifiques ouverts des agressions thermiques de l’ambiance de vente échangent malgré tout beaucoup d’énergie par induction. Le mélange forcé de l’air de l’ambiance et de l’intérieur du meuble avec le rideau d’air induit un échange de chaleur sensible et latente :

  • l’ambiance de vente a tendance à se refroidir et à se déshumidifier;
  • le rideau d’air se réchauffe et entraine l’humidité prise à l’ambiance vers l’évaporateur;
  • l’intérieur du meuble frigorifique est refroidi par l’air du rideau.

Les meubles frigorifiques à rideau d’air vertical

Le bilan de chaleur par induction en régime permanent pour un meuble frigorifique vertical à rideau d’air symétrique est donné par la relation :

M1 x h1 + Ma x ha + Mi x hiM1 x h2 + Ma x h2 + Mi x h2  [kJ]

où :

  • h2 = l’enthalpie de l’air à la reprise [kJ/kg].
  • h1 = l’enthalpie de l’air à la buse de soufflage [kJ/kg].
  • ha = l’enthalpie de l’air ambiant [kJ/kg].
  • Ma = le débit massique d’air ambiante induite par le rideau d’air [kg/s].
  • M1 = le débit massique du rideau d’air [kg/s].
  • M2 = le débit massique d’air interne au meuble induite par le rideau d’air [kg/s].
  • hi = l’enthalpie de l’air à l’intérieur du meuble [kJ/kg].

La chaleur apportée par induction dans le rideau d’air est aussi exprimée comme étant :

Qinduction =  M1 x (h2 – h1)  [kJ]

Si on introduit la notion de taux d’induction par la relation X = Ma / M1 et que l’on prend l’hypothèse que Ma = Mi (pour un flux symétrique), La chaleur apportée par induction dans le rideau peut être aussi exprimée, en première approximation mais de manière plus pratique aussi, par la relation suivante :

Qinduction =  (Ma / M1) x  M1 x (ha – hi)  [kJ]

ou encore :

Qinduction =  X x  M1 x (ha – hi)  [kJ]

avec  X = le taux d’induction de l’air ambiant.

Sur un diagramme spychométrique, sur base :

  • des températures et des humidités mesurées dans l’ambiante et à l’intérieur du meuble (thermomètre et sonde d’humidité HR relative);
  • du débit moyen du rideau d’air (débitmètre);
  • d’un taux d’induction pratique de l’ordre de 0.15.

On peut évaluer la chaleur d’induction dans le rideau d’air.

Les meubles frigorifiques à rideau d’air horizontal

En considérant que le volume utile de chargement est rempli de denrée, l’échange de chaleur par induction en régime permanent est donné par la relation :

M1 x h1 + Ma x ha + Q =  M1 x h2 + Ma x h2  [kJ]

ou

(h2 -h1) = Ma / M1 x (ha – h2) + Q / M1 [kJ/kg]

où :

  • h2 = l’enthalpie de l’air à la reprise [kJ/kg].
  • h1 = l’enthalpie de l’air à la buse de soufflage [kJ/kg].
  • ha = l’enthalpie de l’air ambiant [kJ/kg].
  • Ma = débit massique d’air ambiante induite par le rideau d’air [kg/s].
  • M1 = débit massique du rideau d’air ]kg/s].
  • Q = l’échange de chaleur des denrées de surface en contact avec le rideau d’air [kJ].

Plus pratique et suffisante pour l’établissement du bilan énergétique, la formule suivante tient compte du fait que réellement le volume utile de chargement n’est pas rempli est que l’air intérieur a presque les propriétés de l’air soufflé en terme de température et d’humidité:

Qinduction = X  x M1 x (ha – hi) [kJ]

où :

  • hi = l’enthalpie de l’air à l’intérieur du meuble [kJ/kg].
  • ha = l’enthalpie de l’air ambiant [kJ/kg].
  • M1 = débit massique du rideau d’air ]kg/s].
  • X  = taux d’induction Ma / M1 (donnée importante pour les constructeurs).

Taux d’induction des rideaux d’air et bilans des transferts d’humidité

Les meubles frigorifiques ouverts peuvent être considérés comme de véritables déshumidificateurs. La preuve en est, dans les volumes d’air des surfaces de vente on retrouve souvent des taux d’humidité de l’ordre de 30 % dans une ambiance proche des 20°C. Un rideau d’air performant permet de limiter les échanges à la fois de chaleur et d’humidité; ce qui soulage l’évaporateur du meuble non seulement au niveau de la chaleur qu’il échange mais aussi au niveau de son dégivrage.

Le taux d’induction est un paramètre important qui détermine la performance du rideau d’air et de manière plus générale la performance du meuble. Comme on l’a vu ci-dessus, il intervient dans le calcul des bilans thermiques. En ce qui concerne l’évaluation des masses d’eau que l’on retrouve sous forme de givre, neige et glace au niveau de l’évaporateur et pour les deux types principaux de rideaux d’air, on peut déterminer les bilans des transferts d’humidité.

Les meubles frigorifiques à rideau d’air vertical

Pour les rideaux d’air verticaux, on l’exprime souvent par les relations suivante :

X = (x2-x1) / ((xa – x2) – (x2 – x1))

ou encore :

X = (h2-h1) / ((ha – h 2) – (h2 – h i))

avec :

  • x1 = l’humidité absolue à la sortie de la buse de soufflage [geau/kg d’air sec].
  • x2 = l’humidité absolue à la reprise du rideau d’air [geau/kg d’air sec].
  • xa = l’humidité absolue de l’air ambiant  [geau/kg d’air sec].
  • h2 = l’enthalpie de l’air à la reprise [kJ/kg].
  • h1 = l’enthalpie de l’air à la buse de soufflage [kJ/kg].
  • ha = l’enthalpie de l’air ambiant [kJ/kg].
  • hi = l’enthalpie de l’air à l’intérieur du meuble [kJ/kg].

Les meubles frigorifiques « négatifs »

Le taux d’induction pour les meubles frigorifiques à rideau d’air horizontal peut être exprimé par la relation suivante :

X = (x2-x1) / (xa – x2)

ou encore :

X = (t2-t1) / (ta – t 2)

avec X = taux d’induction ma / m.

où :

  • x1 = l’humidité absolue à la sortie de la buse de soufflage [geau/kg d’air sec].
  • x2  = l’humidité absolue à la reprise du rideau d’air [geau/kg d’air sec].
  • xa  = l’humidité absolue de l’air ambiant  [geau/kg d’air sec].
  • t2 = température à la reprise [K].
  • t1 =température à la sortie de la buse de soufflage [K].
  • ta = température ambiante [K].

Evolution des besoins thermiques des immeubles suite à l’isolation des parois

Evolution des besoins thermiques des immeubles suite à l'isolation des parois


Transfert thermique par les parois extérieures

Prenons l’exemple d’un local de bureau de 30 m² sur 3 m de hauteur, soit un volume de 90 m³.

Supposons qu’il soit entouré d’autres locaux régulés à la même température (bureaux voisins, couloirs, …), si bien que seule la paroi en façade est source d’échanges thermiques.

Cette paroi est constituée de 7,5 m² de vitrage et de 6 m² d’allège.

Il y a 30 ans on aurait placé du simple vitrage (U = 6 W/m²K) et une allège non isolée (U = 1,5 W/m²K). Une ventilation de 1 renouvellement horaire serait assurée, essentiellement par infiltrations non maîtrisables. Il en résulte les puissances suivantes

  • pertes par paroi : (7,5 x 6 + 6 x 1,5) = 54 [W/K]
  • pertes par ventilation : (0,34 Wh/m³K x 90 m³) = 31 [W/K]

Soit un total de 85 Watts par degré d’écart entre extérieur et intérieur.

Quelle doit être la température intérieure à considérer ? On peut partir d’une zone neutre de confort entre 21°C (hiver) et 24°C (été), et donc d’une température moyenne intérieure d’hiver de 18°C (moyenne jour/nuit/week-end). On obtient alors le profil d’échange suivant en fonction de la température extérieure :

Supposons à présent que la paroi soit isolée : double vitrage à basse émissivité (U = 1 W/m²K) et allège avec 6 cm de laine minérale (U = 0,24 W/m²K). Il en résulte les puissances suivantes

  • pertes par paroi : (7,5 x 1,5 + 6 x 0,53) = 14 [W/K]
  • pertes par ventilation : (0,34 Wh/m³K x 90 m³) = 31 [W/K]

Soit un total de + 40 Watts par degré d’écart entre extérieur et intérieur. La température intérieure moyenne en période de chauffe est réévaluée à 19°C (avec la nouvelle isolation, les nuits et les week-ends seront moins frais entrainant une augmentation de la température moyenne). Le profil d’échange est adapté :

Cette fois, les infiltrations par les châssis sont négligeables et le taux horaire de renouvellement d’air de 1 correspond au débit d’air neuf pulsé mécaniquement dans les locaux de manière volontaire et contrôlée. Ce qui sous-entend que ce débit peut être arrêté la nuit et le WE, soit les 2/3 du temps.

Conclusions

Suite à l’isolation, les besoins de chauffage et de froid sont réduits. L’enveloppe freine davantage le transfert de chaleur quel que soit le sens de passage. Le besoin de refroidissement du local en été est donc, à première vue, diminué par l’isolation de la paroi ! (mais ce n’est qu’un regard partiel puisque l’on ne prend pas ici en compte l’effet des charges internes et solaires).

À noter que les besoins liés à la ventilation représentent les 3/4 des besoins totaux et qu’ils sont contrôlables.


Influence des apports internes

Les apports internes doivent être introduits dans le bilan.

Dans les bureaux non-isolés

Autrefois, on comptait 30 W/m², soit 10 W/m² pour les personnes et 20 W/m² pour l’éclairage. Quelle que soit la température extérieure, c’est un apport fixe de 900 W qui est donné au local.

Cet apport doit être diminué dans la mesure où ils apparaissent chaque jour durant les 10 heures de fonctionnement des bureaux, soit 1/3 du temps de la semaine. Les besoins thermiques sont eux proportionnels à la température moyenne intérieure, maintenue en permanence.

Ainsi, les apports internes représentent une puissance moyenne permanente de 900 x 1/3 = 300 Watts. Ce nouvel apport décale le profil de demande de -3,5 °C.

Le point d’équilibre est atteint pour une température extérieure de 14,5°C : les apports compensent les besoins de chaleur. Les besoins de froid sont augmentés : dès que la température extérieure dépassera les 20,5 °C, une puissance de réfrigération sera nécessaire pour assurer le confort des occupants.

Dans les bureaux actuels isolés avec 14 cm de laine minérale

Pour un bâtiment actuel, les apports internes sont similaires dans un local de bureaux : si 10 W/m² supplémentaires de bureautique sont apparus, la nouvelle performance des systèmes d’éclairage a permis une diminution de 10 W/m².

À noter que dans les anciens bureaux, l’arrivée de la bureautique a entraîné un réel accroissement de la charge.

Le nouveau profil de charge apparaît, avec un point d’équilibre ramené à 11,52 °C :e

19 °C – (300 W/(40 W/K)) ≈ 11,5 °C

Conclusion

La puissance frigorifique maximale n’est pas plus élevée que dans les anciens bâtiments; elle commence cependant plus tôt dans la saison.


Influence des apports solaires

Des apports solaires élevés vont s’ajouter à la charge thermique du local.

Imaginons que le bureau soit situé en façade Ouest.

Comment estimer l’importance des apports solaires en fonction de la température extérieure ?

Un lien partiel existe. On l’évaluera en première approximation par le fait que :

  • 3 kWh d’énergie solaire atteignent, en moyenne, chaque m² de façade Ouest par journée, pour un ciel moyen de juin, soit pour une température extérieure moyenne de 16 °C.
  • 0,36 kWh d’énergie solaire atteignent, en moyenne, chaque m² de façade Ouest durant une journée de décembre, que l’on pourra faire correspondre à T° extérieure de l’ordre de 0° (en fait, par ciel serein l’apport solaire est élevé mais la température est plus faible).
  • 4,8 kWh sont reçus par m2 de façade Ouest, par jour, par ciel serein au mois de juin, et donc pour des températures maximales proches de 30°C.

Pour connaître les apports solaires reçus par le bureau, multiplions ces valeurs par les 7,5 m2 de vitrages, affectons ces montants d’un coefficient 0,6 pour tenir compte du facteur solaire du double vitrage et de la présence du châssis, et divisons cette énergie par 24 h pour obtenir une puissance moyenne effective.

Il en résulte un apport de 900 Watts aux températures maximales (30°C), de 560 Watts à 16°C et de 70 Watts à 0°C. Apport qu’il faut additionner à la courbe qui traduit le bilan thermique du local :

Bilan pour les immeubles non isolés

On constate que la température d’équilibre est descendue à 12 °C. Ceci signifie qu’avec 12 °C à l’extérieur, les apports internes et externes suffisent à assurer une température confortable de 21°C à l’intérieur. De plus, au-delà de 15 °C extérieur, en raison des divers apports, la température intérieure dépasse 24 °C et un besoin de rafraîchissement apparaît.

Bilan pour les immeubles isolés

Cette fois, le chauffage s’arrête pour 7°C extérieur et le rafraîchissement est souhaité à partir de 10°C extérieur.

Remarque : cette évaluation est simplifiée puisque le lien entre température extérieure et puissance solaire est évalué grossièrement et de plus, la présence de soleil fait monter la température extérieure des parois, ce qui entraîne une augmentation du transfert thermique au travers de la paroi.


Conclusions sur les conséquences de l’isolation des parois

La comparaison des deux courbes de puissance montre que la puissance de refroidissement souhaité n’a pas été augmentée par l’isolation des parois (elle a même plutôt légèrement diminué aux fortes températures).

Mais le profil de la demande de puissance est très différent : il faut refroidir de plus en plus tôt dans l’année.

L’énergie de refroidissement (produit de la puissance par le temps de la demande) va dès lors augmenter. Pour le visualiser, il faut mettre en regard la courbe des puissances et la courbe de l’évolution des températures en fonction du temps de l’année :

On constate que la température extérieure est située entre 12 et 18°C durant de nombreuses heures de l’année. Autrefois, à ces températures la puissance du local était nulle ou faible. Aujourd’hui, une demande de refroidissement est bel et bien présente à ces températures…

Voici l’évolution de la demande annuelle du local par tranche de températures extérieures :

Attention : dans l’absolu les besoins de chauffage ne baissent pas en deçà de 0 degrés pour devenir nuls vers -15 °C; simplement, le nombre d’heures/an rencontrant ces situations extrêmes étant très réduit, la consommation annuelle (puissance x durée) à ces températures, est réduite. Le même raisonnement explique la tendance au-delà de 18 °C.

La demande énergétique totale est en baisse de 20 % ;L’énergie de refroidissement est donc en hausse après isolation. Mais pas de regrets et pas de marche arrière !

  • La demande de chauffage s’est effondrée de 75 %.

Comment comprendre que les besoins soient nuls sur une large plage (7 °C à 10 °C ? Le bâtiment est à l’équilibre thermique et la température intérieure oscille dans « la zone neutre » entre 21 et 24 °C.

Cependant, la demande en énergie de refroidissement a dramatiquement progressé de + 95 % ! Dramatiquement, vraiment ? Nous sommes tout de même passés de 1 200 kWh/an à 2 350 kWh/an…

En réalité cette valeur est à nuancer. Rappelez-vous qu’elle exprime l’énergie nécessaire au refroidissement d’un local fermé, peu aéré, sans protections solaires…

Nous pouvons aussi observer que l’augmentation des besoins de refroidissement suite à l’isolation du local a principalement lieu pour des températures extérieures comprises entre 10 °C et 21 °C. À ces températures, l’air frais extérieur pourra-t-être mis à profit pour refroidir l’ambiance gratuitement (les besoins de froids qui concernent des températures supérieures à 21 °C ne représentent que 20 à 30 % des besoins de froids).

Vous l’aurez compris, isoler permet une réduction de la consommation d’énergie de chauffage très importante avec pour revers d’augmenter les besoins de froids. Il faudra donc entreprendre des stratégies adaptées à ce nouveau profil pour en tirer tous ses avantages :

  1. Autrefois, le chauffage constituait le principal poste énergivore, mais à présent, un équilibre est plus souvent atteint et il faut pouvoir faire face à une demande de chaud et une demande de froid lors des températures extrêmes. Par exemple, la simple présence de protections solaires extérieures peut fortement limiter les besoins de refroidissement.
  2. Le diagramme des puissances met en évidence que la demande de froid se fait souvent au moment où la température extérieure est bien inférieure à la température de consigne intérieure, ce qui, théoriquement, permet de mettre en place une technique de free cooling diurne.
  3. Suite à cette évolution des besoins, il y a de plus en plus souvent des besoins de réfrigération dans certains locaux alors que d’autres locaux sont encore en demande de chauffage. Par exemple, dans un immeuble bien isolé comportant deux façades Est-Ouest, il est probable qu’en mi-saison vers 10h00, la façade Est est en demande de refroidissement alors que la façade Ouest demande encore de la chaleur. Le système de climatisation devra pouvoir répondre à cette évolution.
  4. Également, ce que le diagramme ne montre pas, c’est le cycle de température jour/nuit qui permet d’évacuer la chaleur accumulée en journée, par de l’air nocturne plus frais : c’est le free cooling nocturne. Ceci pour autant que le local puisse jouer le rôle de réservoir tampon, et donc qu’il dispose d’une inertie suffisante.
  5. Pour finir, nous pouvons observer sur le schéma ci-dessous que la période de besoin de refroidissement  coïncide avec la disponibilité en énergie solaire la plus forte. Ainsi, l’installation de panneaux photovoltaïques pourrait s’avérer être une stratégie judicieuse [notamment dans le cadre d’un objectif QZEN] profitant de la concordance entre la période de disponibilité d’une énergie renouvelable (le photovoltaïque solaire) et la période de besoin de cette énergie pour le refroidissement.

Si cela se vérifie à l’échelle d’une année, il en va de même à l’échelle de la journée.

Facteur de maintenance d’un luminaire

Facteur de maintenance d'un luminaire


Pour un luminaire intérieur

L’éclairement moyen fournit par un luminaire ou un groupe de luminaires diminue au cours du temps depuis sa valeur initiale jusqu’à la valeur requise.

La valeur requise de l’éclairement moyen Em est définie dans la zone de travail par la norme EN 12464-1. C’est la valeur minimum de l’éclairement moyen à maintenir pendant toute la durée de vie de l’installation.

La valeur initiale de l’éclairement moyen est calculée par l’auteur du projet en tenant compte du Facteur de Maintenance FM :

Emoyen initial = Emoyen requis / FM

Plusieurs phénomènes interviennent dans la réduction du niveau d’éclairement moyen de l’installation :

  • réduction de la quantité de lumière diffusée par les lampes au cours de leur durée de vie (valeur de la durée économique),
  • panne de lampe, sans changement immédiat,
  • encrassement des luminaires au cours de leur durée de vie,
  • encrassement du local réduisant la réflexion lumineuse.

A chacun de ces phénomènes on associe un facteur qui entrera dans le calcul du facteur de maintenance :

  • LLMF : facteur de maintenance du flux lumineux de la lampe. Ce facteur donne la proportion du flux lumineux en service émis par la lampe (après une certaine durée de fonctionnement) relativement à son flux initial. La durée de vie utile est définie comme la durée de fonctionnement après laquelle le LLMF d’un lot de lampes soit de 0.80.LLMF = Fservice/Finitial
  • LSF : facteur de survie des lampes. Ce facteur donne la probabilité qu’une lampe continue à fonctionner après un certain temps de fonctionnement. La durée de vie moyenne est définie comme la durée de fonctionnement après laquelle le LSF d’un lot de lampes soit de 0.5.
  • LMF : facteur de maintenance du luminaire. Ce facteur donne la proportion de flux lumineux émis en service par le luminaire (après une certaine durée de fonctionnement) relativement à son flux initial. Les pertes sont dues au dépôt de saleté sur la lampe et sur le luminaire.
  • RSMF : facteur de maintenance des parois du local. Ce facteur donne la proportion de l’éclairement réalisé en service par réflexion sur les parois du local (après une certaine durée de fonctionnement) par rapport à sa valeur initiale.

Ces facteurs peuvent être évalués et lorsqu’ils sont multipliés entre eux, ils donnent la valeur du Facteur de Maintenance.

FM = LLMF  x LSF x LMF x RSMF

Un petit exemple aide à comprendre cette notion :

Soit un bureau équipé de luminaires montés avec des lampes T5. Selon la norme EN 12464-1, le niveau d’éclairement Em minimum est de 500 lux. Les valeurs des différents facteurs sont consignés dans le tableau suivant :

Après 17 000 heures de fonctionnement

Survie des lampes après 16 000 heures d’allumage. 95 %
Valeur résiduelle du flux lumineux par rapport à la valeur initiale. 90 %
Rendement du luminaire y compris l’encrassement de la lampe. 97 %
Propriété de réflexion du local. 96 %
Réduction totale de la quantité de lumière ou FACTEUR DE MAINTENANCE. 80 %

Ceci signifie donc que l’auteur de projet devra surdimensionner son installation de 20 %; soit 500 lux / 0.8 = 625 lux.

Dans la pratique, Le Facteur de maintenance varie de 0.5 pour des éclairages indirects dans des locaux encrassés jusqu’à 0.9 pour des éclairages directs utilisant des luminaires de qualité optique élevée, des lampes de haut rendement, et des ballasts électroniques dans des locaux propres.

Les valeurs de référence prises couramment sont 0.8 pour les luminaires équipés de ballasts électromagnétiques et de 0.9 pour ceux équipés de ballasts électroniques.


Pour un luminaire extérieur

FM = Emoy en exploitation / Emoy initial

avec,

  • FM = facteur de maintenance (1 – FM = facteur de dépréciation).
  • Emoy en exploitation = l’éclairement moyen en exploitation réelle.
  • Emoy initial = l’éclairement moyen dimensionné.

Le facteur de maintenance est essentiellement fonction de l’étanchéité des luminaires et du degré de pollution du site:

Catégorie de pollution Degré de protection du luminaire
IP23 à 44 IP54 à 55 IP65 à 66

I : lieu moyennement pollué, site essentiellement rural et résidentiel.

0,75 0,85 0,95

II : lieu fortement pollué, soit site industriel ou urbain.

0,5 0,7 0,85

Température

Température


Introduction

La température est un état instable dont les variations au voisinage de l’environnement humain dépendent du rayonnement solaire, du vent, de l’altitude et de la nature du sol.

Le soleil réchauffe l’atmosphère indirectement par l’intermédiaire de la surface de la terre car celle-ci stocke et réémet la chaleur par rayonnement et par convection. La propagation de cette chaleur est alors assurée soit par conduction, soit par diffusion due aux turbulences créées par le vent. La température varie également suivant la couverture nuageuse. Par journée claire, la température tend à s’élever parce que le rayonnement direct est plus important. À l’inverse, la terre, et donc l’atmosphère, se refroidiront davantage la nuit par rayonnement infrarouge vers la voûte céleste.

Les stations météorologiques effectuent des relevés horaires des températures de l’air, sous abri à 1,5 mètre du sol, pour définir la courbe d’évolution journalière des températures en un lieu. On détermine également la température moyenne mensuelle pour tracer la courbe d’évolution annuelle des températures en un lieu.

Les températures n’atteignent pas leur maxima quand l’offre solaire est la plus grande (solstice d’été). Un certain déphasage, de l’ordre de 4 à 6 semaines, est observé et correspond au temps nécessaire pour réchauffer la masse terrestre (inertie de la terre).

La figure ci-dessus permet de suivre l’évolution des températures pour une journée typique (le 8 juin 1964) à Bruxelles, ainsi que les rayonnements diffus et direct à partir d’un relevé toutes les trente minutes. L’exposition directe est mesurée perpendiculairement au rayonnement, alors que l’exposition diffuse est mesurée sur une surface horizontale.

On relèvera la corrélation et le retard entre l’offre solaire et la réponse des températures (cercle). Le rayonnement diffus varie peu entre les prises de mesure, alors que l’intensité du rayonnement direct peut atteindre des valeurs très élevées tout comme des valeurs nulles (passage de nuages). Le minimum des températures est rencontré au petit matin, juste avant le lever du soleil sous l’influence du rayonnement diffus.


La température en Belgique

Les graphes ci-dessous donnent l’évolution journalière de la température extérieure moyenne par ciel serein, moyen et couvert, le 15 des mois de mars, juin, septembre et décembre, à Uccle.

Ainsi donc, à Uccle le 15 juin, la température extérieure maximale moyenne est de 24,2°C par ciel serein, 20,7°C par ciel moyen, et 16,9°C par ciel couvert; tandis que le 15 septembre la température extérieure moyenne est de 16,2°C par ciel serein, 15,2°C par ciel moyen, et 14,3°C par ciel couvert.

Analyse des températures

En Belgique les températures extérieures moyennes mensuelles sont presque partout positives, mais ne dépassent pas 20°C; les écarts de température moyenne jour-nuit sont faibles et de 7°C maximum en été.

Heureusement, lorsque la température est élevée en journée (ciel serein), le ciel est également dégagé la nuit, la terre et donc l’atmosphère se refroidissent plus à cause des radiations terrestres nocturnes vers la voûte céleste. La température nocturne est alors fraiche et permet un refroidissement naturel ou mécanique (free cooling) du bâtiment.

À noter que le minimum sur la courbe journalière des températures correspond aux heures de lever du soleil : ceci fait apparaître l’incidence de l’ensoleillement sur la température de l’air.

Température de base

Pour dimensionner une installation, l’évaluation doit être faite de sorte que le système puisse répondre aux conditions de température extérieure minimale : la température extérieure de base.

Degrés-jours

Par contre, l’évaluation de la demande en énergie nécessite la prise en compte de l’écart de température entre l’ambiance intérieure et l’extérieur.

Or la température extérieure varie d’un lieu à un autre.

La notion de degré-jour a été introduite pour permettre la détermination de la quantité de chaleur consommée par un bâtiment sur une période de chauffage donnée et pour effectuer des comparaisons entre des bâtiments situés dans différentes zones climatiques.


Influence de l’environnement sur la température

La température en un lieu est dépendante de la nature des surfaces environnantes et est influencée par l’occupation du site et par son relief.

Les sols couverts de végétation favorisent l’évapo-transpiration d’eau et ainsi la réduction de l’échauffement de l’air. Les sols aménagés par l’homme et couverts par des matériaux à forte inertie (béton, pavés, briques, …) stockent la chaleur durant les journées ensoleillées et la rayonnent en début de soirée. Ils ont pour effet de retarder la chute de température nocturne.

Influence de l’eau

Les étendues d’eau stockent également de grandes quantités de chaleur avec aisance. L’eau agit comme tampon thermique : à l’inverse des sols qui s’échauffent et restituent la chaleur rapidement, l’eau emmagasine et rend la chaleur lentement. C’est pourquoi il fait plus chaud à la Côte que dans les Ardennes en hiver, à l’inverse de l’été où il fait plus chaud dans les Ardennes qu’à la Côte.

De manière générale, la très grande capacité thermique de l’eau rend celle-ci peu sensible aux variations de température de l’atmosphère. Sur la frange côtière, la présence conjointe de l’eau et du continent détermine des schémas climatiques particuliers : les brises de mer et les brises de terre.

Pendant la journée, un échauffement plus rapide sur terre que sur mer aboutit à la création de basses pressions thermiques dans l’arrière-pays et de pressions relativement hautes en mer. La brise fraîche qui souffle de la mer vers la terre tend à supprimer le déséquilibre ainsi créé. Durant la nuit, la déperdition par rayonnement est plus forte sur terre que sur mer et les courants aériens sont inversés.

Influence de la végétation

Dans les régions fortement boisées, les arbres interceptent de 60 à 90 % de la radiation solaire, empêchant l’augmentation de température du sol. Ainsi, l’air s’y échauffe dans une moindre mesure qu’ailleurs. Ce phénomène est permanent ou saisonnier suivant qu’il s’agit d’arbres à feuillage permanent ou caduc. Par ailleurs, les arbres empêchent la radiation nocturne : la chute de température durant la nuit est donc limitée. On constate ainsi que les écarts de température sont moins importants dans les régions boisées.

Influence d’un site urbanisé

En ville, les apports gratuits provenant des véhicules, industries, chauffage, etc… ainsi que la nature du sol et la quantité importante de matériaux à forte inertie réchauffent l’atmosphère. Le dôme de pollution recouvrant les villes limite également les radiations nocturnes, de telle sorte qu’en moyenne, la température en ville est de 3 à 5°C plus élevée qu’en site dégagé. La pollution ralentit le réchauffement matinal de l’air et la grande quantité de matériaux accumulateurs freine la chute de température en début de soirée. Les sites dégagés sont fortement balayés par les vents et largement ouverts vers la voûte céleste. Il y fait donc plus froid qu’ailleurs.

Influence de la topographie

La figure ci-dessous propose d’examiner l’évolution typique des températures extérieures sur 24 heures dans un relief montagneux. On constate que les vallées sont en général plus chaudes le jour que les sommets. Par contre, de nuit, le soleil n’entrant plus en ligne de compte, l’air se refroidit et s’accumule au fond des vallées et des petites dépressions. Il se crée ainsi une différence de température au profit des pentes directement en contact avec ce qu’on appelle la ceinture chaude. Dans les longues vallées, le phénomène tend à créer un mouvement d’air longitudinal d’autant plus puissant que la vallée est longue et que le gradient de température est élevé.

L’altitude influence aussi la température. La pression diminuant avec l’altitude, l’air se détend et se refroidit. Cette diminution de température est de l’ordre de 0,7 °C par accroissement de 100 m.


La température de base

Lorsqu’il s’agit de dimensionner une installation, l’évaluation doit être faite de sorte que le système puisse répondre aux conditions de température extérieure minimale qui sont rarement dépassées sur base des observations météorologiques belges.

Pour ce faire, on utilise les températures extérieures de base.

Les températures extérieures de base sont les températures extérieures moyennes journalières qui, en moyenne, ne sont dépassées vers le bas que pendant 1 seul jour par an.

Les températures extérieures de base sont données pour chaque commune dans la norme NBN B62-003.

À titre d’exemple, le tableau ci-dessous donne la température extérieure de base pour un certain nombre de villes et communes.

Celles-ci peuvent également être lues approximativement sur la carte présentée à l’écran.

Source – Logiciel OPTI Bureaux – Architecture et Climat – juin 2000

Cycle de la vapeur de stérilisation

Cycle de la vapeur de stérilisation


Qualité de la vapeur d’eau

La stérilisation signifie la destruction totale de tous les micro-organismes présents dans la charge à stériliser tels que les spores, les bactéries, les virus, … Les micro-organismes les plus difficiles à combattre sont les bactéries sous forme de spores (cellule bactérienne au repos). La destruction complète des spores demande qu’ils deviennent humides et chauds (au dessus de 115°C).

On peut obtenir une stérilisation très efficace et bon marché en utilisant la chaleur humide de la vapeur saturée sèche. C’est la nature de la charge (caoutchouc, linge, plastique, instruments métalliques, …) qui détermine les valeurs :

  • de la température,
  • de la pression,
  • du temps de contact entre la vapeur et la charge à stériliser.

Le temps de stérilisation dépend de la température maintenue pendant la phase :

Température [°C] temps [min]
Temps théoriques
121 15
126 10
134 3
Temps minimums dans la pratique
121 20
126 15
134 10

Pendant cette phase, les paramètres de la vapeur doivent rester rigoureusement constants. Il y a donc lieu de contrôler la température et la pression en permanence selon la table de Regnault qui garantit le maintien de la qualité de la vapeur dans son état de vapeur saturée sèche pour autant qu’il n’y ait pas d’air dans la charge:

  • 1 bar correspond à 120.42°C,
  • 2 bar correspond à 133.69°C.

Enfin, on notera que sans une qualité d’eau exceptionnelle, il n’est pas garanti d’obtenir une vapeur idéale pour la stérilisation.


Thermodynamique de la vapeur d’eau

L’utilisation de la vapeur saturée comme agent stérilisant reste la principale référence dans le monde hospitalier.

Pour bien comprendre les enjeux de la stérilisation à la vapeur d’eau, il est nécessaire de rappeler certaines notions de thermodynamique :

Les diagrammes de Mollier (h,s) et (T,s) de la vapeur d’eau ou la table internationale de l’eau à saturation et de la vapeur d’eau saturante sèche sont souvent utilisés pour pouvoir déterminer l’état de l’eau ou de la vapeur.

Le diagramme (h,s) permet de déterminer rapidement les quantités de chaleur dégagées ou absorbées lors d’un changement d’état ou de phase.

Le diagramme (T,s) est très souvent utilisé car, d’une part, on visualise mieux les phénomènes de changement de phase et, d’autre part, il permet de mettre en évidence les énergies mises en jeu sous forme d’une aire; par définition l’entropie s étant égale à dq/T.


Un cycle de stérilisation

Les cycles de stérilisation sont nombreux. Néanmoins, le cycle repris dans le diagramme ci-dessous est celui que l’on rencontre le plus souvent en stérilisation de matériel hospitalier. Il se décompose principalement en 3 phases distinctes :

  • Le prétraitement où, par une succession de vide poussé et d’injection de vapeur, on enlève l’air de la chambre de stérilisation et on réchauffe petit à petit la charge à stériliser.
  • La stérilisation proprement dite.
  • Le séchage de la charge par une mise sous vide prolongée.


Phase de préchauffage d’un stérilisateur

Dans le cas de la stérilisation, lors de la mise en route du système avant le premier cycle, l’obtention de la vapeur d’eau saturée stérilisante (tvap = 134°C , pvap = 3 bar, titre x = 1) à partir d’eau à la température de l’eau de ville (conseillé 15°C) doit être décomposée en trois phases:

1ère étape : l’eau froide ( 15°C) est portée à ébullition et arrive à saturation

Lorsqu’on chauffe de l’eau à une pression constante de 1 bar (c’est le cas avant la production de vapeur) jusqu’à l’ébullition, la chaleur fournie sert uniquement à élever la température de l’eau. A la température de 100°C, les premières bulles de vapeur apparaissent; on est en présence de la phase liquide et d’un début de phase gazeuse. À ce moment, on introduit la notion de titre x en vapeur comme étant le rapport des quantités en masse de vapeur d’eau et d’eau liquide (x = 0 quand il n’y a que de l’eau et, à l’inverse, x = 1 quand l’eau a complètement cédé sa place à la vapeur).

La quantité de chaleur fournie à l’eau correspond à la variation d’enthalpie déterminée soit dans les tables internationales de la vapeur d’eau ou sur le diagramme de Mollier ci-dessus :

h’1 – h’0 = 419 – 67 = 352 kJ/kg

C’est de la chaleur sensible.

2ème étape : l’eau saturée passe à l’état de vapeur saturée humide

Un apport de chaleur supplémentaire fait passer l’eau à saturation (x = 0) à une vapeur saturée sèche (x = 1). Théoriquement, la tranformation se fait à température constante mais dans le cas d’une installation de stérilisation (générateur, distribution et double enveloppe de l’autoclave) on peut considérer que le volume est constant dans la phase de préchauffage du système; ce qui équivaut à dire qu’au fur et à mesure que le volume du système se remplit de vapeur la pression monte et agit sur la phase liquide en augmentant la température de vaporisation de 100 à 134°C pour une pression de 3 bar.

Le diagramme de Mollier nous donne une enthalpie de vaporisation de l’ordre de :

h »2 – h’1 = 2727 – 419 = 2 308  kJ/kg

C’est de la chaleur latente de vaporisation

On se rend compte tout de suite que la chaleur « latente » de la vapeur d’eau est beaucoup plus importante que la chaleur « sensible » de l’eau à saturation; ce qui lui donne un pouvoir stérilisant très important.

3ème étape : le système s’équilibre à une température de 134°C pour une pression de 3 bar

A ce stade, le faible apport de chaleur ne sert qu’à compenser les chutes conjuguées de la pression et de la température dues aux pertes de chaleur au travers des parois du système (générateur, distribution, accessoires, autoclaves, …).


Phase de prétraitement

La phase de prétraitement a pour but :

  • De remplacer tout l’air de la chambre de stérilisation, y compris l’air contenu dans la charge par de la vapeur. Lorsqu’il reste des poches d’air à proximité de spores (cellules bactériennes au repos redoutées en stérilisation et en milieu hospitalier de manière générale), celles-ci s’entourent d’une gangue d’air isolante et peuvent résister à la chaleur. Seul remède, le pouvoir mouillant de la vapeur qui détruit, en principe, toute forme de vie.
  • De réchauffer progressivement la charge à stériliser.

On crée ce prétraitement en arrivant à un vide assez poussé (de l’ordre de 30 mbar) de manière répétée par une pompe à vide à anneau liquide et en injectant entre chaque phase de vide de la vapeur tout en restant en dépression dans la chambre.

Au niveau du traitement de stérilisation proprement dit, l’injection de vapeur joue à deux niveaux en se condensant au contact des composants froid de la charge et de la chambre :

  • La condensation assure un pouvoir mouillant optimum nécessaire à la destruction des spores.
  • La chaleur de condensation est cédée à la charge et la réchauffe.

Chaque injection de vapeur s’accompagne naturellement d’une demande de vapeur au niveau du générateur; ce qui nécessite un apport supplémentaire de chaleur. Toute cette chaleur est perdue puisque la vapeur qui se condense sur des parois plus froides et sur la charge doit être évacuée à l’égout via la pompe à vide sous forme de condensats irrécupérables puisque « contaminés ».

À ce stade de la phase de prétraitement, il est très difficile de savoir où l’on se situe sur le diagramme (s,T) ne sachant quel est le titre de la vapeur dans la chambre de stérilisation. La seule manière de le savoir est de quantifier le volume de condensats soutiré par la pompe à vide; ce qui est loin d’être évident vu que, dans la pompe à vide, les condensats se mélangent avec l’eau adoucie de l’anneau liquide.

A la suite du dernier soutirage de vide, l’injection de vapeur est plus importante que les précédentes afin de se rapprocher au maximum des conditions de stérilisation (dans ce cas, 134°C, 3 bar). Tant que les paramètres de température et de pression ne se stabilisent pas aux valeurs requises, la phase « plateau » de stérilisation ne peut démarrer. La régulation des injections de vapeur prend à ce stage toute son importance.

Phase de stérilisation

Une fois atteint la température de stérilisation au cœur de la charge (par exemple 134°C, 3 bar), la phase « plateau » commence. Durant tout le temps que dure cette phase, les températures et pressions ne peuvent osciller que dans des fourchettes extrêmement étroites.

Comme indiqué précédemment, la durée du plateau de stérilisation dépend de la température de stérilisation.


Phase de séchage

La dernière phase du cycle de stérilisation est l’opération de séchage. Elle consiste, par un vide poussé prolongé, à évacuer au maximum la vapeur d’eau présente dans la chambre et dans la charge par une revaporisation de l’humidité contenue. Cette opération est délicate car la réussite de la stérilisation dépend de l’humidité résiduelle de la charge. Elle est, entre autre, dépendante du conditionnement préalable de la charge (présence de plastique, fond plat susceptible de garder l’eau emprisonnée, …) et du maintien de la chambre sous vide.

Dépressions dans les chambres froides

Dépressions dans les chambres froides

Lorsque, lors d’une ouverture de porte, de l’air extérieur est entré dans une chambre froide dont l’ambiance est à une température plus basse, il subit un refroidissement plus ou moins rapide.

Le refroidissement provoque une contraction de cet air qui crée une dépression interne par rapport à la pression extérieure (la pression atmosphérique).

C’est ce qui explique qu’il est difficile d’ouvrir la porte de votre surgélateur juste après sa fermeture.

Cette dépression interne est d’autant plus importante que la différence de température entre l’extérieur et l’intérieur est grande.

Mais il peut aussi se produire des surpressions dans les chambres froides négatives :lorsque les ventilateurs des évaporateurs se mettent en marche, ils créent une surpression pour les parois en face du courant d’air.

Au moment des dégivrages, une partie de l’air de la chambre est réchauffé d’une manière importante par les systèmes de dégivrage. Il s’ensuit donc une expansion de cet air qui crée une surpression interne.

Résistance thermique totale d’une paroi (Rt)

Résistance thermique totale d'une paroi (Rt)


La résistance thermique d’une paroi (RT)

La résistance thermique totale RT d’une paroi d’ambiance intérieure chaude à ambiance extérieure froide, est égale à la somme des résistances thermiques de toutes les couches de matériaux ou d’air peu ou non ventilé, qui constituent la paroi, et des résistances d’échange superficiel.

RT = Rsi + R1 + (R2) + (R) + (Ra) + Rse

Les valeurs entre parenthèses n’existent pas lorsque la couche (d’air ou de matériau) est absente.

À partir de la résistance thermique totale, on peut calculer le coefficient de transmission thermique U.

Remarque 1
Dans le cas où la paroi contient une couche d’air peu ventilée, la somme des résistances thermique des couches de matériaux situés entre la couche d’air et le côté froid, est limitée à  0.15 m²K/W. (Réf : AGW du 17 avril 2008, Annexe VII, Art 5.4.2.3).

Remarque 2
Dans le cas où la paroi sépare deux ambiances intérieures l’une froide et l’autre chaude, la formule devient :

RT =Rsi + R1 + (R2) + (R) + (Ra) + Rsi

Les valeurs entre parenthèses n’existent pas lorsque la couche (d’air ou de matériau) est absente.

Remarque 3

Dans le cas où la paroi contient une couche d’air fortement ventilé, on ne considère que la partie située du côté chaud de la couche d’air, et on considère que cette partie sépare deux ambiances intérieures dont celle située côté froid est à la température extérieure.

Dans ce cas, formule devient :

RT = Rsi + R1 + (R2) + (R) + Rsi

Les valeurs entre parenthèses n’existent pas lorsque la couche de matériau est absente.

Remarque 4

En général, la résistance thermique des couches dont l’épaisseur est inférieure à 1 mm n’est pas prise en compte pour le calcul de la résistance thermique totale des parois. 


La résistance thermique d’une paroi dont certaines couches sont non homogènes

Les parois de la surface de déperdition du volume protégé sont parfois constituées d’une série de couches dont certaines ne sont pas homogènes (par exemple : couches constituées d’un mélange de plusieurs matériaux homogènes comme du bois et de l’isolant).

Calcul précis

Le calcul numérique précis de la résistance thermique de la paroi peut se faire suivant une méthode numérique conformément à la norme NBN EN ISO 10211.

Méthode simplifiée (méthode par combinaison)

Dans beaucoup de cas, il n’est pas nécessaire de faire appel à des calculs numériques et des méthodes simplifiées peuvent être appliquées. Elles donnent via un calcul manuel et l’application de certaines formules une valeur RT suffisamment précise.

La résistance thermique totale de la paroi est comprise entre deux limites :

  • La limite supérieure de la résistance thermique totale (R’T)
  • La limite inférieure de la résistance thermique totale (R’’T)

Pour calculer la limite supérieure (R’T)

  • On divise la paroi en i sections dont toutes les couches sont homogènes.
  • Pour chacune de ces sections, on détermine la transmission thermique Ui (=1/RT,i).
  • On détermine U de la paroi comme la moyenne pondérée (en fonction des surfaces) des Ui des sections.
  • On obtient R’T à partir du U moyen : R’T = 1/U

U = % a x Ua + % b x Ub + % c x Uc + % d x Ud x …
1/R’T = % a/RTa + % b/RTb + % c/RTc + % d/RTd + ⋯

Pour calculer la limite inférieure (R’’T)

  • On divise la paroi en j couches homogènes ou non homogènes.
  • Pour chacune de ces couches, on détermine la transmission thermique équivalente Uj (=1/Rj) de la couche comme la moyenne pondérée (en fonction des surfaces) des transmissions thermiques Uj (= 1/Rxj) des sections de matériaux différents dans la couche.

1/Rj = % aj/Raj + % bj/Rbj + % cj/Rcj + % dj/Rdj + ⋯

  • On obtient ainsi le Rj de chacune des couches.
  • On calcule R’’T comme pour une paroi avec couches homogènes :

R’’T = Rsi + R1 + R2 + R3 + R4 + … + Rse

Pour calculer la résistance thermique (RT)

On effectue la moyenne arithmétique des limites supérieures et inférieures de la résistance thermique.

RT = (R’T + R »T) / 2

Applicabilité

La méthode simplifiée ne peut pas être appliquée :

  • lorsque le rapport entre R’T et R’’T est supérieur à 1.5 ;
  • lorsque la couche isolante de la paroi est traversée par du métal.

Source : AGW du 17 avril 2008, Annexe VII, Art 6.2

Exemple

 

a = 3O m², b = 3O m², c = 1O m², d = 3O m²,

➙ % a = 0.3, % b = 0.3, % c = 0.1, % d = 0.3

e1 = 0.05 m, e2 = 0.1 m, e3 = 0.05 m,

Calcul de la limite supérieure (R’T)

 Calcul de la limite inférieure (R’’T)

Calcul de la résistance thermique (RT)

RT = (1.39 + 1.12) / 2 = 1.25 m²K/W

Régulation de vitesse des circulateurs

Régulation de vitesse des circulateurs

Comment commander la vitesse de rotation d’un circulateur de chauffage ?

Pour comprendre les solutions à adopter sur les réseaux équipés de vannes deux voies, on décrit ci-dessous la situation hydraulique lors de la fermeture des vannes.


Que se passe-t-il lorsqu’une vanne thermostatique se ferme ?

La température est presque atteinte dans le local. Le débit d’alimentation du radiateur doit diminuer. La vanne se ferme.

Point de fonctionnement d’un circulateur. Lorsque la vanne thermostatique se ferme, la courbe caractéristique du circuit se redresse et le point de fonctionnement passe de F à F’.

L’augmentation de la perte de charge suite à la fermeture de la vanne entraîne une augmentation de la pression délivrée par le circulateur.

Mais on aurait pu également représenter cette évolution comme suit :

Le débit ayant diminué, le Δp du réseau a diminué également. Et une perte de charge locale supplémentaire Δpvanne a été provoquée pour freiner le débit.

Ce Δpvanne est provoqué en pure perte ! Idéalement, c’est la vitesse du circulateur qui aurait du diminuer :

Diminution de la vitesse du circulateur pour atteindre de débit q’ souhaité.

H » est suffisant pour générer un débit q’ dans le radiateur !

La pompe s’adapte alors aux besoins et suit la courbe du réseau. La consommation énergétique est minimale.

« Freiner avec une vanne thermostatique, c’est un peu appuyer sur la pédale de frein sans lâcher l’accélérateur ! »

Mais les installations ne comprennent pas qu’un seul radiateur, et la solution qui consisterait à réguler la vitesse du circulateur par un thermostat d’ambiance et de se passer de vanne thermostatique n’est malheureusement pas applicable.


Et si on place une soupape à pression différentielle ?

Le débit qui ne passa pas dans le radiateur est à présent by-passé dans la soupape. Le circulateur n’y voit que du feu ! Autrement dit, la consommation restera identique.


Et si on place un circulateur à vitesse variable réglé pour maintenir la pression ?

Diminution de la vitesse du circulateur pour maintenir une pression constante dans le réseau. Le point de fonctionnement devient F »’

Cette solution apparaît comme une demi-mesure : le réseau n’a plus besoin d’une pression identique puisque le débit de l’eau a diminué, entraînant la diminution des pertes de charge. L’économie d’énergie est donc partielle.

Comparons les niveaux d’énergie des différentes solutions (les surfaces en vert symbolisent la puissance absorbée par le circulateur) :

Solution 1 : étranglement.

Solution 2 : réduction de vitesse pour maintenir une pression constante.

Solution 3 : réduction de vitesse suivant la courbe caractéristique du réseau.


Et si plusieurs vannes sont présentes sur le réseau?

Si plusieurs vannes sont présentes sur le réseau, faut-il toujours essayer de réduire la vitesse en restant sur la courbe du réseau ?

La situation est un peu plus complexe car plusieurs réseaux sont mis en parallèle et en série.

Si le réseau commun représente l’essentiel de la perte de charge : OUI

La fermeture de q2 peut être interprétée comme dans le cas précédent, en bonne approximation.

C’est la cas des longs réseaux de chaleur entre chaufferie et sous-stations : le pilotage de la pompe nécessite des prises d’informations dans les sous-stations (télégestion obligatoire).

Si le réseau commun est court et que chaque radiateur comporte son propre circuit : NON

Lorsqu’un des radiateurs se fermera, le débit total diminuera mais son influence est faible sur les pertes de charges à vaincre par le circulateur. La pression disponible pour l’autre radiateur doit pratiquement rester identique.

Si le réseau est constitué d’associations multiples de radiateurs en parallèle et en série (cas le plus fréquent des réseaux de chauffage de grands bâtiments) ?

C’est la solution intermédiaire qui doit être rencontrée. De là, la solution proposée par certains fabricants de faire suivre une diminution linéaire de la pression lorsque le débit demandé diminue.

Spectre lumineux d’une lampe

Spectre lumineux d'une lampe


La lumière d’une source est constituée généralement d’une infinité de radiations à longueurs d’onde différentes. C’est de cette distribution de longueurs d’onde, représenté par un spectre lumineux, que dépendent la  température de couleur et l’indice de rendu des couleurs.

Exemple.

   

  • Tube fluorescent rayonnant une lumière très proche de la lumière naturelle (IRC = 98).
  • Tube fluorescent ayant un bon IRC (IRC = 75) mais pour laquelle les teintes rouges sont accentuées. Ce type de lampe est par exemple recommandée dans les boucheries car elle donne un aspect plus agréable aux marchandises.

  

  • Tube fluorescent avec un mauvais IRC (IRC = 50).
  • Lampe à vapeur de sodium avec un très mauvais IRC (IRC = 20). Elle est principalement utilisée pour les éclairages routiers.

Spectre lumière naturelle.

Lampe à incandescence.

Auto-excitation des moteurs asynchrones

Auto-excitation des moteurs asynchrones

Lorsqu’un moteur entraîne une charge de grande inertie et qu’il y a coupure de la tension d’alimentation, il peut continuer à tourner en utilisant l’énergie cinétique du système. La présence de batteries de condensateurs peut alors entraîner son « auto-excitation », c’est-à-dire lui fournir l’énergie réactive nécessaire à son fonctionnement en génératrice asynchrone.

Cette auto-excitation provoque des surtensions qui peuvent être considérablement supérieures à la tension du réseau.

Compensation individuelle des moteurs asynchrones

Dans tous les cas où une batterie de condensateurs est installée aux bornes d’un moteur, il y a lieu de s’assurer que la puissance de la batterie de condensateurs est inférieure à la puissance nécessaire à l’auto-excitation du moteur.

Dans toute installation comportant des moteurs à grande inertie et des batteries de condensateurs, l’appareillage de commande des batteries devra être conçu de telle sorte qu’en cas de manque général de tension, aucune liaison électrique ne subsiste entre ces moteurs et les condensateurs.

Circuit électrique : notions de base

Circuit électrique : notions de base


Courant continu et courant alternatif

Le circuit le plus simple que l’on puisse représenter consiste en une source de tension U (pile, dynamo, …) et un récepteur passif R (lampe, résistance chauffante, … ).

Une charge électrique s’écoule à travers la section du conducteur. L’intensité de ce courant s’exprime en ampères.

La source de tension fournit l’énergie nécessaire au maintien du courant. Cette tension se mesure en volts.

Si la tension U fournie par la source est constante, un courant constant I s’écoule : c’est un circuit à courant continu.

Schéma du principe du circuit à courant continu.

Si la tension U fournie par la source varie suivant une loi sinusoïdale, un courant sinusoïdal (lui aussi) s’établit : c’est un circuit à courant alternatif. Alternatif, parce que le courant va traverser le récepteur alternativement dans un sens et puis dans l’autre.

Schéma du principe du circuit à courant alternatif.

La fréquence du réseau européen est de 50 Hz, contre 60 Hz aux USA.


Représentation vectorielle du courant alternatif

La tension alternative s’exprime par la loi :

u(t) = Umax. sin ωt

avec, ω = 2 x π x fréquence = 2 x 3,14 x 50 = 314 [rad/sec]

Suivant le type de récepteur, le courant engendré peut être soit en phase (en synchronisme) avec la tension, soit déphasé en avance ou en retard par rapport à la tension. Autrement dit, lorsque la tension est maximum, le courant ne l’est pas forcément !

Schéma de la représentation vectorielle du courant alternatif.

Dans l’exemple ci-dessus le courant est en retard sur la tension d’un angle phi de 60°. C’est l’effet de l’inductance présente dans le circuit.

Pour représenter simplement courant et tension en alternatif, il suffit de représenter son amplitude et sa phase, puisque la fréquence de 50 Hz est constante. C’est exactement l’information donnée par le diagramme vectoriel.

Schéma du diagramme vectoriel.


Les différentes impédances : résistance, inductance, condensateur

Résistance

Un filament de lampe, le fil chauffant d’un grille-pain ou d’un chauffage électrique d’appoint, … constituent des résistances R pures. Toute l’énergie fournie par la source s’y trouve entièrement convertie en chaleur. On parle de chauffage par Effet Joule.

Une résistance freine, s’oppose au passage du courant. L’importance de ce frein est mesurée en Ohms (Ω).

Dans ce type d’impédance, le courant engendré est toujours en phase avec la tension. De là, la représentation vectorielle reprise ci-dessous :

Schéma du principe de résistance.

Inductance

Une bobine de fil conducteur constitue une inductance, encore appelée « self » ou « réactance inductive ». On la rencontre dans les moteurs (bobinages), dans les ballasts des tubes fluorescents, … Cette bobine réagit constamment aux variations du courant qui la traverse, suite à un phénomène magnétique. Si cette bobine ( considérée comme une self pure) est soumise à un courant continu, elle n’aura aucun effet sur celui-ci. Si par contre on veut lui faire passer du courant d’intensité variable (c’est le cas dans les circuits alternatifs), elle va réagir en opposant une résistance au passage du courant.

L’importance de ce frein est mesurée par la valeur de l’inductance L, exprimée en Henry.

Ce type d’impédance aura un deuxième effet sur le courant : une bobine retarde le courant par rapport à la tension. On dit qu’elle déphase le courant. Ainsi, une inductance pure verra son courant déphasé de 90° en retard sur la tension.

Voici la représentation vectorielle de cette propriété :

  Schéma du principe d'inductance.

Condensateur

Un condensateur, encore appelé « capacité » ou « réactance capacitive », est un réservoir de charges électriques. Si on le soumet à la tension d’un générateur, il va accumuler des charges. Ces charges seront restituées au réseau lorsque la tension d’alimentation diminuera. S’il s’agit d’une tension alternative, le condensateur se charge et se décharge au rythme de la fréquence alternative…

La valeur d’un condensateur C est exprimée en Farad.

Ce type d’impédance aura également un effet de déphasage du courant par rapport à la tension, mais cette fois le courant est déphasé en avance de 90° sur la tension.

Voici la représentation vectorielle de cette propriété :

  Schéma du principe de condensateur.


Loi d’Ohm

La loi d’Ohm, loi de base de tout circuit électrique, est basée sur la logique :

Effet = Cause / Frein

L’effet (le courant) sera d’autant plus important que la cause est élevée (la tension) et que le frein est faible (la résistance).

De là, la relation appliquée aux circuits résistifs :

I = U / R
1 ampère = 1 volt/1 ohm

Et ses sœurs jumelles :

U = R x I
1 volt = 1 ohm x 1 ampère

R = U/I
1 ohm = 1 volt/1 ampère

Exemple : une tension de 220 volts qui alimente une résistance de 10 ohms génère un courant de 22 ampères.


Association de résistances en série et en parallèle

Les réseaux sont souvent composés d’association de récepteurs, dont les plus fréquents sont donnés ci-dessous :

  

Lorsque des résistances sont placées en série, leur résistance totale est donnée par la somme de toutes les résistances :

Rtot = R1 + R2 + R3

Lorsque des résistances sont placées en parallèle, leur résistance totale est donnée par la relation :

1 / Rtot = 1 / R1 + 1 / R2 + 1 / R3

Exemple

Soit 4 lampes de 100 ohms et un générateur de 220 volts.

Montage en série

Schéma du principe du montage en série.

Chacune ayant une résistance de 100 ohms, elles vont engendrer une résistance totale de 400 ohms, si elles sont placées en série.
Le courant qui va les traverser sera de :

I = U / R = 220 / 400 = 0,55 ampère.

Chacune d’entre-elles sera soumise à une tension de

U = I x R = 0,55 x 100 = 55 volts.

La puissance développée par chaque lampe sera de

P = U x I = 55 x 0,55 = 30,25 watts

Montage en parallèle

Schéma du principe du montage en parallèle.

Ces mêmes lampes placées en parallèle engendreront une résistance globale de

Rtot = 1/(1/100 + 1/100 + 1/100 + 1/100) = 25 ohms.

Le courant total délivré par la source sera de :

I = U / R = 220 / 25 = 8,8 ampères.

Chaque lampe sera soumise à une tension de 220 Volts, et sera traversée par un courant de

I = U / R = 220 / 100 = 2,2 ampères.

La puissance développée par chaque lampe sera de :

P = U x I = 220 x 2,2 = 484 watts