Rendement d’une installation solaire thermique

Rendement d'une installation solaire thermique


Rendement d’un capteur solaire

Schéma principe de rendement d’un capteur solaire.

Le rendement d’un capteur est le rapport entre la chaleur utile (Q3) transmise au fluide et le rayonnement solaire incident (E0) :

n = Q3 / E0 [-]

Cette chaleur utile Q3 est définie par le bilan des apports solaires utiles et des pertes thermiques :

Q3 = E0 – E1 – Q2 – Q1 [MJ]

Les apports solaires utiles : E0 – E1 [MJ]

Ils représentent la part du rayonnement solaire réellement absorbée par le capteur. Ils dépendent des propriétés optiques du capteur (telles que l’absportivité de l’absorbeur et la transmissivité du vitrage).

Ils s’expriment selon la relation :  E0 * ατ

Avec :

  • α [-] : facteur d’absorption de l’absorbeur.
  • τ [-] : facteur de transmission du vitrage.

Les pertes thermiques : Q1 + Q2 [MJ]

Dépendant des propriétés d’isolation thermique du capteur, elles sont définies par la relation: Qth = K* ∆T

Avec :

  • K [W/m²K] : coefficient de déperdition thermique du capteur.
  • ∆T : T°capt – T°amb.

Le rendement d’un capteur : n = Q3/E0 [-]

n = ατ- (K*∆T / E0) [-]

L’efficacité d’un capteur dépend donc de ses caractéristiques thermiques (diminution des pertes) et optiques (augmentation des apports solaires utiles).

Courbe de rendement normalisée

La norme européenne (EN 12975) définit le rendement d’un capteur sur base de trois paramètres permettant de qualifier le comportement thermique du capteur : Son rendement optique n0, et deux coefficients de déperdition thermique a1 et a2.

Rendement optique n0

Le rendement optique n0 représente le rendement maximum du capteur lorsque la température du fluide est à température ambiante (pas de pertes thermiques). Il s’agit donc de la partie maximale de l’énergie solaire qui peut être captée. Mesuré dans des conditions standardisées de test (spectre AM 1,5, 1 000 W/m², perpendiculaire au capteur), il dépend des propriétés du vitrage et de sélectivité de l’absorbeur. Cette relation est établie comme suit : n0 = ατF

Avec :

  • α [-] : facteur d’absorption de l’absorbeur, compris entre 0,9 et 0,96.
  • τ [-] : facteur de transmission du vitrage, compris entre 0,88 et 0,91.
  • F [-] : facteur de rendement du capteur, compris entre 0,92 et 0,97.
Exemple de rendement optique pour différents types de capteurs :

* 75-85 % capteur plan ;
* 90-95 % capteur non vitré ;
* 75-85 % tube sous vide à absorbeur sur cuivre ;
* 50-70 % tube sous vide à absorbeur sur verre.

À l’heure actuelle, les fabricants utilisent généralement des verres « anti-reflet » extra clairs. Pauvres en fer, ils présentent une meilleure transmission lumineuse.

Coefficients de déperdition thermique

Les coefficients de déperdition thermique dépendent de la qualité d’isolation des capteurs :

  • a1 [W/m². K] : coefficient linéaire de transfert thermique, généralement compris entre 1,2 et 4.
  • a2 [W/m². K²] : coefficient quadratique de transfert thermique, généralement compris entre 0,005 et 0,015.

Conformément à la norme, le rendement du capteur est alors donné par la formule suivante :

n = n0 – (a1*∆T / E0) – (a2* ∆T² / E0) [-]

Avec :

  • E0 : 1 000 W/m².
  • ∆T = T°capt – T°amb

Représentation de la courbe de rendement associée. (exemple avec un n0=0.8 ; a1= 4 [W/m². K];  a2 = 0.015 [W/m². K²])

N.B. : Sur cette courbe apparaît la température de stagnation du capteur (dans l’exemple 133°) définie comme la différence de température à laquelle les gains solaires ne peuvent compenser les pertes thermiques. À ce moment, le rendement du capteur est nul.

Calculs

La page calcul comprend notamment ce tableur permettant le calcul de la courbe de rendement théorique en fonction de la température d’un capteur solair en fonction de ses propriétés optiques

Influence de la puissance du rayonnement solaire

Les différentes courbes de rendement sont conventionnellement établies pour une puissance de rayonnement de 1 000 W/m². Or, en réalité, l’ensoleillement varie considérablement au fil du temps (de 0 la nuit à 1 000 W maximum en plein soleil). La courbe de rendement en est modifiée de la sorte :

Schéma influence de la puissance du rayonnement solaire.

Influence sur la courbe de rendement d’une variation de l’intensité du rayonnement solaire.

Influence du delta de température

La différence de température entre l’absorbeur et l’extérieur génère des pertes thermiques. Plus cette différence de température est importante, plus les pertes le sont aussi. Pour une puissance de rayonnement et une inclinaison donnée, le point de fonctionnement du capteur se situera donc sur une courbe dont la pente et la courbure sont déterminées par ses coefficients de déperdition thermique.

Schéma influence du delta de température.

Influence de l’angle d’incidence

Schéma influence de l'angle d'incidence.

L’inclinaison du capteur et la position du soleil influencent le rendement du capteur.  Selon l’angle d’incidence, la transmission du rayonnement solaire au travers du vitrage sera modifiée. En effet, au moins les rayons sont perpendiculaires au capteur, au plus la composante réfléchie du rayonnement est importante. Le rendement en est donc diminué.

Cette diminution est décrite par un facteur d’angle Kθ ou IAM, en général donné par les fabricants. En pratique, on constate que ce facteur varie relativement peu pour des angles d’incidence inférieurs à 50°.

Influence sur la courbe de rendement d’une modification importante de l’angle d’incidence par rapport à une situation de départ où l’angle d’incidence est perpendiculaire au capteur.


Rendement instantané

En fonctionnement, le rendement du capteur se déplacera donc continuellement (on parle alors de rendement dynamique) sur une multitude de courbes résultantes des différents phénomènes cités ci-dessus. Le schéma suivant illustre ce comportement :

Schéma rendement instantané.

En conclusion, on retiendra qu’un capteur est d’autant plus performant :

  • qu’il fonctionne à une température proche de la température ambiante (delta T° faible).
    ==> Travail à basse température idéal ;
  • que l’irradiation est importante
    ==>  Orientation et inclinaison adaptée.

Une étude allemande a montré qu’en fonctionnement,  le rendement annuel des capteurs pour l’eau chaude sanitaire peut atteindre 50 %.


Rendement d’une installation

Le rendement de l’installation complète ne dépend évidemment pas du seul rendement des capteurs.

Des pertes thermiques se produiront lors du stockage de l’eau chaude, lors des  transferts des fluides caloporteurs entre les capteurs et le ballon solaire, et entre le ballon et les différents points de puisage.

Ces différentes pertes sont considérablement influencées par différents paramètres comme la longueur et la section des tuyaux. On veillera donc à en limiter l’impact par des longueurs de tuyauteries minimisées et une isolation adéquate.
Différentes simulations dynamiques ont montré que le rendement moyen d’une installation bien conçue tourne autour de 30 – 40 %. Globalement, l’irradiation avoisinant en Belgique les 1000 kWh/m².an, on capte donc près de 300 à 400kWh/m².an soit l’équivalent énergétique de 30 à 40 litres de fuel par m² et par an. C’est notre puits de pétrole à nous!

L’influence de la fraction solaire

Le choix de la fraction solaire, fraction représentant la part de l’eau chaude sanitaire que l’on souhaite produire par le solaire, a une influence non négligeable sur le rendement global annuel de l’installation.

Le phénomène est le suivant :

Si l’on veut dimensionner une installation pour qu’elle puisse fournir de l’eau chaude les jours de luminosités réduites, les surfaces nécessaires peuvent être considérables. Parfois, principalement en hiver, la luminosité est même insuffisante pour permettre toute production. Dans ce cas, on n’a pas d’autre choix que le recours au système d’appoint utilisant une énergie conventionnelle.
Or, cette superficie nécessaire pour les jours de luminosité médiocre peut être superflue en été. En effet, une superficie plus importante permet d’atteindre plus vite la quantité d’eau à la température voulue. Mais que se passe-t-il une fois le ballon chargé ? Rien ! Le capteur ne fonctionne plus, il « chôme » ! Le temps de fonctionnement annuel des capteurs est alors réduit.
En résumé, plus la fraction solaire est élevée plus le taux d’utilisation, est lui, réduit.

Un taux d’utilisation réduit signifie aussi une production surfacique (kWh par m² de capteurs) réduite (pertes thermiques induites par le surdimensionnement par rapport aux besoins estivaux combiné, et un fonctionnement à haute température plus fréquent).

La relation entre la surface de capteurs et la productivité de l’installation n’est donc pas linéaire. La courbe qui suit illustre bien le phénomène : Les premiers kWh sont les plus faciles à produire alors qu’il sera presqu’impossible de rendre l’installation autonome (asymptote horizontale !).

Superficie de capteurs nécessaire en fonction de la fraction solaire et rendement correspondant.

En conséquence : au plus la fraction solaire voulue sera grande, au plus le rendement global de l’installation sera faible !
Cette conclusion ne doit cependant être prise telle quelle : il ne faut pas oublier que l’énergie solaire est une énergie gratuite, renouvelable et totalement non polluante !

Idée : On pourrait imaginer étendre la production estivale d’eau chaude à d’autres usages (piscine ou bassin extérieur,…) ou pour générer du froid (c’est l’idée des recherches actuelles sur la climatisation solaire). L’utilisation de ce surplus potentiel permettrait d’utiliser efficacement l’installation plutôt que de la laisser « chômer » !

Un autre moyen de valoriser ce surplus énergétique est le stockage intersaisonnier de l’énergie produite ! Actuellement, la recherche se tourne principalement vers des grands volumes de stockage (dans le sol par exemple) ou vers des matériaux à changement de phase.

Rendement d’un onduleur

Rendement d'un onduleur

Comme toujours, le rendement est le rapport entre deux grandeurs. Dans le cas d’un onduleur, le rendement se mesure en comparant la puissance de sortie de l’onduleur par rapport à la puissance d’entrée.

La puissance fournie à l’onduleur dépendra des conditions météorologiques, de la surface de panneaux installés ainsi que de leurs puissances unitaires.

Comme le rendement varie en réalité en fonction d’un grand nombre de variables, une méthode de calcul simplifiée du rendement global (sur toute la plage de puissance de l’onduleur) permet de mieux tenir compte des conditions réelles, il s’agit du « rendement européen ». Ce dernier à ça de particulier qu’il caractérise l’efficacité à charge partielle de l’onduleur. Ce rendement sera plus faible que le rendement maximal (pic) mais plus proche des chiffres mesurés dans la pratique.

Les normes européennes définissent le rendement d’un onduleur comme étant une moyenne pondérée (en fonction de temps de fonctionnement estimé pour cette charge) de différentes mesures de rendements à charge partielle.

ηEuro = 0,03 * η5 % + 0,06 * η10 % + 0,13 * η20 % + 0,1 * η 30 % + 0,48 * η 50 % + 0,2 * η100.

Dans l’exemple de l’onduleur ci-dessous, le rendement maximum est de 95,4% et le rendement suivant la norme européenne est de :

0.003 * 84.9 + 0.06 * 90.8 + 0.13 * 93.8 + 0.1 * 94.8 + 0.48 * 95.4 + 0.2 * 95 = 94,46 %

En pratique, suivant le dimensionnement de l’onduleur (par rapport à l’installation et sa production), les temps de fonctionnement à charge partielle varient sensiblement.

Actuellement le rendement maximal (pic) des meilleurs onduleurs sur le marché atteint les 98%. Plus le rendement est élevé, plus la durée de vie de l’onduleur sera élevée (les onduleurs sont sensibles à la chaleur) et ses dimensions pourront être réduites (les systèmes de refroidissement ne seront plus nécessaires).

Rendement et puissance crête des cellules photovoltaïques

Rendement et puissance crête des cellules photovoltaïques


Le rendement d’une cellule ou d’un module photovoltaïque est le rapport entre l’énergie électrique produite par cette cellule ou module et l’énergie lumineuse reçue sur la surface correspondante :

n [%] = Pproduite[kW] / Pincidente[kW]

Le rendement réel varie donc continuellement, en fonction notamment de l’énergie solaire incidente.

Pour permettre une comparaison de l’efficacité de différentes cellules, on définit ces caractéristiques dans des conditions de test bien précises (STC = Standard Test Conditions). Ces conditions sont : émission lumineuse de 1 000 W/m², température de 25 °C, conditions spectrales Air Mass 1.5  (composition du spectre identique au spectre solaire lorsqu’il traverse une épaisseur et demie d’atmosphère, ce qui correspond à un angle d’incidence de 41.8° par rapport à l’horizontale).

La puissance crête est définie comme la puissance électrique produite par la cellule (ou un panneau) lorsqu’elle est soumise aux conditions STC. Cette valeur est utilisée comme référence pour comparer les panneaux photovoltaïques entre eux.

On obtient alors le rendement par la formule suivante :

Nstc [%] = Puissance crête [W/m²]* / Puissance du spectre STC [W/m²]

Avec :

  • Puissance du spectre STC = 1 000 [W/m²].

Influence de l’éclairement

La luminosité influence considérablement les performances des cellules.

Comme le montre ce graphique, le courant de court-circuit (Icc) croît proportionnellement avec l’éclairement, alors que la tension à vide (Vco) varie très peu (environ 0,5 V).

Ainsi, au plus la couverture nuageuse est importante, au plus l’intensité du courant généré est faible.


Influence de la température

La température a une influence considérable sur le comportement de la cellule et donc sur son rendement. Cette influence se traduit principalement par une diminution de la tension générée (et une très légère augmentation du courant).

Suivant les modèles, ce comportement induit, par degré, une perte de 0.5 % du rendement par rapport au rendement maximum de la cellule. On comprendra donc tout l’intérêt d’une ventilation correcte à l’arrière des panneaux !

La perte de tension d’un module ou d’une cellule peut être estimée par la formule suivante :

U(T°) = U(25°C) + (ΔT°*a)

Avec :

  • ΔT : augmentation de température par rapport aux conditions STC (25°C)
  • a : coefficient de température Voc [mV/K], valeur fournie par le fabriquant

Limite de Shockley-Queisser pour le silicium

La limite de Shockley-Queisser est une limite physique bornant à ≈ 30 % le rendement atteignable par les panneaux solaires photovoltaïques courants (composés de cellules en Silicium à jonction simple).
Ce plafond de verre provient de deux phénomènes :

  • Le panneau photovoltaïque ne valorise pas l’entièreté du spectre d’émission solaire (une partie du rayonnement est systématiquement perdue par transformation en chaleur).
  • La seconde loi de la thermodynamique qui limite le rendement des « machines thermiques » en fonction des températures de la source chaude (soleil) et de la source froide (la cellule).

Actuellement, en fonction des installations et des technologies utilisées, le rendement de cellules se situe en moyenne entre 10 % et 20 % (avec un record en Labo à 26,6 %).

Pour s’affranchir de cette limite, des cellules multi-jonctions voient le jour permettant d’atteindre des plafonds théoriques de l’ordre de 80 % de rendement. Ce type de cellule, en condition laboratoire a déjà dépassé le cap des 40 % de rendement !

Caractéristiques électriques des cellules et des modules photovoltaïques

 

Caractéristiques électriques des cellules et des modules photovoltaïques


Sous un éclairement donné, toute cellule photovoltaïque est caractérisée par une courbe courant-tension (I-V) représentant l’ensemble des configurations électriques que peut prendre la cellule. Trois grandeurs physiques définissent cette courbe:

  • Sa tension à vide : Vco. Cette valeur représenterait la tension générée par une cellule éclairée non raccordée.
  • Son courant court-circuit: Icc. Cette valeur représenterait le courant généré par une cellule éclairée raccordée à elle-même.
  • Son point de puissance maximal: MPP (en anglais : maximal power point) obtenu pour une tension et un courant optimaux : Vopt, Iopt (parfois appelés aussi Vmpp, Impp).

Rem : Pour permettre une comparaison de l’efficacité de différentes cellules, on définit ces caractéristiques dans des conditions de test bien précises (STC = Standard Test Conditions). Ces conditions sont : émission lumineuse de 1 000 W/m², température de 25 °C, conditions spectrales Air Mass 1.5  (composition du spectre identique au spectre solaire lorsqu’il traverse une épaisseur et demie d’atmosphère, ce qui correspond à un angle d’incidence de 41.8° par rapport à l’horizontale).

Actuellement, les cellules présentent des valeurs de l’ordre de 0.5V-3.5A-2.1 Wc.

Raccordement des cellules entre elles

Dans les conditions standardisées de test, la puissance maximale pour une cellule Si (silicium) de 100 cm² (10 sur 10) tourne aux alentours de 1,25 Watt. Cette cellule constitue donc un générateur de très faible puissance, insuffisant pour les applications électriques courantes. Les modules sont donc réalisés par association, en série et/ou en parallèle, de cellules élémentaires. La connexion en série augmente la tension pour un même courant alors que la connexion en parallèle augmente le courant pour une tension identique.
Pour que l’électricité générée soit utilisable pour nos applications électriques, il est donc nécessaire d’associer entre elles un grand nombre de cellules.

Les modules (généralement présentés sous forme de panneaux) sont constitués d’un certain nombre de cellules élémentaires placées en série afin de rendre la tension à la sortie utilisable.
Ces modules sont ensuite associés en réseau (série-parallèle) de façon à obtenir les tensions/courants désirés.

Association en série

Par association en série (appelée « String »), les cellules sont traversées par le même courant et la tension résultante correspond à la somme des tensions générées par chacune des cellules.

Association en parallèle

Par association en parallèle, les cellules sont soumises à la même tension et  le courant résultant correspond à la somme des courants générés par chacune des cellules.

Les caractéristiques globales d’une installation se déduisent donc d’une combinaison des caractéristiques des constituants des ns*np.

Les diodes de by-pass

Il arrive fréquemment que les cellules élémentaires qui composent le module ne présentent pas toutes la même courbe caractéristique au même moment. Les raisons peuvent être multiples : variété inévitable de fabrication, défaillance, différence d’éclairement ou de température (dues par exemple à un ombrage non uniforme du module, un encrassement,…).

Sous certaines conditions, la cellule la plus faible peut alors se comporter comme une cellule réceptrice, dissipant la puissance générée par la cellule la plus forte. Celle-ci peut même être détruite si la contrainte ou la température devient trop importante.

Pour éviter ce phénomène, on place des diodes de by-pass (empêchant tout courant ou tension inverses). Celles-ci sont placées en série lorsque les cellules sont connectées en parallèle et en parallèle lorsque les cellules sont connectées en série.
Les modules aujourd’hui commercialisés comprennent généralement des diodes de protection situées en parallèle des différents strings qui le composent.

L’utilisation de ces by-pass induit néanmoins des perturbations de la courbe caractéristique, modifiant le point de puissance maximal du module :

Pour ne pas induire inutilement ces pertes, il est donc très important que ces diodes de by-pass soient utilisées et placées en cohérence avec les ombres générées par l’environnement du module.

 

Contacter le facilitateur photovoltaïque

Contacter le facilitateur photovoltaïque

Le Facilitateur E-SER est chargé par la Région wallonne de mener des actions d’information, d’accompagnement, de sensibilisation et de conseil pour aider au développement harmonieux de la filière photovoltaïque en Wallonie.
Concrètement, le Facilitateur a pour objectifs :

  • d’assurer une veille technologique, réglementaire et statistique ;
  • de veiller à la coordination de la filière photovoltaïque ;
  • d’informer et de conseiller les investisseurs potentiels concernant le photovoltaïque.

Le Facilitateur vise le secteur public et les entreprises. Sans que cela ne soit une étape obligée, tout auteur de projet peut s’adresser gratuitement au Facilitateur afin de réaliser une étude de pertinence. Celui-ci conseillera l’auteur de projet quant à la pertinence économique, juridique et administrative d’un projet photovoltaïque dans sa commune ou dans son entreprise. La mission de Facilitateur E-SER ne couvre pas les installations photovoltaïques domestiques, qui relèvent du plan Qualiwatt. Pour les particuliers, les Guichets de l’Énergie jouent ce rôle de Facilitateur.

> Plus d’infos sur :

Choisir un label de qualité

Choisir un label de qualité

RESCert

Outre le matériel qui doit respecter les exigences fixées dans les normes européennes et les tests correspondants, il existe aussi en Belgique un label de qualité pour les installateurs appelé RESCert.

La Région wallonne, la Région flamande et la Région de Bruxelles-Capitale ont mis sur pied un système harmonisé pour la formation et la certification d’installateurs fiables et de qualité. Les technologies visées sont les systèmes d’énergie résidentiels/de petite taille.

Quelle est la différence entre un certificat de compétence et un certificat de compétence au titre de candidat ?

  • Un certificat de compétence est destiné aux installateurs ayant plus de 3 ans d’expérience (voir ici) et ayant réussi un examen.
  • Un certificat de compétence au titre de candidat est destiné aux installateurs ayant moins de 3 ans d’expérience (voir ici) et ayant réussi un examen.

Remarque : Le certificat de compétence au titre de candidat ne peut pas être utilisé pour les primes, et les personnes ayant un certificat de compétence au titre de candidat ne figurent pas sur la liste des installateurs certifiés. Le certificat de compétence au titre de candidat peut être ‘upgraded’ gratuitement en certificat de compétence une fois que les 3 ans d’expérience sont atteints.

Plus d’info sur :  https://rescert.be/fr


NRQUAL

NRQual : un label de qualité officiel pour les entreprises d’installation de systèmes d’énergie renouvelable en Wallonie

Logo NRQUAL

Afin de redonner confiance aux consommateurs et de leur garantir la qualité de leurs installations, la Wallonie a décidé de soutenir et de promouvoir les entreprises d’installation de systèmes renouvelables qui s’inscrivent dans un processus « qualité » en lançant le label wallon NRQual.

Pour les entreprises, se faire labelliser implique des garanties de qualité à plusieurs niveaux :

  • capacité de concevoir une installation : l’entreprise devra remettre au client un dossier reprenant les plans techniques de l’installation, les spécifications techniques des composants utilisés, les calculs de rendements énergétiques, les manuels destinés à l’utilisateur ;
  • capacité de placer un système renouvelable :
    • l’entreprise devra compter des installateurs certifiés parmi ses équipes en charge de l’installation des systèmes ;
    • un contrôle sera effectué via des audits aléatoires d’installations placées par l’entreprise labellisée ;
    • l’entreprise labellisée rédigera une déclaration de conformité à l’attention du client confirmant la conformité de l’installation avec les exigences de qualité imposées par le label.
  • conditions liées à la vente :
    • utilisation du contrat type publié sur le site de la DGO4 () ;
    • suivi des plaintes ;
    • l’entreprise devra disposer de tous les enregistrements, accès à la profession et assurances requis.

Trouver une entreprise labellisée NRQual :
http://www.questforquality.be/consommateurs/trouvez-un-installateur/


Solar PV

SOLAR PV est le label de qualité utilisé par les entreprises d’installation de systèmes photovoltaïques qui sont labellisés en Belgique par le BCCA sur base des référentiels développés par QUEST & CONSTRUCTION QUALITY. [questforquality.be]

QUEST et CONSTRUCTION QUALITY sont deux organismes indépendants aux missions distinctes. D’une part, QUEST est le garant de qualité des entreprises liées aux énergies renouvelables et, d’autre part, CONSTRUCTION QUALITY a pour mission de garantir les compétences professionnelles des entreprises actives dans la construction. Ces deux labels ont été réunis afin de créer le label SOLAR PV [energreen.be]

Logo Solar PV

Vous pouvez retrouver ce logo sur des devis, des déclarations de conformité, des autocollants, etc.

Prévoir la maintenance et la durée de vie d’une installation

Prévoir la maintenance et la durée de vie d'une installation


L’entretien nécessaire aux installations photovoltaïques est très limité. Un nettoyage occasionnel reste conseillé. Néanmoins, sa fréquence peut être influencée par de nombreux facteurs environnants : inclinaison, situation près de zone boisée, pollution,… Un des avantages de cette technique est que, via la présence de compteurs, la production est facilement comptabilisée. Cela permet de détecter rapidement un fonctionnement anormal de l’installation.

Un suiveur solaire nécessite par contre un entretien plus important (moteurs,…).

Un système photovoltaïque est un investissement à long terme puisque sa durée de vie est généralement supérieure à 25 ans et peut même atteindre 40 ans. Les fabricants, eux-mêmes, garantissent généralement qu’après 20-25 ans le module atteindra encore 80 % de sa puissance crête initiale. Un onduleur a par contre une durée de vie plus limitée (de 10 à 15 ans).

Considérer les aspects économiques d’une installation photovoltaïque

Considérer les aspects économiques d'une installation photovoltaïque

Les méthodes de production se sont considérablement améliorées et répandues ces dernières années. Les coûts de production et donc de vente des technologies photovoltaïques ne cessent de diminuer.

À l’heure actuelle, on considère des prix compris entre 0.8 à 2 € (HTVA) par Wc installés. Donc de  800 € à 2 000 € du kWc en fonction de la taille de l’installation.

Théories

La production électrique photovoltaïque est de plus récompensée par la certification verte.

Jusqu’au 30 juin 2018, en fonction de la puissance du champ de capteur installé, la production électrique donne droit à certains subsides. Les petites installations (< 10 kW) font l’objet de primes Qualiwatt. Les plus grandes installations (> 10 kW) donnent droit à un montant de certificats verts par MWh produit durant un certain nombre d’années.  Ce contexte d’aide, ainsi que les conditions de raccordement, influencent considérablement la rentabilité et les temps de retour sur investissement.

Néanmoins, pas d’inquiétude pour l’après Qualiwatt : la démocratisation et l’amélioration des performances globales des systèmes photovoltaïques ont rendu l’investissement suffisamment rentable pour qu’il n’ait plus besoin de soutien.

Vous trouverez plus d’infos sur les subsides sur le site de la CWAPE : ouverture d'une nouvelle fenêtre ! https://energie.wallonie.be/fr/facilitateur-energies-renouvelables-electriques-et-cogeneration.html?IDC=9546

Pour les petites installations (< 10kW), l’APERE a mis au point un simulateur financier. Il est disponible sur : ouverture d'une nouvelle fenêtre ! http://sifpv.apere.org/

> Pour estimer la rentabilité d’une installation photovoltaïque raccordée au réseau. XLS

N’en oublions pas pour autant les démarches URE !
L’énergie la moins chère et la moins polluante reste celle que l’on ne consomme pas !

Définir le raccordement au réseau de distribution

Définir le raccordement au réseau de distribution

Après avoir été transformé par l’onduleur en courant alternatif, le courant produit par une installation photovoltaïque alimente les différents circuits électriques de l’installation.
Si la production est inférieure à la consommation, l’ensemble de la production électrique photovoltaïque sera consommée sur place et le réseau fournira le complément nécessaire. Par contre, en cas de surproduction instantanée supérieure à la consommation, l’excédent pourra être injecté sur le réseau* de distribution et ainsi être utilisé par un autre consommateur.
Ce raccordement et la réinjection ne peuvent évidemment pas se faire n’importe comment ! Il faut donc avant toujours vérifier les conditions de raccordement au réseau dès les premières étapes du projet !

Différents types de raccordement sont en effet imposés suivant la puissance du champ de capteur. Ceux-ci se basent sur la notion de puissance nette développée (PND) définie comme étant le  minimum  entre la puissance crête du champ de capteur et la puissance maximale de sortie de l’onduleur (renseigné sur la fiche technique de l’onduleur). Elle est exprimée en kilovolt Ampère.

Voici en résumé les valeurs seuils et les exigences correspondantes :

De 0-10kVA :

La « compensation », le fameux compteur qui tourne à l’envers, est permis. Dans ce cas, un seul compteur établit le bilan annuel de consommation. Le producteur ne paiera annuellement que la consommation excédentaire. S’il produit plus qu’il ne consomme, son compteur est remis à 0. En quelque sorte, c’est comme  si le producteur valorisait l’énergie produite au même prix que celle d’achat, tant qu’il reste dans ses plages de consommation. Aucune revente de l’électricité excédentaire n’est permise dans cette configuration.

Jusqu’à 5 kVA, le raccordement monophasé est permis. Au-delà, le triphasé est obligatoire. Un équilibrage entre phases est imposé.

Au-delà de 10 kVA :

La compensation n’est plus permise. Le placement d’un compteur supplémentaire, dissocié du compteur de consommation, est imposé. Celui-ci comptabilise l’énergie qui est alors réinjectée sur le réseau (autrement dit qui n’est pas instantanément consommée par le producteur). L’électricité est alors revendue au fournisseur (le prix de vente se situe entre 3.5 et 5.5 c€ du kWh produit). Une étude de faisabilité est alors imposée par le gestionnaire du Réseau de distribution (GRD) (coût entre 2 000 et 10 000 €).

Dans un cas comme dans l’autre, l’installation devra répondre aux exigences,

De plus, des démarches préalables et postérieures à l’installation doivent impérativement être effectuées ! On contactera donc la commune, le GRD et la CWAPE en temps utiles !
Sur le site du facilitateur P.V. :
> Plus d’infos sur ouverture d'une nouvelle fenêtre ! les  aspects électriques.
> Plus d’infos sur ouverture d'une nouvelle fenêtre ! les exigences administratives relatives au photovoltaïque.
Sur le site de Synergrid :

> ouverture d'une nouvelle fenêtre ! Liste des questions les plus fréquentes concernant le raccordement réseau.

* Nous n’avons envisagé ici que les systèmes raccordés au réseau. Des systèmes autonomes fonctionnant sur batteries existent et constituent parfois la seule alternative pour des sites isolés.

Choisir un suiveur solaire

Choisir un suiveur solaire

L’avantage d’un système de tracking est incontestablement l’augmentation des performances qui en découle. Il permet ainsi de mieux exploiter les cellules dont on dispose.

Cependant, cette augmentation de production est compensée par un surcout engendré par la structure et le moteur du suiveur et la dalle de béton nécessaire à la stabilité. Un permis d’urbanisme est de plus nécessaire pour installer ce type de système. En pratique, il est donc important de mettre en balance les avantages liés à une meilleure production et le prix par kWc plus important.

Réglementations 

Plus d’infos sur la réglementation urbanistique (CWATUPE).

Au niveau de la production électrique, un suiveur à deux axes garantit une augmentation de la production électrique par rapport aux panneaux fixes d’au minimum 25 %. Des résultats de mesures sur cinq années ont par ailleurs permis au centre de recherche solaire allemand ZSW, d’estimer l’augmentation des performances par rapport à un système fixe pour Stuttgart (latitude de 48°, proche des 50° pour la Belgique) :

Source : New Energy (n° 3 de juin 2010 p 84-86).

Exemple : production d’électricité mensuelle d’1 kWc avec et sans traqueur installé au sud avec une inclinaison de 35° (Namur) sur une année moyenne.

(Pertes du système=14.0 %).

Fixe Traqueur 2 axes
[kWh] [kWh]
Moyenne mensuelle 70 88
Moyenne  journalière 2.3 2.9
Production totale annuelle 845 1 050

> Gains dans le cas considéré : 24.2 %.

Source : ouverture d'une nouvelle fenêtre ! PVGIS (Geographical Assessment of Solar Energy Resource and Photovoltaic Technology 2001-2007).

Remarquons que la différence de performance se marque donc plus en toute logique les mois les plus ensoleillés.

Pour évaluer les performances d’un système avec ou sans tracking dans un lieu précis : ouverture d'une nouvelle fenêtre ! cliquez ici !

Pour évaluer la rentabilité d’un suiveur solaire : cliquez ici ! XLS
Une autre technique complémentaire à celle du traqueur qui permet d’améliorer les performances des cellules est l’utilisation d’un concentrateur. Le principe est le suivant : augmenter la surface de captation sans augmenter la taille des cellules. Cette méthode est séduisante, car elle permet d’utiliser peu de matière semi-conductrice. Le problème reste sa difficulté de mise en œuvre et l’augmentation considérable de température de la cellule qu’elle induit, provoquant une chute de rendement importante. Il devient donc nécessaire de refroidir la cellule. Certaines recherches tentent actuellement de coupler des cellules photovoltaïques avec une application thermique (cellule PVT). L’idée est de récupérer la chaleur émise en chauffant un fluide (de l’eau glycolée par exemple). Pour l’instant, ces applications à concentration restent principalement répandues pour les applications spatiales (où l’échauffement des cellules ne pose pas de problème).

Choisir et placer un onduleur

L’onduleur est un organe primordial de l’installation qu’il ne faut pas négliger. La détermination de ses caractéristiques se fera naturellement en fonction du champ de capteur pris en charge.

Chaque onduleur possède en effet des plages de fonctionnement précises qui devront impérativement correspondre aux caractéristiques du courant continu généré par les modules.

Le choix et le dimensionnement de l’onduleur tiendront compte :

  • De la puissance maximale possible générée par les modules (on utilise généralement la puissance crête (conditions STC) minorée de 5 à 15 %).

 

  • Des tensions minimales et maximales (on utilise généralement comme tension maximale la tension générée en circuit ouvert (Uoc) à -10°C et comme tension basse, la tension à 70°C).

 

  • L’intensité maximum du courant

Suivant la taille de l’installation, il peut être nécessaire de démultiplier le nombre d’onduleurs. En général, un deuxième onduleur peut être prévu à partir de 5 kWc. Cette limite découle également des prescriptions Synergrid [Prescriptions C10/11 synergrid]

Une hétérogénéité (orientation, inclinaison, ombrage, utilisation de plusieurs types de modules, grande tolérance de fabrication sur la puissance des modules…) de l’installation peut aussi amener à opter pour plusieurs onduleurs. Plus l’installation est hétérogène, plus on aura intérêt en terme de performance à démultiplier les onduleurs (onduleur modulaire ou onduleur string). A l’inverse, pour une installation tout à fait homogène, il sera plus intéressant de limiter le nombre d’onduleurs (onduleur central). Il faudra suivant la situation trouver le bon compromis.  Les onduleurs multistring évitent également de démultiplier si on a une hétérogénéité dans l’installation.

  1. Générateur.
  2. Boitier de raccordement.
  3. Onduleur.

Techniques

Plus d’infos sur les différentes configurations possibles.

Le choix entre deux onduleurs correspondant à la configuration de l’installation peut être guidé par :

L’emplacement de  l’onduleur est aussi un facteur à prendre en compte lors de la conception d’un projet photovoltaïque.

Tout comme les cellules photovoltaïques, les composants électroniques internes de l’onduleur sont très sensibles aux hautes températures. Outre une chute de rendement, l’onduleur risque de se dégrader lors de fonctionnements continus à haute température. Certains onduleurs sont même équipés de refroidisseur actif (ventilateur). On comprendra donc ici tout l’intérêt de placer l’onduleur dans un local ventilé où la température est globalement contrôlée (attention aux combles sous toiture !).

Un onduleur fait aussi un certain bruit (généré soit par le transformateur et/ou par le ventilateur interne) qui peut parfois être gênant. Son poids (environ 10 kg/kW) peut aussi être un facteur déterminant pour le choix son emplacement.

Prédimensionner l’installation [photovoltaïque]

Prédimensionner l'installation [photovoltaïque]

En Belgique, 1 kWc, non ombré, exposé plein sud et incliné à 35° produit en moyenne 950 kWh/an. La surface nécessaire pour atteindre cette puissance crête dépendra du type de cellules choisies.

En première approximation, on considère généralement qu’il faut environ 7 m²/kWc.

La production électrique annuelle d’une installation non ombrée peut donc être estimée de cette manière :

Électricité produite annuellement [kWh]= Nombre de kWc*950 kWh *α

Avec,

  • α = facteur de correction prenant en compte l’orientation et l’inclinaison des capteurs.

Le tableau suivant reprend les valeurs de ce facteur correctif pour différentes configurations (d’inclinaison et d’orientation).

Sources des valeurs : EF4, facilitateur photovoltaïque.

Cette production sera bien entendu répartie au fil de l’année. L’exemple suivant illustre cette répartition :

Production d’électricité mensuelle d’1kWc installée au sud avec une inclinaison de 35° (Namur) sur base d’une année moyenne :

(Pertes du système = 14.0 %).
Moyenne mensuelle : 77.4 kWh.
Moyenne  journalière : 2.54 kWh.
Production totale annuelle 928 kWh.

Source  ouverture d'une nouvelle fenêtre ! PVGIS (Geographical Assessment of Solar Energy Resource and Photovoltaic Technology 2001-2012).

> Pour une estimation détaillée de la production électrique d’un système PV en un lieu donné : ouverture d'une nouvelle fenêtre ! PVGIS.

On notera que ces formules simplificatrices ne prennent pas en compte l’influence des ombres très préjudiciables pour le fonctionnement des modules photovoltaïques. Le meilleur moyen pour prédire de manière plus précise la production électrique est d’utiliser des logiciels de simulation dynamiques.

Prédimensionnement

Dimensionner une installation revient à déterminer la puissance crête à installer.
Ce dimensionnement peut se faire selon de nombreux critères :

  • Budget maximal.
  • La surface disponible et sa configuration (orientation, inclinaison, ombrage).
  • Couverture d’une fraction des consommations (pour évaluer ses consommations électriques : cliquez ici !
  • La rentabilité de l’investissement.

Dans les trois premiers cas, la formule (Nombre de kWc*950 kWh *α) permettra déjà de se faire une bonne idée du dimensionnement nécessaire. Le nombre de modules nécessaire est alors donné par :

N = Puissance crête de l’installation [Wc] /Puissance crête d’un module choisi [Wc]

Ex : Un fabricant propose un panneau de 125 Wc. Pour une puissance installée de 10 kWc il faudra donc : 10 000 / 125 = 80 panneaux.

Calculs

Pour accéder à une feuille de calcul donnant une estimation de la production d’une installation photovoltaïque. XLS

Dans le contexte actuel, les critères de faisabilité technico-économique (conditions de raccordement, subsides (certificats verts,…) et conditions de revente de l’électricité) conditionnent parfois le dimensionnement de l’installation.

Une base de données vivante et intéressante est disponible sur le site www.bdpv.fr.

Celle-ci comprend de nombreuses installations belges, on peut y voir leur production ainsi que des statistiques sur le matériel le plus installé.

Pour les systèmes autonomes, non abordés dans ce chapitre d’énergie+, le dimensionnement doit faire l’objet d’une analyse très détaillée de :

  • l’ensemble des consommations d’électricité du bâtiment ou de l’application,
  • du stockage de l’électricité, via des batteries (pouvant supporter des charges et décharges successives) et d’un système de secours.
Photovoltaïque et énergie grise
Une étude sur l’impact environnemental du photovoltaïque dans les pays de l’OCDE réalisée par Hespul avec le soutien notamment de l’ADEME et de l’AIE montre qu’il faut, en Belgique, 3,21 ans pour qu’un système sur toiture produise l’énergie nécessaire à sa fabrication. Cette durée est appelée temps de retour énergétique. Pour une installation en façade, elle est estimée à 4,68 ans. Si l’on estime la durée de vie d’une installation à 30ans, cela signifie que celle-ci aura produit 8,4 fois plus d’énergie que celle qui a été nécessaire à sa fabrication. Ce facteur appelé facteur de retour énergétique est de 5,4 pour les installations en façades.Sur sa durée de vie, une installation photovoltaïque de 1 kWc en toiture permet d’éviter jusqu’à 8,5 tonnes de CO2 (6,2 tonnes pour les installations en façade).
Source : IEA-PVPS Task 10, EPIA, European Photovoltaic Technology Platform.
Plus d’infos : facilitateur Energies renouvelables électriques :  http://energie.wallonie.be Dans le futur (après 2030), avec l’amélioration du rendement des cellules PV ou encore l’allongement de la durée de vie des panneaux, l’agence international pour l’énergie [IEA] prévois dans son scénario le plus optimiste une réduction du temps de retour énergétique à 1,7 ans. Dans son scénario le plus défavorable, l’étude avance le chiffre de 2,2 ans soit un an de moins qu’en 2018. [http://www.iea-pvps.org/index.php?id=314]

Choisir et raccorder les modules

Le choix du module (ou panneau pour les cellules cristallines) repose avant tout sur le type de cellule qui le compose. L’avantage majeur que possède le photovoltaïque est que technologies quelles que soient leurs provenances, ont été soumises à des tests sous les conditions STC (décrits dans les normes européennes). Cela permet une comparaison aisée via leur puissance crête !

Théories

Pour en savoir plus sur le rendement et la puissance crête d’une cellule.

Ce choix repose souvent sur la recherche d’un optimum économique parmi les possibilités suivantes (ou encore d’une contrainte de surface disponible en toiture par exemple) :

Plus une cellule est performante, plus elle est chère et plus la production surfacique (kWh/m²) sera grande.

Ainsi pour une puissance crête installée de 1 kWc, on aura besoin en moyenne  de :

  • 6 m² de cellules monocristallines (en considérant une puissance crête de 165 Wc/m²),
  • 8 m² de cellules polycristallines (en considérant une puissance crête de 125 Wc/m²),
  • 15 m² de cellules amorphes (en considérant une puissance crête de 66 Wc/m²).

En général, cette réflexion s’effectue directement au niveau du module :

Ex : Un fabricant propose un panneau de 125 Wc : il faudra donc huit panneaux pour obtenir une puissance installée de 1 kWc (1 000 Wc/125 Wc).

N.B. : les valeurs ci-dessus ne sont que des ordres de grandeur et peuvent varier sensiblement suivant le rendement des cellules considérées.

On choisira donc le type de cellule du module en fonction de la surface disponible, de la production souhaitée et du coût.

Techniques

Plus d’infos sur les différents types de cellules et leurs caractéristiques.

Le type de pose et l’effet esthétique peut aussi influencer le type de module choisi :

On pourra ainsi opter pour des modules verre-verre plutôt que des modules verre-tedlar traditionnels pour des applications où l’on recherche un effet translucide (verrière,…).

Techniques

Plus d’infos sur les différents types de modules.

Le raccordement des différents modules entre eux peut s’effectuer soit en série soit en parallèle en fonction du lieu d’implantation et des caractéristiques d’entrée de l’onduleur.

Le montage en série (addition des tensions générées) permet :

  • Un montage rapide et aisé.
  • Une utilisation de petites sections de câbles sans augmenter les pertes de transport du courant continu. (les pertes de puissance sont en effet fonction de l’intensité du courant au carré).

Il conviendra essentiellement pour les installations les plus homogènes (sans ombrage, orientation identique, faible tolérance de la puissance des modules,…). Dans ce cas, la défectuosité, l’ombrage,… affecteront l’entièreté de la production des modules raccordés en série.

Le montage en parallèle (addition des courants générés) conviendra à l’inverse plus particulièrement pour des installations plus hétérogènes (ombrage, inclinaison et orientation différentes,…) ou quand les tensions autorisées par l’installation  sont limitées.

En pratique, on essaie dans la limite du possible de  rassembler en série le maximum de modules de caractéristiques identiques (strings).

De manière générale, on veillera à limiter la longueur et à bien dimensionner le câblage  entre les modules. Un dimensionnement correcte du diamètre du câble permettra en effet d’éviter un échauffement trop important et par là des pertes de transports inutiles.

Suiveurs solaires

Suiveurs solaires


L’objectif d’un suiveur solaire est de pouvoir suivre le soleil tout au long des mois et de la journée. En suivant continuellement la position du soleil, ce système permet d’assurer une production électrique maximum.

Un suiveur solaire peut avoir deux degrés de liberté de rotation : horizontal pour régler l’inclinaison et vertical pour l’orientation. Il en existe différents types :

Simple axe longitudinal.

Simple axe vertical.

Simple axe transversal.

Double axe.

On distingue principalement le suiveur à un axe, qui permet (généralement) de suivre le soleil d’est en ouest, du suiveur à deux axes qui permet une modification de l’orientation et de l’inclinaison. Ce dernier cas nécessite l’intervention de deux moteurs.
Deux systèmes différents permettent le tracking :

  • Le système actif : muni d’une sonde d’éclairement, il permet une recherche instantanée de la position optimale. En cas de ciel couvert (rayonnement diffus), un tel système se met à l’horizontal, position dans laquelle la production est maximale par ce type de ciel.
  • Le système astronomique : la position est alors directement fonction du parcours solaire pré-programmé.

D’autres sondes (type anémomètre) permettent aux traqueurs d’adopter une position de sécurité en cas d’intempérie.

> Vers le choix d’un suiveur solaire.

Onduleurs

Onduleurs


Définition

La plupart de nos applications électriques actuelles fonctionnent en courant alternatif ; or une installation photovoltaïque produit un courant continu. Le premier rôle d’un onduleur sera d’assurer cette transformation. Mais son rôle ne s’arrête pas là.

Il doit permettre en plus :

  • La recherche du point de fonctionnement maximal (MPP tracker) par rapport à l’intensité et à la tension générée par les modules, par exemple, par modification d’impédance.
  • De se synchroniser avec le réseau du GRD afin de pouvoir réinjecter le courant généré. Pour cela, il devra adapter la tension (transformation), la fréquence et l’impédance.
  • De se découpler automatiquement en cas de chute de tension dans le réseau.
  • Le relevé et l’enregistrement des valeurs caractéristiques du fonctionnement nécessaire à la maintenance et au contrôle de l’installation.

Un onduleur possède des plages de travail bien définies :

  • Puissance maximale ;
  • Tensions minimum et maximum ;
  • Courant maximum.

Ces valeurs devront donc être en cohérence avec les caractéristiques du champ de capteurs pour éviter tout risque de mauvais fonctionnement voire de détérioration de l’appareil.

Un onduleur peut être caractérisé par son rendement « européen », obtenu sur base de rendement à charge partielle. Celui-ci atteint actuellement  95 %.

> Plus d’infos sur le fonctionnement de l’onduleur.

Différentes configurations sont possibles pour la position du ou des onduleurs par rapport aux modules photovoltaïques : sur chaque panneau, string, champ de capteurs,… La configuration idéale d’une installation (raccordement des modules en série parallèle et place de l’onduleur) dépendra essentiellement de l’homogénéité du champ de capteurs (ombrage, orientation et inclinaison, types de cellules, défaillance, encrassement,…).


Onduleur central : un onduleur gère l’ensemble de l’installation

  1. Champ de capteur (ou générateur).
  2. Boitier de raccordement.
  3. Onduleur.
  4. Compteur.
  5. Réseau.

Dans cette configuration,  l’onduleur ne perçoit pas les différences de caractéristiques entre les courants produits par les différents strings. Ils sont en effet couplés au préalable au niveau du boitier de raccordement. C’est à partir de ce courant (d’intensité égale à la somme des courants et de tension égale à la tension la plus haute des différents strings) réellement perçu par  l’onduleur est que celui-ci adaptera ses caractéristiques d’entrées pour faire fonctionner le générateur photovoltaïque à son point de puissance maximum.

Avantage

  • Coût.
  • Simplicité et rapidité de montage.

Inconvénient

  • La tension de sortie et donc la production énergétique est très facilement perturbée par un string plus faible (ombrage, nombres de panneaux, type de cellule,…).
  • Ce type de raccordement ne permet pas de travailler avec des strings de natures différentes sans altérer considérablement la production.

Note : Deux types  de raccordement sont possibles avec un onduleur central: à tension faible (peu de modules composent les strings) ou à tension élevée (beaucoup de modules par string). Le principe de fonctionnement est similaire.


Onduleur string : un onduleur par string (rangée de modules en série)

Dans cette configuration, chaque onduleur peut exploiter aux mieux chaque string.

Avantage

  • Recherche du point de puissance maximale (MPP) pour chaque string.

Inconvénient

  • Influence de la perte de rendement d’un module (du à l’ombrage, à la saleté, ou à une défaillance) sur les performances des modules du string (mais limitée à celui-ci !).

Onduleur Multistring : un onduleur gère différents strings en parallèle

Dans ce cas, combinant en quelque sorte les configurations « string et centralisées », les entrées sont équipées chacune de leur propre MPPT. Les différents courants continus générés sont d’abord synchronisés avant d’être transformés en courant alternatif.

Avantage

  • Association de string de natures différentes (types de cellules, orientation, nombres de modules,…) sans perturbation globale des performances.
  • Rendement nettement supérieur comparé à la configuration centralisée, en présence de string de natures différentes.

Onduleur modulaire : un onduleur par panneau

Avantage

  • Facilité d’emploi.
  • Pas de câblage en courant continu.
  • Indépendance de chaque module (l’ombrage d’un panneau et sa perte de rendement résultante n’affecte pas la production des autres panneaux. De même que la panne d’un onduleur n’influence pas les autres modules).

Inconvénient

  • Coût.
  • Maintenance : en général ce type d’onduleur est directement intégré au panneau. Sa défaillance entraine le remplacement du panneau (hors la durée de vie de celui-ci est normalement inférieure à celle du panneau).

Branchement d’onduleur

En charge partielle faible, c’est-à-dire lorsque le flux lumineux est faible, le rendement des onduleurs est plus bas.
Pour écourter le temps de travail en faible charge d’un seul onduleur, il est possible d’utiliser plusieurs onduleurs en communication.

Le principe est simple : Si l’éclairement est important, plusieurs onduleurs travaillent ensemble à pleine charge si par contre, l’éclairement est faible, un seul onduleur fait le travail !

Deux cas de figure sont possibles :

  • Suivant que les onduleurs s’allument et s’éteignent selon les besoins :  principe maitre esclave. Le raccordement est identique à la configuration centralisée.
  • Suivant que les strings soient répartis ou non sur différents onduleurs : principe team. Cette configuration est un prolongement de la configuration onduleur string.

Modules photovoltaïques

Modules photovoltaïques


Pour obtenir une tension électrique générée qui soit utilisable, on raccorde plusieurs cellules en série qui forment alors un string. Un module est composé de plusieurs strings.

L’association des cellules en modules permet :

  • D’obtenir une tension suffisante
  • De protéger les cellules et leurs contacts métalliques de l’ambiance extérieure (humidité,…)
  • De protéger mécaniquement les cellules (chocs,…)

Les modules les plus courants (communément appelés panneaux) sont généralement constitués :

Schéma principe du module photovoltaïque.

  • D’un cadre de support et un joint d’étanchéité (1 et 2).
  • D’une plaque de verre extra claire (favorisant la transmission lumineuse) (3).
  • De deux couches d’Ethylène-Acétate de Vynile (EVA) qui enrobent les cellules assurant leur protection contre les intempéries et l’humidité. (4)
  • Des différents strings de cellules (5).
  • D’une feuille de tedlar (ou éventuellement du verre) comme face arrière du module. Ce polymère à haute résistance aux UV et à la haute température assure au module sa résistance mécanique face aux chocs externes (vent, transport,…) (6).

Le type de module le plus courant, rencontré entre autres pour le montage en toiture est le module verre tedlar.
Il existe cependant d’autre type de module comme :
Les modules « verre-verre », utilisés pour leur propriété « translucide » : verrières, façade,…

Photo module modules "verre-verre".

Des modules tuiles/ardoises solaires où les cellules sont directement intégrées dans des modules de formes traditionnelles de toiture. Celles-ci sont cependant plus exigeantes en termes de main d’œuvre (chaque tuile doit être raccordée manuellement !)

D’autres modules de types « thin film » ont aussi récemment fait leur apparition sur la marché. Ils sont en général disposés sur un support souple (teflon,…).

Photo module de type "thin film".

Les modules sont connectés entre eux (en série ou parallèle) par des fils électriques. Ils forment alors un champ de capteurs (appelés aussi générateur).

Schéma principe du champ de capteurs.

Placement de capteurs solaires


Source : Apere, Prescriptions urbanistiques pour le placement de capteurs solaires, Économisons l’énergie, Service public de Wallonie, 23 juillet 2010. Plus d’infos sur : energie.wallonie.be.

En vertu du Code wallon de l’Aménagement du territoire, de l’Urbanisme, du Patrimoine et de l’Énergie (CWATUPE), le placement de capteurs solaires, thermiques ou photovoltaïques, n’est pas soumis à l’obtention d’un permis d’urbanisme (Art. 262, al. 2) pour autant que le dispositif :

1. est conforme à la destination de la zone1;

2. alimente tout bâtiment, construction ou installation situé sur le même bien immobilier2;

3. réponds à l’un des cas de figure suivants :

  • Lorsque les modules sont fixés sur une toiture à versants, la projection du débordement dans le plan vertical est inférieure ou égale à 0,30 m et la différence entre les pentes du module et de la toiture de ce bâtiment est inférieure ou égale à 15 degrés;

         

  • Lorsque le ou les modules sont fixés sur une toiture plate, le débordement vertical est de 1,50 m maximum et la pente du module de 35 degrés maximum;

  • Lorsque le ou les modules sont fixés sur une élévation (façade), la projection du débordement dans le plan horizontal est comprise entre 1,20 et 1,50 m et la pente du module entre 25 et 45 degrés.

 

Lorsque le dispositif ne répond pas à l’une de ces 3 conditions, un permis d’urbanisme est nécessaire, mais sa délivrance ne nécessite pas l’avis du fonctionnaire délégué (Art. 107, §1, 2ème partie, 2°, d). Cependant, si le dispositif n’est pas situé à une distance des limites mitoyennes au moins égale à sa hauteur totale, l’intervention d’un architecte (Art. 265, 8°) est requise.

Remarques

1. La dispense de permis n’est pas d’application si l’aménagement :

  • porte sur un bien :
    • inscrit sur la liste de sauvegarde,
    • ou classé,
    • ou situé dans une zone de protection visé à l’article 209,
    • ou localisé dans un site repris à l’inventaire des sites archéologiques visé à l’article 233,
    • sauf si ce bien est un élément du petit patrimoine populaire visé à l’article 187, 13° (Art. 84, §2);
  • nécessite des actes et travaux préparatoires soumis au permis d’urbanisme.

2. En vertu des dispositions du décret du 22 mai 2008 modifiant les articles 35 et 111 du CWATUPE (Annexe 8, Art. 3), l’interdiction de la pose de capteurs, solaires — ou la dérogation — auparavant imposée par d’autres dispositions légales, décrétales ou réglementaires (RRU, RCU, PCA ou permis de lotir) est abrogée3.

3. La couverture complète d’un pan de toiture par des  capteurs solaires relève, pour l’instant, des règles d’urbanisme relatives aux matériaux de couverture et non à celles qui régissent le placement de capteurs solaires.

4. En vertu des articles 35 et 452/34 bis du CWATUPE, le placement de capteurs solaires en zone agricole est conforme au plan de secteur pour autant que le dispositif :

  • ne remette pas en cause de manière irréversible la destination de la zone ;
    • alimente tout bâtiment, construction ou installation situé sur le même bien immobilier2;
    • soit destiné à un usage privé4.

Ces capteurs solaires peuvent :

  • alimenter une habitation implantée dans une zone d’habitat contiguë ;
  • être placés isolément à condition qu’ils ne soient pas visibles de l’espace public.

Notes

  1. Ne déroge pas au plan de secteur. Pour le cas des zones agricoles, voir page suivante le chapitre « Remarques ».
  2. Bien qui peut éventuellement comprendre plusieurs parcelles ayant des numéros cadastraux différents, à condition qu’il n’y ait pas de discontinuité entre elles. Cette disposition n’est toutefois pas applicable aux bâtiments :
    • repris à l’inventaire du patrimoine visé à l’article 192,
    • visés à l’article 185, et classés ou inscrits sur la liste de sauvegarde. (Art. 3 du décret du 22 mai 2008 modifiant les articles 35 et 111 du CWATUPE).
  3. Cette disposition n’est toutefois pas applicable aux bâtiments repris à la note 2.
  4. Ne sont donc pas autorisées, les installations collectives de modules de production et les installations publiques d’un réseau de distribution ou de production d’électricité (Art. 452/34bis du CWATUPE).

Effets photoélectrique et électroluminescent

Effets photoélectrique et électroluminescent


Un matériau semi-conducteur

Un matériau semi-conducteur est un matériau dont la conductibilité électrique peut varier en fonction des conditions dans lesquelles il se trouve.

C’est la mécanique quantique et la théorie des bandes qui permettent d’expliquer ce comportement. Schématiquement, le phénomène peut être représenté de la manière suivante :

Le niveau d’énergie d’un électron d’un atome ne peut prendre qu’un certain nombre de valeurs discrètes. Ces plages sont appelées « bandes d’énergie ». Suivant leur niveau d’énergie, les électrons peuvent soit se trouver dans une bande de valence ou dans une bande de conduction. Dans le premier cas, ils contribueront aux liaisons de l’atome, dans l’autre, à la conductibilité du matériau. Entre ces bandes, il existe des bandes dites « interdites », correspondant aux valeurs énergétiques que l’électron ne peut prendre.

Pour les matériaux conducteurs, cette bande interdite n’existe pas.  Les électrons de liaisons contribuent alors directement à la conductibilité. Pour les matériaux isolants, cette bande est quasi infranchissable tant l’énergie nécessaire est importante. Pour les semi-conducteurs, cette bande interdite est suffisamment petite pour permettre un passage aisé des électrons de la bande de valence à la bande de conduction.

Cette représentation permet d’expliquer la différence de comportement à la chaleur des conducteurs et des semi-conducteurs. Dans un métal, les électrons de valence soumis à la chaleur s’agitent, diminuant la zone conductrice de la bande d’énergie. Pour les semi-conducteurs, une augmentation de la température favorise le passage des électrons situés sur la bande de valence vers la bande de conduction, améliorant la conductibilité de l’atome (diminution de la résistance).

Remarque : le niveau de fermi représente le plus haut niveau d’énergie que les électrons peuvent prendre à une température de 0K.

Il est possible d’augmenter la conductibilité d’un semi-conducteur par un procédé chimique, appelé dopage, qui consiste à insérer des impuretés dans le semi-conducteur.

On réalise ainsi des semi-conducteurs de type n et des semi-conducteurs de type p.

Pour obtenir un matériau de type n, on dope le matériau semi-conducteur (généralement du silicium) avec un élément de valence supérieure (possédant plus d’électrons que le semi-conducteur), comme le phosphore, afin d’ajouter des électrons à la bande de conduction. La conduction est alors assurée par le déplacement de ces électrons.

Pour obtenir un matériau de type p, on dope le matériau semi-conducteur par un élément de valence moins importante, comme le Bore, afin de diminuer le nombre d’électrons de la bande de valence.  La conduction est  alors assurée par le déplacement de porteurs chargés positivement (trous correspondant au manque d’électrons).


Une jonction PN

Une diode électroluminescente ou une cellule solaire photovoltaïque est composée d’une jonction p-n, la couche supérieure étant un matériau de type n et la couche inférieure de type p. Pour fabriquer ces jonctions, on effectue un traitement de surface pour déposer un semi-conducteur de type n sur la surface externe d’un matériau de type p. 

La mise en contact de ces matériaux génère une barrière de potentiel à la base du champ électrique permanent. Cette barrière, appelée zone de déplétion, est formée par recombinaison du surplus de trous et d’électrons des zones p et n remise en contact. Le schéma suivant représente les niveaux d’énergie au voisinage de la jonction :

Si la température d’une telle jonction augmente, les électrons rempliront progressivement tous les états d’énergie, annulant la bande interdite et par là, l’effet de la jonction p-n.


Effet photoélectrique

Historique et principe

L’effet photoélectrique a été découvert par Alexandre Edmond Becquerel en 1839. Il est obtenu par absorption des photons dans un matériau semi-conducteur, lequel génère alors une tension électrique. Les cellules photovoltaïques produisent du courant continu à partir du rayonnement solaire qui peut être utilisé pour alimenter un appareil ou recharger une batterie. (Source : ouverture d'une nouvelle fenêtre ! EF4, facilitateur photovoltaïque).

Le rayonnement solaire est constitué de photons dont l’énergie est décrite par la relation suivante :

E [J] = hv = h . c/λ

Avec,

  • h : constante de Planck.
  • λ : longueur d’onde [m].
  • v : fréquence [Hz].

Quand un photon heurte la cellule, il transmet son énergie aux électrons des semi-conducteurs. Si l’énergie absorbée est suffisante pour permettre le passage de la bande interdite (hv > Egap = Éconduction – Evalence), ces électrons quittent leur bande de valence et entrent dans la bande dite de conduction. Cette émission d’électrons et des trous correspondants (on parle de paires électron-trou) due à l’action de la lumière est appelée effet photoélectrique interne (car les électrons ne sont pas éjectés en dehors de l’atome). Les propriétés physiques du matériau sont alors modifiées et celui-ci devient conducteur (photoconductivité). Si à l’inverse l’énergie du photon n’est pas suffisante, il traverse le matériau sans transmettre d’énergie.

Ainsi, un matériau semi-conducteur dont la bande interdite est comprise entre 0.7 et 0.4 eV est un matériau dit photovoltaïque du spectre solaire.

Le défi est de récupérer la paire électron-trou ainsi générée, car si celle-ci n’est pas récupérée suffisamment rapidement il y a recombinaison entre l’électron et le trou. Pour pouvoir valoriser le potentiel électrique de cet effet, on utilisera la différence de potentiel induite par une jonction pn.

Influence de l’éclairement

L’effet du rayonnement lorsqu’il fournit assez d’énergie (si celle-ci est supérieure à la largeur de la bande interdite) fait apparaître des paires supplémentaires d’électron trou porteur (apparition simultanée d’un porteur n et d’un porteur p) dans la jonction.

Les porteurs p ainsi créés ont tendance à migrer vers le matériau p et les porteurs n vers le matériau n, renforçant la barrière de potentiel. Une partie des porteurs générés par le rayonnement sera elle aussi soumise à divers phénomènes de recombinaison (disparition simultanée d’un porteur n et d’un porteur p).

L’éclairement a deux effets sur le fonctionnement :

Si le système fonctionne en mode récepteur (quadrant III) : la résistance diminue avec l’éclairement, c’est la photorésistance.

Si le système fonctionne en mode générateur (quadrant IV) : le courant « court-circuit » est proportionnel à l’éclairement et la tension à vide est celle de la diode en polarisation directe. C’est la cellule photovoltaïque à jonction PN. C’est sur ce quadrant IV que sont basées les caractéristiques des cellules :

Représentation théorique et équation d’une « cellule idéale ».

Avec,

  • Icc [A] : courant de court-circuit dû à l’éclairement E
  • Vco : tension en circuit ouvert.

Pour créer un courant, on place des électrodes sur chacun des matériaux et on les relie par un circuit électrique. Ces raccordements et leur fabrication provoqueront des effets résistifs parasites qui différencieront les caractéristiques réelles des cellules de ce comportement théorique.

Théories

Pour en savoir plus sur les caractéristiques des cellules.


 Effet électroluminescent

Historique

H.J. Round fut le premier à observer une émission de lumière par un semi-conducteur en 1907. La diode électroluminescente était née. C’est, en quelques sortes, l’inverse de l’effet photoélectrique qui caractérise les cellules photovoltaïques. Utilisée dans les LEDs, cette technologie n’a pas cessé de s’améliorer tant au niveau de l’étendue de la gamme de couleurs qu’à l’explosion des domaines d’application comme la signalisation et l’éclairage de puissance.

Principe

Lorsqu’on soumet une jonction PN à une source électrique à courant continu, la jonction présente un comportement différent si elle est soumise à une différence de potentiel dans le sens direct ou dans le sens inverse.

La polarisation directe de la jonction (en respectant les bornes) provoque un abaissement de la barrière de potentiel et permet un passage important d’un courant appelé courant de diffusion et dû aux porteurs majoritaires. La présence de ce courant de diffusion déséquilibre le système et aboutit à une croissance de la population des porteurs minoritaires dans chaque zone. Si la tension de polarisation directe est suffisante, la probabilité de recombinaison radiative n’est plus négligeable et des photons sont produits par la recombinaison dans la jonction.

À titre indicatif, la polarisation inverse provoque un renforcement de la barrière de potentiel (élargissement de la zone de déplétion par recombinaison) et un courant dû aux porteurs minoritaires (trous dans le type n et électrons dans le type p). Ce courant, très faible, varie peu en fonction de la tension.

Cette caractéristique est à la base des diodes, composant électronique qui ne permet le passage de courant que dans un sens.

Ce schéma montre la relation  typique entre l’intensité du courant et le potentiel d’un tel composant :

Couleur émise

La longueur d’onde λ, soit la couleur de la lumière émise, dépend du fameux saut d’énergie :

Egap = h.c / λ.

Avec,

  • h : constante de Planck
  • c : vitesse de la lumière
  • λ : longueur d’onde [m].

Liée aux matériaux et au taux d’impuretés de la diode, la lumière émise est quasi monochromatique, ce qui signifie que la couleur émise sera saturée.

Chaque recombinaison n’est pas radiative : il n’y a donc pas d’émission de photon à tous les coups, ce qui réduit l’efficacité de la Diode électroluminescente. Il est donc nécessaire pour les fabricants d’allier des matériaux et des moyens de conception qui permettent d’optimiser le rendement radiatif. Pour l’éclairage, les fabricants ont donc dû faire appel à leur imagination pour améliorer la performance de la jonction : on parle d’hétérojonctions multiples pour les LED de puissance contre des homojonctions pour les LED classiques de basse puissance.

Types de cellules

Types de cellules


Une cellule photovoltaïque est un composant électronique qui lorsqu’il est exposé au spectre solaire génère une tension électrique par effet photovoltaïque.

Toutes les cellules sont créées à partir de matériaux semi-conducteurs. La plupart du temps, c’est le silicium (Si) qui est utilisé mais on rencontre aussi le sulfure de cadmium (CdS), le tellure de cadmium (CdTE), des alliages de cuivre indium et sélénium (CIS),…

Trois technologies principales de cellules existent suivant leur mode de production :


1ère génération : cellules cristallines

Ces cellules, généralement en silicium, ne comprennent qu’une seule jonction p-n. La technique de fabrication de ces cellules, basée sur la production de « wafers » à partir d’un silicium très pure, reste très énergivore et coûteuse. La limite théorique de rendement de ce type de cellule est de ±27%. Les cellules les plus récentes s’approchent chaque année de plus en plus de cette limite.

Méthode de fabrication : le cristal formé par refroidissement du silicium en fusion dans des creusets parallélépipédiques est ensuite découpé en fines tranches appelées « wafers ». Les cellules sont alors obtenues après « dopage » et traitement de surface.

On distingue deux types de cellules cristallines :

Les cellules polycristallines

Photo cellules polycristallines.

Le refroidissement du silicium en fusion est effectué dans des creusets parallélépipédiques à fond plat. Par cette technique, des cristaux orientés de manière irrégulière se forment. Cela donne l’aspect caractéristique de ces cellules bleutées présentant des motifs générés par les cristaux.

Rendement

16-18 % (On obtient ainsi une puissance de 160 à 180 Wc par m²)
Ces cellules restent les plus utilisées du fait du rapport performance/prix plus intéressant que celui de leurs homologues monocristallins.

Avantage

  • Rapport performance/prix.

Inconvénient

  • Rendement faible sous éclairement réduit.

Les cellules monocristallines

Photo cellules monocristallines.

Ces cellules sont constituées de cristaux très purs obtenus par un contrôle strict et progressif du refroidissement du silicium.

Rendement

17-20 % (On obtient ainsi une puissance de 170 à 200 Wc par m²).

Sans entrer dans le détail, si aujourd’hui les cellules sont de type « Al-BSF » (aluminium back surface field) l’évolution vers des cellules « PERC » (passived emitter and rear cell) permettra prochainement de monter à ± 23 % tandis que les cellules à hétérojonctions promettent déjà d’atteindre les 26 %. (26.6 % déjà obtenu en laboratoire)

Avantage

  • Très bon rendement.

Inconvénients

  • Coût élevé.
  • Rendement faible sous éclairement réduit.

2ème génération : couches minces « thin films »

Photo cellule couches minces "thin films".

Dans le cas de « couches minces », le semi conducteur est directement déposé par vaporisation sur un matériau support (du verre par exemple). Le silicium amorphe (a-Si) (silicium non cristallisé de couleur gris foncé), le tellurure de cadmium (CdTe), le disélénium de cuivre indium (CIS) font notamment partie de cette génération. Ce sont des cellules de cette technologie que l’on retrouve dans les montres, calculatrices,… dites solaires !

Le silicium amorphe

Rendement

6 à 7 % soit 60-70 Wc/m².

Avantages

  • Moins coûteux que la première génération puisqu’elle consomme moins de matériau semi-conducteur.
  • Moins polluant à la fabrication (Ne nécessite pas de passer par l’étape de transformation du silicium en « wafers » (moins énergivores)).
  • Fonctionnent avec éclairement faible.
  • Moins sensible à l’ombrage et aux élévations de température.
  • Possibilité de créer des panneaux souples.
  • Panneaux légers.

Inconvénients

  • Rendement global plus faible.
  • Rendement moindre sous éclairement direct.
  • Diminution de performance avec le temps plus importante.

Le tellure de Cadnium, Disélénium de cuivre indium (avec ou sans Gallium)

Il existe d’autres types de cellules « couches minces » : tellurure de cadmium (CdTe), le disélénium de cuivre indium (CIS),…

Le CdTe présente de bonnes performances, mais la toxicité du cadmium reste problématique pour sa production.

Rendement

11 à 15 % soit 110-150 Wc/m². En laboratoire, les cellules ont déjà atteint le rendement record [2017] de 21,7 % pour des cellules CIGS ! De quoi concurrencer les homologues cristallins !

Avantages

  • Fonctionnent avec éclairement faible.
  • Moins sensible à l’ombrage et aux élévations de température.
  • Possibilité de créer des panneaux souples.
  • Panneaux légers.

Inconvénients

  • Rendement global plus faible en ce qui concerne les cellules commercialisées.
  • Rendement moindre sous éclairement direct.
  • Diminution de performance avec le temps plus importante.
  • Durée de vie moins grande que les cellules cristallines.

3ème génération : Perovskites, multijonction, concentration, …

Pour améliorer les rendements des cellules, la recherche se tourne actuellement vers plusieurs pistes dont notamment :

  • Les Cellules Pérovskites sont des cellules composées d’un élément hybride organique-inorganique ayant une structure de pérovskite.

Schéma cellules Pérovskites.

  • Ces cellules sont apparues en 2000 avec un rendement de 3,8 %. Depuis, en 2016, le rendement est passé à 22,1 % ce qui en fait une alternative prometteuse ! Leur coût de production est faible. L’inconvénient de ces cellules réside dans leur instabilité et faible résistance aux agents extérieurs (eau, températures…). Néanmoins bon nombre de recherches prometteuses sont en cours et devraient finir de rendre ce type de cellules rapidement intéressantes.
  • Cellules multicouches : superposition de multiples cellules aux propriétés différentes (utilisant des bandes d’énergie différentes permettant un balayage plus large du spectre solaire). Ce type de cellules est déjà commercialisé, mais principalement pour des applications spatiales. Les rendements obtenus sous concentration sont très prometteurs (au délà de 30 %)..

    Schéma cellules multicouches.

      1. Sunlight spectrum ;
      2. Tunnel junctions ;
      3. Cell 1, cell 2, cell 3.

    Structure d’une cellule triple-jonction.

  • Cellules à concentration (permet d’utiliser des photons à basse énergie qui ne sont habituellement pas absorbés par la cellule).
  • Cellules organiques,…

Conclusion

  • Les cellules cristallines à jonction simple se rapprochent de leur performance ultime théorique (± 27 %).
  • Les TF-PV (ThinFilm PV) s’améliorent très rapidement et commencent à concurrencer les cellules cristallines en terme de rendement.
  • Les Cellules à Perovskites sont un nouveau matériau plein de potentie.
  • Les Tandems Silicones-Cristallins semblent être la voie à suivre pour atteindre des rendements supérieurs à 30 % à faible coûts.
    [imec]

Courtesy of M. Hermle, Fraunhofer ISE.

Choisir l’emplacement des capteurs [photovoltaïque]

 

Avant toute chose, il est nécessaire de se poser quelques questions :

  • Y a-t-il des surfaces inutilisées qui pourraient être valorisées énergétiquement ?
  • Au niveau du bâtiment ? du terrain ?
  • Ces surfaces sont-elles bien orientées ?
  • Sont-elles ombrées ?
  • En cas d’application en toiture, celle-ci est-elle encore en bon état ?

Le choix de l’emplacement des modules peut être fonction de plusieurs de ces facteurs :


Surface disponible

La surface disponible déterminera la puissance génératrice qu’il est possible d’installer en fonction du type de cellule choisi. Pour connaître la production électrique surfacique attendue :

> Plus d’infos sur la production électrique et le pré dimensionnement


Orientation et inclinaison

Dans nos régions, le sud est évidemment le maître choix pour les installations fixes. L’inclinaison optimale qui permet de maximiser les gains solaires annuels incidents (et donc la production) se situe à 35°. On tentera donc de se rapprocher le plus possible de cette orientation.

Attention, si théoriquement ceci est vrai, d’un point de vue économique, le but de toute installation photovoltaïque doit également de faire se rencontrer les périodes de production et de consommation pour favoriser l’autoconsommation. Ainsi, en l’absence d’un moyen de stockage de taille adapté, une orientation des panneaux dite Est-Ouest peut être optimale.

Figure 1:Panneaux photovoltaïques orientés Est-Ouest : Tritec-energy.com.

De plus, les températures hautes étant nuisibles aux performances des panneaux, on préférera généralement une orientation Est à Ouest (température plus basse le matin).

Théories

Plus d’infos sur la variation de l’irradiation solaire annuelle en fonction de l’inclinaison et de l’orientation!

> Plus d’infos sur l’influence de ce paramètre au niveau de la production électrique et du dimensionnement.

Cependant, comme le montre le schéma suivant, l’angle d’inclinaison optimale (perpendiculaire au soleil) varie au fil des mois et des heures.

Des systèmes de tracking appelés aussi suiveur solaire permettent d’adapter continuellement l’inclinaison et l’orientation des panneaux.


Type de pose

Plusieurs types de pose sont possibles :

En toiture

Pose en toiture inclinée

En toiture inclinée, les panneaux sont attachés à la structure du toit au moyen de pattes métalliques. Les modules peuvent être soit placés en surimposition soit intégrés à la toiture. Les modules remplacent alors la couverture de la toiture comme peuvent le faire des tuiles solaires.

L’échauffement possible des cellules est, dans ce cas, un problème dont il faut tenir compte. En effet, une perte de puissance (environ 0.5 % par degré) en fonctionnement est associée à la montée en température des cellules. Or, en cas d’intégration, la chaleur est plus difficilement dissipée par ventilation qu’en cas de surimposition. Des ajustements de la structure de la toiture sont dans certains cas indiqués pour améliorer la ventilation à l’arrière des modules.

     

Surimposition et intégration

Pose en toiture plate

En toiture plate, les panneaux sont généralement disposés sur une structure en métal ou en plastique. Celle-ci permet d’obtenir un angle d’inclinaison optimisant la production de la surface utilisée tout en assurant la ventilation de l’arrière du panneau. La ventilation de l’arrière des  panneaux photovoltaïques est par contre moins importante dans le cas des bacs en PVC. On n’oubliera pas le lestage nécessaire.

Il faut impérativement vérifier l’état de la toiture et du matériau de couverture au préalable. Il serait dommage de devoir démonter les panneaux quelques années plus tard ! De plus, il ne faut pas oublier le poids induit par la pose des panneaux et le lestage important (80 à 100 kg par m² de capteur) requis pour la pose en toiture plate (résistance à la prise au vent). Ce surpoids doit pouvoir être supporté par la charpente ! Lorsque l’on solidarise l’ensemble des panneaux via une structure métallique, la quantité de lestage peut diminuer et des valeurs de l’ordre de 50 kg/m² sont alors plus communes.

Certaines cellules de types « thin film » ont aussi vu le jour. Elles permettent une intégration directe à l’étanchéité d’une toiture plate et ne nécessitent donc pas le surpoids induit par le support.  Attirante d’un point de vue économique (cellule moins coûteuse et directement intégrée dans une étanchéité nécessaire), on notera que ces cellules sont caractérisées par de plus faibles rendements. Elles doivent de plus être implantées selon la configuration du support. Leur orientation et inclinaison seront donc généralement celles de la toiture, ce qui conditionnera leur productivité. Une légère pente reste néanmoins souhaitable pour favoriser l’écoulement des eaux de pluies et éviter l’encrassement des cellules.

  

Sur supports et intégré à la couverture.

En façade

Il est possible d’utiliser des modules photovoltaïques comme bardage de façade. Ce type de configuration entraine une perte de production importante due à une réduction de l’exposition solaire (30% de moins que dans les conditions optimales). Comme en toiture inclinée, l’intégration ou la surimposition est possible.

Ce qu’on appelle aujourd’hui le BIPV (Building Integrated Photovoltaics) est de prime abord moins productif et généralement plus cher que la pose classique en toiture. Néanmoins, les panneaux photovoltaïques peuvent se substituer au bardage et remplir ainsi une double fonction (bardage + production électrique solaire). Dans le cadre d’une telle installation, il faut en réalité se poser la question du surcoût par rapport au matériau « classique » qui est remplacé.

La technologie solaire étant de moins en moins cher et le coût de l’énergie augmentant continuellement, ces solutions ont tendance à devenir de plus en plus crédibles d’un point de vue économique, et ce malgré leur rendement réduit.

Dans les zones urbanisées, sous la pression immobilière et la nécessitée croissante de densifier, les concepteurs de bâtiments ont tendance à réduire l’emprise au sol des bâtiments (et corollairement leur surface de toiture) au profit d’un accroissement du nombre d’étages. Se faisant, la quantité de surfaces verticales augmente considérablement tandis que les surfaces de toitures sont réduites à peau de chagrin. Il y a donc un réel intérêt aujourd’hui à donner une plus-value à ces surfaces, et ce dès la conception des projets.

En verrière

Pour ces applications, on utilise des modules verre-verre qui permettent de garantir un passage lumineux. Attention au respect des normes d’isolation thermique !

Ce type d’installation peut également être utilisé pour des préaux, carports, vérandas, façade légère double-peau…

En protection solaire

Un module photovoltaïque peut aussi participer à la démarche bioclimatique du bâtiment en utilisant les gains solaires superflus au confort thermique du bâtiment.

Au sol

Il est tout à fait possible de disposer des panneaux photovoltaïques au sol (voire sur des traqueurs). En Allemagne, bon nombre de champs de ce genre ont été installés. Il faudra cependant s’assurer de la qualité du sol et de sa stabilité en fonction de la taille du projet. Ce type de pose est soumis a permis. L’avis de fonctionnaire délégué ainsi que l’intervention d’un architecte est requis.

 Réglementations

Plus d’infos sur la réglementation urbanistique (CWATUPE).


Ombrage

 

En l’absence d’optimiseurs ou de micro-onduleur, l’ombrage est le pire ennemi du photovoltaïque. L’effet de l’ombrage sur les cellules photovoltaïques est comparable à l’effet provoqué par la torsion d’une partie d’un tuyau d’arrosage : c’est le point faible qui détermine l’intensité générée !

Une cellule ombrée va donc limiter la puissance générée. Il est donc impératif de choisir un endroit qui soit le moins possible soumis aux ombres fixes provoquées par l’environnement (attention aux cheminées !).

Sur une toiture plate, on devra veiller tout particulièrement à l’ombrage généré par les panneaux entre eux. La formule suivante permet d’estimer l’espace nécessaire entre les panneaux. En général, on estime que la surface de panneaux correspond à environ un tiers de la surface de la toiture plate. (En tenant compte d’un recul imposé de 1,5m par rapport au bord).

Dimensionnement de l’entre-axe entre deux capteurs

L’entre-axe entre deux rangées de capteurs est défini par la formule suivante :

Entre axe = d + b = h (cos β+ sin β/ tg α)

où,

  • h =dimension du capteur.
  • α = hauteur solaire minimum (généralement prise le 21 décembre soit un angle de 16°).
  • β = inclinaison des capteurs.

En considérant des capteurs de 1,2 m de large, l’entre-axe des rangées de capteurs est de : 1,2 x (cos 35° + sin 35°/tg16°) = 3,38 m.

En pratique, sur toiture plate, on préfère incliner moins les modules, car on peut dès lors placer plus de modules et au final produire plus que si l’angle optimal avec été utilisé. En sus, en réduisant l’inclinaison, la prise au vent est également moins importante. Enfin, l’option de placer les panneaux en mode Est-Ouest permet une optimisation de la surface encore plus grande.

Si une ombre est inévitable, il est important que les modules soient correctement disposés afin de diminuer les pertes de productions. Les diodes de by pass servent à éviter les effets dits de « points chauds » détériorant les performances et peuvent dans ce cas limiter le nombre de cellules affectées par l’ombrage. L’ombrage doit être un paramètre important à prendre en compte lors de la conception et lors du raccordement des modules entre eux (en série ou en parallèle).

Dans l’exemple suivant, la configuration de droite permet de limiter l’effet de l’ombrage en by passant uniquement les strings ombrés. Dans la situation de gauche, l’ombre peut provoquer jusqu’à l’annulation complète de la production des modules.

L’influence de l’ombrage temporaire (feuille, saleté,…) n’est normalement que limitée, car une inclinaison de 15° suffit déjà à l’auto nettoyage du vitrage.

Documents de référence sur l’éolien

Documents de référence sur l'éolien

Voici une série de documents de référence qui permettent de connaître les diverses contraintes et législations en vigueur lors de l’établissement d’un projet d’éoliennes :

  •  Vade-Mecum non technologique du candidat à l’implantation d’une petite éolienne, en cours de réalisation par l’APERe. Ce document reprend les diverses étapes pour l’implantation d’une petite puissance (inférieure à 10 kW). Mars 2018 : partiellement obsolète, notamment par rapport aux règles d’urbanisme suite à l’adoption du CoDT).
  • Cadre de référence pour l’implantation d’éoliennes en Région wallonne. Le développement éolien est régi par un cadre de référence qui définit les orientations stratégiques de la filière. Bien que sans force légale, « le cadre de référence » est un document approuvé par le gouvernement wallon en juillet 2013. On y retrouve des consignes relatives aux règles et procédures à respecter, aux éléments à prendre en considération lors du développement d’un projet (par exemple, les distances par rapport à certaines infrastructures, les zones dans lesquelles il est souhaitable de développer des parcs, le type de machine, etc …
  • CoDT (Code de développement territorial) définit les règles urbanistiques notamment d’implantation des éoliennes et décrit les critères des zones « capables » le long des infrastructures de communication où l’on peut implanter de l’éolien sans justifier de la dérogation au plan de secteur.

Considérer l’aspect économique de l’installation d’une éolienne

Considérer l'aspect économique de l'installation d'une éolienne


La durée d’utilisation des éoliennes

Afin de déterminer la rentabilité d’un projet éolien, il faut connaître le nombre d’années durant lesquelles on espère pouvoir exploiter ses éoliennes. On parle de durée d’utilisation. Cette notion est un peu différente de la durée de vie. En effet, à la fin de la durée d’utilisation escomptée de votre matériel, il se peut que celui-ci garde un certain potentiel pour continuer à fonctionner, notamment au travers d’une grosse révision, ou une mise à niveau. Ce matériel n’est donc pas mort. Pour réaliser une étude économique, on prend en compte la durée d’utilisation. La durée de vie est au moins égale à la durée d’utilisation :

durée d’utilisation <= durée de vie.

La durée de vie d’une éolienne dépend essentiellement de la qualité du projet (choix d’un bon site, d’une bonne machine, d’une bonne hauteur de mât, etc.) mais aussi de la qualité de la maintenance. Installer une éolienne demande de s’en occuper régulièrement quand elle est installée. Dans la suite de cette section dédiée à la durée d’utilisation, on supposera toujours que le matériel est entretenu de manière rigoureuse.

Durée d’utilisation et de vie

Cela dépend essentiellement de la taille de l’éolienne. Plus une éolienne est grande et plus sa durée de vie est importante. En effet, les fluctuations de vent sont relativement moins importantes sur une grande éolienne. En outre, pour les puissances plus importantes, la maintenance sera réalisée par des sociétés spécialisées et formées sur le type de matériel installé. Par conséquent, la qualité de la maintenance est meilleure comparée à une petite éolienne où le propriétaire devra, plus que probablement, assurer lui-même la majeure partie du suivi.

  • Les micro-éoliennes [0,1 à 0,4 kW] et mini-éoliennes [0,4 à 2 kW] : La durée de vie dépend fortement du matériel et de sa mise en œuvre. On peut travailler sur une base de 6 à 12 ans. Un paramètre qui permet d’évaluer la robustesse du matériel est le rapport entre le poids de l’éolienne rapporté par m² de surface balayée par le rotor. Autrement dit, cela donne une idée de la masse disponible pour supporter une certaine « densité de force ». Plus le poids de l’éolienne par m² est important, plus elle est susceptible d’être robuste. Ce n’est pas garanti, mais c’est un bon indicateur. Une éolienne légère correspond à approximativement 10 kg/m² alors qu’une éolienne massive tourne autour des 20 kg/m². À noter que sur cette gamme de micro-éoliennes, les frais de maintenance et de réparation sont souvent difficiles à justifier d’un point de vue purement économique.
  • Éoliennes domestiques [2 à 30 kWh]  : La durée de vie peut aller de 15 à 20 ans avec une bonne maintenance et un bon monitoring.
  • Petites éoliennes commerciales [30 à 120 kWh]  : On tourne autour de 20 ans, toujours dans de bonnes conditions de maintenance. Dans certains cas, on commence à avoir des durées d’utilisation inférieures à la durée de vie de l’éolienne.
  • Moyennes et grandes éoliennes commerciales [120 à 3 000 kWh] : La durée d’utilisation est de typiquement 20 à 25 ans.
  • Géantes commerciales [3 000 à 8 000 kWh] :
    Ces éoliennes sont plus récentes. Leur durée de vie est estimée entre 20 et 30 ans en fonction des constructeurs et de l’entretien.

Investissement

Il est difficile de donner un ordre de prix pour les éoliennes et leur installation. En effet, cela dépend fortement du type d’éolienne, de sa marque ainsi que de la nature du projet. En outre, s’il faut un raccordement particulier au réseau de distribution ou de transport de l’énergie électrique via le placement d’une nouvelle ligne de transmission, cela vient s’ajouter aux frais de l’éolienne.

On peut d’abord introduire quelques tendances générales :

  • Le coût d’investissement par m² de surface balayée ou par kW installé diminue avec la taille des éoliennes : le coût total augmente mais le coût relatif par m² ou kW diminue.
  • Le coût varie selon le fabricant d’éolienne ainsi qu’en fonction du type de fondation.
  • Le coût peut être considérablement impacté par la distance de l’éolienne par rapport à un nœud du réseau susceptible de recevoir la production de l’éolienne. On pense notamment au fait de devoir tirer une nouvelle ligne.

Investissement par m² de surface balayée ou par kW ?

On trouve essentiellement dans la littérature des ordres de prix donnés en euros/kW installé. Certains auteurs considèrent plutôt l’investissement par m² de surface balayée par le rotor. En effet, la puissance nominale d’une éolienne peut être mesurée à des vitesses différentes d’une éolienne à l’autre. Cette dernière valeur n’est pas standardisée si bien que l’on ne sait pas de quelle puissance on parle. In fine, la relation entre la puissance et la taille de l’éolienne n’est pas directe.

Prenons, pour exemple, deux éoliennes de rendement instantané global identique et de puissance nominale égale. La première obtient son rendement nominal à 10 m/s et la seconde à 20 m/s. En gros, on s’attend à ce que la première éolienne aie une surface balayée 2³ soit 8 fois plus importante que la seconde. En termes de diamètre de rotor, la première éolienne a un rotor 8½ fois plus grand que la deuxième. En travaillant avec l’investissement rapporté par m² de surface balayée, on s’affranchit de cette limite.

Néanmoins, si on parle en termes d’investissement par m² balayé, on n’a aucune idée de rendement, d’efficacité du matériel, sur la qualité de l’éolienne.

Ordre de grandeur d’investissements totaux rencontrés

On donne ici un tableau établi en 2010 (mis à jour en 2018) reprenant des fourchettes de prix d’investissement total suivant différentes sources :

Taille de l’éolienne €/m² €/kW €/kW €/kW
Source ou auteur Paul Gipe Facilitateur
(APERe)
 EWEA
Micro-éolienne 2 000-3 000
Mini-éolienne 1 500-3 000
Eoliennes domestiques 1 500-2 500 5 000
Petites éoliennes commerciales 1 200-1 500
Grandes éoliennes commerciales 1 000-1 250 1  400 – 1 500 1000 1 000-1 400

Ordre de grandeur de la répartition des coûts pour un projet éolien de moyenne et grande puissance

On donne ici un tableau établi en 2010 et toujours d’actualité en 2018 reprenant des répartitions types dans l’investissement suivant différentes sources :

Schéma proportion des différents coûts éoliens.

Poste Facilitateur APERe Parc-eolien.com  EWEA
Eolienne 75 % 68 % 75 %
Raccordement au réseau 7 % 13 % 9 %
Génie civil 8 % 8 % 6.5 %
Ingéniérie 5 % 6 % 1.2 %
Etudes préliminaires 2 % 1.2 %
Autres 5 % 7 %

On voit que l’éolienne représente le gros de l’investissement et que le coût du raccordement au réseau est loin d’être négligeable.


La maintenance

Un aspect important d’un projet d’éolienne est la capacité à la maintenir en bon état de marche. Sans ce suivi, la machine ne fonctionnera pas efficacement sur toute la durée d’utilisation. En outre, il s’agit de garantir la durée de vie du matériel.

Voici quelques spécificités des frais de maintenance en faveur des grands projets éoliens :

  • Comparés à l’investissement, les frais de maintenance sont d’autant plus lourds que l’éolienne est petite. A la limite du raisonnement, on trouve les mini-éoliennes et les éoliennes domestiques. Dans le cas des mini-éoliennes, le coût de la maintenance voire de la réparation est tel qu’il ne se justifie pas souvent d’un point de vue strictement économique (de l’ordre de 300€ de maintenance annuelle pour une installation de 3 kWc). Dans les cas des éoliennes domestiques qui représentent déjà un investissement plus significatif, il est souhaitable de pouvoir réaliser une vérification des composants après quelques années. Néanmoins, sur base des recherches que nous avons faites sur les fournisseurs wallons d’éoliennes domestiques, ils n’offrent pas un tel service de maintenance et d’entretien. De manière générale, le propriétaire d’une telle éolienne devra assurer lui-même le suivi régulier de son installation, d’où l’intérêt de faire un relevé de la production électrique. En effet, toute dérive significative de production sera symptomatique d’un fonctionnement anormal, d’un élément défectueux. Le propriétaire bénéficie d’une garantie de quelques années sur le matériel au-delà de laquelle il doit se débrouiller avec son éolienne.
  • Les frais d’entretien augmentent avec le temps. Plus l’éolienne vieillit et plus les interventions sont lourdes pour la maintenir en état.
  • Plus l’éolienne est grande et plus le recours d’une équipe ou d’une société spécialisée pour réaliser les différents aspects de la maintenance sera rencontré. Du coup, la qualité de la maintenance sera plus facilement garantie.

À titre d’exemple, on peut citer les chiffres pour de grandes éoliennes : 5 % de l’investissement initial par année pour les 10 premières années de fonctionnement et 7 % de l’investissement initial par année pour les 10 années suivantes. D’autres sources donnent des valeurs de 1 à 2 % de l’investissement par année et certaines avancent 2 % les 10 premières années, 2,5 % de 10 à 15 ans et 3 % pour la fin de vie de l’éolienne (entre la 16e et 20e année). Il est difficile de savoir quels chiffres sont les bons tant les facteurs qui influencent ces chiffres sont nombreux. Néanmoins, si on travaille avec une éolienne que l’on espère faire tourner 20 ans, on constate que la maintenance est un poste important à intégrer dans l’analyse de rentabilité économique.

Si nous tablons sur une durée de vie de 20 années et un coût de maintenance annuel équivalent à 5 % de l’investissement initial : Le coût de la maintenance sur la durée de vie de l’éolienne sera alors égal à l’investissement initial pour cette dernière.


Production et rentabilité

Afin de pouvoir estimer la rentabilité du projet, il est nécessaire de pouvoir estimer la production électrique annuelle de celle-ci. Il s’agit essentiellement de connaître le potentiel de vent de son site. Il faut disposer de mesures correspondantes à la localisation exacte du futur mât de l’éolienne ainsi qu’à la hauteur à laquelle sera placé le rotor ou obtenir les statistiques du vent sur base de simulations numériques.

Une fois l’investissement connu ainsi que la production électrique annuelle escomptée, on peut déduire le temps de retour sur investissement. Il y a deux grands cas de figure :

  • Soit, toute l’énergie électrique est injectée sur le réseau, auquel il faudra regarder le prix auquel un fournisseur voudra acheter cette énergie,
  • Soit on consomme entièrement ou partiellement l’énergie que l’on a produite, il faudra alors intégrer le prix auquel on vend et on achète l’énergie à un fournisseur. En effet, l’énergie que l’on produit soi-même et qu’on consomme correspond à une quantité d’énergie non consommée sur le réseau et donc à une économie.

Coût du kWh produit

On peut réaliser une analyse simple de la rentabilité économique de la production d’électricité avec une éolienne. La dimension uniquement analysée ici est la dimension économique vue par l’investisseur. La réalité est plus complexe que cela … fort heureusement d’ailleurs … L’intérêt d’investir dans l’éolien ne se limite pas à une dimension purement économique. Par exemple, les avantages de l’éolien comparés aux centrales classiques à combustibles fossiles n’est plus à démontrer, que ce soit en termes de rejet de gaz à effet de serre (SER) ou d’autonomie en approvisionnement énergétique.

On considère ici une durée d’utilisation de 20 ans avec des frais d’entretien annuels de 5 % de l’investissement initial. L’investissement est pris à différentes valeurs : 1 000 €/kW et 1 500 €/kW qui sont représentatifs des grandes éoliennes ainsi que 2 000, 3 000, 4 000 et 5 000 €/kW pour de plus petites éoliennes. Il est alors possible d’évaluer le coût du kWh produit si on connaît la production annuelle d’électricité rapportée en nombre d’heures équivalentes de fonctionnement à puissance nominale.

Si on reprend 25 % de fonctionnement équivalent à puissance nominale (une valeur typique du grand éolien pour nos contrées), pour une année de 8 760 heures, cela donne approximativement 2 200 heures. Sur base du graphe ci-dessus, on voit que le prix du kWh produit s’échelonne de 5 c€/kWh pour des investissements proches de 1 000 €/kWN à 22.5 c€/kWh pour des investissements de 5 000 €/kWN représentatifs de petites éoliennes.

Pour les mini- et micro-éoliennes, le constat fréquent en Wallonie est que le nombre d’heures efficaces dépasse rarement les 1 000 h/an. En outre, l’investissement par kW nominal pour de telles éoliennes est relativement élevé. Prenons à titre d’exemple 5 000 €/kWN, tout en sachant que les prix varient fortement d’un constructeur à l’autre (en fait, la qualité varie aussi fortement selon les fabricants). Le coût du kWh produit est approximativement de 50 c€/kWh, ce qui est nettement supérieur à prix actuel de l’électricité du réseau. Cela explique pourquoi ces éoliennes sont surtout utilisées pour l’alimentation d’appareils dans des lieux éloignés du réseau électrique. On peut citer des applications de recharge de batterie pour des bateaux ou l’alimentation de clôtures électriques dans des exploitations agricoles.


Incitants fiscaux et aide à la production

Afin de promouvoir la production d’électricité verte sur base d’énergies renouvelables, les différents niveaux de pouvoir ont mis en place des dispositifs d’incitants financiers. On peut classer les différents mécanismes en deux grandes catégories :

  • Les certificats verts : Chaque producteur éolien reçoit 1 CV par MWh produit, pour une durée calculée en fonction de la rentabilité de chaque projet éolien. Cette durée est calculée par le régulateur de l’énergie wallon, la ouverture d'une nouvelle fenêtre ! CWaPE, dans le but d’atteindre un IRR/TRI de 7 %. Pour plus d’info, voire la note de la CWaPE sur le calcul du coefficient de rentabilité [keco] ainsi que l’arrêté ministériel. Attention, le taux d’octroi pour le petit éolien est supérieur.   http://www.cwape.be/?dir=0.2&docid=1528
  • Aides et subsides : Par exemple, à l’heure de l’écriture de cette section, c’est-à-dire en mars 2018, on pouvait compter les mécanismes suivants: aide à l’investissement pour les entreprises, Aide UDE de la DGO6 (uniquement petit éolien < 1 MW) http://www.wallonie.be/fr/formulaire/detail/20452, déduction fiscale d’une partie des bénéfices, exonération du précompte immobilier sur le nouveau matériel.

Pour plus de détail, nous invitons le lecteur à consulter les informations diffusées par le Facilitateur Énergies Renouvelables électriques [https://energie.wallonie.be/fr/facilitateur-energies-renouvelables-electriques-et-cogeneration.html?IDC=9546] éolien, c’est-à-dire l’APERe ou de prendre contact avec celui-ci, notamment via son site internet. [http://www.apere.org/]

Il est important de prendre en considération ces incitants financiers dans la mesure où ils améliorent considérablement la rentabilité économique. Le montant et le nombre de certificats verts sont d’ailleurs conçus pour rendre les énergies vertes compétitives par rapport aux filières traditionnelles.


Avantages des grands projets éoliens par rapport à des petites installations : projets  éoliens participatifs

Nous résumons ci-dessous les avantages d’investir en commun dans un grand projet éolien plutôt que de réaliser une multitude de petites installations :

  1. L’investissement ainsi que les frais de maintenance par m² ou par kW nominal diminue avec la taille de l’éolienne si bien que, avec un même budget total initial, on peut investir dans une surface balayée ou une puissance installée supérieure. En conclusion, on produira plus.
  2. Le rendement des éoliennes augmente avec la taille. En conclusion, on produira encore plus.
  3. On pourra travailler avec du matériel certifié et l’entretien sera réalisé systématiquement par des professionnels formés sur le matériel installé. En conclusion, on aura une garantie de qualité et donc une meilleure garantie sur les performances et la durée de vie.
  4. D’un point de vue financier, c’est répartir le risque de l’investissement sur un plus grand nombre de personnes.
  5. Permet de se payer une étude du potentiel de vent approfondie ce qui garantit les performances de la future éolienne. Pour des petits projets, l’étude de vent est plus difficile à rentabiliser.
  6. On peut déléguer et remettre le suivi du projet à des personnes plus compétentes ou qui ont un mandat clair et des moyens pour réaliser le projet. Ces personnes prendront la tête de l’initiative et pousseront le projet.
  7. L’avantage paysager est également à noter : mieux vaut une grande éolienne que 10 petites : pas de prolifération anarchique de petites constructions.

Nous invitons donc les lecteurs intéressés dans l’éolien à ne pas perdre cette possibilité de vue, de se renseigner sur les offres disponibles dans l’éolien participatif avant de se lancer seul dans son propre projet. En outre, une motivation majeure, souvent principale, est aussi de prendre part à une initiative citoyenne en faveur de la protection de l’environnement.

Des plateformes comme Coopalacarte (https://www.coopalacarte.be/fr) cartographient les projets d’énergie renouvelable belge où des coopératives citoyennes sont actives.

Ressources du vent et éoliennes

Ressources du vent et éoliennes

Photographie issue de la banque d’images de la Région wallonne.


Généralités

Une éolienne convertit l’énergie cinétique du vent en travail moteur, qui, sauf exception, sera converti en électricité. Pour assurer la rentabilité de l’implantation d’une éolienne, il est nécessaire de pouvoir évaluer le potentiel de vent dont on dispose sur un site particulier. Il s’agit, in fine, de l’énergie de base sans laquelle le projet n’aura pas de sens.

Dans la section sur rendement des éoliennes, les concepts de puissance instantanée du vent, l’énergie du vent ainsi que la distribution du vent ont été introduits. Dans cette page, nous allons voir comment ces notions indispensables à l’évaluation du rendement et des performances d’une éolienne sont reliées à l’évaluation des ressources du vent (ou potentiel de vent).

L’objectif n’est pas de donner un petit cours sur le vent, ses origines et les différents types de phénomènes météorologiques rencontrés. Il est plus prudent de s’en référer à la littérature ou à des sites spécialisés dans ce domaine. En effet, la physique rencontrée est complexe, il nous semble dangereux de simplifier les propos (seuls des spécialistes en météorologie semblent compétents pour réaliser une telle tâche). Par contre, nous allons plutôt nous focaliser sur l’interface entre notre éolienne et le vent, en d’autres termes, introduire des aspects spécifiques du vent qui sont en relation directe avec une exploitation efficace d’une éolienne.


Propriété du vent : continuité dans le temps et l’espace

C’est un titre un peu pompeux. Le message à faire passer est relativement simple, mais très important : pour comprendre le potentiel et le comportement du vent en un point donné du globe, en l’occurrence à l’endroit où vous voulez implanter une éolienne, vous devez tenir compte de phénomènes physiques à la fois locaux et globaux (au niveau de l’espace), à la fois courts et de plusieurs années (au niveau de l’échelle de temps). Le comportement de votre vent sur votre site dépend de l’interaction de phénomènes à des échelles de plusieurs milliers de kilomètres à quelques mètres, à des échelles de quelques années à quelques secondes. C’est ce qui rend l’étude du vent et la météorologie extrêmement complexe. Il suffit de suivre les prévisions météo sur plusieurs  jours et de les comparer à la réalité pour s’en convaincre. Tenter de comprendre le vent uniquement sur base de phénomènes locaux ou uniquement globaux aboutit inéluctablement à des erreurs significatives. Il en va de même pour l’évolution dans le temps.

Par conséquent, il est difficile d’évaluer le potentiel. Le nombre de méthodes pour y arriver est relativement limité.

Potentiel du vent : mesure in situ

La méthode la plus sûre est de simplement réaliser des mesures de la vitesse du vent « in situ ». On insiste bien sur le terme « in situ ». Il s’agit bien de vérifier localement ce qui se passe et pas de tenir compte d’une station météorologique voisine. Dans le cas des mesures, on constate et on analyse le potentiel de vent dont on dispose. Il n’est même pas question de comprendre les phénomènes physiques qui sont à la base de ce comportement. À noter que ces mesures se font en haut d’un mât qui est à une hauteur représentative de la future éolienne, au moyen d’un anémomètre.

Potentiel du vent : simulations par logiciel

On peut réaliser des simulations au moyen d’ordinateurs qui permettent de calculer des modèles atmosphériques. Il s’agit d’une approche complexe réservée à des spécialistes.  C’est pourquoi cette tâche est souvent sous-traitée. Néanmoins, il faut savoir que ces méthodes tiennent compte à la fois des phénomènes globaux et locaux (parfois jusqu’à 100-250 m) pour évaluer le potentiel du vent pour un site donné. Pour compléter l’analyse, il reste des phénomènes encore plus localisés (inférieurs à 100-250 m) qu’il faut intégrer de manière indépendante. De même, le comportement est modélisé sur une base de temps de quelques minutes pour accumuler plusieurs années. Attention, il s’agit du temps du modèle. En réalité, ces simulations par ordinateurs ne prennent que quelques minutes voire quelques heures pour les plus précises. Cela montre tout l’intérêt : on peut connaître en quelques heures ce qui va se passer en moyenne sur plusieurs années. On peut citer la société wallonne ouverture d'une nouvelle fenêtre ! ATM-PRO située à Nivelles qui s’est spécialisée dans les logiciels environnementaux, notamment pour évaluer le potentiel de vent.

Les échelles de temps

Le vent en un point donné est sujet à des fluctuations dans le temps. Ces variations peuvent avoir plusieurs échelles. Il peut s’agir de fluctuations de quelques secondes, comme des bourrasques, de variations de quelques minutes ou le long de la journée, de fluctuations induites par l’alternance jour-nuit, par les saisons voire des variations de comportement entre les années. En outre, dans ces considérations, on n’a même pas encore parlé des fluctuations de vitesses induites par la turbulence.

Par avoir une évaluation fiable de la vitesse moyenne ainsi que sa variance en un point, il faut compter une dizaine d’années de mesure. Bien évidemment, on ne dispose pas toujours d’un intervalle de mesure aussi long. De plus, pour valider le potentiel d’un site, on n’a souvent pas envie d’attendre si longtemps. Il faut alors trouver une méthode pour pouvoir obtenir le comportement du vent sur base d’une période de mesure beaucoup plus courte. On parle d’un minimum de quelques mois à une année complète. C’est à ce stade que les fonctions de distribution statistiques interviennent. Elles permettent sur base de données lacunaires de reconstruire le comportement global. En fait, derrière cela, on a fait une hypothèse sur l’évolution globale du vent, d’où le nom d’approche « statistique », mais elle semble être bien validée pour nos contrées.

Les échelles d’espace

L’origine du vent vient d’un niveau d’ensoleillement et d’un niveau d’absorption qui varient selon l’endroit du globe. L’équateur est plus chaud que les pôles. Cela génère une différence de pression le long de la surface de la terre qui met les masses d’air en mouvement dans les couches inférieures de l’atmosphère (troposphère). On appelle cela des cellules convectives. On se situe donc à un niveau global de plusieurs centaines voire des milliers de kilomètres.

A coté de ces phénomènes globaux, les propriétés géographiques locales sont susceptibles de générer des variations par rapport aux mouvements globaux. Ces variations interviennent sur des échelles de plusieurs centaines de kilomètres à quelques dizaines de mètres. In fine, on trouve des variations très localisées, comme la présence d’un bâtiment isolé qui influence l’écoulement dans son voisinage, mais qui seul ne modifie pas la topologie de l’écoulement dans sa région.

On rencontre parfois des atlas de potentiel de vent qui donnent la vitesse de vent à divers endroits du globe, voire sur une région donnée. Ces atlas ne tiennent pas compte des particularités locales (c’est-à-dire d’obstacles comme des immeubles et du relief local). Ils donnent une bonne idée du potentiel d’une région ou d’une zone, ce qui peut être intéressant pour la mise en œuvre d’une politique globale concernant l’éolien dans la région concernée. Néanmoins, les atlas ne permettent pas la sélection d’un site particulier pour l’implantation d’une éolienne. Comme évoqué ci-dessus, c’est dû au fait que la méthode ne tient pas compte de spécificités locales, spécificités qui ont un impact majeur sur le potentiel du vent. En conclusion, on verra les atlas comme de bons indicateurs globaux. Avoir un bon niveau de vent dans un atlas est plutôt une condition nécessaire que suffisante.

À titre d’illustration, une vue globale de l’atlas européen des vents développé par le laboratoire national danois RISO. Il considère cinq niveaux de ressource différents définis en fonction de la vitesse moyenne du vent ainsi que le type de topographie.


Influence du terrain

On met l’accent sur des caractéristiques plutôt localisées (de quelques mètres à quelques kilomètres) dans la mesure où ce sont des éléments qui peuvent être pris en compte lors de la conception d’un projet éolien. En effet, au-delà d’une certaine échelle de vent, les actions possibles qui peuvent être entreprises par un concepteur n’ont aucune influence sur ces grande échelles alors qu’il peut faire des choix d’emplacement sur un site en fonction de caractéristiques locales du vent pour optimiser son implantation.

Distinction entre terrains plat et non plat

Illustration du concept de terrain plat et non plat.

Un terrain est non-plat quand les effets du terrain sur l’écoulement de l’air sont significatifs. On peut prendre l’exemple d’une colline ou d’une vallée. À l’opposé, le terrain est considéré comme plat quand il contient de petites irrégularités (par exemple, des haies). Il est difficile d’établir une règle précise pour différencier les deux types de terrain. Voici une proposition rencontrée dans la littérature :

  • Le rapport maximum entre la hauteur d’une irrégularité et sa longueur ne peut dépasser 1/50 dans un rayon de 4 km en aval de l’éolienne. En gros, cela favorise les collines à faible pente.
  • Le point le plus bas du rotor doit être au moins trois fois plus haut que la plus haute irrégularité sur le terrain dans un rayon de 4 km en aval de l’éolienne.

Écoulement sur un terrain plat avec des obstacles

Illustration de la zone d’influence sur l’écoulement d’un obstacle.

Il peut s’agir d’obstacles naturels comme une rangée d’arbres ou des haies, voire d’obstacles érigés par l’homme comme un ou des immeubles.
Un obstacle est un objet :

  • dont la zone d’influence sur l’écoulement (en d’autres termes, la région qu’il perturbe) rentre en contact avec l’éolienne. La figure ci-dessus décrit la forme caractéristique de cette région d’écoulement fortement perturbé ainsi que ses longueurs typiques. On voit que l’écoulement est perturbé sur une vingtaine de fois la hauteur de l’obstacle en aval, mais l’objet perturbe aussi le vent en amont. À noter aussi que la zone perturbée se développe à une hauteur typiquement deux fois plus importante que l’obstacle. Dans cette zone, le vent est fortement fluctuant, tant en amplitude qu’en direction. Dans la mesure du possible, il est souhaitable de placer son éolienne à l’extérieur de la zone d’influence d’un objet.

En fait, sur base de cette définition, un obstacle est un objet capable de perturber significativement l’écoulement qui va venir rencontrer le rotor de l’éolienne. Il y a  bien deux conditions, une sur la longueur, une autre sur la hauteur. Premièrement, la zone d’influence de l’objet sur l’écoulement peut atteindre l’éolienne. Par exemple, si un petit immeuble isolé se trouve à plusieurs centaines de mètres d’une grande éolienne, il n’aura guère d’influence sur la nature du vent que le rotor de cette éolienne rencontrera. Il est trop loin.  Deuxièmement, l’obstacle doit avoir une hauteur comparable à la taille de l’éolienne. Imaginons un homme ou un tracteur se déplaçant sur le terrain d’une grande éolienne, on comprend rapidement que cela n’aura pas d’influence sur le comportement aérodynamique de l’éolienne.

Écoulement sur un terrain non plat avec de petites caractéristiques

Lorsque l’on se trouve sur un terrain non plat, on a des effets d’accélération et de décélération. Il faut donc veiller à placer l’éolienne dans une zone d’accélération par rapport à la direction dominante du vent.


La vitesse et la hauteur

Lorsque l’on réalise une mesure de la vitesse du vent, il faut toujours indiquer à quelle hauteur au-dessus du sol cette mesure a été effectuée. Imaginons que vous essayez d’estimer le potentiel éolien existant sur un terrain donné, plus particulièrement à un emplacement donné de ce terrain. Vous réalisez une campagne de mesure durant laquelle vous placez un mât de mesure qui fait 20 m de hauteur. Et bien, les vitesses de vent que vous allez rencontrer à cette hauteur sont différentes de ce que vous mesureriez à 30 ou 50 m.

Cette caractéristique est assez importante dans la mesure où, en début de projet, vous ne connaissez pas encore la hauteur du mât à laquelle vous allez placer votre éolienne. Du coup, vous ne savez pas à quelle hauteur il y a lieu de réaliser votre mesure. En fait, c’est exactement la situation opposée : vous réalisez une campagne de mesure pour savoir à quelle hauteur vous devez placer votre éolienne.

Quel phénomène physique se cache derrière tout cela ? Dans le jargon de la mécanique des fluides, on appelle ce phénomène une couche limite. Parler de ce phénomène est relativement complexe et lourd, c’est pourquoi nous allons simplifier grandement son explication pour introduire les conclusions d’intérêt pour notre développement.

Si l’on se place à une certaine hauteur au-dessus du sol, le vent possède une certaine vitesse que nous appellerons Vr (pour vitesse de référence). Au niveau sol, c’est-à-dire l’air qui touche le sol, la vitesse du vent est nulle. Ce phénomène est induit par la viscosité de l’air. La vitesse du vent va donc progresser de zéro au niveau du sol à la vitesse Vr que nous avons mesurée à une certaine hauteur.  Cette progression entre ces deux vitesses se fera de manière plus ou moins régulière, avec des augmentations voire des diminutions locales de vitesse, suivant l’historique du vent, c’est-à-dire les obstacles que le vent a rencontrés avant d’arriver au point que l’on analyse ainsi que les modifications qu’il a subies.  En outre, la rugosité du sol a une influence sur l’évolution de la vitesse en fonction de la hauteur. En d’autres termes, la vitesse ne progresse pas de la même manière suivant que le sol soit en gazon ou recouvert de plantations. On pourrait croire que c’est complètement farfelu, voire improbable, mais il est possible de la justifier physiquement, ce que nous ne ferons pas, et l’expérience le prouve clairement.

L’évolution peut être très complexe et, de manière générale, il n’existe aucune méthode simple pour pouvoir prédire cette évolution de la vitesse en fonction de la hauteur. Si on ne peut extrapoler la vitesse mesurée à une autre altitude, il faut alors réaliser la mesure à une hauteur proche de ce que sera la future éolienne.

Heureusement, le comportement du vent se simplifie un peu dans certains cas particuliers. Et c’est souvent dans ces configurations particulières que l’on placera une éolienne. Du coup, des solutions pour déduire le vent à différentes hauteurs existent.

Terrains plats et homogènes : les lois de puissance

Lorsque le sol ne présente pas de variations de relief importantes comparées à la hauteur de la future éolienne et ce, dans un rayon de plusieurs dizaines de fois cette hauteur, on peut qualifier ce terrain de « plat« . L’évolution de la vitesse de vent au voisinage du sol évoluera de manière relativement lente et progressive au fur et à mesure que le vent parcourt le terrain.

Cette évolution restera progressive si la couverture de sol, essentiellement sa rugosité, n’évolue pas dans cette zone de rayon de plusieurs dizaines de fois la hauteur. On dira que le terrain est « homogène« .

Si l’éolienne se situe sur un terrain plat, homogène et sans obstacle alors le vent évolue de manière progressive sans être perturbé. Il rentre alors dans un régime plus standard dans lequel des lois permettent de déduire l’évolution de la vitesse en fonction de la hauteur. Et encore, il ne s’agit pas de n’importe quelle vitesse, mais d’une vitesse moyenne. Cette moyenne n’a rien avoir avec les moyennes introduites aux sections précédentes qui se réalisaient sur des périodes de plusieurs mois voire un an. Il s’agit maintenant de considérer des moyennes sur des échelles de temps de quelques minutes. En effet, le vent est de nature turbulente si bien que la vitesse fluctue de manière continuelle autour d’une certaine moyenne.  De manière très simplifiée, on peut dire que la turbulence ajoute un certain bruit de fond à l’évolution temporelle de la vitesse. Ce que les lois simplifiées proposent d’évaluer ici est l’évolution de la moyenne de la vitesse (où les fluctuations induites par la turbulence ont été filtrées) en fonction de la hauteur au dessus du sol. On peut illustrer cette distinction avec les deux figures ci-dessous, la première montrant un champ instantané et la seconde la moyenne.

     

Comparaison entre la visualisation expérimentale d’une couche limite turbulente comprenant un grand nombre de fluctuations (première figure) et l’évolution de la vitesse moyenne en fonction la hauteur (seconde figure). Les règles que l’on donne ici concernent uniquement l’évolution de la vitesse moyenne avec la hauteur pour les terrains plats, homogènes et sans obstacles.

La plus connue est la loi de puissance. Son fondement théorique est souvent mis en question, mais cette approche s’avère souvent utile sur le terrain ou dans les applications de l’ingénieur. Si on mesure à la hauteur de référence, hr, une vitesse, Vr, on peut déduire la vitesse V(h) rencontrée à une autre hauteur, h :

V(h) = Vr*(h/hr)α,

le seul paramètre à fixer étant le coefficient « α », dit coefficient de cisaillement. En fait, celui-ci dépend essentiellement de la rugosité du sol (ou de la couverture du sol si vous préférez) :

Terrain Exposant de cisaillement du vent, α
Glace 0.07
Neige sur terrain plat 0.09
Mer calme 0.09
Gazon coupé 0.14
Gazon court type prairie 0.16
Gazon long type cultures céréales 0.19
Haies 0.21
Arbres et haies clairsemés 0.24
Arbres et haies plus denses 0.29
Banlieue 0.31
Forêt 0.43

Exposant de cisaillement du vent en fonction de la rugosité du sol (pour une hauteur de référence de 10 m).

Puissance du vent et hauteur

Prenons pour exemple un terrain avec du gazon coupé caractérisé par un coefficient « α » de 0.14. Si on réalise une mesure, une vitesse de 5 m/s à une hauteur de 10 m, alors la vitesse du vent à 20 m sera de 5*(20/10)0.14 soit de 5.5 m/s, une augmentation de 10 %. Comme on sait que la puissance du vent dépend du cube de la vitesse, on a Pv(h) = Pv(hr)*(h/hr). La puissance aura, elle, augmenté de 34 %. Si on augmente la hauteur du mât d’un facteur 5, c’est-à-dire en le plaçant à 50 m, alors la vitesse augmente de 25 % et la puissance du vent double. Cela met clairement en évidence que la hauteur du mât à une très grande importance. Il faut toujours placer son éolienne suffisamment haut, dans le cas contraire, on risque d’avoir des rendements déplorables. Pour les petites éoliennes domestiques, une hauteur de 10m est un minimum.

Obstacle ou rugosité ?

Pour conclure cette section, il faut être prudent dans l’emploi d’un tel tableau et de la loi de puissance associée. En effet, le lecteur attentif aura remarqué que l’on a considéré des haies ou les arbres comme étant des obstacles, mais aussi dans le tableau ci-dessus comme étant simplement de la rugosité du sol. Finalement, quand faut-il considérer un objet comme de la rugosité ou comme un obstacle ? En fait, comme évoqué plus haut, un obstacle doit avoir une taille comparable à l’éolienne tandis que la rugosité doit être composée d’une multitude d’éléments petits par rapport à la taille de l’éolienne (pouvant être considérés comme étant des aspérités du sol). À titre d’exemple, si on place une éolienne dans une clairière entourée de forêt, les arbres sont des obstacles pour une petite éolienne et sont des éléments de rugosité pour une grande éolienne commerciale.

Couche limite et charge sur le rotor

Nous avons mis en évidence que la vitesse augmente avec la hauteur par rapport au sol. Cela a un impact évident sur l’énergie du vent qui sera récupérée par l’éolienne. On ne le répétera jamais assez, mais il faut que celle-ci soit placée suffisamment haut pour assurer la rentabilité, la viabilité du projet. Le choix de la hauteur de mât est donc de première importance.

Illustration d’un chargement asymétrique sur le rotor par le vent.

Un autre aspect lié à l’évolution de la vitesse avec la hauteur est la charge aérodynamique sur le rotor. Si l’on place le rotor de l’éolienne trop bas, il recevra comme annoncé un vent plus faible, mais cette vitesse risque en plus de varier significativement le long du rotor. En d’autres termes, les forces exercées par le vent seront plus importantes sur les pales pointées sur le haut que sur les pales pointées vers le bas. Du coup, le rotor est soumis à une contrainte mécanique de nature asymétrique (différence haut-bas) et fluctuante (le rotor passe de la position basse à la position haute). Ces contraintes ont un impact négatif sur la durée de vie du matériel.

Aérodynamique des éoliennes

Aérodynamique des éoliennes

Il s’agit d’une page qui peut s’avérer assez technique pour les personnes qui n’ont pas de base en physique ou en ingénierie. Néanmoins, cette page n’est pas absolument nécessaire à une compréhension d’ensemble du fonctionnement d’une éolienne. En effet, en pratique, il n’est pas obligatoire de comprendre les phénomènes physiques exacts qui rentrent en jeu, à partir du moment où l’on sait ce que l’on peut récupérer comme puissance et énergie électrique de la part de son éolienne. Néanmoins, afin d’être complet et de permettre aux personnes intéressées d’avoir une vue plus pointue ou complète, les bases de l’aérodynamique des éoliennes sont introduites ci-dessous.

La portance et la trainée

Pour comprendre le mode de fonctionnement d’une éolienne, il faut introduire quelques concepts d’aérodynamique. Parmi ceux-ci, les notions de trainée et de portance jouent un rôle majeur. Pour commencer, on simplifie le problème. En effet, lorsque l’on regarde une aile, qu’il s’agisse d’une aile d’avion ou d’éolienne, il s’agit d’un corps à 3 dimensions spatiales. En effet, une aile possède une certaine longueur de corde (direction « x »), une certaine cambrure (direction « y ») ainsi qu’une certaine envergure (direction « z »). De manière générale, il est assez difficile de considérer ces trois dimensions simultanément. On prend uniquement les deux dimensions (2-D) qui contiennent le phénomène physique dominant. Il s’agit de la dimension de la cambrure et de la corde. Ensuite, les aérodynamiciens intégreront la troisième dimension, c’est-à-dire l’envergure, comme étant une superposition de comportements en deux dimensions (2D) le long de l’envergure.

   

À droite, illustration du concept d’aile en trois dimensions avec une cambrure (direction »y »), une envergure L (direction « z ») et une corde (direction « x »).  Le profil d’aile (surface grisée) est obtenu en « découpant » une section de l’aile en un point le long de l’envergure. À droite, vue de profil d’une pale d’éolienne qui donne un bon aperçu d’un profil d’aile. Ici, il s’agit du profil en bout d’aile.

On analyse donc les phénomènes physiques au moyen de profils 2D d’aile. Ce profil est constitué, d’une part, d’un bord d’attaque et d’un bord de fuite, et d’autre part, d’une corde qui relie ces deux extrémités (voir figures ci-dessous). Dans le cas d’une aile complète en trois dimensions, la corde, c, varie généralement en fonction de la position de long de l’envergure. En outre, la forme du profil peut varier avec cette distance. C’est souvent le cas pour les grandes éoliennes dans la mesure où la vitesse du rotor près du moyeu est nettement plus faible qu’en bout de pale. Il n’est pas nécessaire de tenir compte de cette propriété pour comprendre le principe de fonctionnement d’une éolienne voire d’un avion.

Notre profil d’aile est placé dans un écoulement, par exemple, on place le profil au centre d’une soufflerie. L’air présente une certaine vitesse, V, mesurée loin devant le bord d’attaque. En effet, les vitesses que prend l’air autour d’une éolienne sont toujours inférieures à la vitesse du son. On dit qu’elles sont subsoniques. Dans ce cas, les informations peuvent remonter le courant parce qu’elles se propagent plus vite. En fait, l’information se déplace sous forme d’ondes de pression qui ont cette vitesse du son. Du coup, si l’écoulement est subsonique, l’information peut atteindre toutes les directions de l’espace. En pratique, qu’est-ce que cela veut bien dire ? Et bien tout simplement que l’air est déjà perturbé par la présence d’un avion ou d’une éolienne avant même de l’avoir touché. Autre exemple, lorsque vous soufflez sur votre doigt, l’air est perturbé par la présence de votre doigt avant même de l’atteindre. Cela se traduit par des trajectoires courbes des filets de courant (en gros, il s’agit de la trajectoire du fluide). On voit clairement dans les figures suivantes qu’ils sont déviés bien avant d’avoir atteint le bord d’attaque. Par conséquent pour avoir une bonne idée de la vitesse à laquelle on soumet notre profil, il faut le mesurer bien loin devant le bord d’attaque, suffisamment loin pour qu’il ne soit pas perturbé par la présence du profil. Dans le jargon de l’aérodynamique, on parle de vitesse infini amont.

   

Retournons à notre profil d’aile placé dans une soufflerie. De manière générale, la corde présente un certain angle avec la vitesse de l’air en amont, V. Cet angle s’appelle l’angle d’attaque (AOA pour « angle of attack »). Plus cet angle est important, plus les filets d’air sont déviés par le profil. En d’autres termes, la présence de l’aile réorganise localement l’écoulement de l’air (autour du profil). La partie du profil entre le bord d’attaque et de fuite orientée vers le haut est appelée, extrados, tandis que l’autre moitié orientée vers le bas est appelée, intrados. Du côté de l’extrados, l’aile a fait accélérer l’écoulement. Par contre, elle a ralenti l’écoulement côté intrados. La physique nous apprend qu’une telle accélération est accompagnée d’une diminution de pression alors que la décélération engendre une augmentation de la pression. Comme la pression est différente au-dessus et en dessous de l’aile, les forces de pression sur l’aile ne sont pas identiques au-dessus et en dessous. Il en résulte une force globalement orientée vers le haut. C’est cette force qui permet aux oiseaux ou aux avions de voler. Elle est d’autant plus importante que l’angle entre l’axe du profil, c’est-à-dire la corde, et la vitesse de l’air amont, V, est important, ou dit plus brièvement, plus l’angle d’attaque est important. Il y a une limite à ce raisonnement que nous introduirons plus tard (notion de décrochage).

La force sur l’aile peut, comme toute force, se décomposer en plusieurs composantes. Dans notre cas, on considère la composante dans la direction de l’écoulement, la force de trainée (D comme « drag »), et la force dans la direction perpendiculaire à l’écoulement, la force de portance (L comme « lift »).

Illustration des concepts dans le cas d’un avion volant horizontalement à vitesse constante.

Pour illustrer l’ensemble de ces considérations, voyons ce que cela donne dans le cas d’un avion. Supposons qu’il vole en ligne droite à une certaine vitesse constante, V, dans une direction que l’on prend dans un plan horizontal. En fait, supposons que nous nous déplacions à la même vitesse que l’avion. Par définition, nous ne le verrions pas bouger. Par contre l’air qui était au repos avant le passage de l’avion (vu par un observateur situé au sol), acquiert une certaine vitesse, V, si on le regarde à partir de l’avion. De manière plus rigoureuse, on dira que l’on met son repère sur l’avion et que l’on regarde les vitesses relatives à la vitesse de l’avion, V.  Son aile principale présente un certain angle avec la direction de vol, l’angle d’attaque. Il s’ensuit une force de portance verticale et une force de trainée horizontale appliquée à l’aile et donc à l’avion entier. La première permet de vaincre la force de gravité due à la masse de l’avion complet tandis que la seconde freine l’avion :

  • Dans le cas d’un planeur, l’avion n’a pas de moteur. La trainée a donc tendance à ralentir l’avion. Pour pouvoir maintenir sa vitesse et donc continuer à voler dans une atmosphère au repos, il doit toujours descendre progressivement en altitude (notion de taux de chute) pour maintenir sa vitesse. Dans la réalité, on sait que les planeurs tirent profit de mouvements d’air plus globaux au niveau de l’atmosphère. Ces mouvements naturels peuvent générer des vents ascensionnels qui permettent au planeur de prendre de l’altitude. Néanmoins, un planeur aura toujours intérêt à avoir une trainée la plus faible possible. Cette conclusion nous permettra de rebondir plus loin lors de nos explications sur les éoliennes.
  • Dans le cas d’un avion motorisé. La vitesse est maintenue constante grâce à l’action des moteurs. Ils exercent une force de poussée (T comme « thrust ») qui s’oppose à la trainée.

Le décrochage

Dans la section précédente, on a mis en évidence le phénomène physique qui générait la portance et la trainée d’un profil d’aile. On a aussi indiqué que cette force augmentait avec l’angle d’attaque du profil. Comme introduit précédemment, il y a une limite à cette croissance. Nous expliquons maintenant ce phénomène bien connu de décrochage (ou « stall » en anglais).

Courbe de portance en fonction de l’angle d’attaque pour un profil NACA.

Sur base de la courbe ci-dessus qui reprend l’évolution de la portance en fonction de l’angle d’attaque, on voit que cette force augmente progressivement jusqu’à un certain angle au-delà duquel la portance chute brusquement. Ce phénomène est appelé décrochage et l’angle à partir duquel il intervient, l’angle de décrochage. On voit qu’une fois l’angle de décrochage dépassé, les performances aérodynamiques du profil sont nettement dégradées. On imagine assez facilement ce que cela peut engendrer dans le cas d’un avion : une perte de portance brusque risque simplement d’engendrer une chute de l’appareil. A priori, on pourrait croire qu’il est assez farfelu d’introduire un tel phénomène dans le cas des éoliennes, mais comme cela sera expliqué, dans ce domaine d’application, le décrochage est parfois mis à profit pour contrôler la vitesse de rotor.

Explication du phénomène de décrochage

Le lecteur curieux aura peut-être envie d’en savoir un peu plus sur le principe du décrochage. Un élément de réponse simple est donné ci-dessous. Il n’a pas vocation d’être complet ou particulièrement rigoureux. Il cherche plutôt à démystifier le phénomène. Dans le cas d’un profil à angle d’attaque inférieur à la limite de décrochage, les trajectoires du fluide, à savoir l’air, sont infléchies par la présence du profil. Comme expliqué précédemment, on a une accélération côté extrados et une décélération côté intrados, accompagnée d’une diminution et une augmentation de pression, respectivement. Cette différence de pression sur les deux faces du profil est la base de la génération de portance.

   

Différence de la nature de l’écoulement entre un écoulement attaché et décroché.

Lorsque le profil décroche, les angles d’attaques sont trop importants et le fluide ne parvient plus prendre les trajectoires imposées par le profil (fortement incliné). Les trajectoires de fluides ont tendance à rester plus proches de leur situation initiale (avant que l’aile ne passe). Comme il y a moins de déformation de trajectoire, il y a moins d’accélération du fluide côté extrados du profil. Du coup, la dépression est moins importante et, sans surprise, la portance devient moins importante.

Pour augmenter l’angle d’attaque admissible avant de décrocher l’écoulement d’air, un dispositif aérodynamique, un générateur de vortex, peut être installé sur les ailes. Sans entrer dans les détails, ces petits appendices vont permettre de créer des tourbillons contrôlés de manière volontaire. Cette dynamique va plaquer le flux d’air contre la surface de l’aile permettant ainsi d’augmenter l’angle d’attaque admissible avant que la pale ne décroche.


Les forces aérodynamiques sur le rotor d’une éolienne

La première section nous a permis d’introduire les notions nécessaires pour comprendre les phénomènes physiques majeurs qui s’appliquent sur le rotor d’une éolienne. On a introduit la notion de profil d’aile, de corde, d’angle d’incidence ainsi que de trainée et de portance. Lorsque l’on considère une éolienne, le problème se complexifie un peu. En effet, il faut considérer en plus la vitesse de rotation des pales qui, en pratique, est de loin plus élevée comparée à la vitesse du vent. Dans la suite, on fait l’hypothèse d’une éolienne à axe horizontal.

            

Vitesses et forces exercées sur un profil d’une éolienne. On introduit l’angle d’incidence (alpha), de calage (beta) ainsi que la vitesse relative Va dans la figure de gauche. La résultante des forces engendrée par la vitesse du vent et la rotation de l’éolienne est illustrée dans la figure de droite.

Influence de la vitesse de rotation sur l’angle d’attaque et l’intensité de la vitesse

Considérons un profil d’une pale de notre éolienne obtenu en « coupant » l’aile à une certaine hauteur, r, comprise entre le moyeu et l’extrémité de la pale. Vu du haut, cela donne approximativement la figure ci-dessus (à gauche) où la grande flèche noire indique le sens de rotation.  Si l’éolienne a une vitesse de rotation de n (Hz ou tours/seconde), alors à la hauteur du profil, la vitesse tangentielle de la pale induite par la rotation, U, est de

U = n.(2*pi*r) en [m/s],

toujours dans le sens de rotation. On voit clairement que la vitesse augmente proportionnellement avec la hauteur le long de la pale. La vitesse tangentielle maximale sera obtenue en bout d’aile. En plus de la vitesse de rotation, on a toujours la vitesse du vent, V, mesurée loin en amont de l’éolienne. Comme expliqué précédemment, l’écoulement est déjà influencé par la présence de l’éolienne avant d’arriver au niveau du rotor si bien qu’il est partiellement freiné avant d’atteindre celui-ci. En pratique, la vitesse aura idéalement diminué d’un tiers si bien qu’on se retrouvera avec 2/3 de V dans la direction perpendiculaire au plan de rotation, la direction axiale. Comme on l’a fait ci-dessus en considérant un avion, on place notre repère de vitesse sur le profil d’aile. Il faut alors combiner la vitesse de rotation de l’éolienne, U, à cette hauteur, à la vitesse 2/3 V du vent pour obtenir la vitesse du vent relative rencontrée par le profil de l’éolienne, Va. C’est cette vitesse qu’il faut connaître pour pouvoir estimer la force qui sera exercée sur le profil de la pale. En effet, on connaît maintenant la vitesse de l’écoulement (la norme du vecteur Va) mais aussi son angle d’attaque. Comme on l’a introduit ci-dessus, il ne suffit pas de connaître la vitesse du vent, V. La vitesse tangentielle, U, induite par la rotation influence significativement l’écoulement qui sera reçu par le profil.

On introduit un nouvel angle de première importance, l’angle de calage (« pitch angle » en anglais). Il se définit comme étant l’angle entre le plan de rotation et la corde du profil. Contrairement à l’angle d’attaque, il ne dépend pas de conditions de l’écoulement. Il s’agit d’un paramètre géométrique que l’on peut adapter. En effet, l’angle d’attaque dépend des conditions de fonctionnement. Dans le cas de notre éolienne, il dépend de la vitesse du vent, de la vitesse de rotation ainsi que de l’orientation de la corde du profil (autrement dit de l’angle de calage).

Représentation schématique de la variation de l’angle de calage des pales d’une éolienne.

On peut faire varier l’angle de calage en faisant tourner la pale autour de son axe, tel qu’illustré dans la figure ci-dessus. On voit qu’en modifiant cet angle, on modifie l’angle d’attaque et par conséquent la force qui sera exercée sur le rotor. Le pivotement des pales peut être réalisé par des actionneurs électromécaniques ou par un système hydraulique.

Vrillage de l’aile

Comme la vitesse relative, Vr, augmente avec la hauteur de long de la pale, la géométrie de celle-ci est adaptée à cette augmentation de vitesse. On voit notamment la diminution de l’angle de calage avec la hauteur pour garder l’angle d’attaque comparable tout le long de la pale. C’est cette variation qui donne un aspect vrillé à la pale.

Diminution de l’angle de calage avec la hauteur le long de la pale : effet de vrillage. On voit que Vr augmente entre le pied et la tête de la pale. Pour maintenir un angle d’attaque, alpha, constant, l’angle de calage, Theta, est modifié.

Caractéristiques de la force exercée sur le profil d’une éolienne

On voit, dans la deuxième figure sur la décomposition des forces (placée un peu plus haut), que la vitesse relative caractérisée par une certaine intensité et une direction décrite par l’angle d’attaque, induit une force sur le profil. Cette force F, se décompose en une composante tangentielle, FT qui contribue positivement à la rotation de l’éolienne, c’est l’effet utile recherché (du moins pour toutes éoliennes basées sur la portance), et une composante axiale FN perpendiculaire au plan de rotation qui n’a aucun effet utile. Au contraire, cette force axiale soumet l’éolienne par sa poussée à une contrainte mécanique importante. C’est l’élément dominant lors du dimensionnement du mât d’une éolienne. Si on décompose la force aérodynamique selon sa composante de portance et de trainée, on en déduit les propriétés suivantes :

  • La portance L, contribue positivement à la rotation de l’éolienne. En d’autres termes, elle induit une force dans le sens de rotation, c’est l’effet utile recherché. C’est aussi pourquoi on dit que ces éoliennes sont basées sur la portance.
  • La trainée, D, contribue négativement à la rotation de l’éolienne. En d’autres termes, elle induit une force dans le mauvais sens, c’est un effet parasite. Elle diminue le rendement de conversion de l’énergie cinétique du vent en énergie mécanique sur le rotor. C’est pourquoi, tout comme un planeur, les pales d’une éolienne sont conçues pour minimiser la trainée et obtenir ainsi les meilleurs rendements.

Le réglage de la puissance : calage et décrochage

Pour faire fonctionner une éolienne correctement, on doit pouvoir jouer sur les paramètres aérodynamiques des pales pour contrôler la vitesse de rotation ainsi que la puissance soutirée au vent :

  • Dans le cas de vents importants, le rotor peut être soumis à des forces mécaniques qui peuvent dépasser les contraintes admissibles. En outre, la puissance fournie par le rotor est limitée par la puissance maximale de la génératrice.
  • Dans le cas de fonctionnement normal, on doit pouvoir fonctionner à la vitesse de rotation souhaitée ou du moins, prédéfinie.

Il y a deux grandes manières de faire varier, et donc de contrôler, la force aérodynamique sur le rotor d’une éolienne : changer l’angle d’attaque et diminuer la surface au vent balayée par l’éolienne. La deuxième solution s’obtient en décalant le rotor (« yawing » en anglais) par rapport à la direction du vent (selon un axe vertical pour un décalage gauche-droite, ou selon un axe horizontal pour mettre incliner le rotor vers l’horizontal). On s’attardera ici sur la première solution basée sur l’angle d’attaque.

Modification de l’angle d’attaque via l’angle de calage d’une pale

La manière la plus efficace de modifier l’angle d’attaque est de jouer sur l’angle de calage.  Celui-ci peut être modifié en faisant pivoter la pale le long de son axe. Pour contrôler la force appliquée, on peut procéder de deux manières distinctes :

  • On peut augmenter l’angle de calage pour diminuer la puissance ou le réduire pour augmenter cette puissance (« pitch control » en anglais). A la limite si l’on souhaite réduire au maximum les forces exercées sur les pales pour garantir leur intégrité, notamment en présence de grands vents, on peut les placer en drapeau par rapport à la direction du vent (« feathering » en anglais).
  • Une autre manière de limiter la puissance est de dépasser rapidement l’angle de décrochage ce qui induit une diminution significative de la portance (« stall control » en anglais). Hormis pour certaines réalisations, cette seconde méthode est moins efficace que la première. Elle serait apparemment moins précise et les forces appliquées aux pales seraient plus intermittentes (dû au caractère fortement instationnaire du phénomène de décrochage).

Illustration de la variation de la force aérodynamique : diminution par réduction de l’angle de calage (centre) ou par décrochage (droite).


La trainée induite : aile d’envergure finie

Dans les développements précédents, on a essentiellement considéré les phénomènes physiques sur base de profils d’aile. En d’autres termes, on a tenu compte de deux dimensions de l’espace, c’est-à-dire la direction axiale (sens de l’écoulement pour une éolienne à axe horizontal) et tangentielle (plan de rotation). D’un point de vue purement théorique, c’est équivalent à considérer une aile infiniment longue. Pas simple de convaincre le lecteur de cette assertion, mais cela semblera sans doute plus clair par la suite. En réalité, tout le monde sait qu’une aile, que ce soit d’avion ou une pale d’éolienne, n’est pas infiniment grande. Elle a en effet une certaine envergure. Cela peut sembler trivial, mais, comme on va l’expliquer, cette limite va nous obliger à tenir compte de la troisième dimension spatiale dans notre raisonnement. Il s’agit de la direction radiale pour une éolienne à axe horizontal.

Photographie d’un tourbillon de sillage induit par un avion.

Tourbillons de bout d’aile : l’origine du phénomène

Comme on l’a expliqué précédemment en introduisant le phénomène de portance, une aile présente une certaine surpression à l’intrados et dépression à l’extrados. Que se passe-t-il en bout d’aile ? En bout d’aile, on a une région de haute pression (dans le cas d’un avion, en bas) et de basse pression (dans le cas d’un avion, en haut) qui sont voisines et non séparées par l’aile. En conséquence, l’air va se déplacer de la zone haute pression vers la zone basse pression dans un mouvement de contournement du bout d’aile. L’air se met donc globalement en rotation. Il crée un mouvement « cohérent » de rotation que l’on appelle « tourbillon ». Comme, il y a deux extrémités à une aile, on trouve deux tourbillons. Ceux-ci tournent en sens opposés l’un par rapport à l’autre.  Ce phénomène de tourbillon est clairement visible sur la photographie ci-dessus où l’on voit que l’air est mis en rotation au niveau des bouts d’aile après le passage de l’avion. Ce comportement n’a lieu que si l’aile a une certaine envergure. Si elle avait été infiniment grande, on n’aurait pas rencontré ce phénomène. Cela explique la distinction que nous avons introduite en début de section.

Ce phénomène de tourbillon est clairement visible au passage d’un avion à réaction dans un ciel bleu. En effet, la combustion qui a lieu dans un moteur d’avion rejette principalement de l’eau sous forme de vapeur et du CO2. Comme les avions volent à relativement haute altitude, la température de l’air à cette hauteur est largement négative (en °C). Du coup, l’eau qui est éjectée par les moteurs à l’état de vapeur se condense pour former de fins cristaux de glace. C’est la trainée blanche que l’on voit derrière un avion. En effet, l’eau à l’état de vapeur n’est pas visible. Par contre, une fois condensée, elle interagit avec la lumière. Revenons à nos moutons en ce qui concerne les deux tourbillons de bout d’aile. L’eau rejetée par les moteurs est capturée par les deux tourbillons de bout d’aile (phénomène dit d’ « enroulement »). Par conséquent, cela rend ces deux tourbillons visibles (parce que l’eau dans un état visible est capturée par les tourbillons). Ce sont les deux longues trainées blanches que vous voyez par ciel bleu derrière un avion de ligne. Vous remarquerez que, même si l’avion à quatre moteurs, in fine, il reste toujours deux trainées. Cela montre bien que les deux tourbillons capturent le « panache » des moteurs.

On peut se rendre compte que le même phénomène a bien lieu dans le cas d’éolienne. La figure suivante montre l’émission d’un tourbillon en bout de pale qui est translaté en aval par le vent.

 

Visualisation par dégagement d’un traceur (fumée) du sillage d’une éolienne expérimentale bi-pale.

Tourbillons de bout d’aile : augmentation de la trainée

Le phénomène de tourbillon de bout d’aile génère quelques problèmes. Nous retiendrons uniquement ici la contribution à la trainée. En effet, les tourbillons génèrent un mouvement de l’air global vers le bas juste en aval de l’aile. Ce mouvement induit par les tourbillons modifie les angles d’attaque des ailes si bien que la force est décalée vers l’arrière, augmentant ainsi la trainée. La contribution de la trainée induite est non négligeable, surtout à basse vitesse (ce qui est le cas des éoliennes). Du coup, il faut chercher à minimiser ces tourbillons de bout d’aile.

Vue de la composante verticale du champ de vitesse derrière un avion.

Retenons simplement que la forme de l’aile à une importance majeure. Un paramètre de première importance est l’allongement relatif qui est le rapport entre l’envergure et la corde moyenne d’une aile (ou d’une pale). Plus ce rapport est grand et plus la trainée induite est faible. C’est typiquement la raison pour laquelle les planeurs ont de grandes ailes allongées. En effet, ils n’ont pas de moteur si bien qu’ils sont conçus pour minimiser la trainée. En outre, ils volent à basse vitesse si bien que la trainée induite est non négligeable. En ce qui nous concerne, c’est une des raisons qui permettent d’expliquer pourquoi les éoliennes ont des pales si allongées.

 photo avion.     Photo éolienne.

Pour réduire la traînée induite par les tourbillons de bout d’ailes, le monde éolien s’est inspiré de l’aéronautique. Le monde de l’aviation et aujourd’hui celui de l’éolien utilisent un dispositif biomimétique : le winglet, sorte de petite cassure perpendiculaire située en bout de pale qui permet d’augmenter l’allongement effectif de l’aile et ainsi de réduire la traînée induite par les vortex de bout de pale.

Schéma principe du winglet.Photo de winglet.

Génératrice et dynamique du rotor

Génératrice et dynamique du rotor

Il s’agit d’une section plus technique qui approfondit certains aspects liés à la dynamique de l’éolienne. Cela inclut inévitablement de considérer la technologie de génératrice utilisée ainsi que de considérer le système de transmission. Il n’est pas absolument nécessaire de comprendre les concepts suivants pour se familiariser avec les éoliennes, mais ils présentent l’avantage d’expliquer certains choix techniques.


Génératrice et transmission

La génératrice est l’élément d’une éolienne qui transforme l’énergie mécanique en énergie électrique. Les pales transforment l’énergie cinétique en énergie mécanique, celle-ci étant transmise à la génératrice via le système de transmission. Une fois le courant produit, celui-ci est généralement injecté sur le réseau électrique.

Illustration de la transmission entre le couple moteur appliqué sur les pales et la génératrice dans le cas d’une éolienne à axe horizontal.

Dans le cas des éoliennes à axe horizontal, la typologie de la chaîne de transmission est relativement standard. On trouve d’un côté les pales qui sont soumises à une certaine force et qui ont une certaine vitesse de rotation. Ces pales sont solidarisées à un moyeu, ce moyeu est lui-même connecté à l’arbre de transmission qui, in fine, est sujet à un couple moteur. À l’autre extrémité, on trouve la génératrice. Il s’agit de machines tournantes composées d’un stator et d’un rotor. Du coup, dans la suite de cette section, il faudra être vigilant dans l’utilisation du vocabulaire technique pour ne pas confondre le rotor de la génératrice avec le rotor de l’éolienne, composé des pales.

De manière générale, on trouve une boîte de vitesse (gear box) intercalée entre l’arbre et la génératrice.  En effet, la majorité des génératrices imposent une vitesse de leur rotor significativement supérieure à la vitesse du rotor de l’éolienne. Par conséquent, il est nécessaire de placer une boîte de vitesse pour multiplier la vitesse de rotation et assurer le couplage entre ces deux entités.

Génératrices synchrones ou asynchrones

On se trouve aussi bien en présence de machines synchrones (aussi appelées alternateurs) que de machines asynchrones (aussi appelées machines à induction). Le but de cette section n’est pas de donner une explication sur le mode fonctionnement de ces deux machines, mais plutôt de développer leurs spécificités et leurs impacts dans le cadre de l’éolien. La suite des développements est assez technique, mais, dans ce domaine, il est difficile de simplifier plus les propos. Fort heureusement, les fabricants d’éoliennes choisissent le bon système électrique adapté à leur éolienne. Même si ce n’était pas le cas, cela reste une question de spécialiste. En conclusion, il ne vous sera jamais demandé de choisir ou de concevoir un système électrique, composé d’un générateur, pour une éolienne. Des concepts sont uniquement introduits afin de permettre au lecteur de comprendre les enjeux de la conception de la génératrice.

Pour le lecteur qui ne souhaite pas aller plus loin, nous résumons le point important à retenir. Dans le cas des machines tournantes synchrones et asynchrones, on trouve une certaine tension alternative aux bornes du stator. Elle présente une certaine fréquence, f.

  • Dans le cas des machines synchrones, son rotor doit tourner à une vitesse constante dépendant de cette fréquence (à la vitesse dite de synchronisme). Si le stator est directement connecté au réseau électrique, la fréquence du stator, f, est la fréquence du réseau (50 Hz). Par conséquent, le rotor de la génératrice tourne à une vitesse fixe imposée par le réseau que l’on ne peut changer.
  • Dans le cas des machines asynchrones, son rotor tourne à une vitesse différente de la vitesse de synchronisme. Cette différence de vitesse de rotation dépend à la fois des propriétés de la machine et du couple moteur exercé sur le rotor de la génératrice. En conclusion, même si la machine est directement connectée au réseau électrique, il reste une certaine latitude sur la vitesse de rotor.

Moteurs synchrones

Dans le cas d’une machine synchrone, un champ magnétique est généré au niveau du rotor au moyen d’un aimant permanent ou d’un électroaimant alimenté en courant continu. De manière générale, on trouvera les technologies à aimant permanent sur les petites éoliennes. En effet, il est plus difficile de mettre en œuvre des aimants permanents sur des grandes machines. La spécificité de la machine synchrone est que le rotor tourne à la même vitesse que la fréquence de la tension appliquée au stator divisée par le nombre de paires de pôles de la machine :

n = ns = f/p,

où,

  • f représente la fréquence de la tension au stator,
  • p, le nombre de paires de pôles,
  • ns, la vitesse de synchronisme et
  • n, la vitesse de rotation du rotor.

De par le principe de fonctionnement de cette machine, le rotor tourne à la vitesse de synchronisme.

Si la génératrice est directement connectée au réseau électrique, la fréquence du stator, f, est égale à la fréquence du réseau électrique (c’est-à-dire 50 Hz). Le rotor tourne alors à une vitesse constante, n, qui dépend du nombre de paires de pôles de la génératrice, p.  Pour des questions de contraintes constructives, on ne peut augmenter ce nombre de pôles de manière infinie. La majorité des éoliennes ont deux paires de pôles. La vitesse de rotation du rotor sera donc de 1 500 tours/min. Cette vitesse est supérieure aux vitesses de rotation des éoliennes si bien que cela justifie la présence d’une boîte de vitesse.  Néanmoins, certains modèles ont un nombre de pôles plus important ce qui permet de réduire cette vitesse de synchronisme et d’être dans le même ordre de grandeur que la vitesse du rotor de l’éolienne. Dès lors, un couplage direct sans boîte de vitesse devient possible. Cela se fait au prix d’une machine plus complexe, plus volumineuse et donc, plus lourde et plus chère. En contrepartie, on a épargné la boîte de vitesse.

Le couple résistif du générateur dépend du décalage, c’est-à-dire du retard qui existe entre la force électromotrice (fem) générée par le rotor et la tension au stator. On appelle ce décalage, l’angle électrique. Si l’angle correspondant à ce déphasage dépasse 90°, on a phénomène dit de décrochage où le rotor s’emballe et la génératrice ne parvient plus à le freiner.

Courbe caractéristique du couple électrique en fonction de l’angle électrique pour une machine synchrone.

Moteurs asynchrones

Dans le cas d’une machine asynchrone, un courant alternatif est induit dans les bobines du rotor par le champ magnétique du stator. Ce courant est généré parce que le rotor tourne à une vitesse légèrement différente que la vitesse du champ magnétique généré par le stator, celui-ci tourne à la vitesse de synchronisme (telle que définie ci-dessus). Ce courant dans le rotor produit à son tour un champ magnétique qui interagit avec le champ initial du stator. De cette interaction, il est produit un courant qui sort de la machine. De par cette explication, on en déduit que la vitesse de rotor diffère de la vitesse de synchronisme (par définition, l’effet utile a lieu s’il existe une différence de vitesse). Si on reprend la notation ci-dessus, on a « n » différent de « ns ». Cette différence de vitesse est appelée glissement,

s = (ns – n)/ns, et différent de 0.

Le couple de freinage exercé par la génératrice sur le rotor dépend de ce glissement, s. On voit donc que la vitesse de rotation dépend du couple exercé sur le rotor du moteur. Dans le cas de la machine synchrone, on avait un couple qui dépendait d’un déphasage entre le rotor et le stator, l’angle électrique, mais l’ensemble tournait à la même vitesse. Par contre, dans le cas de la machine asynchrone, on a un couple dépendant de la différence de vitesse entre rotor et stator.

Courbe caractéristique du couple électrique en fonction du glissement pour une machine asynchrone.

Si la génératrice est directement connectée au réseau électrique, la vitesse de synchronisme, ns, est fixée par la fréquence du réseau et le nombre de pôles. Dans le cas de la machine asynchrone, le rotor peut tourner à une vitesse différente qui dépend du couple exercé par le rotor et de la courbe caractéristique du couple électrique du moteur à induction (présentée ci-dessus). Si on peut jouer sur le glissement de la machine, on peut alors fonctionner à une vitesse différente que celle imposée par le réseau qui est constante. On gagne en souplesse.


Dynamique du rotor : vitesse variable ou constante

Reprenons une nouvelle fois la configuration de la chaîne de transmission entre le rotor de l’éolienne, d’une part, et le rotor de la génératrice, d’autre part.

           

Schéma des forces appliquées au système de transmission ainsi que les éléments dominant pour l’inertie.

Si l’on examine les forces qui s’exercent sur l’arbre de l’éolienne, on voit que l’on trouve, d’un côté, le couple mécanique exercé par les forces aérodynamiques sur les pales de l’éolienne, et d’un autre côté, le couple de freinage exercé par la génératrice sur le rotor (c’est-à-dire le couple électrique). En effet, si l’arbre exerce un certain couple sur la génératrice alors la génératrice exerce par réaction un couple de freinage sur son rotor. On trouve souvent intercalé entre les deux extrémités une boîte de vitesse pour rendre les vitesses de rotation compatibles. Le rotor de l’éolienne ainsi que le rotor de la génératrice représentent les contributions principales pour l’inertie de la chaîne de transmission.

La vitesse du vent est, de par nature, fluctuante dans le temps, si bien que le couple aérodynamique varie suivant ces variations. On distingue deux grands types de fonctionnement qui ont un impact sur la manière dont on gère ces fluctuations de couple aérodynamique :

Éolienne à vitesse de rotation constante directement couplée au réseau électrique

Schéma éolienne à vitesse de rotation constante couplée au réseau électrique.

On considère ici une machine, synchrone ou asynchrone, directement connectée sur le réseau d’énergie électrique. Par « directement », on veut dire que l’on n’a pas intercalé, entre la sortie de la génératrice et le réseau, un système d’électronique de puissance qui permet de découpler le comportement électrique du réseau de celui de la machine (c’est-à-dire essentiellement un système « redresseur-onduleur »). C’est le montage le plus basique qui correspond typiquement à de vieilles façons de procéder.

Comme le stator de la génératrice est directement connecté au réseau, on connaît la vitesse de synchronisme de la machine, ns.

  • Dans le cas de la machine synchrone, le rotor doit strictement tourner à la vitesse de synchronisme, ns.
  • Pour la machine à induction, la vitesse de rotation est différente de la vitesse de synchronisme, ce qui correspond à un certain glissement, s. Néanmoins, il faut savoir que ce dernier est limité. En fait, il est d’autant plus limité que la machine est puissante, et ce, pour une question d’efficacité énergétique.

Dans le cas d’une éolienne qui tourne à vitesse constante, le couple électrique doit être constamment adapté au couple aérodynamique. Tout au plus, on peut essayer d’intercaler entre les deux extrémités de la transmission, une certaine forme d’amortissement mécanique qui permet que les à-coups ne se traduisent pas directement en contraintes mécaniques dynamiques importantes sur l’ensemble de la transmission, avec les problèmes de durée de vie qui y sont liés.

Couple moteur aérodynamique = Couple résistif électrique

Si le vent vient à augmenter brusquement, cela se traduit par une augmentation soudaine du couple aérodynamique. Le couple résistif du générateur s’adapte presque instantanément pour égaler ce couple aérodynamique. Cela se fait soit par une augmentation de l’angle électrique dans le cas d’une machine synchrone, ou par une augmentation du glissement dans le cas d’une machine à induction.

On voit qu’avec ce mode de fonctionnement, on a deux désavantages :

  • Le système de transmission est soumis à des charges dynamiques mécaniques importantes,
  • Par définition, la vitesse de rotation de l’éolienne reste constante (ou varie un peu dans le cas de la machine asynchrone avec glissement), et ce, quel que soit le régime de vent. Par conséquent, on ne peut maintenir le rapport entre la vitesse en haut de pale et la vitesse du vent qui garantit les meilleurs rendements aérodynamiques de la machine. On perd en efficacité.

Éolienne à vitesse de rotation variable couplée au réseau

On veut pouvoir travailler à vitesse de rotation variable pour toujours aller chercher les meilleurs rendements, en maintenant le « tip-speed ratio » optimum. En outre, on veut pouvoir minimiser les charges dynamiques sur la chaîne de transmission. En effet, si le vent vient à augmenter brusquement, cela se traduit par une augmentation soudaine du couple aérodynamique. Comme le couple électrique n’est pas obligé de s’adapter en fonction, le rotor va simplement se mettre à accélérer. En d’autres termes, le rotor accumule sous forme d’énergie cinétique (au moyen de l’inertie de rotation) l’énergie des fluctuations rapides de vent. Une fois que le vent diminue et reprend sa valeur précédente, le rotor décélère lentement en transférant son énergie accumulée à la génératrice.

Couple moteur aérodynamique différent du Couple résistif électrique

Génératrice synchrone couplée au réseau via un système redresseur-onduleur

Schéma génératrice synchrone couplée au réseau via un système redresseur-onduleur.

La fréquence à la sortie du stator de la génératrice synchrone n’est pas fixée. En effet, le système redresseur-onduleur permet de découpler le fonctionnement électrique de la machine électrique et du réseau. Du coup, c’est la vitesse de rotation du rotor qui donne la fréquence électrique à la sortie du stator. On peut laisser la vitesse de rotor varier. La fréquence du stator sera elle aussi variable, mais cela n’a aucune importance dans la mesure où un couple redresseur-onduleur va transformer cette tension alternative en une autre de fréquence et de tension différente, en l’occurrence, celles du réseau électrique.

Génératrice asynchrone combinée directement au réseau avec glissement important

Schéma génératrice asynchrone combinée directement au réseau avec glissement important.

Si on peut jouer sur le glissement de la machine à induction et que l’on est capable de le faire varier sur de larges plages, alors on peut travailler avec un rotor à vitesse variable. Typiquement, on peut augmenter le glissement du moteur en ajoutant des résistances au rotor. Cela peut se faire par un jeu de balais qui connecte le rotor par l’extérieur, ce qui permet d’avoir des éléments du circuit électrique à l’extérieur du rotor, autrement dit, fixes. Dans ce cas-ci, il s’agit de résistances. Néanmoins, pour atteindre des plages de variation importantes, le niveau de ces résistances est loin d’être négligeable si bien qu’elles engendrent beaucoup de dissipation. Heureusement, elles sont placées à l’extérieur du rotor à un endroit où elles peuvent évacuer facilement la chaleur. Néanmoins, ces pertes par effet Joule grèvent sérieusement le rendement. On ne peut pas raisonnablement envisager de travailler de cette manière.

Une solution est de faire varier les caractéristiques électriques du rotor via un système d’électronique de puissance. Dans ce cas, on peut faire varier le glissement de manière significative et donc la vitesse de rotation de l’éolienne sans créer de dissipation importante et donc conserver l’efficacité énergétique. L’avantage par rapport à une génératrice synchrone avec redresseur-onduleur est que, dans ce cas-ci, l’électronique de puissance embarquée est moins importante.

Réglementation pour le petit éolien

Réglementation pour le petit éolien

Les éléments suivants sont extraits du CoDT (Code du développement territorial).


Demande de permis éolien

Dans le cas des petites éoliennes, la procédure de demande de permis d’urbanisme peut être sujette à des simplifications. Mais dans tous les cas l’installation d’une éolienne sera soumise à un permis d’urbanisme.

Le pôle « Aménagement du territoire » rend les avis pour les demandes de permis éoliens soumises à une étude des incidences sur l’environnement au sens du Code de l’Environnement.

Le permis est quant à lui délivré par le fonctionnaire délégué.

Adéquation avec le plan de secteur

Afin de ne pas demander de dérogation par rapport au plan de secteur lors de la demande de permis d’urbanisme, il est nécessaire d’avoir une concordance entre l’activité que l’éolienne est destinée à alimenter et l’affectation du sol. Les zones ci-dessous pourront accueillir une éolienne :

CoDT Art. D.II.28. Les zones d’activité économique

Les zones d’activité économique comprennent la zone d’activité économique mixte, la zone d’activité économique industrielle, la zone d’activité économique spécifique, la zone d’aménagement communal concerté à caractère économique et la zone de dépendances d’extraction.

Une zone d’activité économique peut […] comporter une ou plusieurs éoliennes pour autant qu’elles ne compromettent pas le développement de la zone existante.

CoDT Art. D.II.36. Les zones agricoles

La zone agricole est destinée à accueillir les activités agricoles c’est-à-dire les activités de production, d’élevage ou de culture de produits agricoles et horticoles […].

Dans la zone agricole, les modules de production d’électricité […] qui alimentent directement toute construction, installation ou tout bâtiment situé sur le même bien immobilier, sont admis pour autant qu’ils ne mettent pas en cause de manière irréversible la destination de la zone. Elle peut également comporter une ou plusieurs éoliennes pour autant que :

  • elles soient situées à proximité [< 1 500 m] des principales infrastructures de communication ou d’une zone d’activité économique  […] ;
  • elles ne mettent pas en cause de manière irréversible la destination de la zone.

Une éolienne est autorisée par propriété pour autant que le mât soit d’une hauteur maximale de vingt-quatre mètres.

CoDT Art. D.II.37. Les zones forestières

La zone forestière est destinée à la sylviculture et à la conservation de l’équilibre écologique.

Elle peut également comporter une ou plusieurs éoliennes pour autant [qu’] elles ne mettent pas en cause de manière irréversible la destination de la zone.

Le mât des éoliennes […] est situé :

  • en dehors du périmètre d’un site [de] conservation de la nature ;
  • à une distance maximale de 750 mètres de l’axe des principales infrastructures de communication […] ;
  • en dehors d’un peuplement de feuillus […].

Les infrastructures de communication :

Le réseau des principales infrastructures de communication est celui qui figure dans la structure territoriale du schéma de développement du territoire et qui comporte :

  • les autoroutes et les routes de liaisons régionales à deux fois deux bandes de circulation, en ce compris les contournements lorsqu’ils constituent des tronçons de ces voiries, qui structurent le territoire wallon en assurant le maillage des pôles régionaux ;
  • les lignes de chemin de fer, à l’exception de celles qui ont une vocation exclusivement touristique ;
  • les voies navigables, en ce compris les plans d’eau qu’elles forment.

Rendement des éoliennes

Rendement des éoliennes


 

La puissance instantanée du vent

Une éolienne est une machine qui, par définition, transforme l’énergie du vent en énergie mécanique. Pour débuter, il y a lieu de quantifier la source d’énergie dont on dispose, c’est-à-dire l’énergie associée au vent. Si le vent présente une certaine vitesse « V » à un moment donné et traverse une certaine surface « A », la puissance instantanée du vent est donnée par la relation suivante :

Pvent = 1/2 rho*A*V3,

où « rho » est la masse volumique de l’air, qui vaut approximativement 1.2 kg/m³ à 20°C, au niveau de la mer.

Néanmoins, cette relation met clairement en évidence :

  • que la puissance disponible du vent à un instant donné dépend du cube de la vitesse du vent. En conclusion, si vous avez un vent 2 x plus rapide, vous avez 8 x plus de puissance. On comprend dès lors tout l’intérêt de placer des éoliennes dans des sites venteux. Ce n’est donc pas un caprice de technicien puriste, on voit que le potentiel d’énergie dépend fortement de la vitesse du vent. C’est une condition nécessaire et non une option.
  • que la puissance disponible dépend directement de la surface traversée par le vent. Si on la considère équivalente à la surface balayée par le rotor d’une éolienne, la puissance instantanée du vent (telle qu’évaluée par la relation ci-dessus) représente le maximum de puissance disponible que l’éolienne peut convertir. On sait que la surface balayée par une éolienne dépend du rayon de son rotor (π*R²). Du coup, la puissance disponible dépend du carré du rayon de l’éolienne. En conclusion, si vous avez un rotor 2 x plus long, vous avez 4 x plus de puissance.
    [Découvrez ICI >> notre outil de pré dimensionnement éolien]

Diagramme illustrant le rapport entre le diamètre du rotor et la puissance maximale de l’éolienne :
Réalisé à partir des fiches techniques de 62 modèles d’éoliennes récentes

  • que la masse volumique de l’air a une influence sur la puissance disponible. On sait que la masse volumique de l’air dépend de la température, de  l’humidité et de la pression atmosphérique. Suivant ces paramètres, on peut obtenir des variations de 20 % de la masse volumique et donc de la puissance instantanée du vent.
    Ainsi, au niveau de la mer, par – 10 °C un mètre cube d’air pèsera 1,341 kg tandis qu’à 30 °C, il n’en pèsera plus que 1 164 kg.

L’énergie du vent

Connaître la puissance instantanée du vent est une chose, mais ce qui nous intéresse, c’est son énergie. Il y a donc une notion de temps qui va devoir intervenir quelque part. Pour connaître l’énergie du vent sur une période, il faut intégrer sa puissance sur cette même période. La connaissance de la vitesse moyenne du vent n’est pas suffisante, il faut disposer de l’évolution de la vitesse sur la période étudiée et sommer les contributions.

Prenons une période de 24h et comparons trois journées venteuses avec un vent moyen de 6m/s pour chacune mais un profil de distribution différent :

 

Si les vitesses moyennes sont bien les mêmes, le profil de distribution est lui très différent entre ces trois journées. Un simple calcul nous permet d’observer que la quantité d’énergie que le vent aura fournie sur 24h par m² pour chaque profil est drastiquement différente.

  • Jour1 : 24 [h] x 6 [m/s]³ x 1 [m²] x 1,2 [kg/m³] = 6 220 Wh = 6,22 kWh
  • Jour2 : 12 [h] x 12 [m/s]³ x 1 [m²] x 1,2 [kg/m³] = 24 880 Wh = 24,88 kWh
  • Jour3 : 6 [h] x 24 [m/s]³ x 1 [m²] x 1,2 [kg/m³] = 99 530 Wh = 99.53 kWh !!

Nous voyons donc clairement que nous ne pouvons pas moyenner la vitesse du vent et que la distribution du vent est déterminante dans le calcul de l’énergie dispensée par le vent sur une période et une surface données.

Nb : les éoliennes actuelles atteignant leur puissance maximale aux alentours de 10-15 m/s, les vents plus puissants ne seront pas pleinement exploités : l’éolienne sera freinée pour préserver son intégrité.

Explication avec quelques formules

Supposons que l’on dispose de mesures du vent à intervalles réguliers pendant une période de plus ou moins une année. L’intervalle entre chaque mesure est de « dt » secondes et le nombre d’échantillons est de « N » mesures. La durée de la période d’observation, « T », est donc N*dt. On obtient un échantillon de différentes vitesses, U1 jusque UN.  Il est donc possible d’estimer simplement la vitesse moyenne du vent, Um, pendant cette période de mesure :

Um = (1/N)*(U1+U2+ … + UN-1 + UN)

Pour obtenir l’énergie, il faut sommer les contributions des différentes mesures. Si la puissance du vent associée à une mesure de vitesse Ui vaut

Pi = 1/2*rho*A*(Ui)3

L’énergie du vent, Ev, vaut alors : Ev = (P1 + P2 + …. + PN-1 + PN)*dt. En fait, il faut connaître l’évolution de la vitesse du vent durant toute la période étudiée. Si on ne connaissait que la vitesse moyenne du vent, Um, cela ne suffirait pas pour déterminer l’énergie, Ev. En effet, on ne peut pas calculer l’énergie du vent au moyen de la vitesse moyenne (de la manière suivante) :

 Ev n’est pas égal à 1/2*rho*A*(Um)3*T

Cette différence sera chiffrée dans la section suivante et elle est loin d’être négligeable.


La distribution du vent : approche statistique

Dans la section précédente, nous avons intégré les différentes puissances pour obtenir l’énergie du vent sur la période étudiée. Il existe une autre manière de procéder qui présente en outre l’avantage de synthétiser les propriétés du vent sur la période investiguée. Il s’agit de la fonction de distribution du vent, que l’on nommera ici p(V).

Imaginons que l’on s’intéresse aux vitesses prises par le vent. Celles-ci varient entre la valeur zéro et la vitesse maximale rencontrée. On découpe cet intervalle en différentes petites plages de vitesses de largeur dV. Le produit p(V)*dV donne la probabilité que la vitesse du vent aie la valeur V durant la période d’observation (que l’on avait nommée, « T »). Cette valeur oscille entre « 0 » et « 1 ». La valeur est nulle quand le vent n’atteint jamais cette vitesse et la valeur « 1 » quand le vent est toujours à la vitesse V, ce qui, dans la pratique, n’arrive jamais. À titre d’exemple, si la probabilité p(V)*dV que la vitesse soit égale à V est de 0.5, cela veut simplement dire que l’on rencontre la vitesse V la moitié du temps de l’observation. Cela peut paraître assez abstrait, mais il est difficile de passer à côté de ce concept si l’on veut introduire les approches statistiques de l’évaluation de l’énergie du vent.

Une fois cette fonction connue, on peut déterminer la contribution de la vitesse V à l’énergie du vent de la manière suivante :

Ev(V) = 1/2*rho*A*V3*(p(V)*dV*T)

On obtient alors l’énergie du vent en sommant sur les différentes gammes de vitesse rencontrées. En d’autres termes, chaque gamme de vitesses se présente à une certaine fréquence pendant la période étudiée, « T », et correspond à une certaine contribution à l’énergie totale. Pour obtenir l’énergie du vent, il faut tenir compte de toutes les gammes de vitesse rencontrées et de leur contribution.

Comment obtient-on cette fonction de distribution ? La manière la plus consistante est d’utiliser les valeurs mesurées de vitesse et de regarder à quelle fréquence les différentes vitesses sont rencontrées. C’est la situation idéale.

Néanmoins, il arrive que l’on ne dispose pas de ces mesures ou, du moins, on dispose de mesures lacunaires qui ne permettent pas d’établir proprement la fonction de distribution. Par exemple, le potentiel de vent peut varier d’une année à l’autre si bien qu’il faut plusieurs années de mesure pour établir un comportement moyen. La littérature reprend souvent le chiffre de 10 années de mesure. On comprend dès lors qu’une évaluation du potentiel sur une période aussi longue ne soit pas toujours possible. Dans ce cas de figure, on peut faire une hypothèse sur la manière dont les vitesses sont rencontrées dans le temps. Dans le domaine de l’éolien, la fonction la plus courante est la fonction de distribution de Weibull.

Exemples de distributions de Weibull pour différents jeux de paramètres.

La fonction de Weibull est représentée dans le graphe ci-dessus. Elle ne comporte que deux paramètres : le facteur de forme, k, et le facteur d’échelle, c. Qu’est-ce que cela veut dire ? Cela veut dire que l’on sait à quelle fréquence sont rencontrées les différentes vitesses de vent, V, durant la période d’observation uniquement si l’on est capable de fixer la valeur de deux coefficients. Le but du jeu est de fixer ces deux coefficients sur base de données lacunaires dont on dispose. En d’autres mots, on est capable de reconstruire l’historique d’intérêt du vent sur la période étudiée uniquement si l’on est capable de fixer les deux paramètres de la fonction de Weibull : notamment sur base de la vitesse moyenne du vent et de sa variance. La qualité de cette méthode est correcte si, effectivement, la distribution du vent a, dans le site étudié, effectivement tendance à suivre une répartition de Weibull. Cela devient une question de spécialiste. On invite le lecteur à se référer à des ouvrages plus approfondis si cette thématique l’intéresse. À noter que l’on entend aussi parler de la fonction de distribution de Rayleigh qui est plus simple dans la mesure où elle ne comporte qu’un seul paramètre (c’est un cas particulier de la fonction de Weibull).

À titre d’exemple, commentons la figure ci-dessus représentant 5 jeux différents de paramètres pour la fonction de distribution de Weibull. On voit par exemple la courbe « rouge » représentant des vents de vitesse moyenne proche de 4.25 et qui oscille largement autour de cette valeur. La courbe « noire » quant à elle représente des vents de vitesse moyenne plus faible (proche de 3.5) et qui ont une variation nettement plus faible (proche de 3m/s) et qui ont une variation nettement plus faible autour de cette moyenne.

En conclusion, les fonctions de distribution du vent peuvent avoir deux utilités. D’une part, elles permettent de synthétiser les propriétés d’intérêt du vent en relation avec la production d’énergie et, d’autre part, si on utilise des fonctions prédéfinies comme la fonction de Weibull, elles permettent d’évaluer l’énergie du vent si on ne dispose que de données lacunaires concernant son évolution sur un site donné. Dans ce dernier cas de figure, il faut être conscient que la qualité de cette méthode est moindre qu’une campagne de mesure sur une dizaine d’années. Au mieux, les résultats auront une valeur identique.

Pourquoi ne pas directement évaluer l’énergie au moyen de la vitesse moyenne ? Ce n’est pas la même chose !

La puissance instantanée du vent est obtenue en prenant le cube de la vitesse. On obtient l’énergie sur la période de mesure en intégrant ces puissances. Mathématiquement parlant, c’est différent d’intégrer la vitesse sur la période puis de la mettre au cube. En d’autres termes, l’ordre dans lequel vous réalisez les opérations d’intégration et mise à la puissance 3 a une importante : on met d’abord la vitesse instantanée au cube puis on somme les différentes contributions durant la période analysée.

Fait-on une grosse erreur si on évalue l’énergie du vent au moyen de la vitesse moyenne ? Oui ! Sur base de cas rencontrés, on peut facilement faire une sous-estimation de 100 % voire plus.

On peut essayer de voir ce que cela donne avec la fonction de distribution de Weibull. Avant de rentrer dans le vif du sujet, on peut d’abord se faire une idée de l’évolution de la vitesse moyenne et de la variance en fonction de l’évolution des deux paramètres de la fonction de Weibull, le paramètre de forme, k, et le paramètre d’échelle, c.

On voit que la vitesse moyenne du vent dépend essentiellement du facteur d’échelle, c. La variance, quant à elle, dépend fortement des deux facteurs. Finalement, on représente maintenant le rapport entre l’énergie du vent calculée avec la fonction de Weibull et l’énergie du vent calculée de façon approximative par la moyenne de la fonction de Weibull. On connaît ce rapport sous le nom de facteur Ke,

Ke = Somme(1/2*rho*A*Ui³/N)/(1/2*rho*A*Um³) = (1/N Somme(Ui³))/(Um³)

   

Conclusion, le rapport, Ke, peut être très important, d’autant plus que le facteur de forme k est faible. On aura noté qu’il dépend uniquement de la valeur de ce facteur k. On reprend ci-dessous, un tableau avec des chiffres :

k Ke
1.2 3.99
2 1.91
3 1.40
5 1.15

Courbe caractéristique de puissance et rendement instantané

Le vent présente donc une certaine énergie pendant une période donnée. Cette énergie est convertie par l’éolienne en énergie mécanique et très certainement en énergie électrique. Cette transformation peut être décomposée en plusieurs étapes :

  1. L’énergie cinétique du vent est convertie en travail moteur à l’axe du rotor. Cette conversion est réalisée avec un certain rendement, le rendement aérodynamique.
  2. Le travail moteur au rotor est transmis vers l’axe de la génératrice avec un certain rendement, le rendement d’accouplement mécanique.
  3. La génératrice transforme le travail moteur à son axe en énergie électrique avec un certain rendement électrique.

Le rendement global est le produit des rendements de ces trois étapes. Il est difficile d’évaluer de manière simple ces trois rendements et donc d’estimer le rendement global. Le plus simple est de mesurer ce qui rentre et ce qui sort de l’éolienne pour avoir une idée de rendement global.

On définit le rendement instantané global d’une éolienne pour une vitesse de vent, V, comme étant le rapport entre la puissance électrique débitée par la génératrice, Pelec, et la puissance instantanée du vent, Pvent :

eta(V) = rendement instantané à la vitesse V = Pelec(V)/Pvent(V),

La puissance instantanée du vent a été définie au début de cette page. Il reste à connaître la puissance électrique débitée par l’éolienne en fonction de la vitesse V tout en sachant que le détail des pertes successives à chaque étape de transformation n’est pas explicité. En outre, si l’on peut connaître la puissance électrique débitée en fonction de la vitesse de vent, on peut évaluer la production électrique annuelle de l’éolienne sur base des mesures du vent réalisées in situ :

 Eelec = (Pelec(V)1 + Pelec(V)2 + … + Pelec(V)N)*dt.

La courbe caractéristique de puissance d’une éolienne donne la puissance électrique en fonction de la vitesse du vent. Généralement, ces courbes sont données par les fabricants d’éoliennes. Dans le cas de grandes éoliennes, la courbe caractéristique a été certifiée par un laboratoire et définie dans des conditions d’essai standard. On a donc une certaine assurance quant aux performances réelles de l’éolienne. La situation est plus critique pour les petites éoliennes produites par de relativement petits constructeurs. En effet, ils fournissent généralement la courbe caractéristique de puissance de leur appareil, mais ils font rarement certifier les performances. On n’a donc aucune ou peu d’assurance quant à la fiabilité des performances annoncées. Dans tous les cas, la certification des performances est un élément à bien garder à l’esprit lors de l’acquisition d’une éolienne, surtout s’il s’agit de concepts novateurs ou « potentiellement » révolutionnaires (pour ne pas dire fumants).

La courbe caractéristique de puissance comporte par trois grands paramètres (voir figure ci-dessous) :

  • La vitesse minimale de démarrage (cut-in wind speed) : il s’agit de la vitesse du vent à partir de laquelle l’éolienne commence à débiter une puissance utile (c’est-à-dire de la puissance électrique).
  • La vitesse maximale ou d’arrêt (cut-off wind speed) : il s’agit de la vitesse maximale acceptable par l’éolienne. Au-delà de celle-ci, la tenue mécanique de ces divers composants n’est plus assurée (ou simplement prévue). Si le vent présente une vitesse supérieure, l’éolienne est mise à l’arrêt, idéalement de manière automatique, pour préserver son intégrité.
  • La puissance nominale (rated power) : cette valeur est souvent égale à la puissance électrique maximale qui peut être extraite de l’éolienne. Elle n’a jamais lieu à la vitesse maximale acceptable du vent. En effet, peu avant d’atteindre la vitesse de mise à l’arrêt, des dispositifs sont mis en place pour freiner la vitesse du rotor (soit de manière dynamique, soit de manière aérodynamique), ce qui peut diminuer significativement les performances de l’éolienne.

En conclusion, on trouve typiquement des courbes de puissance ayant l’allure suivante.

 

Forme typique d’une courbe de puissance d’une éolienne : production électrique finale en kW en fonction de la vitesse instantanée du vent en m/s.

La puissance nominale d’une éolienne ne veut rien dire sur son efficacité si le constructeur ne mentionne pas à quelle vitesse de vent cette puissance électrique est obtenue. En effet, on n’est pas en mesure de déterminer la puissance instantanée du vent et donc d’établir son rendement global instantané.

Exemple : FairWind F64-40

À titre d’exemple, la société wallonne ouverture d'une nouvelle fenêtre ! FairWind établie à Seneffe commercialise des éoliennes à axe vertical dont les courbes de puissance sont disponibles sur leur site internet. En analysant leur modèle F64-40, voici les courbes obtenues :

 

 

Performances de l’éolienne à axe vertical Fairwind F64-40 suivant les données fournies par le constructeur.

On distingue clairement la vitesse minimale de 3 m/s, la vitesse maximale de 20 m/s ainsi que la puissance nominale de 40 kW obtenue à 15 m/s. Un simple calcul montre que le rendement instantané global ne dépasse pas 35 %.

Données générales FairWind F64-40
Puissance nominale (rated power) 40 kW
Vitesse du vent nominale 14 m/s
Vitesse du vent minimale (cut-in speed) 3 m/s
Vitesse de vent maximale (cut-out speed) 20 m/s
Vitesse de mise en sécurité 55 m/s
Diamètre du rotor 8 m
Longueur des pales 8 m
Surface balayée 64 m²
Hauteur du mât [12,24] m

L’estimation de la production d’électricité

Sur base de mesures

Sur base de la mesure du vent réalisée sur une période T et de la courbe caractéristique de puissance de l’éolienne, on peut évaluer la production électrique, Eelec, de l’éolienne durant cette période :

Eelec = (Pelec(V)1 + Pelec(V)2+ Pelec(V)3+ … + Pelec(V)N)*dt,

où on réalise une mesure de la vitesse toute les « dt » secondes, on possède ainsi « N » valeurs dans notre échantillon tel que T = N*dt. En bref, on suppose que la vitesse que l’on a mesurée à un moment, Vi, reste constante pendant tout l’intervalle de mesure, dt. Durant un intervalle, l’éolienne produit Pelec(V)i*dt.  On réalise finalement la somme sur tous les points de mesure pour obtenir l’énergie électrique finale.

Sur base de la distribution statistique

Une autre manière de procéder est de travailler sur base de la distribution statistique dont on connaît les paramètres (sur base de mesures ou de simulations) :

Eelec(V) = Pelec(V)*(p(V)*dV*T),

où, dans le membre de droite, le premier facteur est la puissance électrique produite à la vitesse V et le second facteur est le temps total durant lequel la vitesse est égale à V (pendant la période de mesure, T). L’énergie finale, Eelec, est obtenue en sommant sur toutes les vitesses rencontrées.

Certains constructeurs utilisent cette méthode pour communiquer une estimation de la production électrique annuelle de leur éolienne. En fait, ils fixent les paramètres de la fonction de distribution, p(V), et regardent ce que cela donne au niveau de la production. Quand vous entendez des estimations de la production électrique, il faut être conscient que le constructeur a fait des hypothèses sur la manière dont les vitesses sont rencontrées dans le temps. De manière générale, le vent sur votre site ne sera pas identique à celui qu’il a considéré dans son estimation. Pour être rigoureux, il faut veiller à ce que le constructeur communique ces paramètres. C’est la seule manière de pouvoir comparer différents matériels entre eux sur base d’estimation de la production électrique.

Estimation du rendement moyen global de l’éolienne

On peut aussi connaître le rendement moyen de l’éolienne sur la période d’observation, T. On peut estimer, d’un côté, l’énergie du vent qui était disponible (la source d’énergie), Event, et, d’un autre côté, l’énergie électrique produit par l’éolienne, Eelec (comme calculée ci-dessus). Le rapport de ces deux valeurs donne le rendement moyen :

Rendement moyen global = Eelec/Event,

Par global, on sous-entend que l’on s’intéresse à ce qui rentre et ce qui sort globalement de l’éolienne. On trouve typiquement, un rendement moyen de 20 % pour les petites éoliennes et de 35 % pour les grands modèles.

Nombre d’heures pleines de fonctionnement

La puissance débitée par une éolienne dépend de la vitesse du vent.  Par conséquent, la majorité du temps, l’éolienne ne fonctionne pas à puissance nominale (PN), le vent n’étant généralement pas suffisant pour garantir cela. C’est un des arguments des détracteurs des éoliennes. En effet, comparé à des centrales électriques traditionnelles basées sur les énergies fossiles (typiquement une centrale TGV) ou le nucléaire qui peuvent fonctionner de manière continue proche de leur puissance nominale, une éolienne fonctionnera principalement à une puissance inférieure à PN. Du coup, il faudra une puissance installée supérieure avec des éoliennes qu’avec des centrales classiques pour atteindre une même production d’énergie annuelle. C’est un argument assez controversé bien que techniquement très clair. Le but n’est pas de faire le point sur ce sujet. On reprend juste ici l’argument.

Une manière de chiffrer la production d’une éolienne est de rapporter sa production électrique annuelle en nombre d’heures de fonctionnement à puissance nominale. En d’autres termes, on calcule le nombre d’heures que l’éolienne doit tourner à puissance nominale pour débiter la même production électrique annuelle (avec un vent dont la vitesse varie).

Nombres d’heures équivalentes à puissance nominale = tN = Eelec/PN.

Valeur typique pour les grandes éoliennes en Wallonie : tN = 25% de l’année.

Valeur typique pour le petit éolien en Wallonie  tN = 11% de l’année.

Typiquement, la production annuelle électrique d’une grande éolienne en Wallonie correspond à 25 % du temps à puissance nominale. Il ne faut pas en déduire que l’éolienne ne tourne que 25 % du temps. Non, dès que la vitesse instantanée du vent dépasse la vitesse minimale de mise en fonctionnement (cut-in wind speed), l’éolienne débite de l’électricité.  En fait, les chiffres montrent que l’éolienne fonctionne 80 % du temps (source : ouverture d'une nouvelle fenêtre ! APERe). Néanmoins, elle produit à une puissance généralement inférieure à la puissance nominale, cette dernière étant souvent prise comme étant la puissance maximale.

Estimation rapide : Quick-scan

Dans certaines situations, notamment dans une étude de préfaisabilité, on souhaite pouvoir estimer grossièrement ce qu’un site va pouvoir donner comme production. On peut simplement se baser sur la vitesse moyenne du vent, Um, sur le site :

Estimation de la production = (rendement moyen global)*(1/2*rho*A*(Um)3),

où le rendement moyen est pris :

  • à 22 % pour le petit éolien (moins de 35 m de diamètre) ;
  • 30 % pour l’éolien moyen (35 à 100 m de diamètre) ;
  • et 35 % pour le grand éolien (> 100 m de diamètre).

Dans la réalité, on remarquera une tendance à un meilleur rendement pour les modèles d’éoliennes avec les pales les plus longues (> 30 m) :
Diagramme réalisé sur base de 62 fiches techniques d’éoliennes récentes.

On sait très bien qu’il s’agit d’une estimation limitée étant donné que l’effet des fluctuations de la vitesse autour de la moyenne n’est pas pris en compte. On peut montrer que cette manière d’estimer l’énergie du vent (le deuxième terme dans le membre de droite), est susceptible d’amener de grosses erreurs. On sous-estime le potentiel de vent. Néanmoins, si un constructeur prétend pouvoir produire, pour une vitesse moyenne donnée, une production électrique annuelle dépassant quatre ou cinq fois cette estimation simplifiée, vous pouvez clairement conclure que ce n’est pas une proposition honnête.


La limite de Betz

Le fabricant d’une éolienne doit faire certifier la courbe caractéristique des performances de son modèle. Cela doit être réalisé selon une méthode normalisée, idéalement par un laboratoire indépendant.

Dans la pratique, les modèles de plus faibles puissances ne bénéficient pas de cette certification. Le constructeur peut fournir une courbe de puissance, mais on n’a aucune garantie sur sa fiabilité, tout au plus, on peut se reposer sur la crédibilité du fabricant.

Comment détecter un produit farfelu ? Il n’y a malheureusement pas de méthode absolue (hormis tester le matériel). Néanmoins, certains chiffres communiqués par le constructeur peuvent être mis à l’épreuve. C’est le cas du rendement global instantané de l’éolienne tel que défini à la section précédente.

L’application des principes fondamentaux de la mécanique permet de déterminer la quantité maximale d’énergie du vent qui peut-être convertie en énergie mécanique (rotation du rotor). Ce rendement aérodynamique instantané, ou Coefficient de performance (Cp), ne peut dépasser 16/27 soit approximativement 59 %. Par conséquent, le rendement instantané qui tient aussi compte d’autres pertes (aérodynamiques, accouplement, conversion électrique, auxiliaires) doit être inférieur à cette valeur :

Rendement global instantané < rendement aérodynamique < 16/27

Cette limitation est mieux connue sous le nom de « limite de Betz » ou « théorie de Betz ». Pour arriver à ces conclusions, il a fallu introduire des hypothèses simplificatrices. Néanmoins, celles-ci sont tout à fait raisonnables.


Vitesse en bout d’aile et performance : tip speed ratio

On a vu que la limite de conversion de puissance du vent vers la puissance mécanique du rotor est théoriquement limitée à 16/27, soit 59 %, par l’approche de Betz. Par rapport à ce cas idéal, il existe une série d’imperfections qui empêchent d’atteindre cette limite. En d’autres termes, on a une série de pertes qui réduisent l’efficacité aérodynamique de l’éolienne :

  • Mise en rotation du sillage : Le vent avant de rencontrer l’éolienne ne possède pas de mouvement de rotation prononcé et cohérent. Du moins, c’est le cas s’il ne rencontre pas d’obstacles majeurs en amont de l’éolienne. Une fois que l’air est passé dans le rotor de l’éolienne, il en ressort avec une vitesse de rotation générale dans le sens opposé à celui du rotor. Cette vitesse de rotation qui n’existait pas au départ correspond à une certaine quantité d’énergie cinétique qui n’a pas pu être convertie pas l’éolienne. Il s’agit d’une première source de pertes.
  • Trainée des profils de l’aile : Lorsque l’on place une aile face au vent, il génère une force sur cette aile. C’est l’effet escompté. Cette force peut se décomposer en partie. Une force dite de portance qui est perpendiculaire à la direction du vent en aval de l’aile et une composante dite de trainée qui est parallèle à cette vitesse de vent. Dans le cas d’un avion, c’est la portance qui permet de vaincre la gravité et permet ainsi à l’avion de voler. La trainée freine l’avion, car cette force est opposée à la direction dans laquelle l’avion progresse. Pour permettre à l’avion de conserver cette vitesse, les moteurs de l’avion donnent la force nécessaire pour vaincre cette force de trainée.  Dans le cas d’une éolienne, on retrouve la même idée. Néanmoins, il faut alors tenir compte à la fois de la vitesse du vent, mais aussi de la vitesse de rotation de l’éolienne. Le problème est un peu plus complexe. Tout cela pris en compte, on se rend compte que c’est la portance des pâles de l’éolienne qui exerce une force utile dans le sens de rotation de l’éolienne. La trainée des pâles, par contre, a tendance à freiner la progression de ces pâles. C’est une deuxième source de pertes parce qu’une partie de l’énergie du vent sert à freiner l’éolienne. Fort heureusement, une aile d’éolienne est conçue pour avoir la trainée la plus faible possible pour une portance donnée. En gros, il s’agit d’une question de spécialistes dans la mesure où il s’agit de travailler sur l’aérodynamique de l’aile.
  • Nombre limité de pales : Le nombre de pales d’une éolienne est limité pour des questions de poids et de prix. Le rendement idéal considéré plus haut faisait l’hypothèse d’un nombre très important de pales. Dans la réalité, ce nombre ne sera jamais atteint. Cette limitation est source d’une troisième forme de pertes. D’un point de vue physique, ces pertes sont générées par la trainée induite. La trainée induite est d’autant plus faible que la portance est faible et le rapport entre envergure et corde moyenne de l’aile est important. Ainsi, une aile qui a une grande envergure par rapport à la corde aura une trainée plus faible. On peut s’en convaincre en comparant les ailes d’un planeur à celle d’un avion traditionnel : les ailes du planeur sont beaucoup plus allongées pour limiter la trainée, ce qui est souhaitable étant donné qu’il n’a pas de moteur. C’est une des raisons qui expliquent pourquoi une éolienne a des ailes allongées.

   

Analogie entre l’allongement (aspect ratio) des ailes d’un planeur et des pales d’une éolienne : limitation de la trainée.

Ces explications avaient juste vocation de montrer que le rendement idéal n’était jamais atteint, ceci étant dû à différentes pertes. Un facteur qui influence grandement ces pertes est le rapport entre la vitesse en bout de pale (induite par la rotation) et la vitesse du vent, le tip-speed ratio (TSR) en anglais,

Lambda = tip-speed ratio (TSR) = u/V = n.2*pi*R/V,

avec,

  • u, la vitesse en bout de pale qui peut être évaluée comme étant le produit
  • de la vitesse de rotation, n (en Hz),
  • par le rayon de l’éolienne, R, multiplié par 2*pi.
  • V est la vitesse du vent en amont.

La théorie confirmée par la pratique montre que les pertes sont minimisées pour un TSR donné. En d’autres termes, pour chaque vitesse de vent, il existe une vitesse de rotation qui maximise le rendement aérodynamique de l’éolienne, c’est-à-dire la quantité d’énergie du vent transférée au rotor. On peut s’en rendre compte sur base du la figure ci-dessous,

Évolution du rendement aérodynamique instantané en fonction du rapport entre la vitesse en bout de pale et la vitesse du vent (tip-speed ratio) : illustration des différentes sources de pertes par rapport au rendement idéal de Betz.

On peut comprendre le graphe de la manière suivante :

  1. On dispose au départ de la puissance instantanée du vent par m², ce qui correspond dans le graphe au niveau de 100 %.
  2. La théorie de Betz nous apprend que l’on peut dans le meilleur des cas récupérer jusqu’à 16/27, soit approximativement 60 %.
  3. Si l’éolienne tourne plus lentement pour une vitesse de vent donnée, on aura un couple aérodynamique important pour atteindre une même puissance et donc une forte déviation du fluide par les pales. Cela engendre une mise en rotation plus importante du sillage et donc des pertes plus importantes. On le voit clairement dans le graphe sous la dénomination « pertes de sillage ». En conclusion, plus l’éolienne tourne vite, moins les pertes par mise en rotation sont importantes.
  4. Si on considère un profil d’une pale d’éolienne, la force aérodynamique se décompose en une force de portance, mais aussi de trainée qui s’oppose dans la direction de rotation de l’éolienne (du moins pour les éoliennes dont le principe de fonctionnement est basé sur la portance). L’effet négatif sur le rendement aérodynamique est d’autant plus important que l’éolienne tourne vite. On peut s’en rendre compte dans le graphe ci-dessus sous l’appellation « trainée du profil d’aile » où les pertes augmentent avec le tip-speed ratio. Sur base des deux premiers termes de pertes (pertes de sillage et de trainée de profil), on voit apparaître un premier optimum à une vitesse de relative de bout d’aile entre 6 et 8.
  5. On voit apparaître enfin le dernier terme de perte induit par le nombre limité de pales. En fait, si on prend la courbe relative à un nombre donné de pales en pointillé (on considère ici 1, 2 ou 3 ailes), on voit que la courbe générale correspond à l’enveloppe de tous les maxima des courbes à nombre de pâles fixé.

 

Évolution du rendement aérodynamique en fonction du nombre de pales pour un modèle donné.

Au regard de la courbe ci-dessus, qui reprend l’évolution du rendement aérodynamique en fonction du nombre de pale pour un modèle donné, on voit que plus le nombre de pales est important, plus le rapport optimal de vitesse en bout de pale est faible.

En outre, l’analyse des rendements de 62 modèles récents d’éoliennes démontre qu’il y a  une tendance claire vers un meilleur rendement pour les éoliennes ayant une vitesse de vent nominale plus basse (comprises entre 10 m/s et 12 m/s.

On peut conclure cette section en faisant une description des différentes courbes caractéristiques de rendement aérodynamique pour chaque grand modèle d’éolienne. De manière générale, on voit que les éoliennes basées sur la portance, c’est-à-dire les éoliennes à axe horizontal ou à axe vertical de type Darrieus, ont un rendement aérodynamique supérieur aux éoliennes basées sur la trainée (typiquement, le rotor Savonius). L’influence du nombre de pales sur le rendement est aussi représentée. Si la vitesse de rotation diminue, il faut un couple aérodynamique plus important pour une même puissance mécanique. C’est pourquoi les éoliennes qui cherchent à produire du travail mécanique, notamment pour des applications de pompage, ont un nombre de pales important (illustré ci-dessous par l’éolienne américaine). Actuellement, les éoliennes de type Darrieus ont un rendement un peu supérieur à celui présenté dans le graphe ci-dessous.

Évolution typique du rendement aérodynamique en fonction du tip-speed ratio et du modèle d’éolienne.

Eoliennes

Eoliennes

Généralités

Une éolienne est une machine qui convertit l’énergie du vent en énergie mécanique. Pour être plus clair, on considère qu’il y a du vent quand l’air se déplace et donc quand l’air possède une certaine vitesse. À cette vitesse est associée une énergie, l’énergie cinétique. Le vent exerce une force sur le rotor de l’éolienne et le met en rotation : il exerce une certaine puissance. A proprement parler, cette force est transmise à un axe qui correspond à une certaine puissance. En langage d’ingénieur, nous sommes en présence d’une machine motrice.

Cette énergie mécanique peut être utilisée directement. Par exemple, on pense à l’actionnement d’une pompe à des endroits non desservis par le réseau électrique ou à nos anciens moulins à vent. Néanmoins, ces applications mécaniques sont assez marginales. Dans la majorité des cas, l’énergie mécanique du rotor de l’éolienne est transformée en énergie électrique via une génératrice. En tout cas, comme l’énergie mécanique est de « qualité » élevée (notion d’exergie), il est a priori regrettable de la transformer en chaleur, par exemple en utilisant l’énergie éolienne pour se chauffer.


Classification

On peut classifier les éoliennes suivant leur taille ou suivant leur principe de fonctionnement.

Classification selon la taille

On définit différentes classes de taille d’éoliennes. En théorie, il n’y a pas de relation directe entre la hauteur et la puissance de l’éolienne. En effet, cette puissance dépend essentiellement de la surface balayée par le rotor qui n’est pas toujours fonction de la hauteur de l’éolienne, mais du diamètre du rotor. Néanmoins, dans le cas des grandes éoliennes, une règle de bonne pratique veut que la hauteur du mât, L, soit égale au diamètre du rotor, D. Dans ce cas, il y a un lien indirect entre la hauteur du mât et la puissance. Dans le tableau suivant sont repris les dénominations de taille et les ordres de grandeur de puissances associées. Attention, il s’agit bien d’ordres de grandeur de puissance. Le but est uniquement de se donner une idée. En outre, cette puissance n’a de sens que si on a défini la vitesse de vent à laquelle elle est délivrée.

Graphe diamètre rotor / puissance

Illustration de la relation entre le diamètre du rotor et la puissance électrique de sortie basée sur les données techniques de 62 modèles récents d’éoliennes.

Dénomination Diamètre du rotor [m] Aire balayée [m²]  Puissance [kW]
Micro 0.5-1.25 0.2-1.2 0.1-0.4
Mini 1.25-3 1.2-7.1 0.4-2
Domestique 3-10 7-79 2-30
Petite commerciale 10-20 79-314 30-120
Moyenne commerciale 20-50 314-1963 120-750
Grande commerciale 50-100 1 963-7854 750-3 000
Géante commerciale 100-170 7 854-22 686 3 000-8 000

 Classification des éoliennes suivant la taille et ordre de grandeur associé.

Pour être plus parlant, on trouve classiquement ces éoliennes pour les applications suivantes :

  • Micro-éoliennes : en général pour couvrir des besoins très limités et sites isolés (par exemple, des sites de pèche, des bateaux, des caravanes).
  • Mini-éoliennes : essentiellement pour recharger des batteries sur des sites isolés du réseau, les plus puissantes peuvent servir pour l’alimentation domestique hors du réseau (maisons isolées).
  • Eoliennes domestiques : elles balayent un spectre assez large allant de rotors de 3 à 10 m de diamètre. C’est typiquement le genre d’éoliennes proposées pour les particuliers.
  • Petites éoliennes  commerciales : elles sont typiquement conçues pour les petites entreprises, les fermes, … mais il existe très peu de modèles produits dans cette gamme.
  • Moyennes éoliennes commerciales : elles sont typiquement utilisées pour les applications commerciales dans des fermes, des usines, des entreprises voire des petits parcs éoliens.
  • Eoliennes grands commerciales : ce sont les éoliennes que l’on trouve dans les parcs éoliens modernes, ce sont aussi les plus efficaces.
  • Eoliennes commerciales géantes : ce sont les éoliennes que l’on trouve dans les parcs éoliens modernes et également en offshore, elles sont très efficaces et issues des dernières générations technologiques.

Dans la course au gigantisme, l’éolien ne fait pas figure d’exception. Si les modèles de 9 MW sont déjà à l’ordre du jour, certaines sociétés n’hésitent pas à parler de diamètres avoisinant les 400 m (!) pour atteindre des puissances de 50 MW !!!

Classification selon le principe de fonctionnement

Eoliennes à axe horizontal ou vertical

Les plus connues sont les éoliennes à axe horizontal (HAWT, horizontal axis wind turbine).  Leur typologie est souvent identique. A la base, on a un mât sur lequel est placée la nacelle. Cette nacelle contient la génératrice ainsi que le système de transmission, c’est-à-dire les éléments d’accouplement mécanique entre le rotor et la génératrice. Celle-ci convertit l’énergie mécanique en énergie électrique.

Schéma principe éoliennes à axe horizontal ou vertical.   Photo principe éoliennes à axe horizontal ou vertical.

En suivant le sens de parcours du vent, le rotor peut être placé en amont ou en aval de la nacelle. Cette dernière configuration a été à la mode, mais devient anecdotique. Elle présentait l’avantage que la nacelle et le rotor se mettent automatiquement face au vent. Lorsque le rotor se situe en amont, il faut un dispositif particulier pour que l’éolienne se positionne correctement. Par exemple, on peut trouver une aile fixe verticale qui stabilise l’éolienne face au vent (même principe que la gouverne verticale d’un avion) ou un moteur qui réalise cette tâche. On parlera alors d’un dispositif de positionnement passif ou actif, respectivement.

Distinction entre éoliennes à axe horizontal avec le rotor placé en amont avec gouverne (figure gauche), en amont avec contrôle actif (figure centrale) et en aval (figure de droite).

L’avantage du rotor placé en aval est qu’il se positionne naturellement face au vent, c’est-à-dire de manière passive. Par contre, le vent est d’abord perturbé par la nacelle et le pylône avant d’agir sur le rotor. D’une part, le régime de vent devient non uniforme sur la surface balayée par le rotor. Cela engendre des contraintes mécaniques variables dans le temps ce qui provoque une usure prématurée du matériel (phénomène de fatigue mécanique). D’autre part, le vent perturbé vient impacter les ailettes de l’éolienne ce qui a tendance à générer beaucoup de bruit (bruit d’origine aérodynamique). Pour ces deux raisons, on préfère la configuration avec le rotor en amont. En effet, le vent est moins perturbé avant de rencontrer les pales de l’éolienne (à moins qu’un obstacle se trouve en amont, mais ce n’est idéalement pas le cas). Finalement, on peut dire que l’éolienne à axe horizontal avec le rotor en amont est devenue le standard, en tout cas pour les applications de puissance élevée.

On rencontre aussi des éoliennes à axe vertical (VAWT, vertical axis wind turbine) pour les applications de petite voire de moyennes puissances. Les avantages de cette configuration sont que l’éolienne est toujours bien positionnée par rapport au vent, que le dispositif d’accouplement ainsi que la génératrice se trouvent au niveau du sol ce qui facilite la maintenance. En outre, de par les diamètres de rotor inférieurs aux éoliennes à axe horizontal, les vitesses absolues sont plus faibles ce qui, du moins théoriquement, devrait engendrer moins de bruit.

Classiquement, on distingue deux grandes familles parmi les éoliennes à axe vertical. D’une part, on trouve les éoliennes basées sur la « portance » dont la plus connue est le modèle de « Darrieus » et, d’autre part, les éoliennes basées sur la « trainée » dont la plus connue est le modèle de « Savonius ». On invite le lecteur qui veut approfondir ces concepts à consulter des sites spécialisés. Retenons néanmoins que par le principe physique qui anime ces modèles, elles donnent peu de couple au démarrage. Par conséquent, elles ne démarrent qu’à une certaine vitesse de vent, ou il faut assurer mécaniquement le démarrage de l’éolienne pour qu’elle fonctionne.

Illustration des deux grands types d’éoliennes à axe vertical : les éoliennes de type Savonius en haut, basées sur la trainée, et les éoliennes de type Darrieus en bas, basées sur la portance. Les figures du haut montrent une coupe horizontale du rotor vue selon un axe vertical. Les figures du bas montrent une coupe horizontale du rotor d’éoliennes Darrieus. Le rotor peut avoir une forme en « phi », en « delta », en « H », etc.

  

Exemple d’éolienne Darrieus (à gauche) et Savonius (à droite).

Dans l’histoire des éoliennes, on trouve de manière cyclique un regain d’intérêt pour les éoliennes à axe vertical. Les nouveaux concepts proposés sont sensés dépasser les limites technologiques du standard actuel qui est l’éolienne à axe horizontal avec rotor en amont. Pour répondre de manière nuancée, voici quelques éléments de réflexion pour situer le débat sur ces VAWT :

  • En ce qui concerne les nouvelles éoliennes à axe vertical, il s’agit souvent de la redécouverte de vieux concepts.
  • De manière générale, on manque de retour d’expérience sur le comportement des nouvelles éoliennes à axe vertical, notamment en ce qui concerne leurs performances aussi bien techniques que d’un point de vue économique.
  • Beaucoup d’experts qui ont accumulé une longue expérience dans l’éolien sont sceptiques.
  • Beaucoup d’effets d’annonce sur les performances de ces nouveaux concepts sans pour autant les valider : absence récurrente de certification IEC (commission électrotechnique internationale) de la plupart de ces machines [APERe].

Pour résumer la situation, nous reprenons le point de vue nuancé de Paul Gipe : « Avec des éoliennes à axe vertical, on peut dans certains cas réaliser les mêmes performances technico-économiques qu’avec des éoliennes à axe horizontal, mais plus que probablement pas mieux« .

Propriétés des éoliennes à axe vertical par rapport aux modèles standards Avantages Inconvénients
Simplicité. Parfois oui, on peut arriver à un concept plus simple Parfois non, on n’aboutit pas systématiquement à plus de simplicité
Meilleure fiabilité. Peu probable, mais peu de retour d’expérience.
Positionnement. Toujours bien placé par rapport au vent.
Entretien. Equipement au niveau du sol.
Prix. Moins cher, mais le rendement est-il égal ?
Rendement mécanique (transformation énergie du vent). Meilleur rendement en vent turbulent/changeant. (Cas des implantations urbaines ou proches du sol). Peu de retour d’expérience.
Rendement économique. Peu de retour d’expérience.
Émission de bruit. Théoriquement moins bruyantes parce que les vitesses sont plus faibles.

Tableau récapitulatif des propriétés des éoliennes à axe vertical par rapport aux modèles conventionnels d’éoliennes.

Distinction selon le nombre de pales

On peut faire une distinction entre les éoliennes suivant le nombre de pales.

Distinction entre éoliennes à axe horizontal selon le nombre de pales.

         

Dans le cas des éoliennes à axe horizontal, la plupart des éoliennes ont 3 pales. En fait, il s’agit du meilleur compromis entre différentes contraintes. Une éolienne à 3 pales (ou plus) tourne plus régulièrement qu’une éolienne à 1 ou 2 pales, on a un meilleur équilibre du rotor. D’un point de vue esthétique, les effets de battement visuel sont plus importants pour les éoliennes à moins de 3 pales. Le rendement aérodynamique, c’est-à-dire la capacité à convertir l’énergie du vent en énergie mécanique (et donc, in fine, en électricité), est équivalent de 2 à 4 pales. Il augmente sensiblement à partir de 5. Le seul avantage d’avoir une éolienne à deux pales plutôt qu’à trois est qu’elle sera meilleur marché, mais elle tournera de manière moins régulière ce qui est synonyme de durée de vie plus courte. On ne monte pas au-delà de 4 pales à cause de la diminution de la tenue mécanique : en effet, la « corde » des pales diminue avec le nombre de pales.

Nombre de pâles 1 2 3 4 5
Équilibre du rotor + + +
Esthétique (effet de battement visuel) + + +
Rendement aérodynamique = = = +
Bruit et fatigue + + +
Tenue mécanique + = =

Tableau récapitulatif des propriétés des éoliennes à axe horizontal en fonction du nombre de pales.

Pour conclure cette rubrique, on peut mettre en garde contre certaines conclusions intuitives qui peuvent induire en erreur. Dans le cas des éoliennes à axe vertical, il existe des modèles avec un grand nombre d’ailettes donnant à l’ensemble un aspect très compact. Cette forte densité n’est pas nécessairement synonyme de meilleures performances (aérodynamiques). Comme il sera montré par la suite, la puissance dépend essentiellement de la surface balayée par le rotor. Or, cette surface ne varie pas en augmentant le nombre de pales. Tout au plus, on balaye cette surface de manière plus efficace. Néanmoins, on peut aussi alourdir inutilement la structure ce qui grève les performances.

Distinction selon la protection contre les vents importants

C’est un aspect fondamental. En effet, en présence de vents importants ou de rafales, il s’agit d’éviter les contraintes mécaniques trop importantes et les vitesses de rotation excessives, c’est-à-dire d’éviter la casse, d’assurer l’intégrité du matériel.
On distingue d’une part les stratégies de contrôle par l’aérodynamique. On joue sur l’orientation des ailes pour modifier leurs propriétés aérodynamiques et donc réduire la force exercée par le vent.

  • Soit on réduit l’angle d’attaque des pales qui présentent alors un rendement plus faible. On peut aller jusqu’à mettre les pales face au vent où elles seront soumises à une force nulle.
  • Soit on augmente l’angle d’attaque jusqu’au décrochage du profil (« stall control » en anglais).

Une autre manière de procéder est de placer directement un frein aérodynamique sur l’aile (mais cela est physiquement équivalent à chercher le décrochage).

Ces modifications des propriétés aérodynamiques peuvent être réalisées sur l’entièreté de l’aile ou sur seulement une fraction de celle-ci, par exemple sur le bout d’aile.

À noter que l’on peut jouer sur l’orientation de l’éolienne à axe horizontal. Dans ce cas de figure, il s’agit de réduire la surface présentée au vent par le rotor de l’éolienne en la décalant par rapport à la direction du vent. Comme cette surface est réduite, la puissance du vent est directement réduite. Typiquement, on décale l’éolienne à gauche ou à droite suivant son axe vertical, soit on place l’éolienne en « hélicoptère » en tirant le rotor vers l’arrière.

D’autre part, on trouve le freinage dynamique ou électrique. Dans ce cas, c’est un frein mécanique qui limite la vitesse de rotation. Cette fonction peut être réalisée par le génératrice électrique.

Le freinage aérodynamique est une stratégie dont on ne peut se passer pour les grandes éoliennes. On peut se limiter au freinage dynamique que pour les éoliennes de faible puissance.

Distinction selon le mode de régulation de la vitesse du rotor : vitesse constante ou variable

Le rendement aérodynamique instantané, ou coefficient de performance, d’une éolienne dépend du rapport entre la vitesse en bout de pales et la vitesse du vent (évaluée bien en amont de l’éolienne) :

Lambda = tip speed ratio (TSR) = u/V,

avec,

  • u, la vitesse en bout de pale induite par la vitesse de rotation du rotor,
  • et V, la vitesse en amont de l’éolienne.

Pour optimiser la conversion de la puissance du vent en puissance mécanique appliquée au rotor, il faut que se rapport Lambda ne soit ni trop faible, ni trop élevé.  Si la vitesse du vent change, la vitesse de rotation de l’éolienne devrait idéalement pouvoir s’adapter pour maintenir le TSR constant et donc toujours travailler avec les meilleurs rendements. Par conséquent, on distingue les éoliennes à vitesse de rotation constante des éoliennes à vitesse de rotation variable. Ces dernières permettent de suivre le régime de vent et d’obtenir de meilleurs rendements en adaptant la vitesse de rotation de l’éolienne.

Il existe une deuxième raison qui justifie de travailler avec une éolienne à vitesse de rotation variable. De part nature, la vitesse du vent est fluctuante. Si l’éolienne a une vitesse de rotation constante alors ces fluctuations de vitesse se traduisent par des fluctuations du couple mécanique exercé sur l’arbre. Nous sommes alors en présence de contraintes mécaniques fluctuantes qui peuvent accélérer l’usure de la transmission entre le rotor et la génératrice. Travailler avec un rotor à vitesse variable permet d’absorber les fluctuations de vitesse par une accélération de la vitesse du rotor.

Une éolienne à vitesse de rotation variable suppose d’avoir systématiquement recours à de l’électronique de puissance. Fort heureusement, cette technique a évolué très positivement ces dernières années ce qui permet de conserver un bon rendement  et un prix acceptable. Par conséquent, le choix d’une éolienne à vitesse de rotation variable est tout à fait abordable et cohérent. Néanmoins, il faut savoir qu’une éolienne à vitesse de rotation constante reste, théoriquement du moins, plus simple.


Positionnement et intégration

Placer une éolienne est une question de compromis. Par exemple, si l’éolienne est placée près de bâtiments, elle pourra subir leur interférence dans la mesure où ces bâtiments influencent globalement la trajectoire de l’air. Par contre, placer une éolienne loin d’un bâtiment pose la question de la ligne de transmission qu’il faudra tirer entre l’éolienne et le poste électrique compatible le plus proche.

Schéma positionnement et intégration.

Illustration de la structure de l’écoulement d’air autour d’un bâtiment et des zones d’influences.

La figure ci-dessus donne une idée de l’influence d’un bâtiment sur l’écoulement. On voit que le vent est perturbé par la présence du bâtiment avant que ce vent arrive à son niveau, c’est-à-dire en amont. Si l’obstacle placé sur un terrain plat a une hauteur « H », on considère que l’écoulement est influencé en amont à partir d’une longueur de l’ordre de « 2H ». En aval, le bâtiment influence significativement l’écoulement jusqu’à une longueur de l’ordre de « 20H ». C’est donc loin d’être négligeable. Il est important de comprendre que dans ces zones d’influence, l’écoulement est fortement perturbé, c’est-à-dire que l’air subit de fortes fluctuations de vitesse qui sont loin d’être négligeables devant la vitesse du vent en amont. En d’autres termes, il ne s’agit pas de faibles fluctuations qui se superposent au vent initial, comme un « bruit blanc ». Au contraire, le vent subit de fortes fluctuations de vitesse dans toutes les directions de l’espace. En outre, la vitesse moyenne de l’écoulement est réduite, à certains endroits parfois annulée voire même inversée.

La situation peut être particulièrement complexe dans un milieu urbain où le vent est perturbé par un ensemble de bâtiments. Comme les figures ci-dessous l’illustrent bien, il existe de grandes zones où la vitesse moyenne du vent est réduite. Le comportement du vent n’est pas aléatoire, il obéit à des lois physiques bien précises. Il n’en reste pas moins que son évolution en passant près de bâtiments est loin d’être intuitive. En effet, il est difficile de prédire les caractéristiques de tels types d’écoulement. Par exemple, les résultats ci-dessous ont été obtenus au moyen de simulations numériques complexes.

Types d'écoulement via simulation numérique- 01.

Types d'écoulement via simulation numérique- 02.

Types d'écoulement via simulation numérique- 03.

Norme de la vitesse dans un plan horizontal à 1.5  m du sol (1ere figure), à 4 m du sol (2ème figure) et dans un plan vertical (3ème figure), autour d’un quartier composé d’immeubles. Cette dernière figure illustre bien l’évolution de la vitesse avec la hauteur. Résultats obtenus au moyen de simulations numériques réalisées par Tatiana de Meester de Betzenbroeck (Architecture et Climat, UCL).

Eoliennes montées sur le toit : éviter les zones d’écoulement turbulent

Photo éoliennes montées sur le toit - 01.

Photo éoliennes montées sur le toit - 02.

Exemples d’éoliennes placées sur le toit d’un bâtiment. En premier lieu, le bâtiment Éole à Gosselies (Igretec) qui intègre deux éoliennes à axe vertical dans un immeuble de bureau. Dans ce cas-ci, on voit que les éoliennes font partie intégrante du concept architectural du bâtiment (un peu comme son nom l’indique).  En second lieu, un bâtiment avec une série d’éoliennes à axe horizontal placées sur un mât.

Dans certains cas, on souhaiterait mettre une éolienne sur le toit d’un bâtiment. Cela peut constituer une opportunité dans les zones urbaines où les zones dégagées, c’est-à-dire sans obstacles, sont peu ou pas existantes. L’idée est aussi de ne pas devoir investir dans un mât pour hisser le rotor à une certaine hauteur. Mis à part ces avantages, il reste de sérieux inconvénients à travailler avec une éolienne placée sur un bâtiment :

  • Comme la figure ci-dessus sur la zone de perturbation d’un bâtiment l’illustre bien, l’écoulement est aussi perturbé au-dessus du toit. Il est moins perturbé sur le bord amont du toit, mais on voit que cette zone grandit en progressant en aval. Si le rotor de l’éolienne est situé dans cette zone d’influence,  il rencontrera un vent de vitesse moyenne plus faible et il subira de fortes fluctuations de vitesse. Par conséquent, le rendement sera plus faible et les forces auxquelles l’éolienne sera soumise seront très fluctuantes. Ces charges dynamiques sur la structure et les équipements de l’éolienne peuvent accélérer son usure. Pour conclure, on peut atténuer cet effet en conseillant d’installer l’éolienne près du bord du toit dans la direction des vents dominants.
  • Les vibrations de l’éolienne, en plus d’être potentiellement plus importantes sur un toit, sont transmises à la structure du bâtiment. Il faut voir si le bâtiment peut supporter cela et voir dans quelle mesure ces vibrations peuvent être absorbées par un dispositif ad hoc. L’impact de la propagation de ces vibrations par les matériaux de construction sur le confort acoustique des occupants n’est pas à négliger non plus.
  • Les villes étaient généralement bâties dans des sites abrités du vent.
  • Assurer la viabilité de la structure en cas de tempête devient encore plus critique concernant la sécurité. En effet, que se passe-t-il si l’éolienne est arrachée ou tombe sur une façade, une personne ? On ne peut se permettre que l’éolienne puisse perdre des éléments par grand vent.
  • L’impact paysager, au vu de la production dérisoire de ces mini-éoliennes, pose question et pourrait nuire à l’image du secteur éolien dans sa globalité alors que ce secteur est plein de potentialités. [APERe]

Tous ces éléments font que l’intérêt d’installer des éoliennes sur le toit de bâtiments est loin d’être évident. On mentionne souvent que les éoliennes à axe vertical sont bien conditionnées pour fonctionner sur un toit dans la mesure où elles sont toujours bien orientées par rapport à la direction du vent. C’est déjà un bon point, mais il n’en reste pas moins que tous les désavantages cités ci-dessus restent d’application. En effet, quand on dit que le vent est perturbé, il ne s’agit pas simplement de dire qu’il change de direction par rapport à la vitesse non perturbée en amont du bâtiment. Non, le vent est aussi sujet à de fortes fluctuations d’amplitude et la direction locale du vent fluctue aussi rapidement dans le temps. Les forces aérodynamiques sur l’éolienne restent donc relativement instationnaires (c’est-à-dire, variables), même si l’éolienne est à axe vertical. Au minimum, il faut s’assurer que le constructeur à mis en œuvre des techniques spécifiques pour gérer cela.

Éoliennes intégrées au bâtiment

     Photo éoliennes intégrées au bâtiment - 01.  Photo éoliennes intégrées au bâtiment - 02.  Photo éoliennes intégrées au bâtiment - 03.

Exemples d’éoliennes intégrées au bâtiment : le bâtiment Strata en fin de construction à Londres (figures de gauche et centrale ) et le World Trade Centre de Barhain (figure de droite).

Plus délicate encore est l’intégration de l’éolienne au sein même du bâtiment. En d’autres termes, l’éolienne devient partie intégrante du concept architectural, de l’image véhiculée par le bâtiment. Effectivement, cette démarche donne une image, un style technologique et écologique au bâtiment. Par contre, mis à part ses qualités de vitrine de marque, on peut se poser de sérieuses questions sur l’intérêt d’intégrer des éoliennes directement au bâtiment. Il reste notamment la question de l’absorption des vibrations des éoliennes par le bâtiment. Si elles sont petites, cela ne pose pas de gros problèmes, mais, d’un autre côté, si elles sont petites, elles ne produiront alors qu’une infime fraction de la consommation du bâtiment. Si les éoliennes sont de tailles plus importantes, elles peuvent fortement perturber la structure du bâtiment.

On peut jouer sur la forme du bâtiment pour obtenir un effet d’accélération au niveau de l’éolienne (effet Venturi). Néanmoins, on ne peut pas déplacer le bâtiment en fonction de l’orientation du vent. En conclusion, l’intérêt ne semble pas évident.


Les éoliennes carénées

Certaines éoliennes sont munies d’éléments externes au rotor dont l’objectif est de concentrer le vent sur le celui-ci. On pense principalement aux éoliennes carénées où un conduit convergeant ou divergeant enveloppe le rotor de l’éolienne. Les designs peuvent être des plus variés, voire des plus futuristes :

Schéma principe éoliennes carénées.    Photo éoliennes carénées.

Certains de ces modèles présentent des puissances supérieures aux éoliennes traditionnelles non carénées. Il ne faut pas y voir pour autant un effet révolutionnaire. L’explication est relativement simple. Lorsque l’on définit la puissance instantanée du vent, il faut être vigilant à la définition de la surface rencontrée par l’éolienne que l’on utilise. Dans le cas d’une éolienne classique, il s’agit de la surface balayée par le rotor. Par contre, dans le cas de modèles carénés, il faut tenir compte de ces éléments supplémentaires extérieurs. Typiquement, il faut prendre la surface frontale de l’éolienne, carénage inclus. En gros, celui-ci augmente la puissance instantanée du vent en augmentant la surface exposée au vent. Les puissances plus élevées obtenues par ces éoliennes ne sont donc pas dues à un meilleur rendement, mais à une augmentation de la puissance du vent rencontrée, c’est-à-dire la source d’énergie.

Le carénage est-il pertinent?

La méthode n’est pas mauvaise, mais il faut savoir que c’est tout aussi simple d’augmenter la surface du rotor d’une éolienne classique pour qu’il soit équivalent à la surface au vent de l’éolienne carénée. En effet, dans le cas d’une éolienne carénée, ajouter cet élément externe a un certain coût. En outre, il faut pouvoir le maintenir par une structure et l’orienter correctement par rapport au vent. En ce qui nous concerne, nous pensons qu’il est plus simple d’augmenter la taille du rotor d’une éolienne traditionnelle. Un avantage néanmoins, il épargnerait les oiseaux grâce à l’absence de pièces mouvantes externes.


Dispositifs d’optimisation de l’aérodynamique

Quand on voit la complexité des ailerons acérés des Formules 1, c’est à se demander pourquoi les pales de nos éoliennes sont si minimalistes. Ni aurait-il pas moyen de pousser l’aérodynamique plus loin  ?  Si la réponse courte est OUI, la réponse longue impose de nuancer.

En effet, si une pale d’éolienne est loin de la complexité d’un aileron de formule 1, la raison se situe probablement dans une balance coût/bénéfice pour laquelle le point de vue n’est pas le même. D’un côté, en formule 1, on cherchera le bénéfice maximal, qu’importe le coût et la durée de vie ; de l’autre côté, celui de l’éolien, ce sera la solution proposant le meilleur rapport coûts/bénéfices tout au long du cycle de vie qui l’emportera. Ce dernier point de vue menant logiquement à des solutions simples, éprouvées, efficaces et durables avec « peu » de débauche de moyens. En résumé, cela revient moins cher de faire plus grand que de faire plus complexe.

Néanmoins, les techniques évoluent et les coûts associés également. Pour cette raison, certaines technologies que l’on retrouve dans le monde des sports moteurs, mais aussi de l’aéronautique deviennent suffisamment matures et abordables pour être intégrées dans le secteur éolien.

Les winglets

Photo winglets - 01.

Afin de réduire la traînée induite par les tourbillons de bout d’aile, certains dispositifs biomimétiques comme les winglets (petite ailette perpendiculaire à la pale située en bout d’aile) ont été développées pour permettre de limiter les turbulences en bout d’aile. En réduisant la trainée, c’est à la fois de rendement qui est amélioré (1 à 3 %)  mais également une réduction du bruit qui peut être observée. Ce type de dispositif est déjà très présent dans le monde aéronautique (on y voit même des doubles winglets aussi appelés « split winglets »).

Photo winglets - 02. Schéma principe winglets.

Les chevrons ou dentelures

Photo chevrons ou dentelures - 01.

Afin d’améliorer l’aérodynamique et le rendement, mais surtout l’acoustique qu’induisent les turbulences au niveau du bord de fuite, certaines sociétés s’inspirent du vol silencieux du hibou et étudient des solutions pour « adoucir » les perturbations.

Ainsi, par bio mimétisme, en s’inspirant des plumes d’hibou, des dentelures ou chevrons sont apposés au bord de fuite. Ces entreprises promettent une réduction de 5dB grâce à ce dispositif. Wait and see !

Photo chevrons ou dentelures - 02.

Les générateurs de vortex

Schéma principe générateurs de vortex - 01.

Accolés sur l’extrados de la pale, non loin du bord d’attaque, les générateurs de vortex, sorte de petites lames, permettent de contrer la séparation prématurée des flux et ainsi augmentent la portance de la pale. Se faisant, le bruit est réduit et le rendement, en poussant la limite de décrochage plus loin, est amélioré. Ce dispositif peut être placé a posteriori.

Schéma principe générateurs de vortex - 02.

Ecoulement de l’air avec générateurs de vortex.

Concevoir l’installation d’une éolienne

 


Un projet multidisciplinaire

Au-delà de la justification environnementale et économique, l’implantation d’une ou plusieurs éoliennes doit satisfaire à une série de contraintes. Celles-ci sont de natures fort différentes. Ces contraintes peuvent être vues comme des conditions nécessaires à remplir pour pouvoir édifier une éolienne, mais chaque contrainte séparée ne peut être vue comme une condition suffisante : il faut pouvoir répondre à toutes les contraintes. Naturellement, plus le projet est ambitieux en taille et plus les contraintes à respecter sont sévères ou plus la justification de leur respect doit être approfondie. À l’autre extrême, on trouve les projets de petites éoliennes où les contraintes sont relativement limitées.

Pertinence du projet

Au départ, le projet doit être intrinsèquement pertinent. On développe cette idée ci-dessous pour différentes dimensions du projet, c’est-à-dire des objectifs énergétiques, environnementaux et économiques. Ces dimensions ont été séparées pour des raisons de clarté et pour structurer le propos. Il faut être conscient qu’en réalité tous ces critères sont fortement liés et doivent être considérés ensemble.

Pertinence économique

Bien que l’impact sur la réduction de l’émission de gaz à effet de serre soit un atout indéniable, il n’en reste pas moins que la pertinence économique d’un projet éolien demeure un paramètre vital. À cet effet, il est important d’avoir une idée claire sur la rentabilité de son projet. En outre, il faut intégrer à ses calculs financiers la politique de soutien des autorités publiques pour la production d’énergie verte. En effet, ce dernier aspect améliore considérablement les performances économiques du projet.

Pertinence énergétique et environnementale

  • Maîtrise de la consommation énergétique : Si l’objectif est de répondre à la demande d’électricité d’un ou plusieurs bâtiments, d’autres approches que l’éolien peuvent être pertinentes, voire prioritaires. Produire son énergie avec des sources d’énergies renouvelables est une excellente initiative, ne pas consommer cette énergie est encore mieux. C’est un slogan que l’on rencontre systématiquement dans le contexte de l’utilisation rationnelle de l’énergie. Bien qu’un peu « bateau », il est tout à fait pertinent. Une condition préalable à l’investissement dans un projet éolien est la maîtrise de sa consommation énergétique. À l’échelle d’un bâtiment, cela doit être vu au sens large, c’est-à-dire en intégrant la consommation électrique, mais aussi la consommation de chaleur. On peut attaquer ces consommations sur deux fronts : le premier est de réduire les besoins de chaleur et d’électricité, le second est l’utilisation d’un matériel performant et en bon état de marche. Les différentes sections d’Énergie+ ont été développées pour vous accompagner dans cette démarche de maîtrise des consommations pour chaque poste-clef de votre bâtiment ou de votre parc immobilier.
  • Les ressources disponibles : Par définition, une éolienne est une machine qui transforme l’énergie du vent en énergie mécanique, c’est-à-dire la rotation du rotor. Finalement, cette énergie sera transformée en électricité via une génératrice. Comme toute machine, elle réalise cette conversion avec un certain rendement. Comme le bon vieux premier principe de la thermodynamique nous l’apprend, l’énergie est conservée : « rien ne se perd, rien ne se gagne ». Le rendement de l’éolienne ne dépasse donc jamais les 100 %. Tout cela pour dire que si le vent ne contient pas beaucoup d’énergie sur le site où vous voulez implanter votre éolienne, celle-ci ne pourra pas faire de miracles et produire plus que ce potentiel énergétique du vent. Avant de se lancer dans l’aventure, il faut donc connaître les ressources d’énergie éolienne dont on dispose. Cela peut se faire via une campagne de mesure sur site ou, dans la plupart des cas aujourd’hui, au moyen de logiciels de simulation numérique qui permettent de déterminer les grandes caractéristiques du vent en relation avec une éolienne. Une propriété importante est la puissance instantanée du vent qui traverse la surface balayée par l’éolienne. Cette puissance dépend du cube de la vitesse du vent (en amont de l’éolienne). Si la vitesse double, la puissance instantanée du vent est multipliée par huit. L’éolienne dispose alors de huit fois plus de puissance de vent à convertir en électricité. Sur base de ce constat, on comprend tout l’intérêt de placer son éolienne sur un site venteux. En outre, de par ses propriétés, le vent varie fortement d’un site à l’autre. Par conséquent, la pertinence énergétique d’un projet éolien dépend fondamentalement du potentiel local de votre site d’implantation.
  • Un large spectre d’énergies renouvelables : Comme expliqué ci-dessus, la pertinence énergétique dépend fortement du potentiel de vent de votre site d’implantation. Ce potentiel va donc aussi influencer la viabilité économique du projet. Toutes les sources d’énergies renouvelables ne sont pas aussi sensibles aux conditions atmosphériques ou météorologiques locales. Par exemple, lorsque l’on considère les techniques solaires, que ce soit le solaire thermique ou photovoltaïque, votre production sera essentiellement dépendante de l’ensoleillement ainsi que de la température extérieure (qui influence le rendement du matériel). Ces facteurs varient bien évidemment d’un site à l’autre, mais les variations, au sein d’un territoire restreint comme la Région wallonne, restent limitées. Par conséquent, ces techniques solaires souffrent moins de facteurs locaux, leur pertinence est donc plus facile à établir ou réfuter. Le choix d’une énergie renouvelable par rapport à une autre dépendra donc du potentiel de votre site. Si vous ne disposez pas de sites venteux, d’autres sources d’énergies  renouvelables seront peut-être plus indiquées. Dans certains cas, d’autres ressources d’énergies renouvelables sont peut-être plus facilement valorisables, tel le bois-énergie dans des régions où les forêts et les sous-produits de bois sont nombreux. En conclusion, il faut regarder la question de la manière la plus large possible en envisageant toutes les opportunités qui s’offrent.

Contraintes

Le but de cette section relative aux contraintes n’est pas de faire un état des lieux précis des contraintes auxquelles est soumise l’implantation d’une éolienne. L’objectif est de démontrer la diversité des questions et des disciplines rencontrées. Nous invitons le lecteur intéressé à consulter les documents de référence sur ces questions voir de rentrer en contact avec le facilitateur Électricité Renouvelable de la Région wallonne. Fort heureusement, pour les petits projets éoliens, la liste des contraintes est plus restreinte.

Contraintes urbanistiques

Une éolienne doit respecter une série de contraintes urbanistiques. Celles-ci seront d’autant plus sévères que l’éolienne sera grande. L’ensemble des règles concernant les zones capables en éolien sont reprises dans le Code du Développement Territorial (CoDT). En outre, il existe des zones protégées où l’installation d’une éolienne est en principe proscrite. On peut citer, à titre d’exemple, les zones Natura 2000, les réserves naturelles, les peuplements de feuillus,…

Les éoliennes pourront par contre s’établir, moyennant certaines conditions, dans les zones agricoles, zones d’activité économique, zone forestière à faible densité…

Contraintes électriques et de raccordement au réseau

Mis à part les situations d’auto-consommation, l’électricité qui sera produite par les éoliennes sera principalement injectée sur le réseau. Il faut que le réseau possède un nœud de connexion proche (cabine de tête) qui puisse accueillir le puissance électrique débitée par une ou plusieurs éoliennes. Cette capacité dépend de la puissance électrique que l’on souhaite faire transiter par le réseau et donc de la taille du projet éolien. Dans le cas où il faudrait tirer une nouvelle ligne de puissance vers une éolienne, il faut savoir que ce sont des travaux extrêmement coûteux. La topologie du réseau électrique à proximité du site d’implantation a donc un impact majeur. Ces questions sont traitées en collaboration avec le Gestionnaire du Réseau de Distribution (GRD) ou de Transport (GRT) suivant le niveau de tension du réseau auquel on veut se raccorder.

Actuellement, les meilleurs sites (sur les plans de l’exposition au vent et de la connexion au réseau) sont déjà équipés en éoliennes. Ce critère est donc moins évident à optimiser au fur et à mesure que les gisements de vents idéalement situés sont exploités.

Contraintes environnementales

L’implantation d’une éolienne peut perturber son environnement direct :

  • Les éoliennes émettent du bruit. Ce bruit peut être engendré par la vibration de la structure, voire aussi être d’origine aérodynamique. Il faut veiller à ce que le niveau de bruit émis par l’éolienne soit compatible avec l’occupation du voisinage. À ce titre, le législateur a mis en place un arrêté pour protéger le cadre de vie des riverains en exigent le respect de normes de bruits strictes en fonction des conditions sectorielles. http://environnement.wallonie.be/legis/pe/pesect074.html
  • L’impact de l’éolien sur l’avifaune est très limité. Il est d’autant plus limité que l’éolienne est de petite taille. Il existe pourtant des zones sensibles qu’il est souhaitable d’éviter, essentiellement pour les grands projets éoliens. Par exemple, on peut citer les couloirs de migration ou les zones de nidification. L’étude d’incidence analyse particulièrement ces impacts.

Contraintes de compatibilité

L’implantation d’une éolienne peut interagir négativement avec d’autres fonctions réalisées dans son environnement :

  • Les éoliennes émettent un rayonnement électromagnétique. Néanmoins, celui-ci n’est pas dans la même gamme de fréquences que celles utilisées par les radars. Ces éoliennes ne constituent donc pas des brouilleurs actifs. Par contre, l’éolienne peut avoir des surfaces importantes métalliques comme le mât ou les pâles qui peuvent refléter les rayons d’un radar. Potentiellement, cela peut créer de faux échos radars ce qui peut être dangereux pour l’aviation civile ou militaire. En outre, certaines parties de l’éolienne sont en mouvement. C’est, par définition, le cas du rotor. Un effet « Doppler » qui modifie le champ électromagnétique pulsé par le radar peut avoir lieu. Ce phénomène génère de forts échos radars. Il faut savoir que même les éoliennes avec un rotor de diamètre limité, comme une éolienne domestique avec un rotor de 2 m de diamètre, génèrent un écho perceptible sur les radars. Un faux écho radar peut être dangereux pour l’aviation, qu’elle soit civile ou militaire, c’est pourquoi certaines zones d’exclusion existent, notamment à proximité des aéroports ou de zones d’implantation de radars. Par contrer cela, des filtres (solutions software) sont actuellement en cours de développement de manière à permettre l’implantation d’éolienne dans certaines zones à proximité de radars.
  • Les grandes éoliennes peuvent constituer un obstacle dangereux pour l’aviation. A l’heure actuelle, les éoliennes dont la hauteur dépasse 60 m doivent être répertoriées.
  • Dans certains cas, l’éolienne peut interagir avec les ondes hertziennes parce que l’éolienne peut réfléchir ou diffracter ces ondes. Comme dans le cas du radar, il s’agit d’une perturbation passive et non pas d’un brouillage actif qui serait généré par les ondes électromagnétiques produites par l’éolienne. Le risque est que le signal envoyé par un émetteur soit « dévié » par une éolienne si bien qu’au niveau du récepteur du signal, on ait la superposition du signal direct et d’un signal dévié par une éolienne. La combinaison des deux contributions donne un signal perturbé. En pratique, une éolienne dont la hauteur totale correspond à la hauteur générale des obstacles naturels ou habituels ne créera pas de perturbation pour les faisceaux hertziens. Mais pas de panique, l’IPBT (Institut belge des services postaux et des télécommunications) et la RTBF sont systématiquement concertés dans le cadre de l’analyse des demandes de permis éoliens, de sorte que le risque de perturbation de votre programme télévisé préféré est aujourd’hui fortement minimisé.

Contraintes foncières

Dans bon nombre de cas, le développeur n’est pas propriétaire du terrain sur lequel il envisage une exploitation éolienne. Dans ce cas, l’exploitant passe un contrat avec le(s) propriétaire(s) du ou des terrain(s) pour pouvoir y réaliser leur projet éolien.

Dans un certain nombre de cas, des contraintes « de signature » peuvent grandement conditionner le projet. Les contraintes imposées par le(s) propriétaire(s) peuvent tant porter sur l’implantation des éoliennes que sur les caractéristiques du parc : nombre de turbines, puissance…


Les étapes d’un grand projet éolien

L’élaboration d’un grand projet éolien est un processus qui se réalise en plusieurs étapes. Au regard des différentes contraintes précitées et de l’importance du potentiel du vent, établir un projet complet demande beaucoup d’investissement en temps et en moyen, notamment pour réaliser les diverses études. Par conséquent, une première étape consiste à valider rapidement le bien-fondé de la démarche en évaluant une série de conditions de base que le projet doit au minimum respecter. Cela permet d’éviter d’engager trop de moyens dans un projet intrinsèquement non viable. Une fois cette étape de pré-faisabilité établie, on peut investir dans des études techniques plus poussées, c’est-à-dire des études de faisabilité, pour finalement aboutir à la finalisation du projet. Le projet ainsi défini, on passe au montage administratif qui donnera lieu à l’obtention d’un permis ou d’un refus d’implantation d’un parc éolien :

  1. Préfaisabilité
  2. Faisabilité
  3. Finalisation du projet
  4. Montage administratif
  5. Obtention ou refus du permis

Les diverses étapes jalonnant le projet sont notamment définies dans des documents de référence développés par le Facilitateur éolien,  ouverture d'une nouvelle fenêtre ! l’APERe. Nous reprenons ci-dessous une description un peu détaillée de la phase de définition du projet avant le montage administratif.

Étude de pré-faisabilité

  • Sur base de la vitesse moyenne du vent sur le site sélectionné, on estime rapidement la production électrique de la future éolienne. En parallèle, on peut aussi estimer l’impact de la topographie et d’obstacles locaux sur la qualité du vent : si l’on se trouve sur un terrain plat ou non plat, si des obstacles naturels ou artificiels sont présents.
  • On peut vérifier si l’implantation est compatible avec les contraintes urbanistiques, avec la présence de zones habitées proche, avec la présence de zones protégées, …
  • Une étude de faisabilité, appelée étude d’orientation, est commandée au gestionnaire de réseau électrique pour évaluer la possibilité de raccordement, la puissance qui peut être raccordée ainsi qu’une estimation du prix de raccordement. Il s’agit, suivant le niveau de raccordement, du gestionnaire du réseau de transport (GRT) ou de distribution (GRD).
  • Consulter les organismes dont l’avis risque d’être sollicité par les autorités qui délivrent le permis d’implantation de l’éolienne. On pense par exemple à Belgocontrol, la Défense Nationale, aux Fonctionnaires Délégués et Techniques. De cette manière, on peut s’assurer que le projet ne recevra pas un avis négatif de la part de ces organismes plus tard dans le processus d’obtention du permis. Encore une fois, on peut ainsi éviter d’engager trop de forces dans un projet qui ne risque pas d’aboutir. Il s’agit d’un avis indicatif qui ne garantit rien sur l’avis officiel qui sera donné ultérieurement par ces institutions durant la phase administrative du projet. À noter que certains organismes ne donnent pas d’avis indicatif.

Étude de faisabilité

  • Une étude plus approfondie sur le potentiel éolien du site est réalisée. Ce potentiel est évalué sur base d’une campagne de mesure sur site bien qu’aujourd’hui les simulations numériques (via un logiciel de simulation numérique des écoulements environnementaux) sont privilégiées.
  • Une étude de détail sera commandée au gestionnaire du réseau électrique afin qu’il établisse les spécifications techniques du raccordement de l’éolienne au nœud du réseau fixé par l’étude d’orientation. Sur base des ces informations techniques, on peut faire établir un devis par une société spécialisée en électrotechnique pour réaliser le raccordement du parc éolien projeté.

Finalisation de l’étude

  • On passe à la phase dite de « micro-siting« . Il s’agit de déterminer le nombre, le type et les caractéristiques des éoliennes qui seront installées ainsi que l’emplacement exact de chaque turbine sur le terrain. On tient à la fois compte des informations collectées sur le potentiel du vent et des contraintes urbanistiques.
  • Un plan de financement est réalisé. Sur base du potentiel du vent, on peut estimer la rentabilité économique du projet. Cette étude tient compte des frais déjà engagés, de l’investissement dans les différentes éoliennes, leur installation et les frais de connexion au réseau électrique. En outre, les frais de maintenance ne seront pas négligés.
  • L’étude est ainsi finalisée, on peut ainsi rentrer dans la phase du montage administratif et la réalisation de l’étude d’incidence environnementale du projet.

Les étapes d’un petit projet éolien

Dans le cas d’un petit projet éolien, le montage d’un projet est fort heureusement moins lourd. Nous résumons ci-dessous les grandes étapes d’un tel projet. On passe au travers ces différentes étapes de manière séquentielle : une fois que la démarche est réalisée, on peut seulement passer à l’étape suivante (processus « go/no-go« ).

Les étapes d’un petit projet éolien :

    1. Vérifier sa consommation électrique et la réduire. En amont de toute démarche, il faut maîtrise ses consommations par une utilisation rationnelle de l’énergie (URE). Énergie+ a typiquement été développé pour vous accompagner dans cette tâche.
    2. Vérifier le coût de l’électricité du réseau auprès des fournisseurs.
    3. Faire une estimation rapide de la production de l’éolienne, notamment sur base de la vitesse moyenne du vent sur le futur site d’implantation.
    4. Faire une estimation rapide de la rentabilité du projet en intégrant les incitants fiscaux. Sur cette base, faire une comparaison avec les autres systèmes d’énergies renouvelables.
    5. Vérifier si l’implantation d’une petite éolienne est compatible avec les prescriptions urbanistiques.
    6. Mesurer le potentiel de vent de son site, c’est-à-dire la vitesse du vent durant une période d’au minimum plusieurs mois à, idéalement, un an. Il faut en outre vérifier la « qualité » de l’écoulement du vent sur le terrain en repérant les obstacles qui risquent de le perturber ou les modifications de relief qui risquent d’accélérer ou décélérer le vent localement. Il faut se référer aux règles de bonne pratique pour avoir une idée de cet impact. Finalement, sur base des mesures, on peut faire une estimation de la production électrique réalisable.
    7. Choisir la taille de l’éolienne, son modèle ainsi que la hauteur du mât. La hauteur du mât est un aspect très important. C’est un point sur lequel il faut être particulièrement vigilant et intransigeant pour garantir le futur succès de votre installation éolienne.
    8. Demande et obtention du permis de bâtir.
    9. Suivant la puissance, notification ou demande de permis au Gestionnaire de Réseau de Distribution (GRD) pour la connexion au réseau électrique.
    10. Commander l’éolienne.
    11. Installation de l’éolienne.
    12. Réception des travaux, notamment au niveau électrique et de la connexion au réseau.
    13. Maintenance et surveillance du matériel durant toute sa durée d’utilisation.

Stockage et l’alimentation du bois-énergie

Stockage et l'alimentation du bois-énergie

Avant d’alimenter la chaudière, le bois-énergie, qu’il soit sous forme de pellets ou de plaquettes, est d’abord acheminé vers un lieu de stockage, le silo. Ensuite un dispositif mécanique lui permettra de l’extraire de cette réserve pour ensuite être transporté jusqu’à la chaudière. La chaudière peut elle-même posséder un petit réservoir qui lui permet de ne pas devoir s’alimenter de manière continue à la réserve de pellets ou plaquettes.

Afin de généraliser notre propos, nous allons scinder ce processus en deux étapes :

  • D’une part, on analysera les systèmes de stockage suivant le conditionnement du bois, ainsi que les modes d’extraction suivant le stockage.
  • D’autre part, on analysera le dispositif de transport entre le local de stockage et la chaudière.

Ces développements n’ont pas pour vocation de former le lecteur au choix d’un dispositif de stockage et d’alimentation. En fait, il s’agit d’une tâche de spécialiste. Pour prendre une décision éclairée, il faut connaître les détails techniques et de prix de chaque dispositif. Ceux-ci dépendent du fabricant, du constructeur. En outre, ces techniques peuvent évoluer dans le temps.

La vue synthétique présentée ci-dessus a pour objectif de montrer la variété des solutions qui permettent de s’adapter à un très grand nombre de situations. Cela permet aussi de donner les éléments clefs de réflexion pour interagir avec les spécialistes de la question. Au travers des différentes configurations présentées, on s’aperçoit que les investissements et les aménagements sont plus ou moins lourds. D’un point de vue économique et technique, le stockage est un poste important du projet. Il aura un impact majeur sur sa faisabilité ainsi que sur sa viabilité économique.


Stockage

Pièce de stockage : pellets et plaquettes

On peut distinguer différents types de stockage pour les pellets et plaquettes. Généralement, on trouve une pièce de stockage, c’est-à-dire un silo. Cette pièce rectangulaire ou cylindrique est dissociée de la chaufferie et peut ne pas lui être voisine voire se situer à un niveau différent.

La pièce devra être conçue pour résister mécaniquement à la masse du bois et pour protéger le bois de l’humidité. En outre, elle devra être facilement accessible pour son réapprovisionnement. Ce dernier point sera traité plus tard.

On peut faire certaines distinctions entre les pièces de stockage, distinction qui aura un impact sur la méthode d’extraction du combustible :

  • Avec sol incliné : Dans ce cas, le sol est incliné dans la direction de l’admission de bois de la chaudière. Comme la chaudière est dans le prolongement direct du plan incliné de stockage, le dispositif d’extraction pourra être conçu de manière plus simple.
  • Avec sol horizontal : Tout l’espace est occupé au niveau du sol ce qui assure une optimisation de l’espace disponible. Par contre, le sol peut être à une hauteur différente de l’admission de combustible de la chaudière et le bois à extraire peut se situer n’importe où au niveau du sol de la pièce. En conclusion, le dispositif d’extraction devra être plus élaboré.

     

Illustration de deux organisations spatiales du local de stockage : la figure de gauche représente un local à sol horizontal alors que la figure de droite correspond au local avec un sol incliné.

Stockage des pellets

Les pellets offrent des possibilités de stockage supplémentaires. Cette flexibilité est est due à la grande faculté d’écoulement des pellets. Celui-ci est découle de leurs petites tailles et de leurs surfaces lisses.

Pièce de stockage

Toujours dans les pièces de stockage séparées, on peut maintenant ajouter une troisième catégorie :

  • Avec parois latérales inclinées ou en « V » : Dans ce cas de figure, les pellets sont dirigés naturellement sous l’effet de la gravité vers le centre de la pièce où les deux parois latérales se rejoignent. Cette particularité permettra de concevoir un dispositif d’extraction simple.

 

Illustration  d’un local de stockage pour pellets avec parois latérales inclinées : ce principe garantit l’écoulement naturel des granulés vers le dispositif d’extraction (vis d’extraction).

Sac ou silo textiles à pellets

Il s’agit de silo en textile pré-assemblés par le constructeur. Ces sacs ont des de multiples avantages mais ont des volumes limités si bien qu’ils s’appliquent plutôt au secteur domestique et au petit tertiaire :

  • Plus de flexibilité sur la localisation du stockage. Les parois sont protégées contre l’humidité si bien qu’ils peuvent être placés dans des pièces humides, dans la mesure où le silo textile protège les pellets qu’il contient. Dans le même ordre d’idée, le silo pourra être directement placé dans la chaufferie si celle-ci possède un volume suffisant. Il ne faut donc pas prévoir une pièce spécifique pour le stockage. Le silo peut même être placé à l’extérieur du bâtiment s’il est protégé contre les intempéries et des rayons UV (qui peuvent altérer les propriétés des parois à long terme).
  • Facilité de montage. Dans la mesure où la fonction de stockage et d’extraction est réalisée de façon automatique par le silo préfabriqué. Le montage est relativement simple : il ne reste plus qu’à prévoir le transport entre le silo et la chaudière.

   

Illustration de silos textiles de stockage de pellets  :  la figure de gauche représente un silo textile placé dans un local de stockage tandis que la figure de droite correspond à un silo dans le local de chauffe.

Volume de stockage

On a déjà plusieurs fois évoqué le volume occupé par les différents conditionnements de bois pour une même quantité d’énergie. De cette analyse, il ressort qu’il faut un volume deux à trois fois plus important de pellets que de mazout, un volume dix à quatorze fois plus important de plaquettes. Les plaquettes sont donc caractérisées par un volume de stockage important qui aura un impact direct sur la zone de stockage.

Le tableau ci-dessous reprend les différents volumes de bois en fonction de la consommation annuelle d’énergie du bâtiment [kWh/an]. La première ligne est caractérisée par une consommation de 5 000 kWh/an, ce qui correspond approximativement à une maison passive où le chauffage des pièces et de l’ECS est couvert par le bois. Les hypothèses de calcul sont reprises dans la première ligne du tableau décrivant les entrées. En outre, on a uniquement supposé, pour l’estimation du volume de stockage, que l’on réalisait dix approvisionnements par an. Il est facile de déduire ces volumes pour un autre nombre d’approvisionnements. On a estimé qu’il fallait un volume total de stockage 1.5 fois plus important pour contenir 1 volume utile de bois.

Estimation du volume de stockage en fonction de la consommation annuelle

Besoin calorifique [kWh/an] Litres de mazout: ~10 kWh/litre M³ de gaz naturel : ~10 kWh/m³ Tonnes de plaquettes : ~3 900 kWh/tonne Tonnes de pellets : ~4 600 kWh/tonne Map de plaquettes : ~1 000 kWh/map Map de pellets : ~3 500 kWh/map Volume stockage plaquettes [m³] pour 10 approvisionnements: ~1.5 m³/map Volume stockage pellets pour 10 approvisionnements [m³]: ~1.5 m³/map

5 000

500 500 1.28 1.08 5 1.42 0.75 0.21
10 000 1 000 1 000 2.56 2.17 10 2.85 1.5 0.43
15 000 1 500 1 500 3.84 3.26 15 4.28 2.25 0.65
20 000 2 000 2 000 5.12 4.34 20 5.71 3.0 0.86
50 000 5 000 5 000 12.82 10.86 50 14.28 7.5 2.14
100 000 10 000 10 000 25.64 21.73 100 28.57 15.0 4.3
200 000 20 000 20 000 51.28 43.47 200 57.14 30.0 8.6
300 000 30 000 30 000 76.92 65.2 300 85.71 45.0 12.8

Approvisionnement

La position de la zone de stockage ne peut être prise au hasard. Elle doit être compatible avec le dispositif d’approvisionnement des pellets et des plaquettes. Dans la pratique, cette contrainte est loin d’être négligeable.

Pellets

De manière générale, les pellets peuvent être vendus par sacs de 10 à 30 kg, par palettes d’une tonne et en vrac par camion souffleur.

Dans le cas du tertiaire, nous considérons ce dernier cas. En pratique, le camion est muni d’une citerne qui contient les pellets. Une fois arrivé à destination, il est muni d’un tuyau flexible qui permet de souffler les pellets dans la zone de stockage. Cette dernière est munie de bouches ou connexions de remplissage. Pour des volumes importants, plusieurs bouches peuvent être placées pour assurer un remplissage plus uniforme de la zone de stockage. En outre, les parois de la zone de stockage sont munies d’un revêtement anti-rebondissement pour ne pas briser les pellets. En effet, il faut que les pellets conservent leurs dimensions et leurs propriétés mécaniques pour que la combustion s’opère dans les meilleures conditions.

Pour que le tuyau flexible puisse atteindre le volume de stockage, il faut que les connexions de remplissage soient situées à maximum 30 m du camion souffleur. Il faudra donc s’assurer que la localisation du stockage soit compatible avec les possibilités d’accès du site.

Illustration de la distance maximale entre le camion souffleur et les conduits d’admission des pellets vers le silo (placés en façade).

Plaquettes

Comme pour le stockage, les plaquettes offrent moins de flexibilité. En effet, la zone de stockage doit être directement accessible par un charroi lourd, c’est-à-dire une remorque à benne ou une benne de tracteur. Cette contrainte spatiale est beaucoup plus sévère que pour les pellets. De nouveau, cela illustre bien qu’une analyse préalable de faisabilité est nécessaire avant de s’engager dans un projet tertiaire basé sur le bois-énergie.

  

     

Illustration de l’accessibilité du local de stockage des plaquettes par un charroi lourd (1ère figure).
Photographie de l’alimentation en plaquettes de la chaufferie de l’hôpital de Dave.


Extraction

Avant d’être transportés vers la chaudière, les pellets ou les plaquettes doivent être extraits du silo. La méthode est fortement liée au type de stockage :

  • Silo avec sol plat : Un déssileur racle le sol de la pièce et amène le bois au niveau d’une tranchée dans laquelle se trouve une vis sans fin d’extraction. Les éléments en bois viennent se placer entre deux pas de vis. La rotation de celle-ci amène ces éléments progressivement vers la sortie du silo. Comme le sol est la plat, la vis d’extraction est elle-même horizontale.
  • Silo avec sol incliné : On travaille toujours avec un déssileur et le principe reste le même. Comme le sol est incliné en direction de la chaudière, la vis intégrée au sol est directement alignée avec la chaudière. Par conséquent, si la vis est assez longue, elle peut directement alimenter la chaudière sans devoir ajouter de dispositifs particuliers.

 Représentation d’un déssileur : la partie supérieure rotative racle le sol de la pièce et amène le bois au niveau d’une tranchée dans laquelle se trouve une vis sans fin d’extraction.

  • Silo avec parois latérales inclinée ou en « V » : Applicable pour les pellets, cette méthode permet d’éviter l’installation d’un déssileur. De par la forme des parois, les pellets s’écoulent naturellement vers la rigole contenant la vis d’extraction.
  • Silo textile : Le dispositif ad hoc est développé par le fabricant du silo textile.
  • Plancher tiroir : Idéal pour les locaux de grande surface.

Représentation simplifiée d’un système d’extraction basé sur un plancher tiroir.


Transport

Une fois extraits de la zone de stockage, les pellets ou plaquettes sont acheminés vers la chaudière. Celle-ci peut être voisine de la zone de stockage ou éloignée, au même niveau ou à niveau inférieur ou supérieur. Ces différents éléments conditionnent le type de système de transport. De nouveau, on verra que les pellets proposent plus de flexibilité que les plaquettes.

Alimentation pellets et plaquettes

  • Par vis d’alimentation inclinée : On peut atteindre directement la chaudière si la chaufferie est proche de la zone de stockage et au même niveau.

Illustration d’une vis d’extraction directement couplée à la chaudière : la disposition relative du sol du local de chauffage et de la chaudière permet de réaliser un couplage direct.

  • Par vis d’alimentation horizontale couplée avec vis montante à renvoi d’angle : La vis montante permet de monter les granulés ou plaquettes de plusieurs mètres (par exemple, maximum 3.5 m) pour atteindre la chaudière si la chaufferie reste proche de la zone de stockage.

       

 L’alimentation de la chaudière se trouve à un niveau supérieur comparé au sol du local de stockage (et par conséquent du système d’extraction) : la vis montante à renvoi d’angle,  illustrée sur la figure en dessous,  permet de récupérer cette différence de niveau.

     

Exemple de vis d’alimentation avec renvoi d’angle sur le coté de la chaudière de l’hôpital de Dave.
Sur la figure de gauche,  on a une vue détaillée de la connexion entre la vis d’alimentation et la chaudière : intercalé entre la fin de la rampe d’alimentation et la vis d’alimentation de la chaudière se trouve un dispositif coupe-feu (dans ce cas-ci, il s’agit d’une guillotine) et un réservoir d’eau pour éteindre la masse de bois non encore intégrée au foyer.

  • Par vis d’alimentation horizontale couplée à une conduite de chute : La conduite de chute permet de descendre les granulés ou plaquettes de plusieurs mètres pour atteindre la chaufferie si celle-ci reste proche de la zone de chauffage.

L’alimentation de la chaudière se trouve à un niveau inférieur comparé au sol du local de stockage (et par conséquent du système d’extraction) : la conduite de chute permet de descendre le combustible de niveau.

Autres alimentations possibles pour les pellets

  • Par aspiration : Les pellets sont aspirés dans un flexible dont la longueur peut aller jusqu’à une vingtaine de mètres. Cela permet d’alimenter une chaufferie distante ou située à un niveau supérieur. La chaudière se voit ajouter un réservoir supplémentaire de collecte pour l’admission des granulés. Cela permet aussi de faire fonctionner le transfert par aspiration de manière intermittente, ce qui minimise la consommation et les bruits durant la nuit. La méthode par aspiration marche aussi bien pour les pièces de stockage que pour les silos flexibles.

    

Dans le cas particulier des pellets, un dispositif de soufflage peut être mis en place, et ce,  pour différentes configuration du local de stockage.

Chaudières bois-énergie

Chaudières bois-énergie


Remarque générale

termes de technologie, il faut noter que les différents conditionnements du bois influencent fortement la structure de la chaudière. Par conséquent, dans les développements ci-dessous, les différentes approches seront déclinées suivant le type de conditionnement.

De manière générale,

  • La température de retour de l’eau vers la chaudière au bois est limitée à une valeur minimale. Celle-ci dépend du modèle, mais un ordre de grandeur fréquent est de 50-60°C, comme pour les chaudières gaz ou mazout d’ancienne génération (c’est-à-dire, avant les chaudières basse température et à condensation). Cette caractéristique a une influence majeure sur le design de la boucle primaire qui sera conçue pour garantir une température de retour suffisante. Il y a lieu de garder ce paramètre en vue. Celui-ci est souvent communiqué par le constructeur.
  • La possibilité de modulation en puissance d’une chaudière au bois est souvent plus limitée qu’une chaudière au gaz voire de certains brûleurs au mazout. Cela a un impact sur la manière de dimensionner la chaudière : la logique de dimensionnement sera différente que pour les combustibles « traditionnels ».

Les chaudières à bûches

Les chaudières à bûches ont le désavantage de ne pas être entièrement automatisées si bien que leur emploi dans le secteur tertiaire soulève certains problèmes. Le facilitateur bois-énergie pour le secteur public, Francis Flahaux de la FRW, mentionne qu’il n’existe pas de projet à bûche en Wallonie. En fait, cette approche est bien adaptée pour le chauffage des maisons individuelles ou collectives et pour des bâtiments agricoles.

               

Exemples de chaudière à bûches.

Les éléments constitutifs de la chaudière à bûches sont la zone de remplissage, la zone de combustion ainsi que l’échangeur thermique. Cette distinction entre zones s’explique par leurs fonctions différentes. Les bûches sont placées manuellement dans la zone de remplissage. C’est dans cette zone qu’elles seront attaquées par l’air primaire.  Les gaz riches générés par cette première phase, essentiellement du monoxyde carbone CO et de l’hydrogène H2, sont ensuite acheminés vers la zone de combustion où l’oxydation complète est réalisée par l’air secondaire. Différentes configurations existent suivant la direction et l’agencement des flux d’air. On peut trouver une combustion montante, latérale ou inversée. Les gaz de combustion issus de la seconde étape, essentiellement de la vapeur d’eau et du CO2, sont à haute température. Ils sont admis dans l’échangeur thermique pour réchauffer l’eau de la chaudière. Ce tirage se fait par un ventilateur situé en aval de l’échangeur.

En 2010, les rendements normalisés annoncés par les constructeurs oscillent entre 90 et 94 %. La plage de modulation oscillant quant à elle autour d’une puissance instantanée minimale de 30 à 50 % de la puissance nominale.


Les chaudières à pellets

Les chaudières à pellets sont bien adaptées pour les applications domestiques, tertiaires et industrielles. D’une part, le système d’approvisionnement peut-être entièrement automatisé, ce qui est toujours le cas dans le secteur tertiaire. Cela donne un confort d’utilisation comparable aux chaudières mazout ou gaz. D’autre part, le bois se trouve sous forme compactée si bien qu’il demande le volume de stockage le plus faible parmi les différents conditionnements du bois.

     

Exemples de chaudière à pellets. Pour la dernière figure, illustration par une coupe dans une chaudière à pellets. On distingue clairement la couche d’isolation pour limiter les pertes vers la chaufferie, le foyer ainsi que la vis d’alimentation situés en bas et surplombés par l’échangeur.  En bas à gauche, une porte permet d’accéder au cendrier.

Comme pour les bûches, la combustion se fait en deux étapes séparées, ce qui influence la structure de la chaudière. Au départ, les pellets sont acheminés vers le foyer. Cela se fait généralement par un système de vis sans fin, mais on trouve aussi des systèmes où les pellets tombent dans le foyer. C’est au niveau du foyer que se passe la phase primaire de combustion.

     

Illustration d’une typologie de foyer à pellets où les pellets sont amenés via une vis sans fin par le dessous et l’air primaire est injecté latéralement par une série de trous percés dans un anneau.

Illustration de deux autres typologies différentes de foyer à pellets : la première figure correspond à une alimentation via une vis sans fin tandis que la dernière image montre des pellets qui tombent dans le foyer.

De nouveau, cette phase dégage des gaz riches, essentiellement du CO et de l’hydrogène H2, qui se déplacent vers la zone dite de « post-combustion » où ces gaz subissent leur oxydation complète par l’air secondaire. La séparation en deux étapes permet de les contrôler indépendamment, permettant ainsi d’optimiser le processus de combustion (c’est-à-dire, obtenir les meilleurs rendements et minimiser l’émission de gaz nocifs).

Les gaz de combustion à haute température traversent l’échangeur thermique pour céder leur chaleur à l’eau de la chaudière. Ce déplacement est généré par un ventilateur situé en aval de l’échangeur.

Vue du haut d’un échangeur vertical avec un système de ressorts pour racler les dépôts. Au centre, on trouve la zone de post-combustion où une série d’injecteurs placés en anneau fournissent l’air secondaire de combustion.

En 2010, les rendements normalisés annoncés par les constructeurs pour les chaudières basse température oscillent typiquement entre 90 et 94 %. La plage de modulation oscillant quant à elle autour d’une puissance instantanée minimale de 20 à 30 % de la puissance nominale. Nous n’avons pas de rendement nominal à notre disposition pour les chaudières pellets à condensation.


Les chaudières à plaquettes

Les chaudières à plaquettes sont elles aussi bien adaptées pour le secteur tertiaire et industriel. En effet, l’entièreté du processus d’approvisionnement est toujours automatisé de même que le nettoyage des tubes de l’échangeur et le décendrage. Néanmoins, il ne faut pas perdre de vue que le volume de stockage pour les plaquettes est plus important que pour les pellets.

Exemple de chaudière à plaquettes.

La chaudière à plaquettes est organisée de manière identique à la chaudière à pellets. On retrouve le foyer et son alimentation en combustible et en air primaire, la chambre de « post-combustion » pour l’oxydation avec l’air secondaire ainsi que l’échangeur thermique.

Les chaudières à plaquettes sont souvent capables de brûler aussi bien des plaquettes que des pellets, et ceci, dans de bonnes conditions. Néanmoins, l’inverse n’est pas vrai : les chaudières à pellets ne peuvent gérer efficacement les plaquettes.

En 2010, les rendements normalisés annoncés par les constructeurs oscillent typiquement entre 88 et 92 %. La plage de modulation oscillant quant à elle autour d’une puissance instantanée minimale de 30 à 50 % de la puissance nominale.


Les chaudières industrielles

Les chaudières industrielles sont caractérisées par des puissances importantes et une plus grande souplesse sur la nature et la qualité du combustible exigé. Elles sont souvent proposées pour des puissances supérieures à ~150 kW.  Ces chaudières peuvent brûler indifféremment des plaquettes et des pellets industriels (qui obéissent à des normes moins strictes que les pellets pour application domestique).

       

 Exemples de chaudière industrielle avec une grille de combustion :  tournante (image de gauche) et rectiligne (image de droite).

Dans cette catégorie de chaudières pour le tertiaire, on trouve essentiellement la combustion sur grille qui permet de brûler du bois présentant des granulométries différentes. De nouveau, on trouve une zone de combustion pour l’oxydation avec l’air secondaire et l’échangeur de chaleur.

Direction de la flamme par rapport à l’alimentation de la grille en fonction de la géométrie de la chaudière et de l’arrivée d’air primaire : combustion à contre-courant (figure de gauche), à co-courant (figure centrale) et latérale (figure de droite).

      

Exemple de chaudière industrielle de 1MW de l’hôpital de Dave brûlant des plaquettes. La première vue représente une vue globale de l’installation. La deuxième photographie montre l’ouverture sur le foyer (les flammes sont maintenues à l’intérieur,  car le foyer est mis en dépression par le ventilateur d’extraction).  La troisième photographie montre la combustion sur la grille.


Équipements de l’installation

Échangeur de chaleur

L’échangeur de chaleur est un élément constitutif récurrent des différents types de chaudière. Son objectif est de transférer la plus grande partie de l’énergie des gaz de combustion à haute température vers l’eau de la chaudière. Cette eau réchauffée sera ensuite acheminée vers le circuit de chauffage.

Généralement, les chaudières ne refroidissent pas les gaz de combustion jusqu’à la condensation de la vapeur d’eau contenue dans les fumées. Le soufre contenu dans l’eau condensée provoquerait la corrosion de l’échangeur. Néanmoins, certains fabricants présentent des chaudières à condensation. Dans ce cas, l’échangeur thermique est adapté pour supporter cette étape supplémentaire, par exemple en travaillant avec de l’acier inoxydable. Si la condensation n’est pas prévue, le circuit hydraulique devra être conçu pour maintenir la température de retour à un niveau suffisant pour éviter cette condensation.

En outre, l’échangeur doit être conçu pour éviter son encrassement. En effet, des cendres volantes ainsi que des suies sont présentes dans les fumées. Généralement, elles viennent s’agglomérer ou se condenser sur les points froids de la chaudière et donc particulièrement dans l’échangeur thermique (puisque sa fonction est de diminuer la température des fumées).

Différentes solutions sont présentées par les constructeurs. On pense notamment à la disposition des canaux de l’échangeur de manière verticale pour permettre l’écoulement naturel des crasses. Certains constructeurs ont équipé les canaux des échangeurs d’éléments métalliques, typiquement des ressorts spéciaux, qui viennent racler la surface de l’échangeur et ainsi assurer son nettoyage (voir figure du zoom sur l’échangeur dans la section sur les chaudières à pellets). Suivant les modèles cette procédure peut être réalisée automatiquement, par exemple sur une base quotidienne ou, mieux encore, sur base d’un nombre d’heures de fonctionnement. De manière moins souple et peu adaptée pour le tertiaire, la procédure peut être réalisée manuellement via une manette qui actionne le jeu de ressorts.

Zoom sur la face avant de la chaudière de l’hôpital de Dave : on voit ici une série d’actionneurs pneumatiques qui permettent de racler les canaux horizontaux de l’échangeur de chaleur.

Cendrier

Les cendres sont un produit naturel de la combustion. Qu’elles proviennent du foyer ou du nettoyage de l’échangeur thermique voire des filtres à fumées, une bonne conception de chaudière les fera aboutir dans un cendrier sous l’effet combiné de la gravité et de dispositifs mécaniques (comme une vis sans fin).

Suivant la teneur en minéraux du bois-énergie qui est à l’origine de la formation des cendres et de la consommation, le volume de cendres généré est plus ou moins important. Souvent, le volume du cendrier est fixé par le constructeur si bien que la fréquence de vidage du cendrier dépend des applications. Pour fixer les idées, on parle de décendrages espacés de deux semaines jusqu’à un seul décendrage par saison de chauffe. Les variations sont donc assez conséquentes, mais restent suffisamment espacées pour garantir le confort d’utilisation. Pour fixer les idées, le taux de cendres est d’approximativement 0.5% du poids avec des granulés jusqu’à 2 voire 3% pour des bois plus minéralisés (par exemple, contenant beaucoup d’écorces).

Pour garantir le caractère renouvelable de la combustion du bois, les cendres doivent être idéalement restituées à la nature. Il s’agit en effet de minéraux qui ont été prélevés au sol durant la croissance de l’arbre. Il est donc logique de restituer ces éléments pour avoir un bilan écologique le plus neutre possible. Néanmoins, à l’heure actuelle, la législation en région wallonne n’autorise pas les épandages en forêt et, pour l’agriculture, les cendres doivent être analysées et agrées par l’AFSCA pour pouvoir intégrer un amendement agricole.

Si le bois est sain, l’épandage ne pose pas de gros problèmes techniques. Par contre, si le bois est pollué, les cendres peuvent contenir des produits toxiques, par exemple du Plomb ou de l’Arsenic. Il n’est dès lors pas question de répandre ces cendres polluées directement dans la nature.

Ballon tampon et cycle de production

Dans les cas des chaudières au bois, on intercale parfois un ballon tampon entre la chaudière et le circuit primaire de chauffage.

Les chaudières au bois présentent des cycles de fonctionnement relativement longs, c’est-à-dire l’espace de temps entre la première injection de combustible et l’arrêt de fonctionnement de la chaudière. Pour les applications domestiques, on parle d’une demi-heure pour les chaudières à pellets et d’une heure pour les chaudières à bûches. Si on veut travailler sur des cycles de production plus courts, la qualité de la combustion sera dégradée significativement. Cette caractéristique est liée à la physique de la combustion du bois. En conclusion, on peut synthétiser que la chaudière doit fonctionner pendant une durée minimale pour travailler de manière efficace.

Les chaudières possèdent une modulation de puissance, c’est-à-dire que la puissance instantanée peut être inférieure à la puissance nominale de chaudière. Certains modèles de chaudière bois-énergie peuvent avoir une plage de modulation d’au maximum 25 à 100 %. Par exemple, une chaudière de 25 kW pourrait avoir une puissance instantanée minimale proche de 6 kW. Cette modulation permet de s’adapter aux besoins thermiques instantanés du bâtiment. Au mieux, on a une production de chaleur qui est égale à la chaleur consommée par le bâtiment. Dans ce cas, la chaudière fonctionne sur base de cycles de production longs. Tout se passe alors pour le mieux : on obtient un fonctionnement continu synonyme de meilleur rendement ainsi qu’un minimum de gaz nocifs produits.

La réalité est malheureusement un peu plus complexe. Suivant les saisons, l’ensoleillement voire l’occupation du bâtiment, les besoins de chaleur de celui-ci seront fort variables. Les puissances demandées pour chauffer le bâtiment peuvent varier à la fois en amplitude, mais aussi dans le temps. À certaines périodes, le besoin d’énergie du bâtiment peut être trop faible pour absorber toute l’énergie produite par un cycle de combustion de la chaudière au bois, même si la durée du cycle est limitée au minimum. En outre, on ne veut engendrer aucune surconsommation : on ne veut pas rejeter la puissance excédentaire ou surchauffer le bâtiment. Ces aspects sont traités dans la partie relative au dimensionnement des chaudières au bois.

Si on ne peut absorber raisonnablement la quantité minimale d’énergie produite par une chaudière, une solution est d’intercaler un ballon tampon entre la chaudière et le circuit primaire de chauffage. Le volume du ballon est dimensionné pour absorber une bonne partie de l’énergie d’un cycle minimal de combustion, si bien que la chaudière est assurée de fonctionner dans des conditions optimales. L’énergie qui n’est pas consommée instantanément par le bâtiment est stockée dans le ballon. Ensuite, une fois la chaudière éteinte, le circuit de chauffage vient s’alimenter dans cette réserve de chaleur au rythme des demandes du bâtiment. Le ballon tampon permet de « temporiser ». Ce ballon permet de faire un découplage entre le rythme de la chaudière et le rythme des demandes du bâtiment. D’un côté, la chaudière peut fonctionner sur base de cycles suffisamment longs, indépendamment de la demande du bâtiment. D’un autre côté, le bâtiment peut toujours être chauffé à la bonne puissance et au bon moment. On a une combustion efficace et aucune surconsommation. Au pire, on a les pertes du ballon tampon.

Installation avec chaudière industrielle de 230 kW de l’école IND à Saint-Hubert. On trouve à gauche la chaudière (en jaune) et le ballon tampon associé (en gris). On voit aussi les conteneurs de cendres (« poubelles » métalliques en gris à gauche de l’image).

Découvrez ces exemples de chaudières bois ou pellets : la chaudière à pellets à la résidence 3e âge « Aux Lilas » de Bonlez, le chauffage urbain au bois de Libin et le chauffage au bois à l’hôpital de Dave.

Bois-énergie : les points clés

Bois-énergie


Origines et conditionnement

Cette section est essentiellement issue des dossiers réalisés par  Valbiom sur la filière bois-énergie. Ces documents sont disponibles sur le portail énergie de la Région Wallonne. Néanmoins, certains dossiers sont essentiellement destinés au secteur domestique.

Avec une superficie forestière de  544 800 ha équivalents à 32% du territoire, la Wallonie présente d’importante ressources en combustibles biomasse (En 2017, Les combustibles biomasse wallons représentent 76% de l’énergie renouvelable wallonne((La place des bioénergies en Europe, Belgique et Wallonie – Valbiom – décembre 2017))). Cependant, ces ressources ne peuvent être exploitées d’une manière raisonnée, traçable et durable qu’à travers la structuration de ce potentiel au sein d’une filière professionnelle.

D’où vient le bois ?

Le bois destiné à la production d’énergie peut avoir plusieurs origines. D’une part, il peut s’agir de bois directement coupé dans des exploitations forestières pour des applications énergétiques (typiquement le chauffage au moyen de bûches). D’autre part, il peut s’agir de sous-produits, aussi appelés « produits connexes » :

  • Sous-produits issus l’exploitation forestière, exploitation dont le produit principal sert à alimenter l’industrie. Il s’agit de sciures, de copeaux, d’écorces, de plaquettes voire de chutes diverses.
  • Sous-produits issus de la première transformation du bois, par exemple au sein de scieries ou des entreprises de déroulage du bois. Ces sous-produits peuvent se trouver sous forme d’écorces, de sciures, de plaquettes ainsi que de chutes diverses.
  • Sous-produits issus de la deuxième transformation du bois, notamment dans les menuiseries et les fabriques de panneaux. Il s’agit de copeaux, de sciures et de chutes diverses.
  • Sous-produits issus de l’entretien des routes, des voies de chemin de fer, des haies ainsi que des arbres isolés. Les volumes générés sont non-négligeables. Généralement, on exploite les grumes, c’est-à-dire le tronc d’arbre abattu dont on a coupé les branches, mais qui est toujours recouvert de son écorce,  les tiges étant broyées sur place.
  • Bois en fin de vie issu de la démolition (bois de rebut), souvent sous forme de plaquettes. Dans ce cas de figure, il faut distinguer le bois propre d’un bois traité. Par bois traité, on entend un bois imprégné par un produit de conservation du bois (PCP ou autre) ou un bois qui a été recouvert sur sa surface (par du PVC ou autre). Bref, tout élément exogène qui rend le bois impur et risque de le rendre impropre à la combustion.

Sous quelle forme ?

Les bûches

Les bûches sont principalement utilisées pour les applications domestiques étant donné que leur usage demande une certaine manutention, une charge socio-économique rarement compatible avec les applications privées ou publiques de grands bâtiments ou de logements collectifs. Pour avoir une vue globale, la thématique des bûches est reprise dans Énergie+ bien qu’il soir fort improbable de retrouver des bûches dans le domaine tertiaire, le secteur cible d’Energie+.

Les bûches viennent principalement de l’exploitation de taillis ou de la récupération des houppiers (c’est-à-dire la tête des troncs d’arbre, toute la partie supérieure au fût). Le tronc est quant à lui destiné à la scierie pour une exploitation industrielle. En fait, on utilise pour le chauffage le bois qui n’a pas la qualité ou les dimensions suffisantes pour un usage industriel, on pense notamment à la menuiserie et à la production de panneaux.

Illustration des différentes parties d’un arbre lors de sa valorisation.

Le bois peut être vendu dans un conditionnement plus ou moins fini :

  • Sur pied : l’acheteur devra réaliser ou faire réaliser la coupe du bois par ses propres moyens ainsi que son conditionnement.
  • En « bord de route » : le vendeur aura préalablement abattu l’arbre et l’aura débardé (pour l’amener au lieu de chargement).
  • Débité : le tronc aura été préalablement découpé.
  • Conditionné en stère (c’est-à-dire un volume d’un m³).
  • Séché à l’abri jusqu’à deux ans.

Plus le conditionnement sera fini, plus le coût sera élevé. Il y a moyen de réaliser des économies substantielles en réalisant une des ces étapes soi-même. Néanmoins, il faut pouvoir assurer ces tâches et disposer d’une zone de stockage qui peut être non négligeable. Encore une fois, on conçoit facilement de réaliser de telles tâches pour une application domestique alors que c’est pratiquement exclu pour les autres contextes.

Conditionnement en stère

Les bûches sont généralement conditionnées en stère. Il s’agit d’un volume d’ 1m x 1m x 1m dans lequel sont empilées des bûches. Suivant la longueur des bûches, leurs formes ainsi que leur régularité, on va pouvoir entasser plus ou moins de bûches dans ce même volume. Comme les bûches sont vendues par stère, il faut donc être vigilant sur leur condition d’empilement. D’une part, cela dépend de la qualité géométrique du bois (longueur, régularité et forme) mais aussi la rigueur avec laquelle on a empilé les bûches.

Illustration de la relation entre le volume apparent et le conditionnement du bois : évolution du volume apparent occupé en fonction de la longueur de la découpe. En prenant au départ 1 m³ de bois coupé sur 1m, on trouve in fine 0.7 m³ de bois coupé en 33 cm.

Pour quantifier cela, on définit le coefficient d’empilage qui est le volume de bois plein présent dans un stère :

CE = m³bois plein/m³apparent = m³bois plein/stère

Le tableau suivant donne un bon aperçu des variations possibles sur le coefficient d’empilage et de leur impact sur la quantité de bois plein présent au sein d’une stère. En reprenant nos considérations sur le *PCI, on voit bien que ce potentiel d’énergie par unité de masse est indépendant de l’essence. Par contre, le PCI par stère dépend à la fois de la masse volumique et du coefficient d’empilage qui sont bien fonction de l’essence.

*PCI : pouvoir calorifique inférieur.

Tableau 1 : Influence du coefficient d’empilement et de l’essence sur les propriétés énergétiques d’une stère de bûches.

Essence HR de 20 La d Coefficient d’empilage [m³/stère] Masse volumique [kg/m³] Masse volumique [kg/stère] Pouvoir Calorifique Inférieur [kWh/kg] Pouvoir Calorifique Inférieur [kWh/stère]
Chêne 0.46 à 0.68 725 334 à 493 3.9 1 302 à 1 922
Hêtre 0.58 à 0.77 725 421 à 558 3.9 1 641 à 2  176
Epicéa 0.62 à 0.76 425 264 à 323 3.9 1029 à 1 259

La définition de corde n’est pas standardisée.

Les filières de production du bois-bûche en Wallonie

Selon Valbiom, la filière de valorisation de bois-bûche est faiblement organisée puisque les producteurs sont, d’une part nombreux, et d’autre part, exercent parfois cette activité d’une manière complémentaire à une activité de valorisation forestière principale. Il s’avère donc moins fiable de récolter une information chiffrée et précise sur leur activité.

Cependant, les tendances démontrent que cette filière commence à se structurer. En effet, la production ne vise pas uniquement à répondre aux besoins de chauffage domestique, mais aussi à fournir du bois-bûche pour attirer de nouveaux clients dans le secteur industriel.

Sans une professionnalisation de cette filière en Wallonie, la production de bûches de qualité sera toujours coûteuse et demandera beaucoup de main-d’œuvre.

Les plaquettes

Photo plaquettes bois.

Exemple de plaquettes.

Source :  www.valoris-environnement.fr.

Les plaquettes sont obtenues par le broyage du bois. Elles sont obtenues à base de sous-produits d’exploitation forestière (par exemple, de houppiers), de déchets issus de la transformation du bois voir de l’entretien des routes ou voies ferrées ainsi que des espaces verts. En outre, cela permet de valoriser ces déchets et de ne pas payer pour s’en débarrasser.

C’est un conditionnement typique pour les applications dans le tertiaire ou l’industrie en chaufferie automatique. En effet, aucune manutention n’est plus nécessaire : le broyage en plaquettes permet d’automatiser tout le processus, à partir du transport jusqu’à l’alimentation de la chaudière.

Le gabarit de ces plaquettes de forme plus ou moins parallélipédique peut varier suivant l’appareil de broyage. Seule la longueur peut être réglée, généralement, elle est comprise entre 15 et 30 mm.

Elles sont obtenues en broyant du bois vert ou légèrement ressuyé. Les plaquettes présenteront alors une humidité relative autour de 50 % qui diminuera rapidement lors du stockage à cause de phénomènes de fermentation qui réchauffent le tas. C’est ce phénomène de fermentation aérobie qui assure le séchage qui dure généralement de 3 à 6 mois. Un emploi efficace nécessitera une phase de séchage sous abris et sur dalle (pour éviter les remontées d’humidité) pour atteindre une humidité de 20 à 25 %. Les plaquettes peuvent aussi être obtenues en broyant du bois qui a été préalablement séché. Dans ce cas, on peut atteindre 20 % d’humidité relative.

Exemple de séchage de plaquettes (Combubois à Sainlez).

Il est important de savoir que les plaquettes doivent avoir atteint un taux d’humidité inférieur à 30 % avant d’être stockées de manière viable sur une longue durée dans un silo fermé. Si l’humidité est trop élevée, le bois pourrait subir un phénomène dit de seconde fermentation qui engendrerait la dégradation des plaquettes (formation de méthane, de champignons ou de sucre). Ce phénomène pourrait même détériorer la chaudière lors de la combustion, et, in fine, alourdir la facture d’entretien. Cela met en évidence l’importance de la teneur en eau lors de l’achat de plaquettes. Dans certaines applications, certaines technologies de chaudières peuvent fonctionner avec des plaquettes vertes.

Mètre cube Apparent de Plaquettes (map)

De manière analogue à ce qu’il a été expliqué pour les bûches, un tas d’1 m³ de plaquettes ne contient pas 1 m³ de bois plein. En fait, il y a beaucoup de vide entre ces plaquettes. Un mètre cube apparent de plaquettes, map en abrégé, correspond à un m³ du tas de plaquettes. Dans ce mètre cube, on ne trouve approximativement que 0.4 m³ de bois plein et par conséquent, 0.6 m³ d’air.

1 m³ de bois plein est approximativement égal à 2.5 map de plaquettes.

L’essence du bois à la base des plaquettes a aussi sont importance dans la mesure où il conditionne la masse volumique. Suivant la valeur de la masse volumique, on aura plus ou moins de kg de bois dans notre map. En reprenant nos considérations sur le pouvoir calorifique inférieur (PCI), on a montré que c’est la masse volumique et l’humidité qui importent pour la détermination du pouvoir calorifique. Le tableau suivant donne un ordre de grandeur.

HR de 30 % Coefficient d’empilage [m³/map] Masse volumique [kg/m³] Masse volumique [kg/map] Pouvoir Calorifique Inférieur [kWh/kg] Pouvoir Calorifique Inférieur [kWh/map]
Plaquettes 0.4 625 250 3.3 825

Qualité et labels

Les plaquettes peuvent être de qualité différente en fonction de l’essence ainsi que de l’humidité. Les appareils de combustion ainsi que les distributeurs de plaquettes utilisent essentiellement deux chiffres pour qualifier les propriétés physiques des plaquettes. La teneur en eau en % est spécifiée après la lettre W suivie de la taille de la plaquette en mm après la lettre G : une plaquette G30 W50 correspond à des plaquettes de 30 mm à une humidité de 50 % (bois vert) alors que G30 W20 correspond à des plaquettes séchées dont l’humidité est descendue à 20 %.

On fait parfois référence au label autrichien ÖNORM M 7133 pour certifier les propriétés physiques d’un lot de plaquettes et ceci pour les applications domestiques ou de puissance inférieure à ~150 kW. Beaucoup de fabricants de chaudières se retranchent derrière ce critère de qualité pour garantir les performances et la viabilité de leur matériel (la chaudière, mais aussi le système d’alimentation). Néanmoins, pratiquement aucun fournisseur belge de plaquettes n’est certifié pour cette norme. Heureusement, beaucoup de producteurs ont des plaquettes qui ont des propriétés conformes ou proches de ce standard, mais il n’y a pas véritablement de procédure de contrôle de qualité. Dans ce cadre, il est intéressant de connaître le producteur de plaquettes ou d’engager la responsabilité du fournisseur sur la qualité de ses plaquettes dans le contrat d’approvisionnement (essentiellement sur la granulométrie G et sur la teneur en eau W).

Les filières de production des plaquettes en Wallonie

Les producteurs de plaquettes forestières en Wallonie sont majoritairement  des agriculteurs ou des exploitants forestiers qui possèdent déjà un tracteur et un accès à la ressource bois. Ils profitent d’une période creuse pour produire et commercialiser des plaquettes.

Jusqu’à présent, 19 producteurs et/ou fournisseurs de plaquettes de chauffage sont recensés par ValBiom. L’estimation de la capacité annuelle de production reste relative et tourne autour de 100.000 t en 2018.

Le bois densifié : pellets, bûchettes et briquettes

Le bois densifié est produit à partir de sous-produits de bois de petite dimension, principalement de la sciure. Pour les briquettes et bûchettes, d’autres éléments peuvent être utilisés, comme des copeaux. Après une phase de séchage, le bois est compressé pour produire un matériau dense et homogène.

Aucun liant n’est ajouté au bois pour assurer la cohésion de la matière densifiée. En effet, la compression engendre une montée importante de la température conduisant à la détente et la plastification de la lignine, un polymère naturellement présent dans le bois. Une fois refroidie, cette lignine assurera le rôle de liant naturel de la matière densifiée.

La densification du bois va augmenter son pouvoir calorifique par m³. D’une part, sous l’effet de l’augmentation de la masse volumique : on trouve plus de masse de bois dans un même volume, d’autre part, sous l’effet de la phase séchage qui va réduire l’humidité relative autour de 10 %, ce qui est bien en dessous de ce que l’on peut obtenir en réalisant un séchage du bois à l’air libre. En conclusion, la densité énergétique du bois densifié est significativement plus importante. Le volume de stockage demandé pour un même besoin énergétique sera donc plus faible que pour les bûches ou les plaquettes. En outre, l’énergie requise pour réaliser le transport est liée au PCI/m³ étant donné qu’un camion sera essentiellement restreint  par le volume de matière qu’il pourra charger. A distance de déplacement égale, le coût énergétique du transport est donc moindre pour du bois densifié.

Le produit fini peut être sous forme de :

  • pellets, des granulés de diamètre de 6 à 12 mm pour une longueur allant jusqu’à 20 mm. Dans ce cas, les petites dimensions ainsi que les surfaces lisses des pellets permettent un certain écoulement de la matière et donc une automatisation complète de l’alimentation ainsi que de la chaîne d’approvisionnement. En 2009, 7 producteurs de pellets étaient actifs en Wallonie dont un pour l’usage industriel. Une liste de producteurs et de distributeurs de pellets élaborée par Valbiom est disponible sur le site internet de l’énergie de la Région Wallonne. Les pellets sont vendues non pas par unité de volume, mais suivant la masse : en tonne ou en kg.

Photo pellets.

Exemple de pellets

  • briquettes (sous forme de briques) et bûchettes (sous forme de bûches), de 5 à 10 cm de largeur ou de diamètre pour 10 à 20 cm de longueur. Vu les dimensions, l’automatisation n’est pas possible, l’application au domaine tertiaire doit donc être mise question. D’ailleurs, le facilitateur tertiaire pour le bois-énergie, Francis Flahaux (FRW), pour le secteur public considère que cela ne s’applique pas du tout pour le tertiaire. Certains modèles semi-automatiques existent. Dans ce cas, la chaudière contient un réservoir alimenté manuellement dans lequel un volume de briquettes peut être stocké, ce qui assure une certaine autonomie. Ces briquettes seront concassées avant d’être acheminées vers la chambre de combustion. Il n’en reste pas moins que la taille de ce réservoir est limitée, cela s’applique à des installations de faible puissance, une phase de manutention étant toujours nécessaire.

Exemple de bûchettes

Qualité et labels

Le bois peut être densifié avec plus ou moins de soin, suivant le choix de la matière première ainsi que son humidité. Il en résulte que la qualité du produit fini peut-être plus ou moins bonne. Les principales propriétés recherchées sont la résistance à l’abrasion, notamment pour les phases de transport et de manutention, ainsi que la conservation durant le stockage. Durant l’achat de bois-énergie densifié, il faudra comparer les prix, mais aussi tenir compte de la qualité du produit.

Il n’existe pas de norme au niveau belge sur la qualité des pellets. Les producteurs et fournisseurs de pellets font référence à des normes de qualité étrangère. En effet, on entend souvent parler de normes allemandes DIN 51731 et DINplus, de la norme autrichienne ÖNORM M 7135 ou de la norme française NF qui donnent les caractéristiques physiques des pellets et la manière de le déterminer. Depuis quelques années, la norme allemande DINplus est devenue le standard imposé par la majorité des constructeurs de poêles et chaudières. En outre, cette qualité peut aussi être requise par les systèmes d’alimentation et pas uniquement les chaudières elles-mêmes.

Logo normes allemandes DINplus.

La standardisation des pellets permet l’automatisation et le réglage des appareils de combustion. Tous les producteurs de pellets ne font pas certifier leurs produits dans la mesure où cela peut demander beaucoup de temps et d’argent. Cela ne veut pour autant pas dire que les pellets non certifiés ne sont pas de bonne qualité. Néanmoins, aucune garantie ne peut être donnée sur cette qualité. Dans ce cas de figure, il vaut mieux connaître le producteur. Certains respectent les standards de la norme DINplus sans pour autant être passés par la procédure officielle de certification. En effet, des analyses légales peuvent toujours être faites par des laboratoires agrées. La nuance peut être comprise dans une formulation différente dans la description de leur produit : pellets « conformes » DINplus au lieu de pellets « certifiés » DINplus.

En 2012 est apparue au niveau européen une norme visant à contrôler la fabrication, l’entreposage ainsi que la qualité des granulés de bois.  Cette norme a été développée par l’European Pellet Council, organisme regroupant les associations nationales du secteur des pellets. La norme ENplus intègre 2 classes en fonction de différents critères de qualité : la classe A1, la plus stricte et la classe A2 qui diffère notamment par une tolérance plus élevée au niveau du taux de cendres. Toutes les informations sur cette norme sont disponibles sur le site officiel ENplus : http://www.enplus-pellets.eu/.

Norme EN Plus Bois

Au niveau des volumes de stockage ainsi que de transport, retenons que pour un même contenu énergétique, ce sont les plaquettes qui prennent le plus de place (600 à 1 000 kWh/map). Ensuite viennent les bûches avec un volume approximativement deux fois moindre (1 500 à 2 000 kWh/stère). Finalement, on arrive aux pellets où l’on peut de nouveau diviser par deux le volume (3 200 à 3 500 kWh/map). Il faut mettre ces chiffres en relation avec le PCI d’un litre de mazout qui vaut approximativement 10 kWh, c’est-à-dire ~10 000 kWh/m³. En conclusion, pour obtenir le même contenu énergétique qu’un mètre cube de mazout, vous avez besoin de ~3 map de pellets, ~6 stères de bois et approximativement 12 map de plaquettes. Cela donne une bonne idée du volume de stockage que cela nécessite si l’on connaît la fréquence d’approvisionnement. La durée de l’autonomie peut varier fortement d’un projet à l’autre, d’un secteur à l’autre. Un bon ordre de grandeur pour le secteur tertiaire est une autonomie de 1 mois.

Comparaison indicative des combustibles-bois : source Valbiom (comprenant documents ADEME 1999, Carré et al. 1991)

Origine Automatisation PCI (moyenne) Humidité sur masse brute Masse volumique Energie volumique
Bûches

Rémanents forestiers (feuillus) et taillis.

Non 2 100 à 3900 kWh/t 20 à 50 % 250 à 600 kg/stère 1 500 à 2 000 kWh/stère

Entretien de haies ou de bords de route.

Plaquettes

Broyage de rémanents lors d’exploitation forestière.

Oui 2 200 à 3 900 kWh/t

 

20 à 50 %

 

180 à 400 kg/map³

 

600 à 1 000 kWh/map

 

Broyage lors d’entretien de haies ou de bords de route.

Broyage de sous-produit de l’industrie de transformation du bois.

Bois de rebut.

3 300 à 3  900 kWh/t 20 à 30 % 170 à 270 kg/map³ 600 à 950 kWh/map
Pellets

Densifié à partir de sciure séchée.

Oui 4 600 kWh/t 8 à 12 % 700 à 750 kg/map³ 3 200 à 3 500 kWh/map

Les filières de production du bois densifié

Il existe 7 sites de production de pellets en Wallonie et 12 sur l’entièreté du territoire belge en 2017.

En ce qui concerne la production en granulation, l’augmentation de la capacité de production s’est accélérée, passant à 270.000 t/an en  2007, à 650.000 t/an en 2017, dont 75%  concernait uniquement la production effective de pellets.

Quant aux briquettes et bûchettes de bois densifiées, il existe en 2017 5 producteurs en Belgique, dont 3 en Wallonie. La capacité de production est de 15.000 t/an.

 


Impact environnemental et socio-économique

Impact environnemental

Dans la théorie relative à la combustion du bois-énergie, le bilan neutre de CO2 émis lors de la combustion du bois est mis en évidence. Les choses sont cependant un peu plus complexes : la réintroduction dans de la matière végétale du carbone dégagé lors de la combustion prend du temps. Or, le changement climatique n’est plus un enjeu lointain, mais une urgence. Il faut donc s’assurer que le cycle du carbone sur lequel on se base est le plus court possible. Il faut également veiller à ne pas réduire le rôle de puits de carbone des forêts, qui sont nécessaires à terme pour contrebalancer les émissions de gaz à effet de serre que nous ne parviendront pas à éviter. Or l’évolution du stockage de carbone en forêt est lente et dépend de nombreux paramètres, en particulier la répartition des classes d’âge, qui est héritée de la gestion passée. Par exemple, certains pays européens ont vu leurs forêts détruites pendant la Seconde Guerre mondiale et replantées dans les années 50. Ces forêts sont actuellement à maturité, ce qui justifie des coupes qui vont entraîner une diminution temporaire du stockage de carbone, mais répondent néanmoins à une gestion durable, visant à maintenir à long terme le stockage de carbone((https://plateforme-wallonne-giec.be/lettre/)).

Force est de constater que, à l’échelle mondiale, l’industrie du bois n’est pas toujours compatible avec les enjeux environnementaux. Notamment, l’appétit des producteurs d’énergie pour les pellets comme remplacement du charbon entraine une explosion de la demande (fois 20 entre 2009 et 2018 selon l’Outlook for Wood Pellets), et induit des pratiques défavorables à la biodiversité et à la régénération des forêts.  Cette situation a poussé un grand nombre de scientifiques à signer en février 2021 un appel aux autorités européennes  (« Letter Regarding Use of Forests for Bioenergy ») plaidant pour que la combustion de biomasse ne soit plus subsidiée et ne soit plus considérée comme neutre en carbone. Globalement, pour que la production de bois énergie ait une plus-value carbone, il faut que soit l’espace libéré laisse place à une forêt avec des stocks de carbone à l’hectare plus élevés à terme, soit la récolte permet d’anticiper une détérioration de la forêt et par conséquent entretient la pompe à carbone.

En pratique, faut-il donc en finir avec la biomasse ? Non, mais il faut aujourd’hui séparer le bon grain de l’ivraie, et considérer que l’hypothèse d’un bilan neutre ou faible en CO2  de la combustion de biomasse n’est valide que dans trois situations :

  • Lorsque le bois est issu d’une forêt exploitée de manière durable, en ce compris d’un point de vue biodiversité. Deux labels garantissent cela : FSC et PEFC. La Wallonie a fait le choix d’encourage la certification PEFC. Selon le rapport sur l’état de l’environnement wallon, fin 2020, les forêts certifiées PEFC couvraient 52,4 % de la superficie forestière wallonne totale : la quasi-totalité des forêts publiques, mais seulement une dizaine de pour cent des surfaces forestières privées, alors qu’elles constituent la moitié de la superficie totale.
  • Lorsque le bois est en fin de vie utile : un projet pilote de valorisation de bois de déchetterie est en préparation à Mont-Saint-Guibert : InBW fournira le bois de ses recyparcs, pour alimenter une chaufferie connectée au réseau de chaleur de Louvain-la-Neuve, alimentant les bâtiments de l’UCLouvain. Une idée intéressante à reproduire ailleurs : ne bruler le bois qu’à condition qu’il ait déjà été une charpente, un meuble,… et qui ne soit plus réutilisable en tant que tel.
  • Lorsque la biomasse est de cycle court. On vise là les agrocombustibles. Il s’agit de la biomasse végétale produite en zone agricole (donc non-forestière) et qui est destinée à une valorisation énergétique. Il peut s’agir de bois ayant poussé en zone agricole ou de plantes herbacées, de résidus agricoles ou de cultures dédiées (miscanthus par exemple) (Valbiom, 2018). On peut alors compter sur un cycle annuel du carbone. Les agrocumbustibles sont pour l’instant essentiellement utilisés en autoproduction (l’exploitant valorise lui-même la biomasse), mais la filière commence à se structurer, et une contractualisation avec des agriculteurs pour garantir une fourniture régulière est envisageable. Outre un intérêt climatique, cette piste permet, dans certaines conditions, de consolider le tissu économique agricole, et de redessiner des paysages tout en favorisant la biodiversité (par des haies, taillis, etc.). À l’échelle globale, la question des agrocarburants soulève d’autres enjeux, notamment la concurrence avec la production vivrière. Mais dans le contexte wallon de soutien à une agriculture paysanne, basée sur des pratiques agroécologiques, ce type de production a tout à fait sa place((https://energie.wallonie.be/servlet/Repository/panorama-des-filieres-bois-energie-et-agrocombustibles-en-wallonie.pdf?IDR=49095)).

Dans ces conditions, si le bois-énergie est brûlé dans des chaudières performantes, l’émission de gaz nocifs et de particules fines est contrôlée, si bien qu’on peut alors dire qu’il s’agit d’une énergie propre.

Que faire alors comme gestionnaire de bâtiment ? Idéalement, choisir des fournisseurs dans une logique de circuits courts : des agriculteurs locaux qui pourront diversifier leur production grâce à la fourniture d’agrocarburants. Des coopératives, agissant parfois comme tiers investisseurs, peuvent servir d’intermédiaire pour cela. Si un tel partenariat n’est pas possible, exiger de vos fournisseurs la preuve que leur biomasse est wallonne (dans le cas des agrocombustibles) ou issue d’une forêt labellisée PEFC ou FSC. En dernier recours, exiger que le bois soit d’origine UE. Surtout, il ne faut en aucun cas fermer les yeux sur la provenance de la biomasse que vous brulez !

Impact socio-économique

Plusieurs aspects peuvent être mis en évidence :

  • Une énergie rentable : Les performances du bois-énergie doivent être évaluées au-delà de considérations purement économiques. En effet, il ne fournit pas simplement de chaleur, il contribue aussi à la réduction des GES. Deux services sont donc rendus. C’est pourquoi, à performances économiques égales, il doit être favorisé par rapport aux énergies fossiles. Néanmoins, on remarque que le bois-énergie peut tout à fait être compétitif au niveau économique. Il suffit de bien étudier ou de faire évaluer son projet. Les installations bois-énergie sont caractérisées par un investissement initial relativement important, mais qui peut être amorti par une économie substantielle au niveau de la facture énergétique. En effet, suivant les sources d’approvisionnement, le coût par kWh du combustible bois-énergie est inférieur aux énergies fossiles. Contrairement à certaines idées reçues, performances économiques et énergies renouvelables peuvent naturellement aller de pair. À titre illustratif, on peut s’en rendre compte au moyen du baromètre des coûts des combustibles pour le secteur domestique réalisé par l’APERe. La figure ci-dessous tirée du mensuel Renouvelle reprend l’évolution du prix de l’énergie par kWh sur une période allant de janvier 2010 à décembre 2020. En ce qui concerne le bois-énergie, les prix ne comprennent pas les frais de transport. Néanmoins, on voit que le bois-énergie reste particulièrement bon marché et donc attractif. En fait, la différence peut être encore plus marquée pour le secteur tertiaire. Cela dépend aussi du contrat avec le fournisseur. Dans le domestiques, les pellets ont actuellement un prix comparable au mazout, mais les bûches et particulièrement les plaquettes sont moins chères que les énergies fossiles. Dans le tertiaire, les pellets peuvent aussi être obtenues à des prix intéressants par rapport au mazout.

Evolution des prix du combustible

Analyse de l’évolution des prix des combustibles pour le secteur domestique réalisée par l’APERe et issue de la revue Renouvelle.

Prix bois

Le graphique ci-dessus montre l’évolution des prix moyens unitaires, à monnaie courante, des différentes vecteurs « bois »  achetés par les ménages en Belgique.

  • Une énergie locale : Si le bois-énergie vient de nos contrées, cela contribue à diminuer la dépendance énergétique de notre pays et de nos régions. En outre, cela permet de valoriser certains sous-produtis de bois et cela crée des emplois locaux, non délocalisables.

Où en est la filière bois-énergie en Wallonie ?

En 2017, les filières de la biomasse solide ne sont pas recensées dans les règles d’art et les chiffres officiels parlant de chauffage au bois dans les entreprises et les collectivités restent très limités. Toutefois, le recensement qu’à établi ValBiom révèle la présence de 149 installations de chauffage au bois dans les entreprises en Wallonie ayant une puissance totale de 397 MW. Parmi ces installations, dix unités sont des installations de cogénération représentant 85 % de la puissance totale recensée.

Quant aux installations fonctionnant aux agrocombustibles en Wallonie, Valbiom a recensé la présence de 18 chaudières à Biomasse agricole. 7 chaudières  utilisent du miscanthus, une de l’anas de lin et 10 fonctionnent en un mélange des plusieurs types d’argocombustibles((Panorama des filières bois-énergie et agrocombustibles en Wallonie – Valbiom – 2018)).

Choisir l’émetteur de chaleur [PAC]

Introduction

Pour pouvoir parler de l’émetteur de chaleur, il faut faire le choix de la source « chaude » : l’air, l’eau, ou le sol dans le cas où la pompe à chaleur est à condensation directe.

La redistribution de température doit se faire à la température la plus basse possible (maximum 50 °C) car la PAC sera plus efficace. On peut effectuer cette redistribution soit par un chauffage à air pulsé, un chauffage par le sol ou mural, ou un chauffage à ventilo-convecteurs.


L’air comme source chaude

On utilise cette source chaude en général dans les PAC air/air.

L’air est pulsé dans un échangeur de chaleur fluide/air et chauffé par le fluide frigorigène comprimé jusqu’à 30 ou 40 °C. Il est ensuite  envoyé vers les pièces du bâtiment. L’avantage de cette source chaude est de répondre rapidement à la température demandée de par la faible inertie de l’air. Cet avantage devient un inconvénient au point de vue financier dans la mesure où il ne peut y avoir d’accumulation de chaleur pendant la nuit et donc aucun bénéfice des tarifs de nuit pour l’électricité.

Quatre types d’installations existent dans le cas où l’air est choisi comme source chaude :

  1. Installation compacte intérieure. Dans ce cas, il y a une conduite d’amenée et de rejet d’air extérieur vers l’évaporateur qui se trouve à l’intérieur du bâtiment. La PAC est installée près d’un mur extérieur. La traversée des conduites dans le mur est isolée et protégée contre la pluie.
  2. Installation compacte extérieure. La PAC est reliée au réseau de distribution d’air par des conduites isolées. Cette solution est coûteuse à cause du transfert des sources chaude ou froide.
  3. Système mono-split : ce système, d’une grande souplesse d’installation, permet de chauffer une seule pièce du bâtiment. Une ou deux unités intérieures (dans la même pièce) sont reliées à une unité extérieure unique qui traite l’air. L’évaporateur se trouve ainsi à l’extérieur et le condenseur à l’intérieur du bâtiment, ce qui permet à l’évaporateur d’être bien alimenté en air extérieur. Le fluide frigorigène doit passer à travers la paroi du bâtiment dans des conduites calorifugées et l’air chaud est distribué via des gaines de différents diamètres en fonction des débits et des pressions demandés. La quantité de fluide frigorigène présente dans ce système est supérieure aux deux systèmes précédents.
  4. Système multi-split : plusieurs pièces peuvent être chauffées, à l’aide d’un ou deux ventilo-convecteurs dans chacune d’entre elles. Il y a donc plusieurs condenseurs, mais toujours un unique évaporateur extérieur.

Les ventilo-convecteurs sont des émetteurs de chaleur qui fonctionnent dans ce cas-ci à « condensation directe » : le fluide frigorigène cède directement l’énergie thermique à l’air.

Le système split

Dans ce type de système :

  • l’évaporateur est placé à l’extérieur
  • le condenseur est placé soit dans un local technique où il est relié à un réseau de distribution, soit directement dans le local à chauffer, par exemple dans un ventilo-convecteur.

Le transfert de chaleur entre l’intérieur et l’extérieur se fait par le fluide frigorigène qui traverse la peau du bâtiment dans des canalisations calorifugées.

Les systèmes split installés directement dans les locaux ont l’avantage de la souplesse d’installation : un simple réseau bitube est suffisant pour le transport du fluide frigorigène, on évite les intermédiaires puisque la PAC chauffe directement l’air du local, il ne faut pas d’accumulateur ni de régulation complexe d’un réseau hydraulique, … en contrepartie, ils présentent un plus grand risque de fuite de fluide frigorigène.

Lorsque l’on multiplie le nombre d’échangeurs de chaleur, on parle de système multi-split. Les différents échangeurs intérieurs, par exemple un par local, sont alors tous reliés à un (ou plusieurs) échangeurs de chaleur extérieur. Différentes « boucles » sont donc « juxtaposées » avec comme seule interconnexion la ou les unités extérieures.

Un condenseur commun et plusieurs unités intérieures = multi-split.

Exemple de système multi-split :

Un fournisseur propose une gamme standard d’installations multi-split complètes dont l’unité extérieure a une puissance frigorifique maximale allant de 1 à 11,5 kW et une puissance calorifique maximale de 0,9 à 17,2 kW, pour des débits d’air d’environ 2 100 m³/h.

La longueur maximale de tuyauterie autorisée va de 35 à 70 mètres au total selon l’unité extérieure choisie dans la gamme. Le branchement de plus de 4 unités intérieures par unité extérieure n’est pas possible.

Les unités intérieures peuvent être murales, en consoles, gainables ou en cassette 2 ou 4 voies. Leur puissance frigorifique varie entre 1 et 4,5 kW et leur puissance calorifique entre 1,1 et 6,4 kW.

Chaque unité intérieure accepte une longueur de tuyauterie de 25 m.

Le prix des groupes de condensation (unité extérieure) est entre 2 285 et 4 150 €, celui des unités intérieures de 585 à 2 235 € pièce.


L’eau comme source chaude

Dans ce cas, le fluide frigorigène comprimé donne sa chaleur à l’eau du circuit de chauffage par l’intermédiaire d’un échangeur de chaleur. La température de l’eau de condensation devant être la plus basse possible (entre 35 et 45 °C pour – 8 °C extérieurs), le chauffage par pompe à chaleur sera réalisé par un plancher chauffant à eau, par des ventilo-convecteurs à eau ou par des grands radiateurs à basse température.

Plancher chauffant à eau

Cette solution efficace procure un excellent confort thermique uniforme dans la pièce. La surface d’émission est suffisamment grande pour permettre une température faible : maximum 28 °C. Cette température permet d’éviter les problèmes de circulation dans les jambes. Cet émetteur de chaleur présente l’avantage (pour des constructions neuves) d’être complètement invisible et de dégager de la place aux murs par rapport aux radiateurs conventionnels.

Installation d’un plancher chauffant.

Le plancher chauffant est composé d’un réseau de tubes en polyéthylène enfouis dans du béton coulé, et montre une grande inertie thermique. Les réponses aux variations de température demandées sont donc lentes (de l’ordre de quelques heures). Le revêtement de sol doit présenter une résistance thermique faible, comme un carrelage ou un parquet (même si ce dernier a une résistance thermique plus élevée que le carrelage pour des épaisseurs égales). Pour obtenir une bonne transmission de la chaleur entre la couche de béton et l’ambiance, le parquet doit être de préférence collé. Dans tous les cas, il faut éviter les couches d’air car elles ont un effet isolant.

Le chauffage par plancher chauffant peut nécessiter un appoint. On peut également jouer sur la distance entre deux tubes pour avoir plus ou moins de puissance surfacique. Si on augmente la longueur de tube chauffant dans le sol, on peut diminuer la température de l’eau qui y circule pour un même confort thermique dans l’ambiance.

Murs chauffants

Les murs peuvent également être utilisés comme surface de chauffage. C’est parfois une meilleure solution dans le cas d’une rénovation.

Installation d’une cloison chauffante

Ventilo-convecteur à eau

Ce type de ventilo-convecteur est un échangeur qui transmet la chaleur de l’eau (chauffée dans le convecteur) à de l’air forcé à l’intérieur. C’est le même type d’appareil qu’un ventilo-convecteur à condensation directe, hormis le fait que le fluide chauffant est de l’eau et non un fluide frigorigène.

Cette solution permet la production de froid quand c’est nécessaire en été.

Radiateur basse température

Ces radiateurs, incompatibles avec des systèmes de chauffage autres que la PAC, contiennent de l’eau dont la température est de 40-50 °C. Cette température est nettement inférieure à celle des radiateurs conventionnels (70 – 90 °C), mais est néanmoins suffisante pour chauffer un local, car les radiateurs basse température sont de grandes dimensions. Ils peuvent être construits en fonte, en fonte d’aluminium ou en acier. Bien évidemment, cette solution n’est pas compatible avec l’installation d’une pompe à chaleur réversible (rafraîchissement et climatisation en été).


Le sol comme source chaude

Dans ce cas, le fluide frigorigène circule dans un réseau de tuyaux en cuivre dans le sol, c’est la solution « à condensation directe ». Il n’y a pas d’échangeur intermédiaire et les tubes constituent eux-mêmes le condenseur de la PAC.

La quantité de fluide frigorigène utilisée est importante, ce qui impose le respect de règles dans la vérification, la récupération des fuites, etc. La mise en place des tubes doit être réalisée par des personnes qualifiées pour éviter tout risque de fuite et afin de garantir l’efficacité de l’installation.

Choisir les éléments principaux de la pompe à chaleur

Choisir les éléments principaux de la pompe à chaleur


Choix du fluide frigorigène

Les fluides frigorigènes envisageables aujourd’hui pour les nouvelles installations de pompes à chaleur sont nombreux et font partie soit des hydrofluorocarbones (HFC), soit des fluides frigorigènes naturels. Plus question aujourd’hui de concevoir une installation chargée au R12 (CFC) ni au R22 (HCFC), ces réfrigérants destructeurs de la couche d’ozone participant fortement au réchauffement climatique.

Les fluides frigorigènes peuvent être choisis suivant différents critères :

Critères
thermodynamiques
Critères
de sécurité
Critères
techniques
Critères
économiques
Critères
environnementaux
Pression d’évaporation. Toxicité. Action sur les composants de l’installation. Prix. Action sur la couche d’ozone.
Température critique. Inflammabilité. Comportement avec l’huile Disponibilité. Action sur l’effet de serre.
Taux de compression. Caractère explosif. Comportement avec l’eau. Possibilité de récupération et de recyclage.
Efficacité des échanges thermiques. Aptitudes aux détections des fuites.
Température de refoulement. Stabilité.
Production frigorifique. Volumétrique spécifique.

Les fluides frigorigènes peuvent être soit des mélanges de fluides dans des proportions précises, soit des fluides purs. Les comportements diffèrent dans l’un ou l’autre cas. Les fluides purs s’évaporent à température constante alors que les mélanges (sauf mélanges azéotropiques) s’évaporent à des températures variables.

Les HFC

Les plus répandus sont le R134a, le R407C, le R410A et le R404A.

Les HFC présentent un Global Warming Potential (contribution à l’effet de serre) sur 100 ans relativement élevé. Pour cette raison, la réglementation  impose de vérifier l’étanchéité des installations de HFC afin d’éviter les fuites dans l’atmosphère.

La détection et la récupération des fuites doivent se faire avec un outillage adapté et les frigoristes doivent être certifiés.

Les fluides frigorigènes naturels

Les quatre fluides frigorigènes HFC ont été largement utilisés dans les installations de PAC neuves. Cependant, vu leur impact sur l’effet de serre, la réglementation  prévoit leur abandon progressif en faveur des fluides montrant un potentiel de participation au réchauffement climatique sur 100 ans plus faible voire des fluides frigorigènes « naturels ».


Choix de l’évaporateur de la PAC

Le fluide frigorigène capte la chaleur de l’environnement (eau, air ou eau glycolée) dans l’évaporateur de la pompe à chaleur. Il y passe de l’état liquide à l’état gazeux à basse température en emmagasinant de l’énergie. L’évaporateur est donc un échangeur de chaleur, au même titre que le condenseur et la température d’évaporation doit être la plus élevée possible pour augmenter les performances de la pompe à chaleur.

Les évaporateurs sont classés suivant leur type et leur source froide. Ainsi, on aura d’un côté, des évaporateurs à air ou à eau en fonction de la source froide choisie, et d’un autre côté on aura soit des évaporateurs secs, soit noyés.

Sec vs Noyé

  1. La différence entre ces deux technologies réside premièrement dans l’état de la vapeur qui sort de l’échangeur :
    Dans le cas des évaporateurs de type sec, également appelés « à surchauffe » ou « à détente sèche », le fluide frigorigène vaporisé sera complètement sec à l’admission au compresseur. Ceci est dû à la succession de deux phases : l’ébullition du liquide frigorigène puis la surchauffe des vapeurs obtenues (la température du gaz frigorigène sortant de l’évaporateur est donc légèrement supérieure à la température d’évaporation proprement-dite).
    La surchauffe est par contre pratiquement nulle dans le cas des évaporateurs de type noyé. Cela présente un inconvénient : la nécessité de prévoir une bouteille anti-coups de liquide avant le compresseur pour le protéger. Le mélange liquide-vapeur sortant de l’évaporateur est à la même température que le liquide entrant (en négligeant les pertes de charge).
  2. La configuration de l’évaporateur est également différente dans les deux cas :
    Dans les évaporateurs noyés, les surfaces d’échange (les plus grandes possibles) doivent être en contact permanent avec du fluide frigorigène liquide. Les tubes qui contiennent le fluide caloporteur (qui est souvent de l’eau glycolée) sont dès lors noyés dans le fluide frigorigène liquide qui se vaporise.
    C’est l’inverse dans le cas des évaporateurs secs. Les coefficients d’échange obtenus pour les évaporateurs noyés sont très élevés et ne varient pas beaucoup par rapport à ceux des évaporateurs à détente sèche.
    (En effet, de façon générale, l’échange de chaleur sera élevé si :- la surface d’échange augmente ;
    – la vitesse de passage des fluides est faible ;
    – la différence de température entre les fluides est grande ;
    – le débit de la source de chaleur est important par rapport au fluide frigorigène.).

Les évaporateurs de pompes à chaleur sont en général du type sec à cause des inconvénients que présentent les évaporateurs noyés (besoin d’une bouteille anti-coups de liquide, piégeage de l’huile de lubrification, etc.).

À air vs à eau

Pour les sources de chaleur liquides, les évaporateurs présentent une des 5 configurations suivantes :
Type noyé

  • L’échangeur à serpentin noyé (puissances supérieures à 30 kW).
  • L’échangeur multitubulaire noyé (puissances supérieures à 30 kW), qui est en général utilisé avec un compresseur à pistons ou à vis. Il faut faire attention au risque de gel de l’eau à l’intérieur des tubes. Autre inconvénient : ces évaporateurs peuvent accumuler de l’huile non désirée, dans le cas où ils sont utilisés avec un compresseur volumétrique lubrifié.

À surchauffe :

  • Les évaporateurs multitubulaires à surchauffe (puissances supérieures à 30 kW) sont très utilisés avec les compresseurs à pistons ou à vis. Les risques de gel sont amoindris par rapport à l’échangeur multitubulaire noyé et il n’y a pas de problème de retour d’huile.
  • L’échangeur à plaques brasées : Ces échangeurs ont tendance à se généraliser dans l’application des pompes à chaleur eau glycolée/eau. Ils sont performants (car les coefficients d’échange thermique sont élevés), robustes, compacts et étanches. Il faut toutefois faire attention à ce qu’il n’y ait pas d’encrassement. Attention également au risque de gel (il faut dès lors prévoir de l’antigel en suffisance).
  • Les évaporateurs coaxiaux sont très utilisés pour des puissances frigorifiques allant jusqu’à 100 kW. Ils présentent des difficultés d’entretien et nécessitent de l’eau très propre non entartrante.

Les types d’évaporateurs à air sont au nombre de 3 :

  • Les évaporateurs à ailettes à convection naturelle ;
  • Les évaporateurs à tube lisse à convection naturelle.
Ces deux premiers types d’évaporateurs à air ne sont utilisés que pour des faibles puissances. De plus, les coefficients d’échanges thermiques sont faibles, car la ventilation est naturelle. On les retrouve donc très peu pour les pompes à chaleur.
  • Les évaporateurs à ailettes à convection forcée : c’est le type d’évaporateur à air qui est le plus utilisé. Ils sont munis d’un ou plusieurs ventilateurs pour assurer la circulation de l’air à travers les surfaces d’échange. Le problème de ces échangeurs réside dans la formation de givre ou de condensation lorsque la température des parois extérieures de l’évaporateur est inférieure à la température de rosée de l’air.

Techniques

Pour plus de détails concernant certains types d’évaporateurs de pompes à chaleur, cliquer ici !

Choix du compresseur

Il existe deux types de compresseurs qui peuvent être utilisés dans les pompes à chaleur : les compresseurs volumétriques et les compresseurs centrifuges (ou turbocompresseurs). Dans le premier cas, une réduction du volume à l’intérieur de la chambre de compression permet d’y augmenter la pression. En général les compresseurs sont de ce type. Dans le second cas, la compression résulte de la force centrifuge obtenue par entraînement dynamique au moyen d’une roue à aubes. On utilise ces compresseurs pour des applications précises, ou pour de grandes puissances.

Les compresseurs volumétriques à pistons

Les compresseurs volumétriques à pistons sont les plus répandus pour les circuits frigorifiques et ils sont alternatifs pour la plupart. Ils sont de plusieurs types, suivant qu’ils sont ouverts, semi-ouverts ou fermés (hermétiques) au niveau de l’association entre le moteur et le compresseur.

compresseurs volumétriques à pistonscompresseurs volumétriques à pistons

Hermétique, semi-hermétique et ouvert.

Hermétique

Dans ce cas le moteur électrique et le compresseur sont logés dans une même enveloppe soudée. L’ensemble n’est pas démontable. On utilise beaucoup ce type de compresseur pour de faibles puissances, jusqu’à 30 kW environ.

Avantages

  • Le faible coût de l’ensemble.
  • L’encombrement réduit.
  • La bonne étanchéité.
  • Le peu de bruit par rapport aux autres compresseurs volumétriques à pistons.
  • La rapidité de la recharge en fluide frigorigène, car bonne tolérance aux coups de liquide.
  • Pas de problème de mise en ligne du compresseur et du moteur, car pas d’accouplement.
  • Le refroidissement effectué par le fluide frigorigène lui-même, car le moteur est dans le circuit du fluide frigorigène.
  • La bonne récupération au condenseur de la chaleur dissipée par le moteur, de par la configuration fermée.

Inconvénients

  • Le compresseur est inaccessible. Si un problème survient, il faut changer le compresseur, car il n’est en général par réparable.
  • Les performances sont médiocres, car l’accent est en général mis sur de bonnes puissances frigorifiques à un prix réduit, au détriment de la consommation du compresseur.
  • Les hautes températures de refoulement peuvent présenter un danger à certains régimes de fonctionnement (surchauffe).
  • Le bobinage du moteur peut se retrouver court-circuité à cause d’une attaque chimique de l’isolant du bobinage par un fluide frigorigène pollué, de l’humidité ou d’une surchauffe (dans ce dernier cas, prévoir un organe de sécurité qui coupera l’alimentation électrique lors d’une surchauffe). Si le moteur « grille », il faut remettre en état le bobinage et nettoyer l’ensemble du circuit, car il sera pollué.
  • La puissance ne peut pas être réglée, sauf par variation de fréquence du courant d’alimentation.

Semi-hermétique

Le compresseur est entraîné directement par le moteur électrique, qui est accolé au compresseur. Ces compresseurs sont utilisés pour des puissances se situant entre 0,4 et 100 kW (on peut aussi monter jusqu’à 400 kW en recourant à plusieurs compresseurs). Ces puissances sont plus élevées que pour les compresseurs hermétiques, car il n’y a plus de limitation d’entretien.

Avantages

  • L’accessibilité à tous les organes mécaniques et électriques.
  • Pas de problème de mise en ligne du compresseur et du moteur, car pas d’accouplement.
  • L’encombrement réduit.
  • Pas besoin d’élément d’étanchéité entre le moteur et le compresseur, donc pas de risque de fuites de fluide frigorigène.
  • La récupération partielle au condenseur de la chaleur dissipée par le moteur.
  • La bonne qualité de fabrication, d’où une bonne performance.

Inconvénients

  • Moins résistant aux coups de liquide.
  • Le coût plus élevé.
  • Pas de récupération totale de la chaleur dissipée par le moteur.
  • Le bobinage du moteur peut se retrouver court-circuité à cause d’une attaque chimique de l’isolant du bobinage par un fluide frigorigène pollué, de l’humidité ou d’une surchauffe (dans ce dernier cas, prévoir un organe de sécurité qui coupera l’alimentation électrique lors d’une surchauffe). Si le moteur « grille », il faut remettre en état le bobinage et nettoyer l’ensemble du circuit, car il sera pollué.

Ouvert

Ici le moteur et le compresseur sont totalement séparés ; le moteur est donc accouplé au compresseur en bout d’arbre à l’aide d’un manchon, ou alors par des poulies et des courroies. La gamme de puissances est similaire à celle des compresseurs semi-hermétique.

Avantages

  • L’entretien aisé, car le compresseur est démontable.
  • Peut être entraîné par des moteurs de différents types (moteurs électriques à courant alternatif, continu, à vitesse fixe ou variable, moteurs à combustion interne, turbine à gaz,…).
  • La très bonne qualité de fabrication.
  • La possibilité de choisir la vitesse de rotation la mieux adaptée.
  • Pas de pollution du circuit frigorifique en cas de court-circuit dans le moteur.

Inconvénients

  • Le coût élevé.
  • La mise en ligne moteur-compresseur difficile.
  • La faible résistance aux coups de liquide.
  • Aucune récupération de la chaleur dissipée par le moteur.
  • Il faut une garniture d’étanchéité entre le moteur et le compresseur, d’où le risque de fuites de fluide frigorigène.

Le compresseur volumétrique hermétique spiro-orbital Scroll

Le compresseur Scroll comprime les vapeurs en continu en faisant tourner une partie mobile autour d’un élément fixe en forme de spirale. Ce type de compresseur est de plus en plus utilisé dans les circuits frigorifiques. Sa gamme de puissances va de 2 à 60 kW seulement, mais on peut très bien mettre plusieurs compresseurs en parallèle.

Avantages

  • La robustesse et fiabilité.
  • La légèreté.
  • La faible consommation.
  • Le prix réduit.
  • Le haut rendement volumétrique par rapport à l’espace mort.
  • L’encombrement réduit.
  • Le faible niveau sonore.
  • L’excellente tolérance aux coups de liquide.
  • La récupération quasi totale au condenseur de la chaleur dissipée par le moteur.
  • La séparation totale des gaz d’aspiration et de refoulement, réduisant leur échange thermique mutuel.
  • Il y a moins de pièces en mouvement que dans le cas du compresseur à pistons, et donc moins de frottements internes. De plus, il n’y a pas de clapets d’aspiration et de refoulement. Pour ces raisons le rendement est supérieur à celui des compresseurs à pistons, de même que le COP.

Inconvénients

  • L’inaccessibilité des organes du compresseur. On doit changer l’ensemble en cas de problème.
  • Le bobinage du moteur peut se retrouver court-circuité à cause d’une attaque chimique de l’isolant du bobinage par un fluide frigorigène pollué, de l’humidité ou d’une surchauffe (dans ce dernier cas, prévoir un organe de sécurité qui coupera l’alimentation électrique lors d’une surchauffe). Si le moteur « grille », il faut remettre en état le bobinage et nettoyer l’ensemble du circuit, car il sera pollué.

Les compresseurs volumétriques à vis

Les compresseurs de ce type sont soumis à deux classifications : les compresseurs à vis mono-rotor ou bi-rotor d’une part, et les compresseurs à vis hermétiques ou ouverts d’autre part.

  1. Le compresseur à vis mono-rotor : une vis hélicoïdale unique tourne à grande vitesse.
  2. Le compresseur à vis bi-rotor : le compresseur est composé de deux vis (une femelle et une mâle) à dentures hélicoïdales. L’insertion progressive des cannelures de la vis mâle dans celles de la vis femelle (par simple rotation) provoque la compression des vapeurs de fluide frigorigène.

Les compresseurs à vis de tous types sont utilisés dans le domaine des pompes à chaleur de fortes puissances : de 100 à 5 000 kW de puissance calorifique au condenseur. De ce fait, ils sont utilisés dans les pompes à chaleur eau/eau.

Avantages

  • Pas de soupapes et peu de pièces en mouvement, excellent rendement (indiqué et volumétrique).
  • L’absence de vibrations et peu de bruit.
  • Le taux de compression élevés.
  • Le flux de gaz pratiquement continu.
  • L’absence de parties sujettes à usure.
  • Le réglage facile.
  • La relative insensibilité aux coups de liquide.
  • Quasiment pas d’entretien nécessaire.
  • La régulation de puissance possible de 10 à 100 %.
  • Les rotors à profils asymétriques, ce qui est préférable au point de vue énergétique.
  • Le compresseur peu volumineux.

Inconvénients

  • Le coût relativement élevé.
  • Consomme plus d’énergie que les autres types de compresseurs.
  • Le moteur plus rapide donc groupe moto-compresseur assez bruyant.
  • La nécessité d’usiner avec une grande précision.
  • Uniquement utilisable pour de fortes puissances.
  • La nécessité d’adapter le taux de compression interne au taux de compression externe, sinon pertes.

En outre, les compresseurs à vis ouverts montrent l’avantage de pouvoir être entraînés par toutes sortes de moteurs, et l’inconvénient de ne pas récupérer au condenseur la chaleur dissipée par le moteur. Ils sont plus courants que les moteurs à vis semi-hermétiques.

Le compresseur volumétrique rotatif

Dans ce type de compresseur, un stator cylindrique renferme un rotor excentré par rapport à l’axe du stator. Un volume en forme de croissant est piégé. Du fluide frigorigène est introduit (aspiration) et la rotation du rotor comprime cet espace jusqu’à atteindre la pression souhaitée (refoulement).

Deux technologies existent :

  • Le compresseur rotatif à piston roulant : il est constitué d’un stator à l’intérieur duquel est disposé un rotor excentré (piston) qui comprime les vapeurs en se déplaçant. Une palette est montée sur le stator et assure l’étanchéité entre les chambres d’aspiration et de refoulement.
  • Le compresseur rotatif à palettes : la compression des vapeurs est obtenue par le déplacement des palettes qui sont logées dans des rainures dans le rotor, et qui appuient contre le stator grâce à la force centrifuge. Le rotor est monté de façon excentrique à l’intérieur du stator de manière à créer des volumes de plus en plus réduits pour les vapeurs.

Compresseur à piston roulant et compresseur à palettes.

Ces compresseurs sont utilisés pour des puissances calorifiques jusqu’à 10 kW et bénéficient d’une grande souplesse de fonctionnement. De plus, ils sont peu bruyants.

Le compresseur centrifuge

Ces compresseurs, appelés aussi turbocompresseurs, ne sont utilisés que dans le cas des très fortes puissances : de 1 000 kW à 50 000 kW de puissance calorifique au condenseur. Ils sont donc envisageables dans les grands centres industriels et commerciaux. Ils appartiennent aux pompes à chaleur de type eau/eau et peuvent être de type ouvert ou fermé.

Avantages

  • L’encombrement réduit.
  • Pas d’huile dans le circuit frigorifique et pas de problème d’huile piégée dans l’évaporateur, car les deux circuits (fluide frigorigène et huile) sont bien séparés.
  • Les puissances très élevées et réglables de 20 à 100 %
  • Peut être entraîné par des moteurs de différents types, dans le cas des compresseurs ouverts.
  • L’excellente qualité de fabrication.
  • Le coût plus faible que les compresseurs à vis.

Inconvénients

  • Le taux de compression faibles : ce compresseur se rencontre souvent donc en multi-étagé.
  • Moins de souplesse d’adaptation aux régimes de marche et aux fluides frigorigènes.
  • Utilisables pour les très fortes puissances uniquement.
  • Pas de récupération au condenseur de la chaleur dissipée par le moteur.
  • Plus délicat que les compresseurs à pistons à faible charge à cause du phénomène de pompage qui survient pour des faibles débits et qui peut endommager le compresseur (pompage : le débit oscille entre un débit nul et le débit maximal d’où écoulement pulsatoire).

PAC électrique ou au gaz ?

Les pompes à chaleur fonctionnent pour la majorité à l’électricité. Mais il est également possible de faire fonctionner la pompe à chaleur à l’aide d’un moteur à gaz, la PAC prélevant la chaleur sur l’air extérieur ou sur de l’air extrait d’un bâtiment. Le moteur thermique est alimenté en gaz naturel (méthane), ou en LPG (propane + butane) et ces PAC au gaz sont chargées avec les HFC (par exemple du R410A).

Les pompes à chaleur à gaz présentent les avantages suivants :

  • Leurs performances sont bonnes et leur rendement est indépendant des fluctuations de la température extérieure, car elles récupèrent la chaleur dissipée par le moteur et celle contenue dans les gaz d’échappement.
  • Grâce à cette récupération de chaleur, le dégivrage n’est plus nécessaire et la montée en régime est rapide. La PAC fonctionne en continu.
  • Contrairement à leurs homologues électriques sur l’air extérieur, elles fonctionnent bien en monovalence, c’est-à-dire qu’aucun appoint n’est nécessaire (ni de chaudière).
  • Leur coût énergétique est inférieur d’environ 30 % par rapport aux PAC électriques. Elles consomment peu d’électricité (90 % en moins).
  • Elles sont utilisables dans n’importe quel type de bâtiment, aussi bien dans les maisons particulières que dans des installations industrielles.
  • Elles peuvent être équipées d’un kit hydraulique pour produire de l’eau chaude ou de l’eau froide.
  • Les coûts d’entretien sont faibles.
  • Il est possible de réutiliser les installations existantes de PAC électriques en ne remplaçant que la PAC elle-même.
  • Les unités peuvent être connectées en série ; ce type de PAC est donc applicable à de grandes installations.
  • Elles sont compatibles avec les systèmes classiques de chauffage basse température : chauffage par le sol ou par le plafond, ou ventilo-convecteurs.

Ces PAC sont par contre plus chères que les PAC électriques. Peu de constructeurs exploitent cette solution pour l’alimentation d’une PAC.

Performances de la PAC à gaz

Il n’est pas possible de comparer directement le COP d’une PAC à gaz et celui d’une PAC électrique. En effet, dans le premier cas, l’énergie est primaire, dans le deuxième elle ne l’est pas.

Considérons que l’électricité est produite à partir de centrales dont le rendement moyen en Belgique est de 38 %. Pour produire 3 kWh thermiques, la pompe à chaleur aura donc utilisé 2,6 kWh primaires. Le « COP » sur énergie primaire est alors égal à 3 / 2,6 = 1,15.

Le PER (Primary Energy Ratio) de la PAC à gaz se situe quant à lui entre 1,2 et 1,6. Ce « COP » n’est pas beaucoup plus élevé que celui de la PAC électrique, mais contrairement à cette dernière, les performances sont conservées en cas de grand froid.


Choix du condenseur

On distingue les condenseurs à air et à eau.

Dans le premier cas, on utilise en général un condenseur à air à tubes à ailettes, un ventilateur centrifuge pour brasser l’air et un filtre. Les coefficients d’échange des condenseurs à air vont de 20 à 30 [W/m².K].

Dans le cas des condenseurs à eau, il existe :

  • Les condenseurs à serpentins : ils ne sont utilisés que pour des faibles puissances calorifiques au condenseur. Ils présentent l’inconvénient de montrer des difficultés d’entretien et de devoir utiliser une eau très propre et non entartrante.
  • Les condenseurs à tubes coaxiaux : utilisés pour des puissances calorifiques allant jusqu’à 100 kW. De même que le précédent, il nécessite une eau propre, car les entretiens ne sont pas évidents.
  • Les condenseurs à plaques brasées : leur coefficient d’échange thermique est élevé et donc ils se généralisent pour les pompes à chaleur air/eau et eau/eau. Ils sont performants, compacts, les pertes de charge sur l’eau sont en général assez faibles et la petite taille des canaux réduit la quantité de fluide frigorigène. Par contre, ce dernier atout présente l’inconvénient de favoriser l’encrassement des tuyaux. De nouveau, l’eau doit être très propre ou filtrée avant d’entrer dans le condenseur.
  • Les condenseurs multitubulaires : ils sont utilisés lorsque les puissances calorifiques sont importantes.

Les coefficients d’échange des condenseurs à eau vont de 700 à 1 100 [W/m².K].


Choix de l’organe de détente

Détendeur Thermostatique. C’est le détendeur le plus utilisé dans les pompes à chaleur. Il fonctionne de façon automatique et règle le débit du fluide frigorigène de manière à ce que la surchauffe des gaz qui sortent de l’évaporateur soit constante. Son inconvénient est de ne pas présenter un temps de réponse instantané, mais ce détendeur est très fiable, il permet d’adapter l’alimentation de l’évaporateur en fluide frigorigène, et de plus, certains détendeurs thermostatiques peuvent fonctionner dans les deux sens, évitant ainsi un second détendeur et des clapets dans les pompes à chaleur réversibles.
Capillaire de détente Il est utilisé dans les petits matériels de série. Son inconvénient réside dans le fait qu’il ne permet aucun réglage de la détente, mais cet inconvénient est aussi un avantage, car le capillaire de détente ne permet pas de déréglage de la détente dans le temps. Le capillaire peut se boucher facilement, il faut donc veiller à la parfaite déshydratation du circuit. Il faut également éviter l’utilisation d’une bouteille accumulatrice de liquide, car pendant l’arrêt du compresseur, l’évaporateur se remplirait alors exagérément (en effet le capillaire n’interrompt pas la communication entre condenseur et évaporateur, même pendant l’arrêt du compresseur). La charge en fluide frigorigène doit donc rester limitée. D’un autre côté, l’équilibre des pressions qui s’établit pendant l’arrêt du compresseur permet à ce dernier de redémarrer plus facilement. Autre avantage : le temps de réponse de la détente est instantané.
Détendeur électronique Il en existe de deux sortes : le détendeur moteur pas-à-pas et le détendeur à impulsion. C’est un détendeur très précis et fiable, de par la régulation numérique. L’injection du fluide frigorigène, la régulation de la température de la source froide et le dégivrage sont donc optimalisés et la surchauffe est maîtrisée. Le rendement de la pompe à chaleur reste ainsi optimal à tous les régimes. De plus, le système s’adapte à tous les fluides frigorigènes. Son inconvénient réside toutefois dans son coût élevé.
Orifice calibré Il s’appelle aussi « accurator » et s’utilise pour les pompes à chaleur réversibles. C’est un détendeur très fiable et son temps de réponse est instantané. Par contre, on ne peut pas adapter l’alimentation en fluide frigorigène en fonction de la charge thermique à l’évaporateur. De plus, ce détendeur n’est pas protégé par un filtre en amont, il faut donc faire attention lors d’interventions sur le circuit.
Régleur manuel Il est uniquement utilisé comme organe de secours d’un autre détendeur. Il fonctionne comme un capillaire, mais le réglage peut être modifié par la suite. Son temps de réponse est instantané, mais comme pour l’orifice calibré, on ne peut pas adapter l’alimentation en fluide frigorigène en fonction de la charge thermique à l’évaporateur. Lors de l’arrêt du compresseur, il est nécessaire de prévoir une vanne magnétique pour éviter le remplissage en liquide de l’évaporateur.
Détendeur à flotteur haute pression Il est souvent utilisé dans les groupes centrifuges. Ce détendeur règle le débit de liquide vers l’évaporateur en fonction du débit des vapeurs condensées, qui sont à haute pression. Son problème réside dans le fait qu’il faut mesurer très précisément la charge en fluide frigorigène pour éviter un retour de liquide vers l’aspiration du compresseur en cas d’excès de charge, et une alimentation insuffisante de l’évaporateur en cas de défaut de charge.
Détendeur à flotteur basse pression Il est très utilisé en combinaison aux évaporateurs noyés et également pour les pompes à chaleur de forte puissance. Ce détendeur règle le débit de liquide vers l’évaporateur en fonction de son niveau de liquide, qui est à basse pression. Le fluide frigorigène a un niveau constant, quelle que soit la charge thermique de l’évaporateur.
Contrôleur de niveau magnétique C’est une variante du détendeur à flotteur basse pression. Le flotteur porte ici un aimant permanent ou une masselotte en fer doux et actionne magnétiquement les contacts de commande de la vanne solénoïde placée sur l’arrivée de liquide dans l’évaporateur.
Contrôleur de niveau à bulbe chauffé Ici un bulbe est chauffé électriquement, et sa chaleur agit sur l’injection de liquide vers l’évaporateur.

Coefficients de performance d’une PAC


Le COP du groupe moto-compresseur

Ce COP s’écrit εc et on l’appelle « indice de performance ». C’est le rapport de la puissance thermique utile délivrée au condenseur à la puissance électrique absorbée par le compresseur uniquement. Cet indice est variable en fonction des températures des sources chaude et froide. Quand on précise une valeur de εc , on doit donc indiquer les bases de température et spécifier s’il s’agit de sources extérieures ou intérieures.

ε= chaleur au condenseur/travail du compresseur = Q2 / W.

Par exemple, si, à un moment de mesure donné, les températures des sources chaudes et froides d’une certaine PAC sont telles qu’elle transmet via son condenseur une puissance de 3 kW alors qu’au même moment son compresseur requiert une puissance de 1 kW, on pourra dire que son indice de performance vaut 3 kW / 1 k W = 3 pour ces conditions de température.

εc est obtenu après essais thermiques dans des conditions standard et il intègre donc les imperfections thermodynamiques (les écarts de température à l’évaporateur et au condenseur). Les pertes thermodynamiques, mécaniques, électriques du compresseur ont également été prises en compte.

L’indice de performance n’intègre par contre pas la consommation des auxiliaires (permanents ou non) et les pertes de chaleur dans les conduits.

Le COP global de la PAC

C’est le COP qui est donné par les constructeurs de pompes à chaleur. Pour le calculer, en plus de la puissance du compresseur, on devra prendre en compte la puissance des auxiliaires non permanents (dispositif antigel, pompes et ventilateurs régulés en même temps que le compresseur, etc). La puissance consommée aux auxiliaires permanents (pompes de circulation dans le plancher, tableau électrique, régulation et système de sécurité) n’est pas assimilée.

   Puissance thermique au condenseur (chaleur restituée dans le bâtiment)

COP = ————————————————————————–

   Puissance absorbée pour réaliser le transfert de chaleur (compresseur et auxiliaires NP)

Les mesures ne concernent que les éléments rattachés à la pompe à chaleur et sont indépendantes de l’installation de chauffage, de l’accumulateur, etc. La norme européenne EN 14511 fixe des conditions de mesures standardisées très précises qui ne correspondent aux situations réelles que dans certaines circonstances. Il ne faut pas perdre cela de vue lorsque l’on travaille avec ce COP.

Reprenons l’exemple de PAC ci-dessus. Dans les conditions imposées par la norme EN 255, la puissance mise à disposition au condenseur ne sera peut-être pas 3 kW mais 3,2 kW pour une température de sortie du condenseur identique. De plus, la puissance absorbée par l’ensemble des équipements à prendre en compte ne sera peut-être pas de 1 kW mais de 1,1 kW. Le coefficient de performance vaudra alors 3,2 / 1,1 = 2,9.

Le COP est le coefficient le plus utile car il donne des performances réelles d’une pompe à chaleur. De même que pour l’indice de performance, il n’intègre pas les pertes dans les conduits.


Le COP global de l’installation

Ce COP, que l’on peut écrire εi, sera toujours inférieur au COP global de la PAC vu ci-dessus. Il tient compte des éléments suivants :

  • les imperfections de l’installation (pertes d’énergie par les réseaux de distribution, pertes aux échangeurs, etc.) qui ne participent pas au chauffage des locaux,
  • les auxiliaires (pompes, circulateurs, ventilation, etc.),
  • la mise en œuvre de l’installation (dimensionnement, pose, etc.).

Si l’installation était parfaite, εi serait égal au COP global de la PAC donné par les constructeurs.


Le COP saisonnier ou global annuel de l’installation

Le coefficient annuel, ou COPA, évalue la performance annuelle de l’installation de la pompe à chaleur, auxiliaires compris. C’est l’indice le plus important dans l’examen d’une installation de pompe à chaleur. Toutes les quantités d’énergie produite et injectées pendant une année y sont comparées. Il ne s’agit pas d’une valeur théorique calculée à partir de puissance installées, mais d’une mesure réelle sur site de la quantité d’énergie consommée et fournie. C’est le coefficient de performance annuel qui donne vraiment idée du « rendement » et de l’efficacité de l’installation.

Il vaut le rapport des valeurs mesurées :

 énergie calorifique restituée dans le bâtiment sur une saison de chauffe

COPA = ————————————————————————–

énergie consommée pour le fonctionnement de l’installation (pompe à chaleur + auxiliaires)

Imaginons que notre PAC fasse maintenant partie de toute une installation de chauffage. Les variations de température des sources froides et chaudes, les pertes par émission du réseau de distribution, la consommation d’un chauffage d’appoint, etc… font que 13 000 kWh* de chaleur sont produits sur une année, tandis que les consommations globales s’élèvent à 6 200 kWh* d’énergie électrique. On dira alors que le COPA de cette installation vaut 13 000 kWh / 6 000 kWh = 2,17.

*Ces valeurs ne servent qu’à illustrer la définition du COPA. Il ne s’agit pas d’une quelconque moyenne d’installations existantes ou du résultat d’une étude de cas.


Le facteur de performance saisonnier SPF

Le SPF évalue théoriquement la performance annuelle de la pompe à chaleur (et pas de l’installation). Il est le rapport des quantités d’énergie fournies et apportées en un an calculées de façon théorique sur base du COP instantané à différentes températures.

Il s’agit donc bien d’une valeur théorique mais prenant en compte les variations de température de la source froide et non pas d’une valeur mesurée en situation réelle comme le COPA. De plus, le SPF décrit une PAC tandis que le COPA décrit une installation complète. On ne tiendra donc pas compte pour le calcul du SPF des pertes de l’accumulateur par exemple, ou d’un mauvais réglage d’un dispositif de dégivrage, qui augmenteraient la quantité d’énergie demandée au compresseur et donnerait une valeur finale moins avantageuse mais plus réelle. On calculera le SPF comme ceci :

  • Qdemandée est la quantité d’énergie demandée à la PAC durant la période de chauffe [kWh/an].
  • P(Text) est la puissance à apporter lorsque la température de la source froide est Text (par exemple les déperditions thermiques d’une maison selon la température extérieure) [kW].
  • t(Text) est le temps durant lequel la température de la source froide est Text [h/an]
  • COP(Text) est le coefficient de performance de la pompe à chaleur lorsque la température de la source froide est Text.

Le rendement en énergie primaire des PAC

Si la pompe à chaleur à la vertu de produire une moyenne saisonnière de 2 à 3,5 kWh thermique pour chaque kWh électrique consommé, il faut toute de même considérer l’énergie primaire nécessaire à la production de ce kWh électrique en amont.

Le facteur d’énergie primaire de l’électricité est fixé en 2019 à 2,5. Il faut ainsi 2,5kWh d’EP (énergie primaire) pour produire 1kWh d’énergie électrique en Europe.

Le rendement comptabilisé en énergie primaire tombe donc à 2,5kWh d’EP pour 2 à 3,5kWh thermiques. Soit un rendement global équivalent de 1 à 1,4. On sait par ailleurs qu’un kWh de gaz (=1 kWh d’EP) utilisé dans une bonne chaudière produit également ±1kWh d’énergie thermique.

Les PAC voient également leur rendement baisser fortement quand les températures baissent sous les 6-7 degrés en raison des principes de la thermodynamique (cycle de Carnot) mais également de la nécessité d’actionner le dégivrage des éléments extérieurs. Cette baisse de rendement rend souvent nécessaire d’y adjoindre une petite chaudière au gaz.

Bon à savoir : si, avec un kWh d’électricité, nous pouvons obtenir 2 à 3,5 kWh thermique avec une PAC, il faudra 2 à 3,5 kWh de gaz pour produire la même énergie thermique avec une chaudière. Là encore, économiquement, le gaz étant 2 à 4 fois moins cher que l’électricité, le gain économique lié au choix de la PAC n’est pas des plus évident.

Organes de détente


Principe de fonctionnement

La différence de pression entre le condenseur et l’évaporateur nécessite d’insérer un dispositif « abaisseur de pression » dans le circuit d’une pompe à chaleur. C’est le rôle du détendeur, qui va donc abaisser la pression du fluide frigorigène sortant du condenseur à l’aide d’un dispositif d’étranglement. Le fluide frigorigène se vaporise partiellement dans le détendeur pour abaisser sa température. Le détendeur alimente ensuite l’évaporateur en fluide frigorigène en modulant son débit.

La détente se produit sans échange de chaleur ou de travail avec le milieu extérieur.

Un mauvais contrôle de la quantité de fluide frigorigène admise dans l’évaporateur, entraîne les conséquences suivantes :

  • Trop peu de fluide frigorigène : il est immédiatement évaporé et il continue à se réchauffer. C’est l’effet de surchauffe. L’efficacité de l’évaporateur diminue.
  • Trop de fluide injecté : l’excès de fluide n’est pas évaporé par manque de chaleur disponible. Une partie du fluide reste liquide et est aspirée par le compresseur. Celui-ci peut alors être sérieusement endommagé (coup de liquide).

Le détendeur thermostatique

C’est le dispositif le plus fréquemment utilisé dans les pompes à chaleur. Le détendeur thermostatique, qui fonctionne de façon automatique, est un corps de vanne qui règle le débit du fluide réfrigérant de façon à maintenir constante la surchauffe des gaz qui viennent de l’évaporateur.

Schéma détendeur thermostatique.

Le corps de vanne est muni d’un orifice fixe et d’un pointeau mobile. La position du pointeau est contrôlée à partir d’un ensemble composé d’une membrane (4), d’un train thermostatique dont la pression interne est fonction de la température du bulbe (= la sonde) (3) et d’un ressort, dont la force d’appui sur la membrane est contrôlée par une vis de réglage (5). Si la charge thermique de l’évaporateur augmente, la sonde détectera une montée de température, agira sur la membrane et le pointeau s’ouvrira afin d’augmenter le débit de réfrigérant (1) jusqu’à obtention de la même surchauffe des vapeurs. D’un côté du soufflet règne la pression d’évaporation (amont ou aval de l’évaporateur suivant l’existence ou non d’une égalisation de pression) ; de l’autre côté du soufflet règne la pression de saturation correspondant à la température du bulbe.

Il existe deux classes de détendeurs thermostatiques : les détendeurs thermostatiques à égalisation interne de pression et les détendeurs thermostatiques à égalisation externe de pression.

  1. Dans le premier cas, les forces agissant sur le pointeau de détente sont d’une part la pression du train thermostatique et, d’autre part, la pression exercée par le ressort de réglage et la pression d’évaporation à l’entrée de l’évaporateur (prise à l’intérieur du détendeur). Ce type de détendeur est bien adapté lorsque la perte de charge entre l’aval du détendeur et la sortie de l’évaporateur est faible, ce qui est le cas la plupart du temps, des pompes à chaleur de faible puissance dont l’évaporateur est équipé d’un ou de deux circuits sans distributeur de liquide.
  2. Dans le second cas, les forces agissant sur le pointeau de détente sont d’une part la pression du train thermostatique et, d’autre part, la pression exercée par le ressort de réglage et la pression d’évaporation à la sortie de l’évaporateur. Cette pression aval est transmise dans un compartiment du détendeur par l’intermédiaire d’une tuyauterie d’égalisation de pression dont le raccordement est effectué à la sortie de l’évaporateur, et de préférence après le bulbe pour éviter d’influencer celui-ci par la turbulence locale occasionnée par le piquage. La perte de charge occasionnée par le distributeur de liquide et l’évaporateur n’intervient pas sur l’ouverture ou la fermeture du pointeau. Seule la surchauffe à la sortie de l’évaporateur agit sur le pointeau.

L’utilisation de ce type de détendeur présente l’inconvénient de ne pas avoir un temps de réponse instantané. Les avantages sont :

  • Une grande fiabilité.
  • Les détendeurs thermostatiques permettent d’adapter au mieux l’alimentation de l’évaporateur en fluide frigorigène, quelle que soit la charge thermique de celui-ci.
  • Certains détendeurs thermostatiques à égalisation de pression peuvent fonctionner dans les deux sens, évitant un second détendeur et les clapets dans les pompes à chaleur réversibles.

Le capillaire de détente

Ce type d’organe de détente, qui est non-automatique, est utilisé dans les petits matériels de série. On se contente, comme dispositif de réglage, d’un étranglement dans la conduite du fluide frigorigène avant l’évaporateur. L’étranglement est assuré par un tube capillaire de très faible diamètre dans lequel la détente du fluide est obtenue par la perte de charge dans le tube. La longueur et le diamètre du tube capillaire sont déterminés par le constructeur.

Le capillaire de détente n’interrompt jamais la communication entre le condenseur et l’évaporateur. Pendant l’arrêt du compresseur, rien ne s’oppose donc à ce que le fluide frigorigène s’écoule du condenseur (où il est sous haute pression) vers l’évaporateur.

Le capillaire ne permet aucun réglage de la détente, ce qui peut être un inconvénient. D’un autre côté, il ne permet aucun déréglage de la détente dans le temps, ce qui est un avantage. Le circuit doit être soigneusement déshydraté sinon le capillaire se bouche. De plus, il faut éviter l’utilisation d’une bouteille accumulatrice de liquide afin de ne pas remplir exagérément l’évaporateur durant l’arrêt du compresseur. La charge en frigorigène du circuit doit donc être relativement limitée, ce qui nécessite une recherche particulièrement soignée des fuites. En ce qui concerne les avantages de ce système, on remarque que l’équilibre de pression qui s’établit entre la haute pression et la basse pression pendant l’arrêt du compresseur permet un démarrage plus facile de celui-ci. De plus, le temps de réponse de la détente est instantané.


Le détendeur thermostatique.

Deux techniques existent :

  • Le détendeur avec moteur à impulsion : le temps d’ouverture détermine la surchauffe.
  • Le détendeur avec moteur pas à pas : le degré d’ouverture permet une alimentation correcte de l’évaporateur.

Schéma détendeur thermostatique

Le détendeur électronique fonctionne sur le même principe que le détendeur thermostatique mais il permet un réglage plus précis de l’injection à l’évaporateur. Une surchauffe plus faible sera nécessaire et le rendement de la pompe à chaleur reste ainsi optimal à tous les régimes. La température d’évaporation remontera de 2 à 3 K, ce qui diminuera la consommation du compresseur.

Il se compose d’une sonde de température (placée à la sortie de l’évaporateur contrôlant la surchauffe des gaz), d’une sonde de pression d’évaporation et d’une carte électronique dont le rôle est d’analyser ces valeurs et d’agir en conséquence sur une vanne de détente motorisée (moteur pas à pas à 2 500 positions) ou séquentielle.

Le système s’adapte à tous les fluides frigorigènes et, pour passer d’un fluide à l’autre, il suffit de modifier le paramétrage de la corrélation pression/température du fluide en ébullition. La vanne de détente peut se fermer en période d’arrêt et jouer ainsi le rôle d’une vanne magnétique de départ liquide.

Les systèmes avec vanne de détente séquentielle posent quelquefois des problèmes de tenue mécanique des évaporateurs à faible inertie (coup de bélier).


L’orifice calibré

Cet organe de détente est composé d’un orifice calibré réalisé dans un corps mobile coulissant. Son fonctionnement comme détendeur s’apparente à un tube capillaire associé à un clapet de retenue autorisant le passage du liquide en sens inverse. Lorsque le fluide frigorigène circule dans un sens, il joue le rôle d’organe de détente grâce à l’orifice calibré. Dans l’autre sens, le corps mobile coulisse, dévoilant des rainures permettant de laisser passer le fluide liquide sans détente.

Les autres détendeurs

D’autres détendeurs de PAC existent ; ils sont brièvement expliqués sur cette page-ci.

Évaporateurs [PAC]

Évaporateurs [PAC]


Les évaporateurs à air

Photo évaporateurs à air.

Ce type d’évaporateurs s’utilise lorsque la source froide est… l’air.

Le fluide frigorigène circule dans un tube qui traverse de nombreuses ailettes d’aluminium (en général rectangulaires, mais aussi parfois circulaires ou hélicoïdales). Les tubes sont disposés en série, formant une nappe, et les différentes nappes sont associées en parallèle. On peut avoir deux configurations des tubes en ce qui concerne l’alimentation en fluide frigorigène :

  • Soit, les nappes sont assemblées en parallèle à l’entrée et à la sortie de l’évaporateur. Le collecteur d’entrée est alors alimenté par le détendeur.
  • Soit, les nappes sont assemblées en parallèle seulement à la sortie. Le détendeur est alors un capillaire d’alimentation et il y a un distributeur de liquide à l’entrée de l’évaporateur. Ce dernier répartit le fluide en quantités égales dans chacun des circuits. La sortie de chaque circuit aboutit au collecteur d’aspiration.

Dans ces évaporateurs, il peut y avoir de la ventilation (c’est-à-dire de la convection forcée) ou de la convection naturelle. Les ailettes alimentées par ventilation seront très rapprochées les unes des autres, les ailettes alimentées par convection naturelle seront très espacées.

En pratique, l’on procède souvent à une filtration de l’air avant l’évaporateur. Le ventilateur peut être de type centrifuge ou hélicoïdal.

Condensation et givre

Lorsque la température des parois extérieures de l’évaporateur devient inférieure à la température de rosée de l’air, il se produit le phénomène de condensation ou de givrage sur l’évaporateur (condensation si la température de paroi est supérieure à 0 °C et givrage si non). Une chaleur latente, résultant de l’apparition d’eau ou de glace, s’ajoute à la chaleur sensible captée sur l’air. Ceci influence directement les échanges thermiques.

Au fur et à mesure qu’il se forme, le givre a pour effet de produire une isolation thermique de l’évaporateur conduisant à une chute du coefficient d’échange thermique. Il contribue également à la diminution du passage d’air, conduisant à une augmentation de la perte de charge côté air et par suite à une diminution du débit d’air. On cherchera donc à éliminer le givre.

La condensation a pour effet de mouiller l’évaporateur. Il convient d’éliminer l’eau condensée et d’éviter son entraînement dans les circuits d’air. On choisira donc des vitesses de passage d’air inférieures à 3 m/s.
Dans certains cas de refroidissement, il ne se produit ni givrage ni condensation, et ce, même lorsque la température de paroi est négative.


Les évaporateurs à eau ou à eau glycolée

Les différents évaporateurs à eau qui existent sont listés dans cette section. Pour comprendre les notions d’évaporateurs à surchauffe ou noyés, cliquer ici !.

Évaporateurs coaxiaux en spirale (ou évaporateurs double tube) = Évaporateurs à surchauffe

Dans ces évaporateurs, deux tubes de cuivre coaxiaux sont enroulés en spirale. Le fluide frigorigène qui se vaporise circule dans le plus petit tube (le tube intérieur) et le fluide caloporteur (eau glycolée) circule à contre-courant dans l’espace annulaire entre les deux tubes.

Ces évaporateurs présentent des difficultés d’entretien et il faut utiliser de l’eau propre non entartrante.

Évaporateurs à plaques brasées = Évaporateurs à surchauffe

Photo évaporateurs à plaques brasées.

Ils se composent d’une série de plaques d’acier inoxydable assemblées par brasure (= avec un métal d’apport). L’eau glycolée et le fluide frigorigène en évaporation circulent à contre-courant de chaque côté de ces plaques.

La conception de ces échangeurs favorise des coefficients d’échange thermique très élevés avec une différence de température très faible entre les deux fluides. Ceci en fait des appareils très performants et compacts, en plus d’être robustes. Un autre avantage est les pertes de charge sur l’eau qui sont en général assez faibles. Ces évaporateurs sont aussi suffisamment étanches pour permettre l’utilisation de fluides frigorigènes.

La petite taille des canaux facilite cependant l’encrassement. Les circuits doivent donc être très propres ou alors on peut prévoir des filtres à l’entrée de l’eau glycolée dans l’évaporateur. Un autre inconvénient est la non-résistance au gel de ces échangeurs. De l’antigel doit donc être présent en quantité suffisante et de façon homogène dans les circuits de capteurs enterrés.

Évaporateurs multitubulaires = Évaporateurs à surchauffe ou noyés

Photo évaporateurs multitubulaires.

  • Les évaporateurs multitubulaires noyés sont constitués d’un faisceau de tubes métallique soudé sur des plaques à l’intérieur d’un corps cylindrique en acier. L’eau de la source froide circule dans les tubes intérieurs et le fluide frigorigène s’évapore dans le corps principal à l’extérieur des tubes. Il y a un séparateur de gouttelettes dans l’évaporateur pour éviter les entraînements de liquide vers le compresseur. Malgré cela, il faut en plus prévoir une bouteille anti-coups de liquide pour protéger le compresseur. Ces évaporateurs présentent un autre problème : celui de piéger l’huile de lubrification (si elle est présente dans l’installation).
  • Les évaporateurs multitubulaires à surchauffe sont aussi appelés évaporateurs à épingles (à cause de la forme du faisceau tubulaire) ou évaporateur Dry-Ex. Ici le fluide frigorigène circule dans les tubes, à l’inverse de l’évaporateur multitubulaire noyé. Les tubes sont en général munis d’ailettes intérieures afin d’augmenter la surface d’échange. L’évaporateur est alimenté par un détendeur thermostatique, qui permet d’adapter le débit de fluide frigorigène entrant dans l’évaporateur et donc de contrôler la surchauffe des vapeurs. Cet évaporateur ne montre pas de problème de piégeage d’huile, car elle se dirige vers le carter du compresseur si elle est entraînée par le fluide frigorigène.

Évaporateurs à serpentin = Évaporateurs noyés

Dans ce cas, les tubes (le plus souvent en cuivre) de l’évaporateur sont noyés dans un réservoir d’eau (de nappe phréatique, d’étang, etc.). Ils sont enroulés en spirale ou suivant la forme du bac. L’eau pénètre dans le réservoir et peut déborder. Cette technique permet d’éviter les problèmes de gel car la glace se forme autour des tubes sans dégrader l’évaporateur.

Ce type d’évaporateur, facilement nettoyable, autorise l’usage d’eau de mauvaise qualité sur le plan de la propreté (sable, débris de feuilles,…). Par contre, les coefficients d’échange thermique sont assez faibles, ce qui nécessite de grandes longueurs de tubes et conduit à un encombrement important.

Condenseurs [Chauffage, PAC]

Condenseurs [Chauffage, PAC]


Le principe de fonctionnement du condenseur

Le condensation du fluide frigorigène transmet la chaleur à l’environnement à chauffer.

Trois phases se succèdent le long d’un échangeur de chaleur à contre-courant (le fluide frigorigène et le fluide à chauffer vont dans des sens opposés) : la désurchauffe, la condensation proprement dite et le sous-refroidissement.

  1. Pendant la désurchauffe, le fluide frigorigène à l’état de vapeur qui vient du compresseur se refroidit à pression constante en cédant de sa chaleur sensible au fluide extérieur.
  2. La condensation commence quand la première goutte de liquide frigorigène apparaît, et se produit à pression et température constantes. Lors de cette phase, les vapeurs qui se condensent cèdent leur chaleur latente de condensation au fluide extérieur qui se réchauffe.
  3. Lorsque toute la vapeur a été condensée, le liquide frigorigène va se sous-refroidir à pression constante en cédant de nouveau de la chaleur sensible au fluide extérieur.

Cependant, en pratique, les trois phases coexistent dans une même section de l’échangeur de chaleur. Le fluide frigorigène circule dans un tube en contact avec l’eau ou l’air. La partie du fluide frigorigène qui touche le tube est liquide et se sous-refroidit. Le fluide qui est en contact avec ce liquide condense à son tour. Le gaz frigorigène qui est au centre du tube désurchauffe simplement.

En résumé, la quantité de chaleur évacuée au condenseur comprend la chaleur sensible de la vapeur surchauffée, la chaleur latente de condensation du fluide frigorigène et la chaleur sensible de sous-refroidissement du liquide frigorigène.


Les condenseurs à air

On utilise ce type de condenseur lorsque le fluide extérieur à chauffer est de l’air. On se trouve alors dans le cas d’une pompe à chaleur air/air ou eau/air.

Le condenseur à air le plus couramment utilisé comprend des tubes à ailettes, un ventilateur centrifuge de brassage d’air et un filtre. Les tubes sont reliés parallèlement les uns aux autres entre deux collecteurs. Un de ces collecteurs alimente les tubes en vapeur frigorigène surchauffée, l’autre évacue le liquide.


Les condenseurs à eau

Dans ce cas la source chaude est de l’eau. On distingue quatre types de condenseurs à eau :

  • Les condenseurs à serpentins : Le serpentin en cuivre forme une spirale à l’intérieur d’une enveloppe d’acier soudé. L’eau de la source chaude circule dans le serpentin et le fluide frigorigène dans l’enveloppe d’acier. Le fluide frigorigène se condense dans l’enveloppe au contact de la surface du serpentin.
  • Les condenseurs à tubes coaxiaux : Les tubes concentriques en cuivre sont enroulés ensemble en forme de spirale. L’eau circule dans le tube intérieur et le fluide frigorigène se condense à l’extérieur.
  • Les condenseurs à plaques brasées : Cet échangeur se compose de plaques en acier inoxydable assemblées par brasage. Le fluide frigorigène en condensation circule dans une plaque sur deux, et l’eau à réchauffer dans les autres plaques.

  • Les condenseurs multitubulaires.

Un grand nombre de tubes, dans lequel circule l’eau à chauffer, sont placés à l’intérieur d’un anneau. La condensation du fluide frigorigène s’effectue sur la surface extérieure des tubes, à l’intérieur de l’enveloppe. À chaque extrémité de l’anneau se trouvent des boîtes à eau qui distribuent l’eau en série et parallèle dans les divers tubes. Les tubes sont souvent équipés de petites ailettes afin d’augmenter le coefficient d’échange thermique.

Compresseurs

Auteur : Manouane Dubois, relecture Laurent Georges

Mise en page – Sylvie (08.2010)

  • Titres page, navigation, titres normal
  • Antidote
  • Test liens
  • Mise en page globale : listes, tableaux, typographie, images, …

Les compresseurs volumétriques à pistons

Dans les compresseurs volumétriques à pistons, les vapeurs de fluide frigorigène sont comprimées à l’aide du mouvement alternatif de pistons dans des cylindres. Ces derniers sont pourvus de clapets d’aspiration et de refoulement. En plus de ces éléments, le compresseur se compose :

  • d’un excentrique, qui sert à transformer un mouvement circulaire en un mouvement rectiligne alternatif,
  • d’un carter, qui contient le moteur d’entraînement électrique et qui forme la réserve d’huile de graissage (car le compresseur a besoin d’être constamment lubrifié),
  • d’une pompe à huile, qui assure la distribution de l’huile aux paliers et bielles.

Quelques remarques sur les compresseurs à pistons :

  • Les gaz aspirés pénètrent dans le compresseur généralement à la partie haute du moteur électrique, évitant ainsi l’introduction de liquide frigorigène dans les cylindres en cas de fonctionnement anormal de l’installation. Le refoulement est effectué au travers d’une tuyauterie souple brasée à l’enveloppe.
  • Le compresseur à piston est très sensible à l’arrivée de fluide liquide : si quelques gouttes de liquide pénètrent au niveau des soupapes, elles en provoquent une usure lente. Si du fluide liquide pénètre en grande quantité, la destruction des clapets est immédiate. Il faut donc des protections anti-coups de liquide (ressort puissant sur le chapeau de cylindre, capable de se soulever en cas d’arrivée de liquide). Le carter joue aussi en quelque sorte un rôle analogue à celui d’une bouteille anti-coup de liquide, mais sa capacité est très limitée en volume et le rôle protecteur ne sera réel que pour de faibles admissions de liquide à l’aspiration.
  • Le fluide frigorigène et bien sûr l’huile de lubrification doivent être compatibles avec les matériaux qui composent le moteur.
  • La vitesse de rotation du moteur d’entraînement est de 3000 tours/min la plupart du temps, pour des raisons d’encombrement et de coût de fabrication. Certaines rares séries sont cependant encore réalisées avec des moteurs dont la vitesse de rotation est de 1500 tours/min.
  • Le moteur électrique est alimenté par des fils reliés à des bornes étanches.

Les compresseurs volumétriques à pistons sont de trois types :

  • hermétique  : le moteur et le compresseur sont situés à l’intérieur d’une cloche et ne sont pas accessibles. Ils sont généralement supportés par des ressorts pour éviter la transmission des vibrations. Le nombre de cylindres varie entre 1 et 4 suivant la puissance désirée (un seul cylindre entre 0 et 2 kW, 2 cylindres entre 2 et 5,5 kW et 4 cylindres entre 5,5 et 15 kW).

  • semi-hermétique : le moteur est accolé au compresseur et certaines parties du compresseur peuvent être démontées pour une réparation ou un entretien. Une des extrémités de l’arbre du vilebrequin porte le rotor du moteur qui entraîne le compresseur. Le moteur est refroidi en grande partie par le fluide frigorigène aspiré par le compresseur, mais aussi parfois par un ventilateur ou un serpentin d’eau enroulé autour du moteur. Le nombre de cylindres varie entre 1 et 16 et ils sont disposés en ligne, en V, en W ou en étoile. La puissance est réglée par mise hors service de certains cylindres ou par changement de régime du moteur d’entraînement.

  • ouvert : le compresseur est accouplé au moteur soit simplement en bout d’arbre par un manchon d’accouplement, ou bien à l’aide de poulies et courroies. Le nombre de cylindres varie entre 1 et 16 et ils peuvent être disposés en ligne, en V, en W ou en étoile. La vitesse de rotation est ajustable par exemple en changeant la poulie du moteur, en arrêtant certains cylindres ou en changeant le régime de fonctionnement du moteur.

Le compresseur volumétrique hermétique spiro-orbital (Scroll)

Un compresseur Scroll comprime un gaz en continu en faisant tourner une partie mobile en forme de spirale autour d’une autre spirale fixe identique à la première. Ces deux spirales sont déphasées de 180°. Elles forment plusieurs volumes qui se créent à l’aspiration, se réduisent progressivement au fur et à mesure du déplacement orbital de la spirale mobile pour déboucher vers l’orifice de refoulement central.

   

Le type de compresseur ne nécessite pas de clapets d’aspiration et de refoulement, mais un clapet existe cependant afin d’éviter l’équilibrage des pressions haute et basse au moment de l’arrêt et la rotation en sens inverse de la spirale mobile.
Le moteur d’entraînement est situé à l’intérieur du carter. L’huile de lubrification se trouve en fond de carter et est envoyée par pompage vers les pièces mobiles.
Les compresseurs Scroll encaissent facilement les coups de liquide à l’aspiration par désolidarisation radiale des deux spirales. Ceci est un avantage important pour les systèmes à inversion de cycle.
Pour les applications en pompe à chaleur à haute température, il est possible d’effectuer une injection de liquide intermédiaire au milieu des spirales dans le but d’abaisser la température de refoulement et d’augmenter la puissance et le COP.
Diverses méthodes de régulation de vitesse sont possibles :

  • Régulation « tout ou rien ».
  • Régulation par moteur à 2 vitesses.
  • Régulation par variateur de vitesse
Attention : en cas de rotation en sens contraire, il n’y a pas de compression et un bruit insolite avertit le technicien !

Le compresseur volumétrique à vis

Ces compresseurs peuvent comporter une ou deux vis et être du type semi-hermétique ou ouvert.

Compresseur à vis mono-rotor.

Le compresseur à vis bi-rotor est constitué de deux rotors à dentures hélicoïdales (un rotor mâle et un rotor femelle) tournants à grande vitesse. Le rotor mâle est entraîné par le moteur et entraîne à sa suite le rotor femelle.

Les deux rotors à dentures hélicoïdales d’un compresseur à vis.

Le volume du gaz frigorigène est réduit progressivement par la rotation qui provoque l’insertion des lobes du rotor mâle dans le rotor femelle. Quatre phases se succèdent lors de la compression du gaz frigorigène :

  • L’aspiration.
  • Le transfert : les dentures emprisonnent le gaz aspiré.
  • La compression : le gaz diminue de volume à cause de la rotation des dentures et est ainsi comprimé.
  • Le refoulement : le gaz s’échappe par l’orifice de refoulement lorsqu’il est découvert pendant la rotation.

Les variations de puissance s’obtiennent dans les grosses machines par l’action d’un « tiroir » qui décide de l’utilisation d’une plus ou moins grande longueur de vis dans la compression des gaz, et donc induit un plus ou moins grand taux de compression. Dans les petites machines (toujours très grandes comparées à des compresseurs à pistons), la modulation de puissance s’obtient par variation de la vitesse de rotation ou par utilisation de ports d’aspiration auxiliaires, soit par les deux.
Le compresseur à vis doit être abondamment lubrifié pour assurer l’étanchéité entre les pièces en mouvement et pour réduire le niveau sonore, mais aussi pour refroidir le fluide frigorigène. On peut alors atteindre des taux de compression élevés (jusqu’à 20) sans altérer le fluide frigorigène. Le circuit de graissage comprend un déshuileur, un réservoir d’huile, un refroidisseur d’huile et une pompe à huile.
Quelques caractéristiques des compresseurs à vis ouverts :

  • La garniture d’étanchéité au passage de l’arbre est indispensable.
  • Quelquefois (pour les plus gros compresseurs), les moteurs sont pourvus d’un refroidissement hydraulique permettant de récupérer également de la chaleur sur le circuit d’eau.

Dans la version semi-hermétique, le moteur électrique est accouplé directement sur l’arbre du rotor mâle, côté flasque de refoulement, et fait corps avec le compresseur. Le refroidissement du moteur est obtenu directement par les gaz de refoulement qui le traversent en totalité avant de pénétrer dans le séparateur d’huile.

> Pour connaître les avantages/inconvénients des compresseurs à vis, cliquer ici !

Le compresseur volumétrique rotatif

On rencontre deux technologies :

  • le compresseur rotatif à piston roulant,
  • le compresseur rotatif à palettes.

Compresseur rotatif à piston roulant et compresseur rotatif à palettes.

Dans les deux cas, un stator cylindrique renferme un rotor excentré par rapport à l’axe du stator. Un volume en forme de croissant est piégé. Du fluide frigorigène y est introduit (aspiration) et la rotation du rotor va comprimer cet espace jusqu’à atteindre la pression souhaitée (refoulement).
Les puissances frigorifiques atteignent 10 kW. Ils sont essentiellement utilisés pour les climatiseurs individuels et les petits refroidisseurs de liquide.

Le compresseur centrifuge

Les appareils centrifuges utilisés en pompes à chaleur dérivent des groupes centrifuges de production d’eau glacée. Ce sont tous des appareils du type eau/eau. Ils ne diffèrent des groupes à eau glacée que par leur régulation.
Les compresseurs centrifuges sont munis de roues qui tournent à grande vitesse, elles-mêmes pourvues d’aubages. L’entraînement est réalisé par un moteur électrique en version semi-hermétique ou par un autre type de moteur en version ouverte. L’énergie cinétique centrifuge est transformée en énergie de pression dans les roues et les aubages et cela comprime le gaz frigorigène. La première roue est précédée d’aubages de prérotation en acier inoxydable qui permettent de :

  • réguler la machine pour que la production calorifique corresponde aux besoins réels ;
  • donner aux gaz arrivant sur les aubes de la roue un angle d’attaque favorable ;
  • assurer un étranglement à l’aspiration.
Le corps du compresseur est réalisé soit en fonte spéciale étanche, soit en acier soudé, soit en alliage léger. Il comprend la buse d’aspiration convergente, les diffuseurs radiaux placés à la périphérie des roues, ainsi que le multiplicateur de vitesse éventuel. Les roues du rotor sont munies d’ailettes (en acier soudé ou en alliage léger coulé et usiné) qui sont couchées vers l’arrière. L’arbre du rotor est réalisé en fer forgé, il comporte sur son extrémité sortante une garniture d’étanchéité (cas uniquement du compresseur centrifuge type ouvert) et des paliers lisses.

Les organes à graisser sont les paliers, la butée et éventuellement le multiplicateur et la garniture d’étanchéité. Le dispositif de graissage se compose d’une pompe à engrenages ou à palettes, d’un réchauffeur électrique et d’un échangeur refroidisseur huile/eau. Il comporte aussi un dispositif de compensation de la poussée axiale.

Les variations de puissance s’obtiennent par réglage des vantelles à l’ouïe d’aspiration de la turbine. À faible charge, ils sont cependant plus délicats que les compresseurs à pistons. En effet, par faible débit, un phénomène de pompage apparaît : le débit oscille entre un débit nul et débit maximal, l’écoulement devient pulsatoire et engendre des vibrations qui peuvent endommager le compresseur. Les frais de réparation sont élevés. Les constructeurs prévoient généralement une mesure de sauvegarde de l’appareil par injection de gaz chauds. Ce n’est certainement pas une technique énergétiquement intéressante puisque la puissance absorbée reste constante. On évitera donc le surdimensionnement des équipements.
isolants écologiques dans le cadre d'une rénovation

Isolants biosourcés

Date :

  • Janvier 2009

Auteur :

  • B.J., corrigé par Arnaud Evrard et Sophie Trachte

Notes :

  • Conforme à la mode PEB août 2008
  • En attente des droits de publications des photos issues du livre de Oliva.
  • 26-03-2009 : Application des nouveaux styles de mise en page. Julien.

Source :

  • IBGE, Infos fiches-éco-construction, Mat05, Isolation thermique : Choisir des matériaux sains et écologiques. Consultable dans la farde ENERGIE+\2008\ISOLATION1
  • Réseau éco-consommation, fiche n°79, Les matériaux d’isolation : les connaître pour bien les choisir. Consultable dans la farde ENERGIE+\2008\ISOLATION1
  • Une isolation plus saine, conseil et fiches matériaux, de www.pie.dromenet.org. Consultable dans la farde ENERGIE+\2008\ISOLATION1

Antidote :

  • Oui

Photo : Aline Branders.

Pour s’inscrire dans une démarche d’éco-construction, il est nécessaire de ne pas choisir un isolant uniquement sur base de ses propriétés thermiques, techniques et économiques.
Il y a lieu d’évaluer son impact environnemental (et sur la santé) tout au long de sa vie :

  • en tenant compte de l’énergie grise (renouvelable et non renouvelable) consommée sur l’ensemble de son cycle de vie (traitement en fin de vie inclus) ;
  • en tenant compte des différentes émissions (gaz à effet de serre, gaz acidifiant, gaz à formation d’ozone…) sur l’ensemble du cycle de vie, qui auront un impact sur l’environnement et la santé ;
  • en tenant compte des matières premières et de l’eau consommée ;
  • en tenant compte des substances nocives utilisées lors de la fabrication et pendant la mise en œuvre (solvants, COV…) ;
  • en estimant les émissions de composés organiques volatiles (COV), formaldéhydes et autres produits nocifs durant sa vie en œuvre ;
  • en appréciant les possibilités de recyclage pour la phase de déconstruction.

La prise en compte de tous ces paramètres conduit à l’utilisation d’isolants dits « écologiques ». Nous parlerons dans la suite de cet article plus particulièrement des isolants dits « biosourcés », c’est-à-dire d’origine végétale ou animale.

Origines, traitements, transformations, domaines d’application et spécificités de chacun des isolants permettront d’approcher la notion de développement durable dans le bâtiment. Nous y verrons les isolants suivants :

  • Isolants à base de cellulose
  • Isolants sous forme de laine d’origine végétale ou animale
  • Isolants à base de fibre de bois
  • Isolants à base de liège
  • Isolants à base de chanvre
  • Isolants à base de paille
  • Isolants à base de textile recyclé

Ils seront passés en revue afin de donner un aperçu des avantages et inconvénients à prendre en compte dans le choix de l’isolant.

De l’approche classique à l’éco-construction

Certaines lignes directrices simples, énoncées dans le tableau suivant, permettent d’évoluer vers une démarche éco-constructive en partant d’une approche tout à fait classique.

Déconseillé Les isolants minces réfléchissants. Ces isolants sont difficiles à mettre en œuvre, leurs performances  sont réduites et il est très difficile de les recycler (assemblage de plusieurs matériaux)
Minimum Éviter les isolants synthétiques (mousses de polyuréthane, de polystyrène…) autant que possible. Dans les situations où ces isolants ne s’imposent pas, leur préférer les laines végétales et animales, les laines minérales, ou le verre cellulaire.
Conseillé Choisir des matériaux naturels à la place des matériaux courants : laines végétales ou animales et isolants à base de cellulose, de liège, de chanvre ou d’autres sources renouvelables…

Mais attention, beaucoup de ces isolants ne possèdent pas d’agrément technique belge ou européen

Tableau inspiré de la fiche « Matériaux d’isolation thermique : Choisir des matériaux sains, avec un écobilan favorable » de l’IBGE.

Les types d’isolants biosourcés classiques

Isolants à base de cellulose

Isolants à base de papier ou journal recyclé, leur conductivité est comparable à celle des laines minérales. Ce matériau possède la caractéristique de pouvoir absorber la vapeur d’eau et permet ainsi de réguler l’humidité. Son absorption acoustique est excellente.

Les flocons de cellulose sont soufflés sous pression soit dans des caissons fermés soit sur des surfaces horizontales. Certains critères ont été définis afin de garantir le non-tassement ultérieur des flocons dans les caissons.

Ces isolants à base de cellulose existent aussi sous forme de panneaux semi-rigides ou flexibles. Ils sont utilisés pour l’isolation des sols, des toitures, des cloisons légères et des murs à ossature bois.Bien qu’elle constitue un bon rempart contre l’humidité, l’ouate de cellulose n’est pas résistante au feu ! Par conséquent, un traitement chimique nécessaire dévalorise sa valeur écoresponsable. En effet, afin de protéger cet isolant des attaques d’insectes, de champignons ou du feu, un traitement au sel de bore est nécessaire. Aussi, si vous privilégiez ce type d’isolant, prenez soin de vous poser des questions relatives à la provenance et à la teneur en résidus d’encre dans l’ouate de cellulose afin d’anticiper les odeurs désagréables sur le long terme. Enfin, insufflée, elle provoque beaucoup de poussières et implique l’utilisation d’équipements de protection adéquats.

     

Panneaux de cellulose (doc. Homatherm) et flocons de cellulose humidifiés et projetés.

Jean-Pierre Oliva , L’isolation écologique, conception, matériaux, mise en œuvre, éditions Terre vivante, 2001.

Isolants sous forme de laine d’origine végétale ou animale

Il existe de nombreux types de laine végétale ou animale disponibles en vrac, en feutre fin,  en rouleaux ou en panneaux semi-rigides. On trouve par exemple des laines en fibre de coco, de lin, de chanvre, de bois ou en mouton. Certains de ces isolants reçoivent un traitement au sel de bore qui les protège des attaques d’insectes, des champignons et du feu.
Ils possèdent la capacité d’absorber et de restituer l’humidité (la laine de mouton peut absorber jusqu’à 33% de son poids en eau((Les matériaux biosourcés dans le bâtiment, FFB, novembre 2015))), remplissant ainsi la fonction de régulateur d’humidité.

Son domaine d’application est l’isolation des murs, des combles et des rampants de toiture. Sa version conditionnée sous forme d’écheveaux sert à l’isolation de gaines et de tuyaux, mais également de calfeutrement. Sous forme de panneaux ou rouleaux, elle se pose de façon classique. Seul le soufflage de la laine en vrac demande l’intervention d’un professionnel spécialisé.

De par leur caractère fibreux, ces isolants possèdent aussi de très bonnes caractéristiques acoustiques. En plus de ses vertus d’isolant acoustique, elle est difficilement inflammable, ne dégage pas de gaz toxiques en cas d’incendie et est une ressource renouvelable.

En termes d’inconvénients, certains de ces isolants reçoivent, tout comme la cellulose, un traitement au sel de bore qui les protège des attaques d’insectes, des champignons et du feu. De plus, même si la laine (de type animale) subit un lavage et un pressage, elle pourrait, après sa pose, dégager une odeur désagréable.

Laine de lin en vrac, laine de lin en rouleaux et laine de lin en panneaux (doc. Textinap).

Laine de chanvre en rouleaux (doc. LCDA) et laine de chanvre en panneaux semi-rigides (doc. Haga).

Noix de coco sciée et panneaux et rouleaux de laine de coco (doc. EMFA).

Jean-Pierre Oliva , L’isolation écologique, conception, matériaux, mise en œuvre, éditions Terre vivante, 2001.

Isolants à base de fibre de bois

Les panneaux de fibre de bois sont fabriqués à partir de déchets de scierie.

Après son sciage, le bois peut :

  • se transformer directement en matériaux pour structures portantes et bardages
  • être broyé ou défibré pour servir à la production de copeaux en vrac ou de fibre de bois pour la confection de la laine isolante
  • être déroulé, tranché et lié afin de servir à la fabrication de panneaux isolants solides pour la construction.

Les panneaux sont perméables à la vapeur, ils complètent très bien les autres isolants.

Son domaine d’application concerne principalement l’isolation thermique intérieure et extérieure de murs, combles et rampants de toiture lorsqu’il est sous forme de laine ou de fibres utilisées en partie aussi pour leurs qualités acoustiques.

Lorsque plusieurs panneaux sont collés ensemble pour obtenir une plus grosse épaisseur d’isolant, de la colle est utilisée, ce qui dévalorise son caractère écologique. Le bois peut aussi servir d’isolant sous son format en vrac, mais va alors nécessiter un traitement chimique préventif, fongicide et insecticide((Les matériaux biosourcés dans le bâtiment, FFB, novembre 2015)).

Panneaux de bois feutré (doc. Pavatex).

Jean-Pierre Oliva , L’isolation écologique, conception, matériaux, mise en œuvre, éditions Terre vivante, 2001.

Isolants à base de liège

Cet isolant est extrait des écorces des chênes-liège ou du recyclage de bouchons, le liège est broyé pour former des granulats de liège en vrac, puis assemblé pour la fabrication de panneaux et de rouleaux qui nécessitent l’intervention d’un liant chimique.

Les panneaux en liège constituent une alternative écologique idéale pour l’isolation

  • des planchers
  • des murs par l’intérieur ou l’extérieur
  • des combles perdus
  • des rampants de toiture.

Tout comme le bois, les avantages en termes d’isolation thermique et acoustique sont incontestables. Ajoutons son imputrescibilité, cet isolant est également difficile inflammable.

Du point de vue des inconvénients, certains panneaux sont renforcés avec des colles synthétiques et dégagent du formaldéhyde, il est donc important de se renseigner avant l’achat afin d’éviter ce type d’isolants à base de liège. Mais le principal problème, en plus de son coût élevé, réside dans sa disponibilité. Il perd en effet de sa valeur écologique et locale à cause de son importation.

Liège.

Isolants à base de chanvre

Fabriqué à partir du défibrage de la tige de chanvre, on peut obtenir à partir de cette plante deux supports de base :

  • la fibre en vrac ou qui servira pour la laine ;
  • la chévenotte utilisée pour la fabrication de panneaux, enduits et bétons (composée d’un mélange de lient à base de chaux aérienne et de copeaux de chanvre).

Le chanvre est par ailleurs une plante à croissance rapide qui ne nécessite pas ou peu d’engrais.

Compressé, il sert pour l’isolation des murs, des sols, des façades intérieures et extérieures et des combles non aménageables après sa transformation en

  • Blocs de béton
  • Laine
  • Panneaux

En vrac, il sert dans l’isolation des murs et des combles non aménageables par soufflage.

Actuellement l’usage le plus fréquent de ce type d’isolant est le remplissage des murs à ossature bois (30 cm) ou d’enduits isolants (10 cm) sur un support existant.

Son coefficient d’isolation est proche de celui du bois massif (λ = ± 0.1), mais le matériau possède d’importantes qualités du point de vue de l’inertie thermique et de la régulation de la vapeur d’eau. Sa résistance au feu lorsqu’il est sous forme de béton, sa fourniture locale ainsi que ses caractéristiques naturellement insecticides constitue également des avantages non négligeables.

Isolants à base de paille

La paille, en tant que matériaux biosourcés, revêt différentes formes :

  • D’un mélange de terre et de paille naît un enduit appelé « terre/paille »
  • Sans pressage, elle se présente sous forme de bottes de paille compressée sous forme de ballot, forme utilisée depuis très longtemps  comme isolant à part entière ou au sein d’une structure propre.

Produit local, la paille constitue un isolant bon marché qui ne nécessite que très peu de traitement en usine ce qui lui confère une réelle valeur ajoutée dans la construction à caractère écologique. Aujourd’hui, ce type d’isolant est  de plus en plus documenté, référence et normalisé comme système de construction et comme isolant reconnu.

Le ballot de paille n’a pas des caractéristiques thermiques homogènes. L’orientation de ses fibres par rapport au flux de chaleur va impacter sur sa conductivité thermique. Celle-ci sera plus faible si les fibres sont perpendiculaires au flux (λ d’environ 0,05) et plus élevés si les fibres sont parallèles aux flux (λ variant autour de 0,07… 0,08). Il est en plus nécessaire de s’assurer des ballots de pailles de qualité pour rencontrer les exigences du monde de la construction.

Toutefois, suite à l’étude de construction paille en occupation, il a été montré que si elle est correctement mise en œuvre et à l’abri de pluies battantes, les risques de dégradations à long terme sont négligeables et la paille comme isolant est capable d’apporter de bonnes performances thermiques ainsi que les conforts d’été et d’hiver attendus.
En outre, la paille n’a pas seulement un rôle isolant, le ballot de paille peut également servir de support à un enduit voir de structure en soi sans en altérer ses caractéristiques. Ainsi, combiner plusieurs de ces rôles (isolant et mécanique et/ou structurel) permet de diminuer le bilan écologique de la paroi. Attention cependant, à utiliser une paille provenant de culture durable.

L’inconvénient de la paille réside dans l’inconfort de pose à cause du poids de chaque botte. De plus, son volume implique de concevoir des murs d’une épaisseur relativement conséquente à isoler.

Si vous souhaitez en savoir plus sur l’isolant à base de paille, consultez le site www.apropaille.be  qui réunit le monde pas si petit que ça de la paille en Belgique.

Isolants à base de textile recyclé

Né du recyclage des textiles usagés ou des déchets des fabricants de vêtements, le textile recyclé est traité en usine avant de devenir un matériau de construction en soi.

D’abord effiloché, on le métamorphose ensuite en panneaux et rouleaux isolants grâce à des techniques de pressage. Sa version en vrac permet, tout comme l’ouate, d’être insufflée et d’isoler les murs.

Alternative idéale pour isoler pour les murs et les combles non aménageables en priorisant l’économie circulaire, notez que les isolants et autres matériaux de construction en textile recyclé sont traités chimiquement pour résister aux flammes. Parmi les autres inconvénients, prenez en compte que son application verticale implique un tassement du matériau sur le long terme.

Par contre, ce matériau biosourcé reste très facile à poser et il ne nécessite pas de formation préalable ou obligatoire. Grâce à sa compression, le textile recyclé n’émet aucune poussière. Enfin, il peut absorber jusqu’à 25% de son poids en eau, ce qui constitue un isolant contre l’humidité très efficace((Les matériaux biosourcés dans le bâtiment, FFB, novembre 2015)).

Performances des isolants biosourcés

La performance thermique des isolants est renseignée par la valeur de la conductivité thermique  (λ). Plus celle-ci est élevée, moins le matériau sera isolant. Mais cela ne veut pas dire qu’il faut nécessairement abandonner l’utilisation d’un matériau qui aurait un λ élevé. En effet, il suffit d’augmenter l’épaisseur de la couche isolante pour obtenir une performance thermique globale équivalente!
Pour choisir son isolant, il faut donc tenir compte de plusieurs critères en même temps:

  • la conductivité thermique  (λ)
  • le coût (plus l’épaisseur augmente, plus le coût augmente)
  • l’encombrement

Les performances des isolants biosourcés sont reprises dans le tableau suivant.

Résistance mécanique Conductibilité thermique Conductibilité thermique Diffusion de la vapeur d’eau Diffusion de la vapeur d’eau Inflammable
ρ [daN/m³] λ [W/mK] λ [W/mK] μ [-] μ [-]
Selon la documentation Selon la norme NBN B62-002 (humide et sec) (humide et sec) selon la documentation
Perlite expansée pure 50-80 0.046 / 5 à 7 / Non
Vermiculite expansée pure <100 0.058 / 5 à 7 / Non
Argile expansée 0.103 à 0.108 / / / Non
Bois feutré en panneaux mous ± 160 ± 0.042 / / 3 à 4 Difficilement
Bois feutré en panneaux mi-durs ± 270 ± 0.07 / / 3 à 4
Cellulose en vrac 35-50 0.035 à 0.04 / / 1 à 2
Laine de cellulose en panneaux 70-100 0.04 / / / Auto-extingible
Liège expansé 18 0.04 à 0.045 / 4.5 à 29 / Difficilement
Liège expansé en panneaux 80-120 0.032 à 0.045 / / 5 à 30
Chanvre ou laine de chanvre 25-210 0.039 à 0.08 / / 1 à 2 Difficilement
Lin en vrac 18-35 0.037 à 0.045 / / 1à 2 Difficilement
Lin en panneaux 400-500 0.05 à 0.065 / / / Difficilement
Laine de coco 20-50 0.047 à 0.05 / / 1à 2 Ignifugé au sel de bore
Laine de coton 20-30 0.04 / / 1 à 2 Sans dégagement toxique
Panneaux de roseau ± 100 0.056 / / 1 à 1.5
Laine de mouton 10-30 0.035 à 0.045 / / 1 à 2 Sans dégagement toxique
Paille (dans le sens des tiges) rechercher valeurs 0.08 / / / /
Paille (perpendiculairement aux tiges) rechercher valeurs 0.052 / / / /
Valeurs issues de l’ouvrage L’isolation thermique de la toiture inclinée, ministère de la Région Wallone, L’isolation écologique de J-P. Olivia, éditions terre Vivante, 2001, ouverture d'une nouvelle fenêtre ! www.livios.be, ainsi que des documentations des fabricants.

La PEB impose, lors du calcul du coefficient de transmission des parois (U) que l’on utilise pour les différents constituants des valeurs de conductivité thermique (λ) certifiées (essais réalisés conformément aux normes européennes EN ISO 10456) ou les valeurs par défaut reprises dans l’annexe VII de la PEB.
Malheureusement, l’Annexe VII de la PEB ne fournit pas de valeur pour les matériaux repris dans le tableau ci-dessus. Si aucune certification (agréments techniques…) n’existe, la couche d’isolant ne pourra pas être prise en compte dans le calcul du U des parois pour la PEB  qui est d’application pour les travaux soumis à permis d’urbanisme.

Intérêts des isolants biosourcés

Comme le montre le tableau suivant, les isolants possédant une capacité thermique élevée, garante d’une diffusivité faible et d’une effusivité importante sont généralement les isolants « écologiques » :

ρ ρ * c
[kg/m³] [Wh/m³]
Laine de bois 160 90
Laine de bois 55 31
Liège expansé (vrac) 60 31
Ouate de Cellulose (insufflée) 60 31
Perlite expansée 80 22
Polyuréthane rigide 30 12
Laine de mouton 10 5
Polystyrène 7 3

Mais attention, si le confort d’été est amélioré, l’utilisation d’isolant permettant d’obtenir ces caractéristiques peut conduire à un autre problème. En effet, une trop grande effusivité produira dans la pièce une sensation de surface froide au toucher.

Pour aller plus profondeur sur ce sujet, n’hésitez pas également à visiter notre page consacrée à l’inertie thermique.

Stockage de CO2

Les isolants à base de végétaux, via le processus de photosynthèse, permettent de stocker le CO2 atmosphérique.

Performances hygrothermiques

Outre leur caractère “écologique”, les isolants biosourcés qui nous intéressent ici possèdent des propriétés hygrothermiques prometteuses. Par leur capacité plus ou moins grande à absorber l’humidité, les matériaux en contact avec l’ambiance intérieure peuvent stabiliser les conditions hygrothermiques d’un local et, de la sorte, avoir un impact positif sur le confort.

De nombreuses recherches ont été menées sur ce sujet. Comme par exemple celle réalisée par le département d’ingénierie de la Technical University of Denmark qui a conduit à la définition du paramètre appelé Moisture Buffer Value (valeur de régulation de l’humidité) qui indique la quantité d’eau que l’isolant absorbe et restitue par  unité de surface durant une certaine période quand il est soumis à des variations de l’humidité relative de son environnement. Ce paramètre permet d’analyser le rôle de régulateur d’humidité joué par l’isolant.

Certifications

C’est à ce niveau que se complique la démarche d’éco-construction ! Comme dit auparavant, lors du calcul du U des parois, la PEB implique que l’on utilise comme valeur de λ :

  • une valeur certifiée sur base de la norme de produit NBN EN ou d’un ATE (Agrément Technique Européen). Ces valeurs sont regroupées sur le site ouverture d'une nouvelle fenêtre ! www.epbd.be.
  • ou la valeur par défaut renseignée dans l’annexe VII de la PEB.

Cette manière de faire a pour but de protéger le consommateur, en garantissant la qualité des matériaux utilisés.

Le problème avec les matériaux d’isolations biosourcés est que ces derniers ne sont pas repris dans l’Annexe VII de la PEB et l’utilisation de ceux-ci nécessite donc la réalisation d’une certification pour tous travaux soumis à permis.

Labellisation

Comme annoncé précédemment, l’utilisation d’un matériau issu de sources renouvelables ne garantit pas en pratique le caractère “écologique” de l’isolant (ajout de colle, procédé de fabrication énergivore…). Pour s’assurer que l’isolant a été réalisé dans les règles de l’art, on peut se tourner vers les labels comme www.svanen.se en Suède www.blauer-engel.de en Allemagne ou encore www.certivea.fr en France.

Pour en savoir plus sur les normes en vigueur qui régissent l’utilisation de chacun de ces isolants, voici quelques sources qui peuvent être utiles :

Concernant les isolants à base de cellulose :

Concernant les isolants à base de laine d’origine végétale ou animale :

Concernant les isolants à base de fibre bois :

Concernant les isolants à base de liège :

Concernant les isolants à base de chanvre :

  • réglementation professionnelle et validation en laboratoire des enduits chaux/chanvre pour béton : construire-en-chanvre.fr

Concernant les isolants à base de paille :

Concernant les isolants à base de textile recyclé :

Dimensionner les pompes à chaleur les plus courantes

Dimensionner les pompes à chaleur les plus courantes

Les propos de cette page concernent surtout les installations domestiques …

L’objectif n’est pas ici de donner une méthodologie de dimensionnement, mais bien de mettre en évidence les points caractéristiques à prendre en compte lors de la conception.


Optimiser l’installation

Une évolution de la puissance en sens contraire de la demande

Prenons le cas d’une pompe dont la source froide est l’air extérieur. On constate que malheureusement, l’évolution de la puissance fournie par la PAC se fait en sens contraire de la puissance appelée par le bâtiment.

Dimensionner une PAC capable de fournir la chaleur nécessaire par – 10 °C extérieurs générerait une puissance beaucoup trop élevée en mi-saison. Elle serait coûteuse à l’investissement et fonctionnerait alors durant de courtes périodes, avec une performance réduite.

Mais choisir une petite pompe à chaleur suppose un appoint de chaleur fort important, ce qui n’est pas plus performant, surtout si l’appoint est électrique.

Il faut donc évaluer la situation au cas par cas et optimiser le système.

Température de dimensionnement, de bivalence et limite

Le diagramme représente, dans la partie supérieure, les courbes relatives au circuit de chauffage, et, dans la partie inférieure, les besoins calorifiques et la puissance de chauffage de la PAC, le tout en fonction des températures extérieures.

Trois paliers importants sont définis en fonction des températures extérieures :

  • La température de dimensionnement (ou de base) : le système de chauffage est dimensionné en fonction de cette température.
  • La température de bivalence : en cas de fonctionnement bivalent, c’est au-dessous de cette température que la chaudière est utilisée.
  • La limite du chauffage : au-dessous de cette température, un système de chauffage est nécessaire.

Dans le diagramme supérieur, on voit que la PAC tente de donner un ΔT° à l’eau de retour mais que en dessous de la température de bivalence, elle n’arrive plus à assurer le niveau de t° de départ souhaité.

Le diagramme inférieur présente 2 fonctionnements bivalent-parallèles dont les sources de chaleur sont fondamentalement différentes :

  • Puissance chauffage PAC à peu près constante : la température de sortie du condenseur évolue parallèlement à la température de retour du chauffage (source de chaleur : par exemple nappe phréatique).
  • Puissance chauffage PAC fortement variable : la différence de température dans le condenseur augmente si la température extérieure croît (source de chaleur : par exemple air extérieur).

Dimensionnement de la pompe à chaleur Air/Eau

La première chose à faire est d’estimer les besoins calorifiques du bâtiment Q selon les normes en vigueur. Comme estimation rapide, on peut multiplier la surface chauffée (en tertiaire) par les besoins calorifiques suivants :

  • bâtiment neuf, isolation au niveau passif : 10 W/m²
  • bâtiment neuf, isolation de très bonne qualité : 40 W/m²
  • bâtiment neuf, isolation de bonne qualité : 50 W/m²
  • bâtiment présentant une isolation normale : 80 W/m²
  • bâtiment ancien sans isolation spéciale : 120 W/m²

Les études techniques et économiques montrent que la pompe à chaleur bivalente financièrement optimale doit être dimensionnée à 70 – 80 % des besoins d’énergie calorifique maximaux.

La PAC fournit la totalité des besoins calorifique jusqu’à la température d’équilibre (température de bivalence) en dessous de laquelle l’installation fonctionne en mode bivalent (la pompe à chaleur augmente la température de retour du chauffage et le second générateur de chaleur assure le complément). Cette température d’équilibre peut être déterminée sur base des graphiques de performance des appareils fournis par les constructeurs.

Reprenons l’exemple d’un constructeur allemand :

Les besoins calorifiques sont de 9 kW par – 14 °C (remarque : en Belgique, on dimensionne généralement pour – 10 °) et la limite de chauffage est fixée à 15 °C. Le graphique de performance indique une puissance de 5 kW pour la pompe à chaleur à – 14 °C. Pour la PAC choisie, le point d’équilibre se trouve à – 4,5 °C et indique une puissance à installer de 6,1 kW.

La puissance du chauffage d’appoint se mesure par la différence entre la puissance calorifique à fournir et la puissance de la PAC à la température de dimensionnement. Ici, elle est de 9 – 5 = 4 kW.

En mode monovalent, la pompe à chaleur est le seul générateur de chaleur à couvrir les besoins du bâtiment. Il faudra donc, le cas échéant, prendre en compte les besoins en eau chaude sanitaire.

Pour les pompes à chaleur avec appoint, ce supplément ne sera pris en compte que si la somme de puissance de chauffage supplémentaire demandée par l’ECS dépasse de 20 % les besoins calorifiques calculés selon la norme. Dans le cas contraire, on comptera sur l’appoint pour fournir le surplus de puissance.


Dimensionnement de la pompe chaleur Eau/Eau

Comme pour la pompe à chaleur Air/Eau, les fournisseurs proposent des graphiques des performances en fonction de la température de la source froide. Il suffit, une fois la température de la source froide évaluée (par exemple une nappe phréatique à 10 °C), de choisir l’installation qui, pour cette température, peut fournir la puissance calorifique demandée par l’utilisateur.

Le débit d’eau nécessaire est fonction de la puissance pompée dans l’évaporateur. Un débit suffisant assurera la constance de la température de la source froide et des performances de la PAC. Une approximation du débit minimal nécessaire peut-être de 150 l/h par kW absorbé pour un refroidissement de 4 à 5 °C dans l’évaporateur. Le débit précis sera déterminé par les formules suivantes :

Qf = V x cv x (tESF – tSSF)

La puissance frigorifique à l’évaporateur Qf est la puissance de chauffage de la pompe à chaleur QPAC moins l’énergie électrique motrice PPAC.

Qf = QPAC – PPAC

où,

  • QPAC = Puissance de chauffage [kW]
  • Qf = Puissance frigorifique [kW]
  • V = Débit volumique [m³/h]
  • tESF = Température d’entrée de la source froide [K]
  • tSSF = Température de sortie de la source froide [K]
  • c= Capacité calorifique ou chaleur spécifique [kWh/m³.K]
  • PPAC = Puissance électrique absorbée [kW]

Exemple
Pour un débit d’eau de 2,5 m³/h et un refroidissement de 4 K, une puissance de 11,6 kW est absorbée à l’évaporateur (c’est-à-dire la puissance frigorifique).

Qf = 2,5 [m³/h] x 1,163 [kWh/m³.K] x 4 [K]

Pour les pompes à chaleur alimentées par des eaux de surface, on limite le refroidissement dans l’évaporateur à 2 °C. Il faudra donc s’assurer un débit double pour pomper la même quantité de chaleur. On peut donc prendre comme évaluation le chiffre de 300 l/h par kW.

Lorsque la vitesse d’écoulement est insuffisante pour assurer le débit demandé, il faudra augmenter la taille de l’échangeur de chaleur en compensation.

V = v x A

Où :

  • V = Débit volumique [m³/h]
  • v = vitesse d’écoulement [m/s]
  • A = surface d’échange [m²]

Le calcul du débit d’air dans un évaporateur de PAC Air/Air ou Air/Eau se fait exactement de la même façon.

Choisir le mode de fonctionnement d’une pac

 

Choix du mode de fonctionnement

Avant de se lancer dans le choix d’une pompe à chaleur, il faut déterminer son mode de fonctionnement : la PAC sera-t-elle utilisée seule (fonctionnement monovalent) ou conjointement avec une chaudière (fonctionnement bivalent) ou avec un appoint électrique ?

Monovalent

Dans ce cas, la PAC fonctionne seule et couvre tous les besoins en chauffage. Cette solution n’est évidemment envisageable que si la source de chaleur est suffisante pour la demande en chauffage du bâtiment. En pratique on choisira cette solution uniquement pour de nouvelles constructions bien isolées munies d’un système de chauffage basse température.

En fonctionnement monovalent, la PAC est dimensionnée pour couvrir la totalité des besoins de chaleur. Elle est donc trop puissante pendant une bonne partie de la saison de chauffe, tandis qu’elle n’est correctement dimensionnée que pour une température extérieure donnée.

Malgré cela, au vu des frais d’investissement plus élevés en installation bivalente (2 systèmes de chauffage pour le même bâtiment), on préférera en général les PAC monovalentes lorsque c’est possible, ou bien la solution « avec résistance d’appoint » (voir ci-dessous). En effet, la nécessité d’investir dans une chaudière traditionnelle en plus de la PAC n’est pas compensée par la diminution du coût de la PAC, diminution proportionnelle à la puissance moindre installée.

Avec résistance d’appoint électrique

Une installation avec appoint électrique constitue un compromis entre les fonctionnements monovalent et bivalent. Elle nécessite un faible investissement, mais contribue à la surcharge du réseau. Elle est aussi moins rationnelle au niveau écologique à cause de l’importante consommation de l’appoint électrique qui provoque un abaissement du COP annuel. Un enclenchement manuel est d’ailleurs conseillé pour éviter une durée de fonctionnement trop importante. Les appoints électriques permettent de préserver le confort lors des dégivrages ou des périodes de gel, lorsque la PAC (qui a été dimensionnée au plus juste pour limiter l’investissement) éprouve des difficultés.

Diagramme puissance/température :
La performance d’une pompe à chaleur est représentée, dans les catalogues des fabricants, par un diagramme température/puissance. Combien de puissance aura-t-on besoin pour l’appoint électrique ?

Schéma sur le diagramme puissance/température.

La figure montre les courbes de performance d’une pompe à chaleur air/eau pour 3 températures de condensation différentes.

La droite grise, qui représente les besoins calorifiques, est déterminée à partir de la température de dimensionnement (-10 °C) et de la température de limite de chauffage (15 °C).
Pour la température de limite de chauffage, les besoins calorifiques sont nuls. Mais à combien s’élèvent-t-ils pour la température de dimensionnement ? Cela dépend du type de bâtiment, de son isolation, de son orientation, etc. Ici ils sont de 7,8 kW.

Le point d’équilibre est déterminé par l’intersection entre la droite représentant les besoins calorifiques et la courbe de fonctionnement de la pompe à chaleur (donnée dans les catalogues des fabricants). En règle générale, le point d’équilibre se situe entre 0 °C et -5 °C.

La puissance de la pompe à chaleur est déterminée pour couvrir 100 % des besoins au point d’équilibre. Dans l’exemple, la puissance à prévoir est de 6,2 kW.

La puissance de l’appoint est déterminée par la différence entre les besoins calorifiques à la température de dimensionnement (-10 °C) et la puissance fournie par la PAC à cette température. Dans l’exemple, la puissance de l’appoint est de 7,8 – 5,6 = 2,2 kW.

Dans le secteur tertiaire, les apports internes compensent les pertes de puissance dues aux dégivrages, d’autant plus facilement que les dimensionnements de PAC réversibles sont souvent basés sur des puissances en froid, ce qui surdimensionne la puissance de chauffe. Les résistances d’appoint ne s’y justifient donc pas.

Bivalent

Lorsque la puissance à fournir est trop importante par rapport à une source froide limitée ou lorsque la température d’entrée dans le réseau de distribution doit être supérieure à 50 °C, les systèmes bivalents sont inévitables pour assurer le confort de l’occupant. C’est souvent le choix qui est fait en rénovation, lorsque les réseaux d’émissions ne sont pas modernisés et ne peuvent fonctionner qu’à haute température.

Le fonctionnement bivalent alternatif a l’avantage de la simplicité de compréhension et de régulation. La PAC est mise en marche lorsque la chaudière est à l’arrêt et inversement.

Schéma sur le fonctionnement bivalent alternatif.

Le fonctionnement parallèle par contre profite mieux de la pompe à chaleur puisqu’elle fonctionne toute la saison de chauffe. Ce deuxième mode permet donc une plus grande économie en frais de fonctionnement (même si, en période de grand froid, le COP de la PAC chute beaucoup) et un meilleur bilan écologique (avec un point de bivalence à 50 % de la puissance de chauffage, la PAC utilisée en bivalent-parallèle assure tout de même 80 % du besoin de chaleur).

Schéma sur le fonctionnement parallèle.


Avec ou sans accumulateur tampon ? De chaleur

Toute installation compte au moins un accumulateur tampon qui permet d’augmenter la quantité d’eau présente dans le circuit, ceci afin d’éviter l’enclenchement trop fréquent des producteurs de chaleur (courts cycles).

On reproche parfois à l’accumulateur tampon pour les petites installations d’être trop coûteux, trop volumineux, d’entraîner des pertes de chaleur. Mais rares sont les cas où son installation n’est pas justifiée. On ne peut y renoncer que si les conditions suivantes sont remplies :

  • puissance à peu près constante de la source de chaleur (max 5 K de variation de température);
  • volume d’eau de chauffage supérieur à 15 litres/kW;
  • grande capacité d’accumulation du système de distribution de chaleur (par exemple inertie de chauffage par le sol);
  • pas ou peu de vannes thermostatiques;
  • installation bien équilibrée.

Un accumulateur de chaleur est lui plus volumineux qu’un accumulateur tampon. Il sert couvrir les heures d’interruption de fourniture électrique. Il peut aussi compenser des variations temporaires de la source froide et permettre une plus grande utilisation du courant bas tarif. De plus, un accumulateur de chaleur permet de combiner plus facilement différents producteurs de chaleur, comme par exemple des capteurs solaires.


Choix de la régulation

Adaptation de la puissance

Pour de petites pompes à chaleur, la régulation de puissance a lieu par mise en ou hors service. Pour les plus grandes puissances, obtenues par combinaison de plusieurs unités de petites pompes à chaleur, la régulation a lieu par enclenchement-déclenchement de chaque unité. Si la puissance est obtenue par un compresseur à plusieurs cylindres, l’adaptation à la puissance demandée est effectuée par branchement et débranchement des différents cylindres. La combinaison de plusieurs modules est également une bonne solution, par exemple pour un quartier de villas, si on ne sait pas au départ combien de maisons seront raccordées au système de chauffage par pompe à chaleur.

De nouveaux concepts de régulation font usage de la possibilité de faire varier la vitesse de rotation du compresseur. De cette façon, il est possible d’adapter en tout temps la puissance au besoin momentané. De tels systèmes sont actuellement disponibles, également dans le domaine des fortes puissances. On ne saurait trop les recommander pour conserver une performance correcte tout au long de la saison.

Pour les installations travaillant par enclenchement-déclenchement, il faut éviter des démarrages trop fréquents, afin que le réseau électrique public ne soit pas surchargé et que la PAC ne subisse pas de dommages. Rappelons que ceci est réalisé au moyen d’un accumulateur technique (accumulateur tampon), auquel on ne peut renoncer que dans des cas exceptionnels.

Paramètres de régulation

Les régulateurs commandent la pompe à chaleur en fonction de la courbe de chauffe, après avoir obtenu les données du thermostat d’ambiance et la température de retour. Le thermostat est éventuellement doté de consignes « température de confort » et « température de nuit » réglables. Différentes commandes de fonctionnement sont possibles et s’organisent avec un ordre de priorité précis. Le dégivrage a toujours la priorité et s’effectue automatiquement si les sondes extérieures en indiquent le besoin. Viennent ensuite les alimentations de chauffage et d’ECS. La préparation de l’ECS peut être par exemple considérée comme un mode « été » alors qu’en hiver l’essentiel de la puissance de la pompe servirait au chauffage du bâtiment. Les équipements tels les piscines sont toujours derniers en priorité, à moins bien sûr que la pompe à chaleur ne leur soit spécifiquement destinée (piscines publiques,.)

La régulation de la température de sortie du condenseur est essentiellement liée au mode de chargement de l’accumulateur (étagé ou par stratification).

Adaptation des paramètres en fonctionnement

De nombreuses recherches menées en Suisse durant les premières années de fonctionnement ont montré que beaucoup d’installations ne travaillent pas du tout comme le concepteur du projet le souhaite, cette remarque est également valable pour des installations conventionnelles. Un contrôle des résultats pendant les premières années d’utilisation est donc conseillé pour s’assurer d’un bon fonctionnement de l’installation.

Stabilité du réglage

Les systèmes que l’on trouve pour la technique du bâtiment sont en général assez lents, ce qui permet une régulation stable et fiable. Certains circuits comprennent toutefois des parties où la vitesse de régulation est critique. C’est le cas de la température de départ du condenseur. Pour assurer une régulation rapide, diverses recommandations sont utiles : placer la vanne de régulation le plus près possible de la PAC pour réduire le temps mort, choisir une vanne de régulation à fermeture rapide, optimiser les paramètres de régulation de la vanne, utiliser des thermomètres de régulation à faible inertie.


Choix du chargement

Il existe deux méthodes de chargement de l’accumulateur de chaleur associé à la pompe à chaleur : le chargement étagé et à stratification.

Le chargement étagé est meilleur marché (pas de régulation de la charge) et entraîne un coefficient de performance annuel plutôt meilleur que le chargement par stratification puisque la PAC peut fonctionner avec une température de sortie du condenseur plus basse. Toutefois, ce système a différents désavantages :

Schéma sur le chargement étagé.   Schéma sur le chargement étagé.

Illustration du principe de chargement par étage.

  • Consommation électrique supplémentaire de la pompe du condenseur pour augmenter le débit et diminuer la température de départ.
  • Variations de la température de départ du chauffage difficiles à évaluer.
  • Température finale de l’accumulateur imprécise.
  • N’utilise pas pleinement les capacités de l’accumulateur.
  • Manque de capacité au premier passage.

Cette dernière difficulté pourrait être évitée si la différence de température dans le condenseur est suffisamment importante. De cette façon pourtant, la charge étagée est un non-sens, car dans le meilleur des cas, il ne se produirait qu’environ deux passages étagés à la limite du chauffage. Une charge étagée ne peut être recommandée que dans les situations suivantes :

  • Petite installation (surtout à cause de l’avantage du prix).
  • Un seul groupe de chauffage.
  • Pour accumulateur technique seulement.

À l’opposé, le chargement par stratification, malgré son COP plus faible et son coût plus élevé, permet :

  • Une maîtrise exacte de la température de l’accumulateur.
  • Une température constante de départ garantie.
  • Une puissance de la pompe du condenseur plus faible.
  • Une utilisation maximale de la capacité de l’accumulateur.

Schéma du chargement par stratification.   Schéma du chargement par stratification.

Illustration du chargement par accumulation.

Type de chargement de l’accumulateur

Le chargement étagé de l’accumulateur et, dans certains cas, le chargement par stratification en fonction des conditions météorologiques produisent un meilleur coefficient de performance annuel qu’un chargement par stratification avec consigne constante, car on peut sortir du condenseur avec des températures plus basses. Ce système ne fonctionne toutefois que si l’installation est réglée sur une petite différence de température dans le condenseur. En règle générale cela implique de doubler le débit, ce qui multiplie par 4 la perte de pression sur le condenseur. Ceci doit absolument être pris en considération.

L’influence sur le COP annuel est complexe, car il faut tenir compte non seulement de la température de sortie du condenseur, mais aussi de la consommation d’énergie auxiliaire et de la petite différence de température dans le condenseur lors du chargement étagé. La différence de COP entre une température de sortie du condenseur adaptée ou constante se situe à moins de 10 %.

Encore une fois, reprenons les installations décrites plus haut et supposons qu’au lieu de fonctionner 2 500 h à 47 °C, d’où ε = 3,4, on procède ainsi :

500 h à 45°C, d’où ε = 3,5

1 000 h à 42°C, d’où ε = 3,75

1 000 h à 39°C d’où ε = 4

Le coefficient de performance instantané moyen pondéré SPF s’améliore en passant de 3,4 à 3,8. Le coefficient de performance annuel (COPA) devrait suivre cette tendance et passer de 3 à 3,4. Mais en doublant le débit, la perte de pression dans le condenseur est quatre fois plus forte. Il en résulte pour la petite installation :

  • Ppompe condenseur = (100 kPa x 1,8 m³/h) – (25 kPa x 0,9 m³/h) / (3 600 x 0,10) = 0,438 kW
  • W = 2500 h x 0,438 kW = 1 095 kWh

COPApetit = 25 000 kWh / (25 000 / 3,4) + 1 095 kWh = 2,96

et pour la grande installation :

  • Ppompe condenseur = (100 kPa x 12 m³/h) – (25 kPa x 9 m³/h) / (3 600 x 0,25) = 1 750 kW
  • W = 2 500 h x 1 750 kW = 4 375 kW

COPAgrand = 250 000 kWh / (250 000 / 3,4) + 4 375 kWh = 3,21


Choix de la technique de dégivrage

Modes de dégivrage

On utilise deux modes de dégivrage :

  1. Le système « by-pass » de dégivrage par gaz chaud, par lequel une partie des gaz échauffés à la sortie du compresseur est dirigée vers l’évaporateur. Ce système exige une différence de pression minimale assurée par le compresseur.
  2. L’ inversion de la direction du circuit par une vanne à quatre voies. L’évaporateur devient alors condenseur et le givre est rapidement éliminé au prix d’un plus grand besoin de chaleur momentané.

Illustration du principe de dégivrage par inversion.

Lors du montage de l’évaporateur, il est indispensable de s’assurer que le fonctionnement du dégivrage n’est pas perturbé par un apport d’air froid dû à la circulation naturelle de l’air.

Le dégivrage des pompes Air/Air et Air/Eau

Les pertes provoquées par le dégivrage de l’évaporateur sont difficiles à évaluer avec précision, car elles sont variables en fonction de la programmation des paramètres de dégivrage. L’énergie dépensée pour la fonte du givre (EFG) est généralement fournie par la pompe à chaleur qui, pour l’occasion, fonctionne en sens inverse. Elle vaut environ l’énergie utile de fonte du givre EFGu (énergie pour élever la température du givre à 0 °C + chaleur latente de fusion du givre + énergie pour élever la température de l’eau de 0 °C à 10 °C pour éviter un regel immédiat) divisée par un rendement de 50 %. Cette énergie sera prélevée dans le bâtiment et devra en suite lui être restituée lorsque la pompe se remettra en mode chauffage. Pour des machines bien réglées avec des détections du givre optimales, la perte de COP peut valoir jusqu’à 10 % par temps froid.

Il n’est pas rare de voir des pompes à chaleur dont le système de détection du givre est mal réglé et la durée de dégivrage trop longue. Il s’en suit des consommations d’énergie excessives qui peuvent conduire à des COP inférieurs à 1.

Le graphique ci-contre, issu d’une fiche technique de constructeur, illustre l’influence du dégivrage sur la puissance calorifique et le COP d’une pompe à chaleur Air/Eau. On voit clairement la perte de COP survenant entre 3 et 10 °C. L’air extérieur est chargé d’eau et le fluide frigorigène est à une température inférieure à zéro degré. La glace qui se forme « colle » à l’évaporateur.

Par contre, lorsqu’il fait très froid, l’air extérieur est plus sec et le givre apparaît alors davantage sous forme de cristaux qui n’adhèrent plus sur la paroi de l’évaporateur.

Choix de la technique de dégivrage

Sur le plan énergétique, le dégivrage par inversion du cycle est plus avantageux que le chauffage par injection de gaz chauds. Mais quelle que soit la méthode choisie, c’est surtout la durée du dégivrage qui sera le facteur important pour l’évolution du COP. Le critère d’enclenchement et de déclenchement doit être choisi avec soin.

Le choix du paramètre qui décrit la couche de givre dans l’évaporateur peut être multiple. En utilisation industrielle, il faut choisir un paramètre robuste et assez sensible. Plusieurs choix pour le lancement du dégivrage peuvent être faits :

  • Perte de charge dans l’évaporateur : la mesure de cette grandeur peut provoquer des dérives lorsqu’il y a risque de « bouchonnement » par des impuretés (feuilles, animaux,.) ou par des variations de pression causées par les vents externes.
  • Température de surface des ailettes : la différence entre la température de surface des ailettes et la température de l’air indique bien si une couche de givre (= isolation thermique) s’est formée. Comme le développement de givre n’est pas uniforme sur la surface de l’évaporateur, il faut bien vérifier l’emplacement du capteur de température.
  • Pincement dans l’évaporateur : la couche de givre provoque un blocage du transfert de chaleur qui se traduit par une diminution de l’efficacité de l’échangeur. Par conséquent, il y a une augmentation de l’écart de température minimal entre la température d’évaporation du frigorigène et la température de l’air en sortie d’évaporateur, écart appelé « pincement ». Pour détecter ce pincement, il faudra en général une prise de température de l’air sortant ainsi que le calcul de la température de saturation correspondante à la pression de vaporisation.

De même pour le paramètre d’arrêt, définissant la durée de dégivrage, plusieurs mesures peuvent être considérées :

  • La température du réfrigérant à la sortie de l’évaporateur : pendant le dégivrage de la batterie par inversion de cycle, un film d’eau ruisselle sur l’échangeur en refroidissant le fluide frigorigène. Une fois le dégivrage achevé, une grande partie de l’évaporateur est libérée et le transfert de chaleur diminue, ce qui provoque une réaugmentation de la température de sortie du fluide frigorigène.
  • Température de la surface des ailettes : cette mesure indique directement si l’échangeur est libéré de la couche de givre. Il est cependant difficile de bien placer la sonde pour avoir une bonne représentativité globale de l’échangeur.
  • Optimisation globale par microprocesseur : en combinaison avec les critères étalonnés en usine, le calcul du bilan énergétique par cycle de chauffage permet d’optimiser les grandeurs limites imposées sur site et en cours de fonctionnement.

Ces critères, ainsi que le critère plus « archaïque » qu’est l’horloge, devront être étalonnés soigneusement et vérifiés.

Une fois le cycle de dégivrage achevé, l’enclenchement du ventilateur à plein régime sans mettre en route le compresseur permet de sécher l’évaporateur. À défaut, les gouttelettes restantes seront rapidement gelées.


Choix de l’emplacement de la pompe à chaleur

De façon générale, l’unité principale d’une pompe à chaleur se trouve à l’intérieur du bâtiment à chauffer.

Une PAC à l’intérieur du bâtiment

D’un point de vue acoustique, si l’unité principale d’une pompe à chaleur se trouve à l’intérieur du bâtiment, elle doit être placée dans un local suffisamment éloigné des pièces calmes. On la pose sur des plots antivibratiles (dans le cas où la PAC est bruyante), eux-mêmes placés sur une plateforme stable en béton ou en fer. Les parois du local peuvent également être construites dans des matériaux spéciaux qui atténuent la réverbération des sons.

L’installation d’une PAC doit évidemment répondre aux spécifications du constructeur.

L’air …
Si la PAC véhicule de l’air dans des conduites, l’air doit avoir une vitesse de maximum 4 m/s (circuits principaux). Dans les conduits secondaires, l’air doit avoir une vitesse de maximum 3 m/s. Ces conduits doivent être construits dans des matériaux absorbants et les grilles de prise et de rejet d’air doivent être équipées de grillage antivolatiles.

L’eau …
Si la PAC est à eau, les conduites seront fixées aux parois avec des supports de façon à éviter la transmission des vibrations au bâtiment. Il faudra utiliser des flexibles pour toutes les liaisons à la PAC.

Une PAC à l’extérieur du bâtiment

Il n’existe pas de distance minimale entre une unité extérieure de PAC et le voisinage. Attention par contre à la gêne que peut occasionner une PAC bruyante et aux litiges qui peuvent en découler. Le meilleur choix d’une PAC extérieure est celui d’une très peu bruyante. Si c’est nécessaire, penser aux écrans acoustiques tels que des parois ou bien des arbres à feuilles permanentes.

Choisir la source de chaleur [PAC]

Évaporateur à air d'une PAC domestique

Évaporateur à air d’une PAC domestique.


Introduction sur les sources froides

Les pompes à chaleur sont désignées en fonction du fluide dans lequel baignent les échangeurs de la PAC : d’abord côté évaporateur, ensuite côté condenseur. Pour comprendre ce qu’est une pompe chaleur ainsi que son principe de fonctionnement, cliquez ici !

Le tableau donne les types de PAC qui existent en fonction des combinaisons fluides côté source froide/côté source chaude.

Désignation Évaporateur Condenseur
PAC air extérieur / air air extérieur air
PAC air extérieur / eau air extérieur eau
PAC air extrait / air air extrait air
PAC air extrait / eau air extrait eau
PAC eau / air eau souterraine ou de surface air
PAC eau / eau eau souterraine ou de surface eau
PAC eau glycolée / eau tuyaux d’eau glycolée dans le sol eau
PAC sol / eau ou « fluide /eau » évaporation directe dans sol eau
PAC sol / sol ou « fluide /fluide » évaporation directe dans sol condensation directe dans sol

Dans le cas du chauffage de locaux, la source froide sera la source – qui n’est pas toujours inépuisable ! – où l’on captera la chaleur. Elle provient souvent du milieu extérieur du bâtiment à chauffer et est donc soumise à des variations de température en fonction des conditions climatiques.

Les sources de chaleur utilisables sont les suivantes :

  • l’air extérieur qui est simplement l’air atmosphérique ;
  • l’air extrait qui résulte des rejets thermiques gazeux ou de l’air venant de l’intérieur d’un bâtiment ;
  • l’eau, qui est soit de l’eau de surface, comme un étang ou un cours d’eau, soit de l’eau de nappe phréatique en sous-sol ;
  • le sol (très profond, profond, ou de surface) qui amène deux technologies distinctes, d’où deux appellations différentes pour la même source froide :
    • eau glycolée : mélange eau-glycol qui circule dans le circuit fermé entre le sol et l’évaporateur. C’est soit, de la géothermie de surface, soit verticale de profondeur.
    • fluide ou sol : on a affaire à une pompe à chaleur à détente directe (soit seulement du côté évaporateur, ou bien des deux côtés – évaporateur et condenseur), ce qui signifie qu’il n’y a pas de fluide intermédiaire entre le sol et le fluide frigorigène comme dans le cas à eau glycolée. Le fluide frigorigène circule directement dans des conduites placées dans le sol (qui joue donc le rôle d’évaporateur). On peut également appeler plus simplement cette source de chaleur sol.

Lors de la mise en marche d’un projet de pompe à chaleur, la tâche la plus ardue consiste à aligner les propriétés des pompes à chaleur avec des données telles que le débit et la température de la source de chaleur. Il faut que la quantité de chaleur disponible puisse supporter un prélèvement continu. Un mauvais dimensionnement par rapport au potentiel thermique de la source de chaleur peut avoir des retombées sur la puissance de l’exploitation et son rendement thermique.

Pour pouvoir comparer les COP des pompes à chaleur…

Le COP d’une pompe à chaleur, c’est le rapport entre la chaleur fournie par le condenseur et l’électricité consommée pour la produire (auxiliaires compris). Plus le COP est élevé, plus la pompe à chaleur est performante. Il est influencé par les températures des sources, leur différence et leur stabilité.

Afin de pouvoir comparer les coefficients de performance de différentes pompes à chaleur d’un même type, il faut bien évidemment que leurs températures à l’évaporateur soient identiques, et de même au condenseur. Dans les fiches techniques, on trouvera donc souvent une des dénominations abrégées suivantes selon le type de pompe à chaleur :

  • PAC air/eau : A2/W35 (« W » = water !). La source froide est de l’air à 2 °C (T°C à l’entrée de l’évaporateur) et la source chaude est une eau à 35°C (T°C à la sortie du condenseur).
  • PAC eau/eau : W10/W35. La source froide est de l’eau à 10 °C et la source chaude est de l’eau à 35 °C.
  • PAC eau glycolée/eau : B0/W35 ou S0/W35 (« B » =  eau glycolée – brine en anglais – et « S » = « sol » pour les références de produits en français). La source froide est le sol dans lequel circule de l’eau glycolée à 0 °C et la source chaude est de l’eau à 35 °C.
  • PAC sol/eau : S0/W35.

Classement des sources en fonction de leur efficacité

D’une manière générale, il faut utiliser en priorité les sources froides dont la température est la plus constante et élevée. Le coefficient de performance théorique des sources d’une pompe à chaleur dépend en effet de la différence entre la température de la source froide et la température de la source chaude :

ε ths = T2 / (T2 – T1)

où,

  • T1 est la température absolue (température en °C + 273,15°C) de la source froide et T2 la température absolue de la source « chaude ».

Pour obtenir un coefficient de performance acceptable, il faut donc que la différence T2-T1 soit faible. Autrement dit, la température de la source froide doit être la plus élevée possible (et, si possible, le niveau de température de la source chaude doit être bas).

Le classement des sources froides en fonction de ces deux critères (température élevée et constante), de la source la plus efficace à la moins efficace, se dresse comme suit :

  • les rejets thermiques (air vicié et eaux usées),
  • l’eau des nappes phréatiques,
  • l’eau de surface,
  • le sous-sol,
  • le sous-sol proche de la surface,
  • l’air extérieur.

Les rejets thermiques

Dans la plupart des cas, les rejets thermiques d’un bâtiment et son besoin de chaleur ne concordent pas. Une analyse exacte s’avère donc indispensable. Il s’agit de savoir si le problème peut être résolu par adjonction d’un accumulateur de chaleur (côté froid et/ou côté chaud). Une exploitation rationnelle de l’accumulateur permet une utilisation optimale lorsque les besoins thermiques sont moyens; elle permet également de limiter les pointes de puissance (avantage financier).

Il est aussi impératif de connaître la réglementation locale en terme de rejet.
Les eaux usées

  • pour des raisons de pollution, elles ne sont souvent qu’indirectement utilisables (attention au choix du matériel, prévoir un système automatique de nettoyage),
  • les quantités offertes sont souvent trop insignifiantes pour permettre une utilisation rentable,
  • l’utilisation du réseau public des eaux usées est soumise à autorisation.

L’air vicié est une source de chaleur très souvent employée dans les installations d’utilisation de rejets thermiques, et ceci, sans pompe à chaleur. Pour une utilisation indirecte avec pompe à chaleur, l’air pollué se révèle intéressant, surtout pour le chauffage de l’eau. Il peut cependant être corrosif (agriculture, industrie).


L’eau souterraine des nappes phréatiques

Pompes à chaleur "eau/eau", eau souterraine des nappes phréatiques.

Source : ef4.

L’eau des nappes phréatiques représente une source de chaleur intéressante, utilisée dans les pompes à chaleur « eau/eau ». L’eau de la nappe est remontée à la surface à l’aide de pompes de circulation et échange son énergie avec le fluide frigorigène à l’intérieur de l’évaporateur.

Quelle nappe ?

Certaines cartes des nappes phréatiques en Wallonie sont disponibles sur ouverture d'une nouvelle fenêtre ! le site de la Région Wallonne.

L’appellation « nappe phréatique » désigne toutes les eaux se trouvant dans le sous-sol. On entend donc par ce terme la partie saturée du sol, c’est-à-dire celle où les interstices entre les grains solides sont entièrement remplis d’eau, ce qui permet à celle-ci de s’écouler.

L’hydrogéologie distingue 2 types de nappes : les nappes aquifères à porosité d’interstices et les nappes aquifères fracturées.

Dans les nappes aquifères à porosité d’interstices, qui sont les nappes les plus fréquentes et les plus exploitées, l’eau circule dans les porosités de la roche constituée par des graviers, sables ou alluvions. Dans les nappes aquifères fracturées, la roche est imperméable et l’eau circule dans les fractures ou fissures de roches telles que le granit, le calcaire, la craie.

Minéraux des nappes aquifères à porosité d'interstices.

Le risque de réaliser des forages infructueux est plus élevé dans les nappes aquifères fissurées ou fracturées, et il dépend essentiellement de la connaissance locale de la fracturation. Dans les nappes aquifères à porosité d’interstices, le débit de la nappe est proportionnel à la perméabilité de la roche (taille des grains), à la pente et à la section de la nappe aquifère à cet endroit.

Un système de captage dans une nappe aquifère comprend deux parties :

  • La partie supérieure, la chambre de pompage, est un tubage en acier qui traverse les couches de sol où il n’y a pas de captage. Une cimentation permet d’éviter le mélange entre une éventuelle nappe supérieure polluée et la nappe de pompage. Elle évite également l’éboulement du trou. S’y trouvent les pompes à vitesse variable chargées d’évacuer et de ramener de l’eau à partir de ou vers la nappe concernée.
  • La partie inférieure, la chambre de captage, contient un massif de gravier filtrant (pour éviter l’encrassement par les matières fines), une crépine (tube en acier inoxydable inséré dans le fond du forage, comportant des ouvertures calibrées selon la granulométrie du sable), un tube de décantation et un capot qui ferme le puits.

Système de captage dans une nappe aquifère.

  1. Niveau de l’eau dans le puits.
  2. Tubage acier.
  3. Pompes à vitesse variable.
  4. Crépine.
  5. Massif filtrant.
  6. Tube de décantation et capot.

Quelle température ?

La température de l’eau phréatique (sans infiltration des eaux de surface) varie autour de la valeur de la température moyenne de l’air extérieur, si la PAC a une puissance de moins de 30 kW et si on considère les eaux souterraines en dessous de 10 mètres de profondeur. La température moyenne annuelle de l’air extérieur étant égale à 8,5 °C, la température phréatique vaudra une valeur entre 8,5 et 10 °C. Mais contrairement à l’air extérieur, l’eau souterraine a cette température approximative toute l’année.

Plus la profondeur est importante, moins la température de l’air exerce une influence sur la température de la nappe phréatique. L’écart saisonnier entre les valeurs maximales et minimales diminue avec la profondeur. La différence de température entre la température de départ et de retour est comprise entre 3 et 4 K pour les petits systèmes, ou plus pour les systèmes plus grands.

D’où provient l’énergie contenue dans le sol ?

Cette chaleur souterraine est due en majeure partie au rayonnement solaire. L’énergie géothermique provenant des profondeurs au sous-sol est à ce niveau de profondeur insignifiante. Les infiltrations des eaux de surface peuvent avoir une influence déterminante sur la température de la nappe phréatique, de même que des puits industriels.

Qualité physico-chimique de l’eau

Dans la plupart des cas, l’eau de nappe n’est pas agressive. Il est cependant vivement conseillé de pratiquer une analyse pour protéger le système de chauffage. Si le fabricant de la PAC (avec l’eau comme source froide) n’a pas indiqué de données pour la qualité de l’eau extraite, les valeurs suivantes doivent être respectées :

Composant et unité de mesure Valeur
Matériau organique (possibilité de sédimentation) aucune
pH 6,5 à 9
Conductivité thermique (µS/cm) 50 à 1 000
Chlorure (mg/l) < 300
Fer et manganèse (mg/l) < 1
Sulfate (mg/l) 0 à 150
Teneur en O2 (mg/l) < 2
Chlore (mg/l) 0 à 5
Nitrate (mg/l) 0 à 100

 Source : Norme prEN 15450:2007.

Une pollution mécanique (sable) ne peut se produire que si l’installation de filtration de l’eau n’est pas effectuée dans les règles de l’art. Il faut aussi se méfier du colmatage provoqué par une eau trop calcaire ou riche en boues fines. Le puits doit être garanti par l’entreprise spécialisée. En pratique les valeurs indicatives pour le diamètre de la foreuse sont :
  • 150 mm pour 50 à 150 l/min
  • 300 mm pour 150 à 300 l/min
  • 800 mm pour 600 à 1 200 l/min

Quel débit ?

Si aucune autre donnée n’est disponible, on considérera qu’il est nécessaire d’avoir un débit d’eau de 0,25 m3/h par kilowatt de puissance.

Rejet de l’eau

L’eau prélevée, après absorption de la chaleur, est parfois remise dans un cours d’eau de surface. Si, par contre, le réservoir d’eau souterraine est de faible capacité, ou si l’eau prélevée ne peut être remise en surface à cause de sa composition chimique, cette eau doit être réinjectée au moyen d’un second forage (forage de réinjection) dans la couche de prélèvement. Ce second forage doit être en aval et suffisamment éloigné du premier pour ne pas créer d’interférence thermique.

Il est néanmoins très rare de faire appel à cette deuxième solution (réinjection de l’eau dans la nappe) en Wallonie car le rejet est considéré comme étant beaucoup trop dangereux pour le milieu récepteur. Si un élément polluant infectait les nappes phréatiques, il serait quasiment impossible de l’en faire sortir. La Région wallonne refuse donc presque systématiquement le rejet d’eau en nappe.

Avantages et inconvénients

Les eaux de la nappe phréatique représentent une source de chaleur idéale pour les raisons suivantes :
  • niveau de température idéal,
  • température relativement constante,
  • importance des gisements,
  • propreté,
  • peu de place au sol.

Les inconvénients de ce type de captage sont toutefois nombreux :

  • permis environnemental requis,
  • connaissances géohydrauliques approfondies requises,
  • eau de qualité n’est pas disponible partout à une profondeur adéquate,
  • analyse de l’eau de nappe requise,
  • coûts d’installation élevés (travaux de terrassement, construction d’un, deux ou plusieurs puits, analyse de l’eau, pompe à eau dans le puits),
  • énergie nécessaire pour pomper l’eau hors du puits,
  • système ouvert,
  • nécessité de garantir une séparation parfaite entre l’eau d’origine souterraine et le fluide réfrigérant, si l’eau est réinjectée dans la nappe phréatique via un puits de recharge,
  • recharge de la nappe rarement implémentable.

De plus, avant d’installer une pompe à chaleur sur nappe phréatique, l’utilisateur doit obtenir les informations relatives à la puissance du puits de captage et d’absorption.

En résumé

  • Une étude du sol préalable au forage est conseillée. On doit être certain que la température de l’eau ne sera jamais inférieure à 8 °C.
  • À proximité d’un cours d’eau ou d’un lac, tenir compte d’une possible infiltration.
  • Le captage et la restitution de l’eau doivent respecter les principes hydrologiques.
  • Une analyse de l’eau est vivement recommandée, de façon à vérifier que l’eau n’est pas agressive, polluée ou qu’elle ne transporte pas d’alluvions.
  • Des autorisations officielles sont nécessaires (elles ne sont accordées que si l’eau n’est pas utilisée ultérieurement comme eau potable).
  • Le débit d’eau doit être suffisant et compatible avec les besoins du bâtiment à chauffer.

L’eau de surface

Pompes à chaleur, eau de surface.

Source : ef4.

Si l’on choisit ce type de source froide (qui doit bien évidemment se trouver à proximité du bâtiment à chauffer), il faut s’assurer que le débit d’eau disponible le sera toujours en quantité suffisante à l’avenir (donc attention aux débits variables des rivières et fleuves). Il faut également vérifier la qualité de l’eau et s’assurer que le prélèvement de chaleur n’a pas un impact néfaste sur le milieu.

L’investissement est raisonnable en comparaison aux pompes à chaleur géothermiques. Lors de la mise en œuvre d’une pompe à chaleur à captage de chaleur sur l’eau, il est recommandé de collaborer avec des installateurs qui ont une formation technique particulière, car la mise en œuvre est complexe. Il faudra entre autres calculer le débit d’eau nécessaire.

Une eau de surface mobile (rivière,…) ne gèlera jamais à cause de son mouvement. L’évaporateur doit être protégé des éboulis. S’il s’agit d’eau stagnante, cette solution n’est utilisable que sous certaines réserves, le principal inconvénient étant la diminution du coefficient de convection vu l’absence d’écoulement de l’eau. L’eau peut geler dans ce deuxième cas et ainsi diminuer les performances de la pompe à chaleur.

Deux choix de capteurs se présentent dans le cas de captage de chaleur sur source d’eau :

Capteurs statiques

L’évaporateur est alors complètement immergé dans le réservoir d’eau que représente la rivière, l’étang, … (ou dans un bac dans cette source d’eau). Une très grande quantité d’eau passe par l’échangeur et le Delta T° de refroidissement est proportionnellement très petit.

La température de l’eau de la source est plus constante qu’en surface ; le risque de gel s’en retrouve donc amoindri. Ceci constitue donc un gros avantage pour ce type de capteur. L’inconvénient principal réside dans l’encrassage de l’échangeur noyé par des plastiques, branchages,… De plus, avec un échangeur noyé, les procédures d’autorisation et l’entretien peuvent être coûteux et la réalisation est plutôt difficile.

Capteurs dynamiques

L’eau de la source froide est récoltée dans un puits filtrant puis pompée vers l’évaporateur.

La température varie beaucoup plus que pour le premier cas et peut être assez basse en hiver (2 à 4 °C), ce qui risque d’entraîner le gel de l’évaporateur et sa casse. L’évaporateur doit alors avoir une protection antigel. Par contre, ce système présente l’avantage de prélever de l’eau pratiquement propre grâce au puits filtrant. Il faut néanmoins souvent nettoyer le filtre en question.

Utilisation directe ou indirecte ?

Les importantes variations de température des eaux de surface ne permettent généralement pas une exploitation monovalente avec utilisation directe. On trouve donc davantage de cas d’utilisation indirecte : la source de chaleur transmet son énergie à un échangeur de chaleur lui-même relié à la PAC par un circuit intermédiaire. Ce dernier contient une solution antigel pour permettre à la température d’évaporation de descendre en dessous de 0 °C. Un circuit intermédiaire entraîne toutefois des températures plus basses et donc des coefficients de puissance moins élevés.

Paramètres de dimensionnement

Si l’on opte pour la solution de l’échangeur noyé, il est recommandé de tenir compte d’un écart de 5 à 6 °C entre la température de l’eau de la source et la température d’entrée du fluide caloporteur dans l’évaporateur. Pour dimensionner la surface de l’échangeur de chaleur, il est courant d’admettre un coefficient k de transmission thermique de 200 à 300 W/m²K (vitesse de courant supérieure à 0,5 m/s). Il est vivement conseillé de prévoir une marge de sécurité d’environ 25 % en cas d’encrassement de l’échangeur. D’autre part, l’écart entre les tubes de l’évaporateur doit être au minimum de 4 cm.

S’il s’agit d’eau stagnante, cette solution n’est utilisable que sous certaines réserves, le principal inconvénient étant la diminution du coefficient de convection vu l’absence d’écoulement de l’eau.


La géothermie très profonde

Géothermie très profonde.

Des forages profonds permettent de récupérer la chaleur géothermique (due à des activités volcaniques) à des températures plus élevées (plus de 150 °C). Selon leur température les eaux puisées à ces profondeurs peuvent être utilisées directement ou élevées par une pompe à chaleur au niveau voulu.

Pour garantir une solution économiquement rentable, le COP annuel ne doit pas se situer en dessous de 4.

L’utilisation géothermique de la chaleur appartient au domaine des technologies lourdes, et ne sera pas davantage développée ici. En effet, à moins d’être dans une région spécifique (la région de St Ghislain près de Mons en est une, grâce à la présence de failles dans la roche qui permettent à l’eau chaude de remonter et d’être accessible à une profondeur raisonnable), de telles températures ne s’atteignent qu’avec des forages dont la profondeur se mesure en kilomètres.

La géothermie profonde

Géothermie profonde.

Source : ef4.

Si la surface du terrain avoisinant le bâtiment à chauffer est insuffisante pour placer des capteurs géothermiques horizontaux (voir plus loin), on peut alors penser aux sondes thermiques verticales.

L’avantage de ces sondes est de profiter, dès 10 mètres de profondeur, d’une source de chaleur à peu près constante sur l’année. La température du sol augmente de 1 °C tous les 33 mètres, soit 3 °C par 100 mètres. Cette ressource géothermique est dite de très basse température. Les forages de sondes géothermiques ont un diamètre de 16 à 18 cm et une profondeur de 30 à 150 mètres.

 Pompe à chaleur à eau glycolée - géothermie verticale.

 Pompe à chaleur à eau glycolée – géothermie verticale.

Il existe deux technologies pour récupérer la chaleur du sous-sol profond : soit des capteurs d’eau glycolée sont infiltrés dans le sol et l’énergie sera transmise au fluide frigorigène via un échangeur de chaleur, soit les capteurs sont dits « à détente directe ». Dans ce cas, il n’y a pas d’eau glycolée : le fluide frigorigène est en contact direct avec la chaleur du sol.

Comment calculer la profondeur du forage à effectuer ? Tout dépend de la « charge de chaleur » nécessaire dans le bâtiment, qui représente la quantité de chaleur nécessaire pour le chauffer de façon suffisante au cours de la saison de chauffe. La longueur de la sonde sera d’autant plus faible que le bâtiment à chauffer a des besoins calorifiques réduits.

Si le bâtiment est une nouvelle construction « standard » (besoins calorifiques = 45 W/m2 environ) et que la surface à chauffer est de 150 m2, on aura besoin de +- 7 kW de puissance de chauffage. Si le COP vaut 4, alors il faut extraire 5,25 kW du sol.

Pour obtenir la longueur approximative de la sonde, il suffit de diviser ce résultat par l’extraction thermique, qui vaut entre 50 et 55 W/m linéaire de sonde (c’est cette valeur moyenne que l’on choisit d’habitude pour l’extraction thermique).

La sonde devra ainsi avoir une longueur d’environ 100 mètres.

On doit donc compter approximativement 15 mètres de sonde par kW de chauffage.
Si la profondeur nécessaire du forage est trop grande, on peut la diminuer en plaçant 2 sondes d’une profondeur deux fois moins importante. Il faut veiller à ce qu’il y ait une distance de 5 à 6 mètres entre les différents forages, pour éviter de refroidir excessivement les zones autour des sondes.

En refroidissant, le sol crée une sorte d’entonnoir de froid qui dépend de la puissance spécifique des sondes (W/m). Des soutirages intensifs provoquent une baisse de la température de la sonde et l’entonnoir s’agrandit. Au plus, le soutirage de chaleur (par mètre de longueur de sonde) est faible, au plus grand sera le COP annuel. Durant les arrêts de fonctionnement, la zone de terrain entourant la sonde se régénère à nouveau. Ce phénomène est absolument nécessaire, car le faible flux thermique provenant du sous-sol ne suffit pas à maintenir les conditions de dimensionnement. La détermination correcte de la longueur des sondes est donc d’une grande importance pour éviter une surexploitation qui empêcherait une régénération de la source.

Rafraîchissement

Les sondes géothermiques peuvent non seulement être utiles au chauffage de bâtiments, mais aussi à leur rafraîchissement en saison estivale. Si un système de pompe à chaleur permet la commutation chauffage/rafraîchissement, il est appelé « réversible ». Le rafraîchissement est actif ou passif. Dans le cas du rafraîchissement actif, le compresseur de la pompe à chaleur est utilisé pour abaisser le niveau de température de l’ambiance intérieure et la commutation est réalisée à l’aide d’une vanne à 4 voies. Le compresseur n’est par contre pas utilisé dans le cas d’un rafraîchissement passif ; ici un niveau de température existant (de la nappe phréatique ou du sous-sol) est transmis au système de chauffage et la pompe à chaleur n’est pas activée. De cette façon, la consommation énergétique reste faible (mais il faut néanmoins toujours alimenter les pompes de circulation d’eau).

Avantages/inconvénients

La surface d’installation de ce type de captage d’énergie est réduite et la technologie est utilisable presque partout (il faut néanmoins procéder à une analyse de la composition du sol pour déterminer la faisabilité de l’ensemble). De plus, la chaleur récupérée à la source froide est disponible en quantité quasiment illimitée. Le niveau de température de la source froide est relativement élevé et les variations de température sont faibles. Pendant la saison hivernale, il y a tout de même une diminution du niveau de température. Pour finir, le système est fermé mais on doit bien faire attention à ce qu’il soit étanche au glycol.

Le principal inconvénient de ce type de captation d’énergie est le coût d’investissement élevé ainsi que la mise en œuvre qui est assez lourde.


La géothermie de surface

Géothermie de surface.

Source : ef4.

On peut envisager ce mode de captation de chaleur si on possède un terrain exempt de grosses plantations. Les calories contenues dans le sol juste en dessous de la surface sont récupérées via des serpentins horizontaux en polyéthylène qui contiennent soit un mélange d’eau et de glycol, soit le fluide frigorigène (système à détente directe – les tuyaux sont dans ce cas en cuivre et non en polyéthylène). Les pompes à chaleur utilisant cette source froide sont désignées sous les termes « eau glycolée » ou « sol ».

Les serpentins, qui jouent le rôle d’évaporateur du système, sont enfouis à une profondeur de 60 cm minimum pour éviter le gel. L’avantage d’un tel type de chauffage réside dans la relative stabilité de la température d’évaporation (ce qui augmente les performances). La température varie néanmoins plus ou moins fortement, à cause justement de la présence d’une pompe à chaleur…

Evolution de la t° du sol à 60 cm de profondeur.

Origine de la chaleur du sol ?

Il y a une diminution de la température du sol pendant l’automne, et une augmentation pendant le printemps. Cette évolution est directement liée au rayonnement solaire qui chauffe la partie du sol directement sous la surface (jusqu’à une profondeur d’environ 2 mètres). La chaleur géothermique ne représente que quelques pourcents à cet endroit.

Potentiel du sol

Le pouvoir calorifique du sous-sol dépend de la nature du sol et surtout de sa teneur en eau. En effet, l’eau possède une capacité calorifique élevée, i.e. sa température varie très lentement sous une action extérieure. La quantité de pluie infiltrée est donc un facteur essentiel dans l’extraction de chaleur du sol.

Potentiel du sol, minéraux.

Les pouvoirs calorifiques de divers sous-sol sont les suivants :
  • sol sablonneux sec : 10 à 15 W/m²
  • sol argileux sec : 20 à 25 W/m²
  • sol argileux humide : 25 à 30 W/m²
  • sol marécageux : 30 à 35 W/m²
Pour une température de sol minimale de 2 °C (une plus grande absorption de chaleur pourrait créer des cristaux de glace autour des serpentins et diminuer leur efficacité), l’extraction thermique par mètre courant « q » est environ de :
  • sol sablonneux sec : 10 W/m
  • sol argileux humide : 25 W/m
  • sol argileux saturé : 35 W/m
  • roche dure : 50 W/m
  • granit : 55-70 W/m
Pour limiter le refroidissement excessif du sol, un écartement minimal entre les tuyaux doit être respecté (une pose trop serrée pourrait provoquer le gel de l’eau autour des tuyaux et une fermeture hermétique) :
  • 1 m en cas de sol sec
  • 0,7 m en cas de sol humide
  • 0,5 m en cas de sol sablonneux ou caillouteux saturé

Dimensionnement

Les capteurs enterrés, malgré leur configuration simple qui ne nécessite pas d’auxiliaires, requièrent des surfaces de terrain de l’ordre de 1,5 fois la surface des locaux à chauffer. Pour beaucoup de bâtiments du secteur tertiaire, ce type de technologie demande donc de très grandes surfaces extérieures et engendre donc un coût de terrassement élevé.

Exemple d’installation

Les déperditions calorifiques d’une habitation domestique construite sur sol argileux s’élèvent à 12 kW.

On prévoit un chauffage par le sol avec une température d’entrée de 45 °C.

En choisissant une PAC dont la puissance de chauffe est de 13,3 kW pour une puissance électrique absorbée de 3,85 kW (valeur fournisseur), il faudra extraire du sol 13,3 – 3,85 = 9,45 kW. Il faudra donc 9 450 W/ 25 W/m = 378 m soit 4 serpentins de 100 m.

Lors du dimensionnement de l’installation, il convient de tenir compte de la configuration du site (il est donc recommandé d’établir un plan qui comporte les constructions, arbres, piscines, fosses septiques et réseaux souterrains en plus, bien évidemment, de la localisation des capteurs) et de la durée annuelle de fonctionnement.

Pour les gros projets, une compréhension des flux thermiques des sols près de la surface est nécessaire pour un calcul assez précis des échangeurs de chaleur du sol.  Avant le revêtement, il faudrait opérer une expertise/analyse du sol afin de déterminer la situation géologique de celui-ci à l’endroit de la construction. On tiendra compte des dates de l’analyse (été/hiver – pluies récentes – …) pour obtenir les paramètres thermiques de sol nécessaires pour le calcul et la simulation exacts de la configuration.

Les COP de ce type de pompe à chaleur sont intéressants (de l’ordre de 4). On pourrait néanmoins s’attendre à plus étant donné les avantages de ce système (pas d’auxiliaire, pas de dégivrage). De plus, il faut faire très attention à ce qu’il n’y ait pas de fuites de fluide frigorigène, car il possède un impact environnemental élevé.

En pratique, les échangeurs horizontaux ne sont intéressants que lorsqu’il faut entreprendre de grands travaux, qui permettent un placement économique des tuyaux dans le sous-sol ou à l’intérieur d’une couche de propreté.

Les serpentins peuvent aussi être intégrés en alternance, entre les fondations. Le placement sous le bâtiment permet d’éviter la sensibilité aux conditions météorologiques d’été (sécheresse) mais comporte le risque de gel des fondations en hiver…

Les applications en secteur tertiaire paraissent donc réduites pour cette technique…


L’air extérieur

Le choix de l’air extérieur comme source froide conduit à un choix entre deux technologies très différentes : le système dynamique et le système statique. Dans le premier cas, la PAC ventile mécaniquement l’air de l’environnement extérieur, qui se retrouve donc en mouvement pour améliorer l’échange de chaleur avec le fluide frigorigène au niveau de l’évaporateur. Dans le second cas, l’air reste « statique » et le transfert de chaleur avec le fluide frigorigène est réalisé grâce à la convection naturelle. De grandes surfaces d’échange (ailettes) seront alors nécessaires pour assurer l’efficacité.

Pompe à chaleur à air dynamique

La pompe à chaleur sur air dynamique peut être installée à l’extérieur ou à l’intérieur du bâtiment à chauffer. Dans le premier cas (système Split), le raccordement au système de chauffage est effectué via deux tubes isolés qui se trouvent dans le sol (un pour l’aller et l’autre pour le retour). Il y a également un câble électrique dans le sol et des fonctions antigel. Dans le second cas, la pompe à chaleur est reliée à l’air extérieur par des conduites d’air.

Ce type de pompe à chaleur permet de chauffer les locaux, mais aussi l’eau sanitaire. Un rafraîchissement actif est également possible.

 Pompe à chaleur à air dynamique.

Exemple de pompe à chaleur à air dynamique : présence d’un ventilateur.

Pompe à chaleur à air statique

Les PAC à air statique ne sont pas fort présentes sur le marché malgré leurs avantages en termes de bruit et de performances. De l’eau glycolée, ou le fluide frigorigène, passe dans les ailettes des capteurs statiques extérieurs. Le reste de la PAC, qui se trouve à l’intérieur du bâtiment, comprime alors le fluide frigorigène pour le faire monter en température.

Pompe à chaleur à air statique.

Exemple de pompe à chaleur à air statique.

Avantages/inconvénients

L’air extérieur comme source de chaleur présente les avantages suivants :

  • il est disponible quasiment partout en quantité illimitée,
  • il est facilement exploitable,
  • l’extraction de chaleur sur l’air extérieur ne nécessite pas l’octroi d’une autorisation, sauf peut-être un permis d’urbanisme,
  • cette source froide génère des coûts d’installation limités par rapport aux autres types de pompes à chaleur.

Il présente toutefois quelques inconvénients qui remettent en cause son utilisation en système monovalent :

  • évolution contraire de la température de la source de chaleur et de la température du système de chauffage,
  • les températures de la source froide sont très variables et peuvent être fort basses, ce qui abaisse le coefficient de performance ; la performance globale annuelle est faible.

Les PAC à air dynamique montrent les deux inconvénients suivants par rapport aux PAC à air statique :

  • à une température extérieure de 6 à 7 °C, l’eau issue de la condensation de l’air ambiant commence à geler et nécessite un dégivrage ;
  • problèmes de bruit dus à la grande quantité d’air déplacé. Il est indispensable de se renseigner sur les techniques de protection phonique, dans tous les cas, qu’il s’agisse d’une installation intérieure ou extérieure. L‘ordonnance sur la protection contre le bruit et les prescriptions locales doivent être soigneusement étudiées. Au besoin, un spécialiste en acoustique devra être consulté.

Performances des PAC sur air extérieur

En général, les COP des pompes à chaleur sur air extérieur sont donnés pour une température extérieure de 2 °C. La moyenne des températures extérieures sur la saison de chauffe (de début octobre à fin avril) pour la station d’Uccle est cependant d’environ 6 °C. Le seasonal performance factor (SPF), qui représente la moyenne théorique du coefficient de performance sur la saison de chauffe, sera donc plus élevé que le COP indiqué dans la fiche technique de la pompe à chaleur. Mais lorsque la température extérieure est effectivement très basse, le COP chute et la pompe à chaleur peut très bien ne plus être suffisante pour subvenir aux besoins de chaleur du bâtiment. Dans ce cas on l’utilise conjointement à un système d’appoint ou à une chaudière (voir les modes de fonctionnement).


PAC géothermique : rechargement de la source froide par l’énergie solaire

Les soutirages de chaleur fréquents provoqués par la présence d’une PAC géothermique mènent à une baisse relativement importante de la température du sous-sol. La chaleur n’y est en effet pas renouvelée suffisamment rapidement.

Pour résoudre ce problème, si la surface des capteurs n’est pas trop grande, on peut combiner la PAC avec un système de recharge : des absorbeurs solaires (avec ou sans vitre). Le collecteur solaire se refroidira d’abord dans la PAC pour éviter que l’environnement du serpentin ne se dessèche trop et perde de sa puissance d’échange.

Le rendement du panneau solaire s’améliore, lui, si la température de l’eau qui y circule diminue. Une PAC dont l’évaporateur est lié au circuit des collecteurs solaires permettra de travailler à plus basse température dans les collecteurs, ce qui double leur rendement (et divise donc par 2 la surface nécessaire et l’investissement) et allonge leur durée annuelle de fonctionnement. La PAC disposera, elle, d’une source froide à température plus élevée. Les deux appareils voient donc leur fonctionnement optimisé. Un chauffage d’appoint sera nécessaire en hiver, par température extérieure très basse et ensoleillement limité.

Reste le coût de l’ensemble qui semble difficile à amortir…


Comparaison des sources froides

Chaque source de chaleur possède ses avantages et inconvénients, c’est pourquoi seule une analyse minutieuse du projet peut préciser le type de source froide qu’il vaut mieux choisir.

La capacité thermique de l’eau plaide incontestablement en faveur d’une source liquide :

  • le gain de chaleur provenant de 1 m³ d’eau refroidie d’environ 5 K se monte à 5,8 kWh.
  • pour un gain de chaleur identique, il faudrait comparativement refroidir environ 3 500 m³ d’air de 5 K !

Mais le débit d’eau reste important. Imaginons un bâtiment de 5 000 m². On peut tabler sur un besoin de chaleur limité à 45 W/m² (par – 10°C extérieur) s’il est bien isolé. Ceci représente une puissance totale installée de 225 kW. La puissance à capter à l’évaporateur sera de 150 kW (si COP = 3).

Sur base d’un refroidissement de l’eau de 5 K, le débit d’eau nécessaire sera de

150 kW / 5,8 kWh/m³ = 26 m³/h !

Le tableau ci-dessus reprend les caractéristiques à prendre en compte lors de la conception d’une installation de pompe à chaleur :

Source Caractéristiques de la source Coût d’installation COP saisonnier moyen COP selon la norme EN14511 (suivi de la condition de mesure) Conditions d’installation Remarques
Rejets thermiques de procédés industriels ou de systèmes de climatisation

Faibles variations de température.

Possible variation de débit.

Bas.

Comparable à celui des PAC air/eau ou eau/eau selon les propriétés de la source froide.

Installation plus ou moins importante selon la configuration de la source.

Système courant pour la production d’eau chaude sanitaire.

Eau de nappe phréatique

Faibles variations de température (+6°C à +10°C).

Élevé.

3 à 4,5.

5 à 6

(W10/W35)

Besoin de suffisamment d’eau souterraine de qualité.

Restrictions légales locales.

Des puits existants peuvent réduire les coûts.

Coût d’entretien faible.

Dimensionnement très rigoureux.

Eau de surface Faibles variations de température.

Variable selon la proximité de l’eau.

3 à 4,5.

5 à 6

(W10/W35)

Proximité d’eau en quantité adéquate nécessaire.

Système de protection contre le gel.

L’évaporateur sera conçu en fonction de la qualité de l’eau.

 

Passage par un circuit d’eau intermédiaire dans le cas de capteurs dynamiques.

Encrassage possible.

Tuyaux d’eau glycolée dans le sol Faibles variations de température (plus fortes si usage de serpentins à faible profondeur).

Connaissance des propriétés thermiques du sol requise.

Moyen à élevé. 3 à 4.

4 à 5

(B0/W35)

Besoin de surface si échangeur de chaleur horizontal et d’une solution antigel. Échangeurs verticaux ou horizontaux.

Les conditions de sol et de surface influencent la conception.

Coûts d’entretien faibles.

Dimensionnement très rigoureux.

Air extérieur

Larges variations de température (0°C à + 15°C).

Bas.

2,5 à 3,5.

3 à 4

(A2/W35)

Système universel, source disponible en grande quantité.

Dégivrage et parfois chauffage auxiliaire nécessaires.

Système à évaporation directe : le fluide frigorigène passe dans le sol (tuyaux verticaux et horizontaux) Faibles variations de température.

3 à 4.

Pas de circuit intermédiaire du côté évaporateur.

Grandes quantités de fluide frigorigène nécessaire.

* Les valeurs des coefficients de performance dépendent des modèles de pompes à chaleur choisies. Les valeurs données ici sont des ordres de grandeur permettant la compréhension de l’influence de la source froide.

Les pompes à chaleur les plus répandues sont les pompes à chaleur air extérieur/eau, ensuite viennent les pompes à chaleur eau glycolée/eau qui tirent leur énergie du sol.

Réglementation et permis

Suivant le type de PAC, sa puissance et la quantité de fluide frigorigène présente dans le circuit, l’installation d’une pompe à chaleur requiert ou non l’octroi de permis d’environnement ou d’urbanisme. Bien souvent, la PAC devra uniquement être « déclarée ».

Les réglementations en vigueur sont susceptibles de changer régulièrement. À titre d’illustration, voici un tableau qui reprend ces réglementations pour l’année 2009 :

Condition (2009) Classe
Si puissance frigorifique nominale utile comprise entre 12 et 300 kW et charge en FF > 3 kg. 3 – déclaration.
Si puissance frigorifique nominale >= 300 kW. 2 – permis d’environnement.
Pompe à chaleur sur air
Si air statique. Peut-être permis d’urbanisme – vérifier avec la commune.
Si air dynamique. Peut-être permis d’urbanisme – vérifier avec la commune.
Pompe à chaleur sur eau souterraine
Opération de forage et opération de sondage ayant pour but l’exploitation future d’une prise d’eau,… (hormis les forages inhérents à des situations d’urgence ou accidentelles). 2 – permis unique.
Installation pour la ou les prise(s) d’eau et/ou le traitement des eaux souterraines non potabilisables et non destinées à la consommation humaine d’une capacité de prise d’eau et/ou de traitement inférieure ou égale à 10 m3/jour et à 3 000 m³/an. 3 – déclaration.
Installation pour la ou les prise(s) d’eau et/ou le traitement des eaux souterraines non potabilisables et non destinées à la consommation humaine d’une capacité de prise d’eau et/ou de traitement supérieure à 10 m³/jour et à 3 000 m³/an et inférieure ou égale à 10 000 000 m³/an. 2 – permis d’environnement ou permis unique.
Installation pour la ou les prise(s) d’eau et/ou le traitement des eaux souterraines non potabilisables et non destinées à la consommation humaine d’une capacité de prise d’eau et/ou de traitement de plus de 10 000 000 m³/an. 1 – permis d’environnement ou permis unique avec étude
d’incidences sur l’environnement obligatoire.
Installation pour la recharge ou les essais de recharge artificielle des eaux souterraines. 1 – permis unique avec étude d’incidences sur l’environnement obligatoire.
Déversement d’eaux usées industrielles telles que définies à l’article D.2, 42°, du Livre II du Code de l’Environnement, contenant le Code de l’Eau, dans les eaux de surface, les égouts publics ou les collecteurs d’eaux usées :
rejets supérieurs à 100 équivalent-habitant par jour ou comportant des substances dangereuses visées aux annexes Ire et VII du Livre II du Code de l’Environnement, contenant le Code de l’Eau.
2 – permis d’environnement ou permis unique.
PAC sur eaux de surface Autorisation du gestionnaire de l’eau de surface nécessaire. Peut-être permis d’urbanisme – voir avec la commune.
Déversement d’eaux usées industrielles telles que définies à l’article D.2, 42°, du Livre II du Code de l’Environnement, contenant le Code de l’Eau, dans les eaux de surface, les égouts publics ou les collecteurs d’eaux usées : rejets supérieurs à 100 équivalent-habitant par jour ou comportant des substances dangereuses visées aux annexes Ire et VII du Livre II du Code de l’Environnement, contenant le Code de l’Eau. 2 – permis d’environnement ou permis unique.
PAC à captation verticale dans le sol
Opération de forage et opération de sondage pour le stockage des déchets nucléaire ou pour un usage géothermique. 2 – permis unique.
PAC à captation horizontale dans le sol Non classé, mais peuvent l’être si quantité FF > 3kg.

Source : Synthèse sur les réglementations et permis relatifs à l’installation
et à l’exploitation de pompes à chaleur en Région wallonne – Document EF4.

Ateliers

Ateliers


Éclairage naturel et baies vitrées

Dans les ateliers, les tâches de travail peuvent vite devenir dangereuses lorsque le risque d’éblouissement est important. Intuitivement, on essayera d’ouvrir les façades orientées au nord pour la simple raison que la lumière naturelle côté nord est essentiellement une lumière diffuse avec un niveau d’éclairement relativement continu en journée. Mais les contraintes d’orientation ne peuvent pas toujours être maîtrisées :

  • En rénovation, les façades orientées au nord ne sont pas toujours disponibles à l’ouverture vers la lumière naturelle.
  • En conception nouvelle, le bâtiment ne peut pas toujours être orienté avec ses larges façades au nord.

Des alternatives intéressantes à considérer sont les ouvertures de toiture :

Photo ouvertures de toiture.

Les ouvertures de type coupole représentent un potentiel important d’éclairage naturel mais avec son lot d’inconvénients comme, par exemple, l’éblouissement zénithal et la surchauffe en été.

Photos baies vitrées de type sheds.

Les baies vitrées de type sheds orientées au nord permettent de maîtriser la surchauffe et l’éblouissement d’été. Elles offrent bien d’autres avantages comme, par exemple, la possibilité de coupler l’éclairage naturel côté nord aux panneaux photovoltaïques placés sur le versant des sheds côté sud.


Les ouvertures verticales en toiture

Ouvertures verticales en toiture.

Début du siècle dernier, voire bien avant, ce type d’ouverture existait déjà. Nos ancêtres étaient bien inspirés en regard du confort visuel. Cependant, d’un point de vue thermique, les performances du simple vitrage et l’étanchéité des châssis ne permettaient pas des performances énergétiques géniales !

À l’heure actuelle, les performances thermiques des sheds deviennent très bonnes, ce qui permet à ceux-ci de pouvoir jouir d’une seconde jeunesse !

La mise en œuvre des sheds en conception nécessite quand même de respecter l’orientation nord-sud, et ce dans une « fourchette angulaire » relativement restreinte de manière à éviter les surchauffes et les éblouissements directs. De plus, d’un point de vue conceptuel, les sheds doivent être alignés sur la trame de la structure portante (alignement parallèlement ou perpendiculairement au rythme des poutres principales par exemple). Cette remarque montre la limite que l’on peut vite atteindre en cas de rénovation simple.

Schéma ouvertures verticales en toiture.

Les ouvertures verticales orientées vers le nord de type sheds apparaissent comme une solution très intéressante si l’on parvient à maîtriser le rayonnement solaire direct en début de matinée.

Le shed est intéressant sur plusieurs aspects. Il présente des avantages et inconvénients résumés dans le tableau suivant :

Avantages Inconvénients
  • Éclairage naturel uniforme et constant sans risque d’éblouissement pour les expositions au nord.
  • Ventilation intensive naturelle possible et efficace en règle générale.
  • Possibilité de combinaison d’une ventilation naturelle avec la fonction de désenfumage (exutoire de fumée sur certain châssis vitrés.
  • Support d’éventuels panneaux solaires photovoltaïques.
  • Récupération de surfaces internes contre les façades (pour le stockage par exemple).
  • Meilleure isolation que les voutes filantes ou les coupoles en général.
  • Une surface de déperdition plus importante.
  • Coûts de mise en œuvre de la toiture plus importants (cependant, partiellement compensés par la réduction des surfaces vitrées en façade).
  •  …

Les lanterneaux

Photo lanterneaux.

Les lanterneaux étaient et restent les ouvertures zénithales les plus répandues. On peut arriver à des performances énergétiques proches de celles des doubles vitrages plans par l’utilisation de polycarbonates double voire triple couche. Cependant, la surchauffe et l’éblouissement sont les ennemis du lanterneau. Pour limiter le risque d’éblouissement direct et la surchauffe, un vitrage opalin est recommandé. La transmission lumineuse du vitrage est cependant fortement diminuée et la relation avec l’extérieur altérée (plus de possibilités d’analyser la couleur du ciel).

De manière générale, l’ouverture zénithale avec un lanterneau présente des avantages et inconvénients résumés dans le tableau suivant :

Avantages Inconvénients
  • Éclairage naturel intéressant pour toutes les expositions.
  • Ventilation intensive naturelle possible et efficace en règle générale.
  • Possibilité de combinaison d’une ventilation naturelle avec la fonction de désenfumage (exutoire de fumée sur certains châssis vitrés.
  • Récupération de surfaces internes contre façades (pour le stockage par exemple).
  • Une surface de déperdition plus importante.
  • Coûts de mise en œuvre de la toiture plus importants (cependant, partiellement compensés par la réduction des surfaces vitrées en façade).
  • Risque de surchauffe et d’éblouissement direct.

Quantification de l’apport en éclairage naturel

Nous proposons ici, une étude théorique de l’apport en éclairage naturel de plusieurs solutions qui peuvent être envisagées dans un ateliers.

Quantitativement, l’apport en lumière naturelle au travers de différents types de baies vitrées passe par l’appréciation :

  • Du FLJ ou Facteur de Lumière du Jour. Le FLJ permet d’objectiver la qualité de la baie vitrée indépendamment de l’orientation, des conditions climatiques… On peut en tirer des enseignements quant à l’homogénéité de l’éclairage naturel, de la performance de la baie vitrée par rapport à sa taille, sa position dans la façade ou dans la toiture…
  • De l’autonomie en lumière du jour qui donne une idée relativement précise des consommations d’éclairage artificiel comme complément à l’éclairage naturel.

Un FLJ compris entre 3 et 5 % est en général un gage de bonne qualité de la lumière naturelle dans le local considéré. Dans la même optique, une autonomie en lumière naturelle de l’ordre de 50-60 % augure une bonne indépendance vis-à-vis de la lumière artificielle.

La quantification ne peut se réaliser que par l’utilisation d’outils de simulation dynamique en éclairage naturel. Des logiciels comme ECOTECH et DAYSIM.

Hypothèses de modélisation

La modélisation s’effectue en tenant compte de la volumétrie du projet de conception et des hypothèses sur :

  • L’horaire d’occupation : 06h00 à 22h00 ;
  • Le niveau d’éclairement : 300 lux à 0,80 m ;
  • Transmission lumineuse du vitrage : 70 % ;
  • Les coefficients de réflexion des parois internes :
  • Plafond : 40 %
  • Murs : 40 %
  • Dalle : 20 %

Simulation 1 : ouvertures verticales vers le nord en toiture

Schéma ouvertures verticales vers le nord en toiture.

Caractéristiques propres aux sheds

  • Surface nette éclairante : 99 m²
  • Surface nette éclairante/surface de la pièce : 10 %
  • Réflecteurs du plafond des sheds : 80 %

Facteur lumière du jour

Autonomie lumière du jour – 300 lux – 6h00 à 22h00

Que faut-il retenir ?

Analyse des résultats

FLJ (Facteur de Lumière du jour)*

DA (Autonomie en Lumière du Jour)*

1 < FLJ < 2 %

DA < 20 %

(*)

  • FLJ moyen (Facteur de Lumière du jour) sur l’ensemble de la surface considéré comme bon si 3 % < FLJ > 5 % ;
  • DA moyen (Autonomie en Lumière du Jour) sur l’ensemble de la surface considérée comme acceptable si DA > 50 %.

 Une zone d’ombre au niveau de la façade nord réduit fortement la performance globale du système de « sheds ».

Simulation 2 : Ouvertures verticales vers le nord en toiture + fenêtre verticale en façade

Schéma ouvertures verticales vers le nord en toiture.

Caractéristiques propres aux sheds

  • Surface nette éclairante : 124 m²
  • Surface nette éclairante/surface de la pièce : 13 %
  • Réflecteurs du plafond des sheds : 80 %

Facteur lumière du jour

Autonomie lumière du jour – 300 lux – 6h00 à 22h00

Que faut-il retenir ?

Analyse des résultats

FLJ (Facteur de Lumière du jour)*

DA (Autonomie en Lumière du Jour)*

2 < FLJ < 3 %

DA < 40 %

(*)

  • LJ moyen (Facteur de Lumière du jour) sur l’ensemble de la surface considéré comme bon si 3 % < FLJ > 5 % ;
  • DA moyen (Autonomie en Lumière du Jour) sur l’ensemble de la surface considérée comme acceptable si DA > 50 %.

Le placement d’un bandeau vitré en façade nord améliore permet de gommer les zones d’ombre. Globalement, le résultat est meilleur. Ceci dit, de manière pratique, tout dépend la hauteur à laquelle se situe ce bandeau, sachant que dans les ateliers toute surface vitrée en façade reste un inconvénient en termes d’exploitation des m² utiles.

Simulation 3 : ouvertures verticales vers le nord en toiture + fenêtre verticale en façade + optimisation

Schéma ouvertures verticales vers le nord en toiture - 2.

Caractéristiques propres aux sheds

  • Surface nette éclairante : 124 m² ;
  • Surface nette éclairante/surface de la pièce : 13 % ;
  • Réflecteurs du plafond des sheds : 80 % ;
  • Transmission lumineuse du vitrage 80 %.
  • Plafond : 60 %

Facteur lumière du jour

Autonomie lumière du jour – 300 lux – 6h00 à 22h00

Que faut-il retenir ?

Analyse des résultats

FLJ (Facteur de Lumière du jour)*

DA (Autonomie en Lumière du Jour)*

2,5 < FLJ < 5 %

DA < 40 %

(*)

  • LJ moyen (Facteur de Lumière du jour) sur l’ensemble de la surface considéré comme bon si 3 % < FLJ > 5 % ;
  • DA moyen (Autonomie en Lumière du Jour) sur l’ensemble de la surface considérée comme acceptable si DA > 50 %.

Tout en évitant l’éblouissement et les surchauffes, les sheds à vitrages clairs proposent une solution intéressante pour les ateliers. Le confort visuel y est assuré ! Pour autant que le système d’éclairage artificiel soit géré de manière efficace, les consommations électriques peuvent être réduites de manière significative.

Simulation 4 : voute filante – vitrage opalin  (TL 22 %)

Schéma voûte filante.

Caractéristiques propres aux lanterneaux

  • Surface nette éclairante : 157 m² ;
  • Surface nette éclairante/surface de la pièce : 16,3 % ;
  • Transmission lumineuse du vitrage : 22 %.
  • Plafond : 60 %

Facteur lumière du jour

Autonomie lumière du jour – 300 lux – 6h00 à 22h00

Que faut-il retenir ?

Analyse des résultats

FLJ (Facteur de Lumière du jour)*

DA (Autonomie en Lumière du Jour)*

1 < FLJ < 2 %

DA < 30 %

(*)

  • LJ moyen (Facteur de Lumière du jour) sur l’ensemble de la surface considéré comme bon si 3 % < FLJ > 5 % ;
  • DA moyen (Autonomie en Lumière du Jour) sur l’ensemble de la surface considérée comme acceptable si DA > 50 %.

Ce type de configuration ne donne pas lieu à des résultats encourageants. D’autant plus, qu’avec les lanterneaux, on n’évite pas les éblouissements et les surchauffes d’été. En pratique, les occupants des espaces de travail sont obligés de se protéger par des toiles horizontales. Lorsqu’elles sont fixes, l’effet d’éclairage naturel est perdu. La mise en place d’un système de gestion automatique coûte très cher !

Simulation 5 : voute filante – vitrage opalin  (TL 35 %)

Schéma voûte filante - 2.

Caractéristiques propres aux lanterneaux

  • Surface nette éclairante : 157 m² ;
  • Surface nette éclairante/surface de la pièce : 16,3 % ;
  • Transmission lumineuse du vitrage : 35 %.
  • Plafond : 60 %

Facteur lumière du jour

Autonomie lumière du jour – 300 lux – 6h00 à 22h00

Que faut-il retenir ?

Analyse des résultats

FLJ (Facteur de Lumière du jour)*

DA (Autonomie en Lumière du Jour)*

2 < FLJ < 3 %

DA < 45 %

(*)

  • LJ moyen (Facteur de Lumière du jour) sur l’ensemble de la surface considéré comme bon si 3 % < FLJ > 5 % .
  • DA moyen (Autonomie en Lumière du Jour) sur l’ensemble de la surface considérée comme acceptable si DA > 50 %.

L’augmentation de la transmission lumineuse améliore la situation, mais amplifie aussi l’inconfort d’éblouissement et l’inconfort thermique en été.

Conclusions

De manière générale, les sheds donnent des résultats très intéressants. D’autant plus que la qualité de la lumière naturelle captée par les sheds est excellente pour les raisons déjà évoquées précédemment, à savoir :

  • la source d’éclairage naturel diffuse est relativement constante et pas éblouissante ;
  • les surchauffes dues aux apports directs sont évitées.

Envisager le placement d’un bandeau vitré en façade nord et une augmentation du coefficient de réflexion du plafond amélioration les performances des sheds ;

L’utilisation des lanterneaux permet d’approcher les critères de FLJ et ALJ envisagés (FLJ compris entre 3 et 5 %, ALJ > 50 %). Cependant, l’éblouissement doit être maîtrisé sachant que le rayonnement solaire direct est limité, mais toujours présent. De plus, les surchauffes potentielles ne seront pas évitées.


Quantification en éclairage artificiel

Partant du principe que le confort lumineux doit être assuré en présence ou pas d’éclairage naturel, un complément d’éclairage artificiel est nécessaire. Normativement, le dimensionnement de l’éclairage artificiel s’effectue sans les apports de lumière naturelle. La démarche énergétique d’un système d’éclairage artificiel réside donc dans sa capacité à moduler la puissance installée en fonction de l’éclairage naturel. En effet, pour autant qu’il n’y ait pas d’éblouissement, meilleure l’autonomie en lumière du jour sera, moins fort sera le poids des consommations d’éclairage artificiel pour donner le complément de confort nécessaire.

Dans le cas de l’atelier considéré, le choix du type d’éclairage artificiel et surtout du type de luminaire, passe par une étude de type Dialux permettant de comparer des luminaires entre eux.

Choix du type de luminaire

Quel type de lampe ?

Dans l’atelier de hauteur inférieure à 7-8 m, deux types de source lumineuse ont été envisagées, à savoir :

  • les lampes aux halogénures métalliques ;
  • les tubes fluorescents.

Photo lampes aux halogénures métalliques.

Luminaire à lampe aux halogénures métalliques.

Photo luminaire à lampe aux halogénures métalliques.

Luminaire à tubes fluorescents.

 Quel type de luminaire ?

Luminaire à lampe aux halogénures métalliques.

Luminaire à tubes fluorescents.

Une étude technico-économique peut être réalisée de façon à pouvoir sélectionner la meilleure solution. Il en ressort, que les luminaires à tubes fluorescents sont à préférer. Les principales raisons sont les suivantes :

  • Une grande efficacité énergétique,
  • Un très bon rendu des couleurs,
  • Une durée de vie importante,
  • Un faible coût d’investissement.

De plus, si on les compare aux lampes aux halogénures métalliques, on constate que :

  • Leur faible flux lumineux (4.300 lm pour une lampe de 49 W) les rend moins éblouissantes que les lampes aux halogénures ;
  • De même, elles nécessitent l’installation d’un plus grand nombre de lampes. On obtiendra ainsi une plus grande uniformité d’éclairement qu’avec des lampes à décharge haute pression et une réduction des ombres portées ;
  • Vu le grand nombre de points lumineux, si une lampe est défectueuse, elle ne laissera pas une tache sombre au sol en attendant d’être remplacée ;
  • Elles peuvent être dimées facilement et permettent donc une gestion de commande plus perfectionnée.

Choix du système d’éclairage

En fonction de la géométrie de l’atelier et pour des raisons de modularité, de flexibilité et de rendement, une solution est privilégiée :

  • Une base de 4 rails de ligne lumineuse (utilisé à titre d’exemple dans la modélisation) traversant le hall. Ces rails ont été fixés au-dessus du pont roulant ;
  • Les luminaires sont alors attachés simplement par des verrous quart de tour.

Le câblage spécialement conçu et intégré d’usine dans le rail porteur du luminaire révolutionne la méthode d’installation, la rend variable, nettement plus rapide et plus simple.

 

Coupe transversale d’un rail précablé et luminaire adapté au rail profilé pour un montage rapide.

  

Source : Zumtobel.

Évaluation du niveau d’éclairage artificiel

Modélisation

Schéma modélisation.

La modélisation de l’éclairage artificiel est réalisée pour un niveau d’éclairement souhaité de 300 lux sur base des hypothèses suivantes :

  • Hauteur du plan de travail : 0,80 m
  • Facteur d’entretien : 0,70
  • Facteur de réflexion :
  • Sol : 0,2
  • Mur : 0.5
  • Toit : 0,5
  • Niveau d’éclairement souhaité de 300 lux

 Simulation

  

liste des luminaires
Quantité Désignation (Facteur de maintenance) φ (lm) P (W)
1 60 Tubes fluorescents sur rails lumineux 2 x 49 W T16 8 600 109
Total 516 000 6 540
Puissance installée spécifique : 6,81 W/m² (surface au sol 960 m²)
Puissance installée spécifique : 2,12 W/m²/100 lux (surface au sol 960 m²)

Adaptabilité

La principale caractéristique de ce type d’installation sur rail est de pouvoir accepter tous les luminaires de la gamme et donc on peut alterner différente puissance et dimension de tube.

Il est donc possible d’adapter le nombre et le type de luminaire pour augmenter le niveau d’éclairement souhaité en un point en fonction de l’activité.

Évaluation des consommations d’énergie

L’influence d’une gestion en fonction de la lumière du jour est évaluée, à partir du logiciel LIGHTSWITCH, selon le niveau d’éclairement souhaité et selon le type d’ouverture prévue en toiture.

On considère que l’éclairage est allumé tout les jours de la semaine de 6h00 à 22h00. Le niveau d’éclairement maintenu est de 300 lux sur l’ensemble de l’espace.

Lumière du jour

En conception, l’éclairage est dimensionné sans prendre en compte l’apport de lumière naturelle. Par contre, une gradation automatique commandée en fonction de la lumière du jour permet d’adapter la puissance de l’éclairage en fonction de l’apport de l’éclairage naturel. Un capteur enregistre la quantité de lumière du jour et réduit le flux lumineux de l’éclairage en fonction de leur position par rapport à la fenêtre.

Maintenance control

Les installations d’éclairage doivent être surdimensionnées pour pouvoir remplir les dispositions de la norme EN 12464 en matière d’éclairement minimal à maintenir durant toute l’utilisation. C’est pourquoi on calcule généralement une réserve très large, vu que l’éclairement diminue au fur et à mesure du vieillissement, de l’encrassement des luminaires, de l’encrassement de la pièce et de la durée de vie de la lampe.

Des installations de gestion centralisée permettent de piloter les lampes de manière à maintenir toujours le niveau d’éclairement à la valeur requise. Ainsi seule l’énergie absolument nécessaire est consommée. Des éclairements plus élevés permettent en plus d’optimiser les intervalles de maintenance.

Sans maintenance Control
Un flux lumineux trop élevé et une forte consommation en permanence.

Avec maintenance Control
Un flux lumineux constant et une consommation réduite.
Calculé sur une période de 15 ans, cette fonction permet d’économiser
jusqu’à un tiers des frais d’exploitation des luminaires et en même temps de rallonger sensiblement les intervalles d’entretien.

Le facteur de maintenance considéré pour le dimensionnement de l’éclairage est de 0,70. L’éclairage est donc surdimensionné de 30 %. Le maintien d’un flux constant permet d’économiser de l’ordre de 10 %.

Consommations énergétiques

Suivant les différentes configurations d’éclairage naturel envisagées ci-dessus, les consommations énergétiques de l’éclairage artificiel sont simulées :

Puissance installée : 7 W/m² Consommation annuelle théorique d’éclairage artificiel selon le type de gestion
Gestion en fonction d’un horaire Gestion automatique de la lumière du jour sur bas d’un Heliomètre positionné Gestion automatique de la lumière du jour sur bas d’un Heliomètre positionné + maintient du flux constant
Alt 1 Éclairage zénithal nord – vitrage sélectif 30,0 kWh/m².an 25,0 kWh/m².an 16,7 % 22,7 kWh/m².an 24,3 %
Alt 2 Éclairage zénithal nord + bandeau lumineux en façade nord – vitrage sélectif 30,0 kWh/m².an 22,4 kWh/m².an 25,3 % 20,4 kWh/m².an 32,0 %
Alt 3 Éclairage zénithal nord + bandeau lumineux en façade nord – vitrage clair – parois claires 30,0 kWh/m².an 20,2 kWh/m².an 32,7 % 18,5 kWh/m².an 38,3 %
Alt 4 Éclairage zénithal coupole  – vitrage translucide (TL 22 %) + parois claires 30,0 kWh/m².an 24,3 kWh/m².an 19 % 22,1 kWh/m².an 26,3 %
Alt 5 Éclairage zénithal coupole  – vitrage translucide (TL 35 %) + parois claires 30,0 kWh/m².an 19,6 kWh/m².an 34,7 % 18 kWh/m².an 40 %

 

D’un point de vue consommation énergétique, les alternatives 3 et 5 avec une gestion automatique par rapport à la lumière du jour et un maintien du flux constant sont intéressantes. Cependant, il faut rappeler que d’un point de vue confort visuel (éblouissement) et thermique (surchauffe d’été), l’alternative 3 avec les sheds orientés au nord est celle qui donne les meilleurs résultats.

Choisir l’emplacement des luminaires dans les commerces

Les situations sont tellement nombreuses dans les commerces qu’il est impossible de donner une règle générale permettant de positionner idéalement les luminaires.

Parmi les caractéristiques à ne pas perdre de vue, la hauteur des rayons est d’une grande importance. Elle influencera les niveaux d’éclairement et l’uniformité de l’éclairage général. Dans le cas de rayonnage haut, comme ceux que l’on retrouve dans les supermarchés, il faudra bien tenir compte de la position relative des luminaires par rapport aux rayonnages. Le dimensionnement devra être réalisé par un logiciel de calcul permettant de prendre en compte la position et la taille de ces meubles.

Régulation du ventilo-convecteur deux tubes – deux fils – Schéma 1

Comment réguler le ventilo ?

– schéma 1 »» [0] [1]

Régulation du ventilo-convecteur deux tubes - deux fils - Schéma 1

La production frigorifique avec stockage de glace.

Schéma 1

L’équipement frigorifique peut être complété par un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace. Une vanne trois voies mélangeuse permet de réguler la température de l’eau glacée lors de la décharge du stockage.

Régulation du ventilo-convecteur deux tubes – deux fils – Schéma 0

Comment réguler le ventilo ?

– schéma 0 »» [0] [1]

Régulation du ventilo-convecteur deux tubes - deux fils - Schéma 0

La régulation du ventilo-convecteur deux tubes – deux fils.

> Schéma 0

Une sonde dans la prise d’air permet de commander soit le débit d’alimentation de la batterie froide, soit l’alimentation de la résistance électrique.

Régulation de l’alimentation du ventilo-convecteur quatre tubes – Schéma 1

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 1 »» [0] [1]

Schéma 1

À cet équipement frigorifique peut être adjoint un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace.

La production peut aussi être assurée par une machine frigorifique dont on récupère la chaleur au condenseur : à ce moment, la chaleur captée dans les locaux à refoidir est récupérée dans les locaux à réchauffer! C’est la situation rencontrée en mi-saison. L’installation est alors particulièrement économe puisque seule la consommation des compresseurs est à fournir.

En plein été, la dissipation de chaleur  se fait par un condenseur traditionnel (dit condenseur de rejet). En plein hiver, une chaudière d’appoint reste nécessaire pour vaincre la forte demande.

Régulation de l’alimentation du ventilo-convecteur quatre tubes – Schéma 0

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 0 »» [0] [1]

 La régulation du ventilo-convecteur quatre tubes.

> Schéma 0 : schéma de principe d’une installation ventilos 2 tubes.

La production de chaleur se fait, par exemple, par la chaudière du bâtiment.

La température de l’eau chaude distribuée est alors modulée en fonction de la température extérieure, via la courbe de chauffe du régulateur.

La production d’eau glacée est réalisée par la machine frigorifique. On y rencontre généralement une distribution à un régime constant du type aller 6° – retour 11°, mais les accro’s de l’URE savent qu’il y a là un potentiel d’énergie à récupérer (en augmentant la température de l’eau glacée, on diminue la consommation latente).

Régulation du ventilo-convecteur quatre tubes – Schéma 4

Comment réguler le ventilo ?

– schéma 4 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 4

La régulation vannes 2 voies (vitesse variable).

> schéma 4

La pompe travaille à vitesse variable, et maintient une pression constante dans le réseau. Ceci est nettement plus économique mais suppose qu’une protection des installations de production soit prévue lorsque le débit d’irrigation devient faible : un bypass pour la chaudière et un ballon tampon pour la machine frigorifique.

Régulation du ventilo-convecteur quatre tubes – Schéma 3

Comment réguler le ventilo ?

– schéma 3 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 3

La régulation par vannes deux voies (soupape différentielle).

2° Régulation du circuit hydraulique

Dans les circuits sans vannes ou avec des vannes à trois voies, le débit hydraulique total de l’installation est constant.

Par contre, dans les installations avec vannes deux voies, deux solutions sont possibles

> schéma 3

Une vanne à décharge (encore appelée vanne à soupape différentielle) est placée en parallèle sur le réseau de distribution. La pompe est protégée, elle travaille à débit constant, mais la consommation est constante également !

Régulation du ventilo-convecteur quatre tubes – Schéma 2

Comment réguler le ventilo ?

– schéma 2 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 2

La régulation par réglage de la vitesse du ventilateur.

> schéma 2

Variante : il existe des appareils pour lesquels la sélection de la vitesse du ventilateur est réalisée automatiquement en fonction de l’écart de température par rapport à la consigne (ce sera par exemple le cas pour des appareils ne disposant pas de vanne de réglage sur le débit d’eau).

Si plusieurs ventilos sont prévus dans un même local, il est utile de les faire fonctionner en maître-esclaves, de telle sorte que l’un ne fasse pas du froid quand l’autre fait du chaud !

Régulation du ventilo-convecteur quatre tubes – Schéma 1

Comment réguler le ventilo ?

– schéma 1 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 1

La régulation par vannes trois voies.

1°  régulation de la température

> schéma 1

Une sonde de température est insérée à la prise d’air. En fonction de l’écart à la consigne, on module l’ouverture d’une vanne à trois voies, et donc le débit d’eau chaude (hiver) ou d’eau glacée (été).  Il s’agit généralement d’un régulateur à action progressive. Ce régulateur peut commander plusieurs ventilos d’un même local.

On remarque la présence d’une zone neutre (minimum 2 degrés) pour laquelle l’installation n’est plus alimentée, évitant ainsi le pompage entre chaud et froid. Un agrandissement de cette zone neutre permet des économies d’énergie.

Ceci étant dit, l’occupant peut également agir sur la vitesse du ventilateur pour donner ou non de la pêche à l’émetteur. En pratique, il n’acceptera le bruit de la grande vitesse que pour la relance du matin en hiver ou pendant les canicules en été.

Régulation du ventilo-convecteur quatre tubes – Schéma 0

Comment réguler le ventilo ?

– schéma 0 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur quatre tubes - Schéma 0

La régulation du ventilo-convecteur quatre tubes.

> schéma 0 : schéma de principe d’une régulation du ventilo-convecteur quatre tubes.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 6

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 6 »» [0] [1] [2] [3] [4] [5] [6]

 Distribution par zone (avec circulateur propre).

> schéma 6 : découpage par zone et ciculateur par zone

C’est une variante du schéma précédent.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 5

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 5 »» [0] [1] [2] [3] [4] [5] [6]

 Distribution par zone (avec circulateur commun).

2ème solution : alimentation chaud et froid

> schéma 5 : découpage par zone et circulateur commun

L’inconvénient des ventilos à deux tubes, c’est l’uniformité de la température de distribution de l’eau dans tous les bureaux. De là, le souhait de découper l’installation par zones : la zone en façade Sud, la zone de la salle de conférence,…
Des vannes de commutation sont alors placées à l’entrée et à la sortie de chaque zone. Des consignes différentes sont alors possibles pour chaque local, mais le passage de la distribution d’eau glacée à la distribution d’eau chaude est fait en même temps pour tous les locaux de la zone, … après accord syndical !

En pratique, un régulateur agit sur base d’une sonde de température extérieure, une sonde d’ensoleillement et d’une sonde de compensation d’ambiance dans un local témoin,…généralement chez le chef !

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 4

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 4 »» [0] [1] [2] [3] [4] [5] [6]

 Production chaud/froid par machine réversible.

> schéma 4 : machine frigorifique réversible

La production peut aussi être assurée par une machine frigorifique réversible : lors du changement été/hiver, le sens de circulation du fluide frigorigène s’inverse, et une pompe à chaleur air-eau est créée. Un appoint de chaleur sera nécessaire pour vaincre la pointe hivernale.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 3

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 3 »» [0] [1] [2] [3] [4] [5] [6]

Production frigorifique avec stockage nocturne.

> schéma 3 : stockage de frigories

À l’équipement frigorifique peut être adjoint un bac à glace, permettant de stocker du froid la nuit au moment où l’électricité est moins chère, pour l’utiliser le jour par la fonte de la glace.

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 2

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 2 »» [0] [1] [2] [3] [4] [5] [6]

En hiver, alimentation en eau chaude.

> schéma 2 : situation hiver

La production de chaleur se fait souvent par la chaudière du bâtiment. La température de l’eau chaude distribuée est alors très souvent modulée en fonction de la température extérieure, via la courbe de chauffe du régulateur.

On sera attentif à ce que le basculement froid/chaud se fasse avec un battement suffisamment large pour éviter un phénomène de pompage eau chaude/eau glacée et des pertes d’énergie par mélange eau chaude – eau froide…

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 1

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 1 »» [0] [1] [2] [3] [4] [5] [6]

 En été, alimentation en eau glacée.

1ère solution : alimentation chaud ou froid

> schéma 1 : situation été

La commutation eau glacée/eau chaude est réalisée via deux vannes 3 voies de commutation, encore appelées « change over ». Elles peuvent être commandées manuellement ou automatiquement (en fonction de la température extérieure et de l’ensoleillement).

La production d’eau glacée est réalisée par la machine frigorifique. On prévoit généralement une distribution à régime constant du type aller 6° – retour 11°, mais les accro’s de l’URE savent qu’il y a là un potentiel d’énergie à récupérer (en augmentant la température de l’eau glacée, on diminue la consommation latente) !

Régulation de l’alimentation du ventilo-convecteur deux tubes – Schéma 0

Comment réguler l’alimentation en eau chaude/eau glacée ?

– schéma 0 »» [0] [1] [2] [3] [4] [5] [6]

La régulation du ventilo-convecteur deux tubes.

schéma 0  : schéma de principe d’une installation ventilos 2 tubes.

Régulation du ventilo-convecteur deux tubes – Schéma 4

Comment réguler le ventilo ?

– schéma 4 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur deux tubes - Schéma 4

La régulation de pression du réseau par variation de vitesse du circulateur.

> schéma 4

Soit la pompe travaille à vitesse variable, en maintenant une pression constante dans le réseau. Ceci est nettement plus économique mais suppose une protection des installations de production lorsque le débit d’irrigation devient faible : un bypass pour la chaudière et un ballon tampon pour la machine frigorifique.

Régulation du ventilo-convecteur deux tubes – Schéma 3

Comment réguler le ventilo ?

– schéma 3 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur deux tubes - Schéma 3

La  régulation de la pression du réseau par soupape différentielle.

2° Régulation des débits

Dans les circuits sans vannes ou avec des vannes à trois voies, le débit hydraulique total de l’installation est constant (grâce à la vanne de réglage placée sur le bypass).

Par contre, dans les installations avec vannes deux voies, deux solutions sont possibles :

> schéma 3

Soit une vanne à décharge (encore appelée vanne à soupape différentielle) est placée en parallèle sur le réseau de distribution. La pompe est protégée, elle travaille à débit constant, mais la consommation est constante également !

Régulation du ventilo-convecteur deux tubes – Schéma 2

Comment réguler le ventilo ?

– schéma 2 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur deux tubes - Schéma 2

La régulation par action sur la vitesse du ventilateur.

> schéma 2

La vitesse du ventilateur est cette fois réalisée automatiquement en fonction de l’écart de température par rapport à la consigne. La température de l’eau (froide ou chaude) est alors constante. Ce système est très bon marché.

L’avantage de ce système est de limiter le coût de fonctionnement du ventilateur. Mais l’inconvénient est de créer des trains d’air chaud/d’air froid, surtout si le ventilateur n’a qu’une seule vitesse (fonctionnement en tout ou rien)… un différentiel de 4° est alors parfois rencontré, ce qui n’est pas très confortable !

De l’eau trop chaude augmente ce différentiel ainsi que les pertes par convection naturelle lors de l’arrêt du ventilateur…

Dans ce schéma, il est utile de placer la sonde thermostatique dans l’ambiance : si elle était placée dans la reprise d’air, il faudrait laisser le ventilateur en 1ère vitesse même lorsque la température ambiante est en plage neutre…!

Régulation du ventilo-convecteur deux tubes – Schéma 1

Comment réguler le ventilo ?

– schéma 1 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur deux tubes - Schéma 1

La régulation du débit par vanne trois voies.

1° Régulation de température.

>  schéma 1

Une sonde de température est insérée à la prise d’air. En fonction de l’écart à la consigne, on module l’ouverture d’une vanne à trois voies, et donc le débit d’eau chaude (hiver) ou d’eau glacée (été).

Il s’agit généralement d’un régulateur à action progressive, qui peut commander plusieurs ventilos d’un même local.

Astuce ! En hiver, plus le local est froid, plus il faut ouvrir la vanne d’eau chaude. En été, c’est l’inverse, c’est  la montée en température qui doit ouvrir la vanne d’eau glacée…

Pour commuter de la rampe « chaud » vers la rampe « froid », on agira via un thermostat d’inversion dont la sonde détecte « la saison » en fonction de la température de l’eau du réseau ! La rampe peut également être inversée par un commutateur manuel, ou par un signal de la Gestion Technique Centralisée du bâtiment.

Ventilo_2v3-fs.gif (1820 octets)

On constate la présence d’une zone neutre (minimum 2 degrés) pour laquelle l’installation n’est plus alimentée.

Ceci étant dit, l’occupant peut également agir sur la vitesse du ventilateur pour donner ou non de la pêche à l’émetteur.

En pratique, il n’accepte le bruit de la grande vitesse que pour la relance du matin en hiver ou pendant les canicules en été (« bruit ou sueur, il faut choisir » !…).

Régulation du ventilo-convecteur deux tubes – Schéma 0

Comment réguler le ventilo ?

– schéma 0 »» [0] [1] [2] [3] [4]

Régulation du ventilo-convecteur deux tubes - Schéma 0

La régulation du ventilo-convecteur deux tubes.

Stockage de glace dans les bacs à nodules – schéma 4

Le stockage de glace dans les bacs à nodules – schéma 4 »» [1] [2] [3] [4]

> schéma 4 : déstockage seul
La machine frigorifique est arrêtée.

Stockage de glace dans les bacs à nodules – schéma 3

Le stockage de glace dans les bacs à nodules – schéma 3 »» [1] [2] [3] [4]

> schéma 3 : déstockage et production directe
La puissance frigorifique est inférieure à la puissance appelée par les batteries froides (en fin d’après-midi , par exemple).
Les deux pompes sont en service et la vanne trois voies régule pour maintenir une température de départ de l’eau glacée constante.
Puisque le débit de distribution est supérieur au débit de production, le solde est assuré par le passage du fluide au travers du stockage qui se décharge.

Stockage de glace dans les bacs à nodules – schéma 2

Le stockage de glace dans les bacs à nodules – schéma 2 »» [1] [2] [3] [4]

> schéma 2 : stockage et production directe
La puissance frigorifique est supérieure à la puissance appelée par les batteries froides (en début de journée, par exemple).
La pompe de distribution P2 est en service et la vanne trois voies régule pour maintenir une température de départ de l’eau glacée constante.
Puisque le débit de distribution est inférieur à celui pulsé par la pompe de production P1, le solde du débit de production remonte dans le réservoir de stockage.

Stockage de glace dans les bacs à nodules – schéma 1

Le stockage de glace dans les bacs à nodules – schéma 1 »» [1] [2] [3] [4]

4 régimes de fonctionnement sont proposés :

> schéma 1 : le stockage seul
Le réseau de distribution n’est pas demandeur (la nuit, par exemple). La pompe de distribution P2 est arrêtée. La vanne trois voies est fermée.
Le groupe frigorifique refroidit les nodules qui se cristallisent progressivement, de la périphérie vers le centre. La température à l’évaporateur reste stable.
La puissance frigorifique appelée par le réservoir diminue progressivement, suite au gel des nodules. Les nodules étant gelés, le groupe frigorifique va provoquer une diminution rapide de la température de la boucle de fluide refroidissant. Cette chute de température sera détectée par le thermostat de régulation qui va arrêter le groupe frigorifique, arrêter la pompe et fermer la vanne d’arrêt.

Stockage de glace dans les bacs à faisceaux tubulaires – schéma 3

Le stockage de glace dans les bacs à faisceaux tubulaires – schéma 3 »» [1] [2] [3]

> schéma 3
le circuit présenté au schéma 3 permet une autre solution : l’usage d’un réservoir à glace à la pression atmosphérique.
L’échangeur intermédiaire permet la séparation du circuit de distribution sous pression du circuit du bac à glace ouvert.

Stockage de glace dans les bacs à faisceaux tubulaires – schéma 2

Le stockage de glace dans les bacs à faisceaux tubulaires – schéma 2 »» [1] [2] [3]

> schéma 2

le schéma 2 présente la phase de fonte de la glace.

Un tel circuit permet à la fois le déstockage du réservoir et la production frigorifique instantanée.

L’échangeur intermédiaire permet de séparer le circuit de distribution rempli d’eau, du circuit de production rempli d’eau glycolée, ce qui diminue l’importance du volume de glycol à mettre en jeu.

On pourra également s’inspirer du schéma du stockage de glace dans les bacs à nodules qui permet plus de variantes dans la régulation.

Stockage de glace dans les bacs à faisceaux tubulaires – schéma 1

Le stockage de glace dans les bacs à faisceaux tubulaires – schéma 1 »» [1] [2] [3]

> schéma 1
Le schéma 1 présente la phase de prise en glace.

Stockage d’eau glacée – schéma 3

Le stockage d’eau glacée – schéma 3 »» [1] [2] [3]

schéma 3 
Le ballon de stockage est un élément tampon intermédiaire, séparant le circuit de production de l’eau glacée du circuit de l’utilisation.
» les deux circuits sont découplés hydrauliquement, chacun disposant de sa propre pompe. Le ballon se comporte comme une bouteille de découplage hydraulique (casse pression).

Stockage d’eau glacée – schéma 2

Le stockage d’eau glacée – schéma 2 »» [1] [2] [3]

schéma 2 
Le ballon de stockage est placé en série, sur le départ de l’eau glacée vers les batteries froides.
» la température de l’eau d’alimentation des batteries froides est stable.

Stockage d’eau glacée – schéma 1

Le stockage d’eau glacée – schéma 1 »» [1] [2] [3]

schéma 1 
Le ballon de stockage est placé en série, sur le retour d’eau glacée des batteries froides.
» le fonctionnement du groupe frigorifique est stable.

Prescriptions relatives à l’éclairage dans les commerces

Prescriptions relatives à l'éclairage dans les commerces


Zone de rangement en rayonnage

Il est utile de pouvoir connaître les niveaux d’éclairement recommandé suivant l’ergonomie de travail (le confort de la tâche de travail).

Dans la norme NBN EN 12464-1, on établit une nomenclature dans laquelle on retrouve pour différents locaux des bâtiments du tertiaire, entre autres, les paramètres suivants :


Zone de rangement en rayonnage

Type d’intérieur, tâche ou activité Em (lux) UGR Uo Ra Remarques
Allées centrales : non occupées 20 0,40 40

Eclairement au niveau du sol.

Allées centrales : occupées 150 22 0,40 60 Eclairement au niveau du sol.

Magasin de vente au détail

Type d’intérieur, tâche ou activité

Em (lux) UGR Uo Ra

Remarques

Zones de vente 300 22 0,40 80
Zones des caisses 500 19 0,60 80
Table d’emballage 500 19 0,60 80

Parcs de stationnement de voitures (couvert)

Type d’intérieur, tâche ou activité

Em (lux) UGR Uo Ra

Remarques

Rampes d’entrée et de sortie (de jour) 300 25 0,40 40

1. Eclairement au niveau du sol.

2. Les couleurs de sécurités doivent être identifiables.

Rampes d’entrées et de sortie (de nuit) 75 25 0,40 40

1. Eclairement au niveau du sol.

2. Les couleurs de sécurités doivent être identifiables.

Voies de circulation 75 25 0,40 40

1. Eclairement au niveau du sol.

2. Les couleurs de sécurités doivent être identifiables.

Choisir entre les différents types de programme de maintenance

Planifier la maintenance, pourquoi ?

Lorsque l’on planifie une maintenance, on désire définir :

  • le surdimensionnement initial de l’installation
  • l’intervalle de temps entre deux nettoyages des luminaires
  • l’intervalle de temps entre deux nettoyages des parois
  • l’intervalle de temps entre deux relamping (remplacement de toutes les lampes)

La détermination de ses valeurs passent par le calcul des paramètres suivants :

  • LLMF = facteur de maintenance du flux lumineux de la lampe
  • LSF = facteur de survie de la lampe
  • LMF = facteur de maintenance du luminaire
  • RSMF = facteur de maintenance des parois du local
  • MF = facteur de maintenance de l’installation (MF=LLMF.LSF.LMF.RSMF)

En effet, il est toujours nécessaire de surdimensionner un système d’éclairage. La  quantité de lumière émise va en effet diminuer au cours du temps, et cela pour plusieurs raisons (vieillissement de l’appareillage, encrassement des luminaires…). Dans les calculs, ce surdimensionnement est pris en compte via le facteur de maintenance MF :

Emoyen initial = Emoyen requis / MF

Avant de procéder à un relamping, il sera possible d’améliorer l’efficacité en service de l’installation, de retrouver une partie de son efficacité en pratiquant un nettoyage des luminaires ou des parois du local.

Enfin, quand l’efficacité du système sera devenue trop faible, il y aura lieu d’effectuer un relamping. Celui-ci devra permettre de restituer à l’installation une efficacité proche de celle qu’il avait initialement.

Le processus menant à la détermination de ces différents facteurs peut être schématisé comme suit :

Le but du jeu étant d’optimiser la valeur du facteur de maintenance tout en définissant des intervalles de temps cohérents. Ce processus devra être réalisé pour toute nouvelle conception. En effet, il n’existe malheureusement pas de recette miracle pour planifier la maintenance.

Une fois la valeur de facteur de maintenance déterminée, celle-ci peut être utilisée dans un logiciel de simulation de l’éclairage (par exemple Dialux) pour définir le nombre de lampes et de luminaires utilisés. À partir de ces valeurs, il est possible de faire l’étude économique de chaque système et de son programme de maintenance, et ainsi de déterminer le meilleur d’entre eux.

À défaut des valeurs issues des catalogues, le CSTC et la CIE ont publié des rapports reprenant les valeurs (LLMF, LSF, LMF, RSMF) à utiliser pour planifier la maintenance d’un système d’éclairage. Ces dossiers donnent les valeurs moyennes à utiliser et, comme expliquer par la suite, il y a lieu de modifier ses valeurs pour tenir compte de la valeur de la durée de vie moyenne d’une lampe en particulier.


La maintenance préventive

Application

Ce type de programme peut être envisagé pour les grandes installations, lorsqu’il est acceptable qu’un certain nombre de lampes des lampes soit hors services.

Procédure

Le renouvellement des lampes (relamping) est réalisé avant la fin de leur durée de vie moyenne et un nettoyage des luminaires est planifié de manière régulière. La périodicité de ce renouvellement peut être fixée en fonction de deux critères de planification complémentaires. Le système est composé de deux catégories de lampes, celles hors services et celles ayant brulé un certain nombre d’ heures.

Critères de planification

Deux critères complémentaires peuvent être utilisés ici :

  • Le flux lumineux minimum émis par l’ensemble de l’installation (produit du facteur de maintenance du flux lumineux de la lampe (LLMF) et du facteur de survie des lampes (LSF).

 

  • Le pourcentage admissible de lampes défectueuses.  Ce critère, en plus d’influencer l’efficacité du système d’éclairage, a un impact certain sur l’esthétique de l’installation. Si on opte pour ce type de programme de maintenance, il faut garder à l’esprit qu’il ne sera pas possible de conserver un système sans lampes défectueuses pendant toute la période précédent le relamping.

La maintenance curative

Application

Ce type de programme est en général utilisé pour les installations où il n’est pas acceptable que certaines lampes soient hors service. Il sera facilement mis en œuvre pour de petites installations. Un relamping complet de l’installation sera néanmoins tôt ou tard obligatoire (vieillissement de l’appareillage, notamment électrique, équipement dépassé, …)

Procédure

Les lampes défectueuses et l’appareillage électrique défaillant sont remplacés au coup par coup et un nettoyage des luminaires est planifié de manière régulière. Le système est donc constamment constitué de lampes ayant brulé un nombre d’heures différent.


La maintenance mixte

Application

Ce type de programme est en général mis en place dans le cas d’installation où il n’est pas acceptable que certaines lampes soient hors service et où l’on désire planifier un relamping régulier.

Procédure

Une combinaison des deux procédures précédentes. Les lampes défectueuses sont remplacées au coup par coup et un nettoyage des luminaires est planifié de manière régulière. Le système est donc constamment constitué de lampes ayant brûlé un nombre d’heures différent. Un relamping est prévu à intervalle fixe.

Critère de planification

Étant donné que les lampes hors services sont continuellement remplacées, le flux lumineux restant de l’ensemble de l’installation (cf. ci-dessus) tendra vers une certaine valeur. Cette valeur est dans la plupart des cas acceptable, comme le montre le graphique suivant (1 000 h de fonctionnement par an). Cette valeur ne servira généralement pas de critère de planification.

LLMF : facteur de maintenance du flux lumineux de l’installation

(flux en service) = (flux initial) . LLMF

Les valeurs indiquées ici sont des moyennes.

Les lampes aux halogénures métalliques font exception. Dans ce cas, pour contrer les effets de la diminution de leur flux lumineux, il serait par exemple nécessaire de surdimensionner l’installation (sensée fonctionner au moins 18 000 h) de 35 %, ce qui du point de vue de l’énergie est inacceptable. Dans ce cas, un relamping devra être envisagé avant que le facteur de maintenance du flux lumineux ne descende sous une certaine valeur (NB : énergétiquement les lampes fluocompactes deviendraient dans le cas contraire plus efficaces, avec une efficacité lumineuse moyenne en service de 56.07 lm/W (0.89*63) contre 55.42 lm/W (0.68*81.5) pour les halogénures métalliques).

Pour les autres lampes, le critère de planification sera plutôt le pourcentage de lampes changées avant relamping. Ce critère influencera essentiellement le bilan économique de l’installation. Il peut par exemple sembler naturel d’effectuer un relamping juste avant la fin de vie moyenne des lampes. En effet, c’est vers cette période que le plus grand nombre de lampes devra être remplacé. Une autre manière de faire est d’envisager un relamping avant que X % des lampes n’ait été changé. C’est ce que montre le graphique suivant dans le cadre d’un système fictif.


Éviter les consommations excessives liées au surdimensionnement

La surconsommation initiale n’est pas une fatalité. Les choix relatifs au mode de gestion de l’éclairage ou le recours à des technologies proposées par certains constructeurs permettent d’économiser l’énergie liée au surdimensionnement. Le principe est à chaque fois le même, dimmer les luminaires de manière à ne fournir que le niveau d’éclairement nécessaire :

Gestion classique : les luminaires sont alimentés à puissance constante, le niveau d’éclairement varie d’une valeur excessive à la valeur à maintenir.

Gestion avancée : les luminaires sont alimentés à puissance variable de manière à toujours fournir exactement le niveau d’éclairement nécessaire. La puissance est déterminée soit en temps réel par mesure de la luminance, soit par calcul théorique.

Mesure de la luminance au niveau de chaque luminaire

Une manière de lier l’éclairage artificiel à l’éclairage naturel est d’équiper chaque luminaire muni d’un ballast électronique dimmable d’un capteur qui mesure la luminance. Le capteur agit directement sur le ballast du luminaire et régule le flux lumineux pour maintenir en permanence l’éclairement recommandé. (Il existe également des systèmes à régulation centrale, mais ce système a l’avantage d’être très simple et bon marché. Il faudra néanmoins réaliser la phase de réglage initiale avec soin !)

Quand ce genre de système est choisi, il permet de limiter la surconsommation initiale. En effet, le réglage sera réalisé de manière à fournir les lux suffisant sur le plan de travail. Le vieillissement et l’encrassement des appareils conduiront à une baisse du niveau d’éclairement qui sera compensée par l’augmentation du flux émis par la lampe.

Bien sûr il est toujours nécessaire de surdimensionner l’installation et donc de réaliser une planification correcte de la maintenance.

Par calcul théorique

Certaines firmes proposent des solutions basées sur des calculs théoriques. Les ballasts à commande numérique sont alors commandés selon une fonction qui assure un niveau d’éclairement constant et consomment uniquement l’énergie minimale nécessaire.

Selon un des constructeurs, sur 15 ans, cette méthode permet d’économiser jusqu’à un tiers des frais d’exploitation des luminaires. Nous n’avons pu nous procurer les études ayant conduit à la détermination des modèles théoriques, il nous est donc difficile de nous prononcer plus favorablement pour ce genre de solution. Quoi qu’il en soit, cette piste d’économie très intéressante est à explorer.

À noter que ce genre de fonction, comme il se base sur des calculs théoriques, sera moins précis que la technique de mesure de la luminance. En effet, à l’intérieur d’une famille de lampes, les différents spécimens posséderont déjà des caractéristiques pouvant être fortement différentes.

Liaison froide [Froid alimentaire]

Liaison froide [Froid alimentaire]

En liaison froide, les plats sont préparés en cuisine centrale. Après cuisson, les denrées subissent une réfrigération rapide avant d’être stockées à basse température. Suivant la durée de conservation recherchée (quelques jours ou quelques mois), on procède à une liaison froide positive ou une liaison froide négative.


Liaison froide positive

Les plats se conservent au maximum pendant 6 jours*.

  • Après confection, les plats sont conditionnés en rations individuelles ou en plats collectifs, dans des barquettes fermées par thermosoudage.
  • Une cellule de refroidissement rapide abaisse la température au cœur des aliments de +65°C à +10°C en moins de 2 heures (y compris la durée de manutention).
  • Les barquettes sont placées dans une armoire ou chambre de stockage à une température oscillant entre 0 et +3°C.
  • Le transport à destination des restaurants satellites s’effectue en véhicules réfrigérants (+3°C)  ou isothermes.
  • Sur chaque site, les produits sont entreposés en armoire réfrigérée (+3°C).
  • Avant consommation, ils subissent un réchauffement rapide à au moins 65°C à cœur, en moins d’une heure.

* : plus précisément, les plats se conservent :

  • 3 jours, en règle générale.
  • 5 jours pour certains produits.
  • 1 jour pour certains produits tels que les crevettes.

Pour en savoir plus, voir « HACCP pour PME – Gemploux ».


Liaison froide négative

Elle est aussi appelée liaison surgelée.
Les plats se conservent pendant plusieurs mois.

  • Après confection, les plats sont conditionnés en rations individuelles ou en plats collectifs, dans des barquettes fermées par thermosoudage.
  • Une cellule de refroidissement rapide abaisse la température au cœur des aliments de +65°C à +10°C en moins de 2 heures (y compris la durée de manutention).
  • Les plats passent dans un tunnel de refroidissement rapide qui porte les températures des aliments de +10°C à -18°C en moins de 3 heures après la fin de la cuisson.
  • Le transport à destination des restaurants satellites s’effectue en véhicules réfrigérants (-18°C).
  • Sur chaque site, les produits sont stockés à -18°C.
  • Avant consommation, ils subissent un réchauffement rapide à au moins 65°C, en moins d’une heure.

Remarque : plutôt que de passer dans une cellule de refroidissement rapide puis un tunnel de refroidissement, les aliments peuvent aussi simplement passer dans une cellule de congélation rapide.


Avantages

C’est un mode de préparation très hygiénique. Les qualités nutritives sont conservées.

La fabrication et la consommation peuvent être dissociées dans le temps et dans l’espace. Ce qui permet une production en continu et donc une meilleure répartition des tâches sur la journée et sur la semaine de travail.

Elle permet d’ajuster les quantités préparées à celles commandées et limite donc les pertes.

Elle augmente le choix des consommateurs.

Elle permet le regroupement des achats (incidence sur les prix)


Inconvénients

L’investissement en équipement est élevé (environ 30 % supérieur à celui nécessaire à une liaison chaude). On ne peut pas tout servir. On ne peut pas servir de frites par exemple.

Choisir un climatiseur individuel ou une armoire de climatisation

Choisir un climatiseur individuel ou une armoire de climatisation


Quand opter pour un climatiseur individuel ?

Un climatiseur paraît bien adapté lorsque l’on cherche un refroidissement localisé à peu de frais. Mais ce système présente d’importantes limites : il ne permet pas la maîtrise de l’humidité et risque de créer un inconfort lié au flux d’air froid.

Ce dernier point s’explique comme suit : en conditionnement d’air, on cherche à assurer un écart de soufflage limité (écart entre la température de l’air soufflé et la température du local). On peut aller jusqu’à 10 °C d’écart (soit une pulsion d’air à 14 °C si le local est à 24 °C) mais on utilise alors des bouches à haut taux d’induction pour être sûr que le mélange avec l’air ambiant soit maximal. Dans un climatiseur par contre, le fabricant cherche à fournir une puissance maximale dans un encombrement minimal. L’évaporateur est donc de petite surface, … et travaille à très basse température ! L’air du local est fortement refroidi à son contact. Une « coulée » d’air froid risque alors de gêner fortement les occupants…

Ceci dit, c’est une solution facile lorsque quelques locaux sont à traiter, particulièrement en rénovation. Et le confort limité peut être accepté si le climatiseur est utilisé sporadiquement pour vaincre des périodes de surchauffe.

Lorsque des puissances plus grandes sont nécessaires par exemple pour des locaux de serveurs, on s’orientera vers les armoires de climatisation.


Choix du type de climatiseur

En fonction de la puissance frigorifique

À partir de la puissance frigorifique requise, on réalisera une première sélection parmi la typologie des climatiseurs de locaux.

La puissance frigorifique nécessaire permet déjà d’écarter quelques équipements :

  • appareil mobile : maximum 2,5 kW,
  • appareil plafonnier : minimum 2,5 kW,
  • appareil en toiture + gaines (rooftop) : minimum 5 kW.

Lorsque la puissance des appareils présents sur le marché ne correspond pas à la puissance frigorifique calculée, il est toujours préférable de choisir un appareil ayant une puissance juste inférieure plutôt que celui qui a une puissance supérieure.

En effet, les conditions extrêmes de température extérieures n’apparaissent que durant quelques jours par an. On peut donc se permettre un très léger inconfort durant cette période. De plus, un appareil plus petit aura des durées de fonctionnements plus longs, et donc un meilleur rendement.

En fonction de la performance acoustique

Les climatiseurs monoblocs et les climatiseurs de « fenêtres » présentent souvent de mauvaises caractéristiques acoustiques puisque condenseur et compresseur sont directement en contact avec le local à climatiser.

Graphique performance acoustique

La performance acoustique va orienter le choix vers une configuration en split (le compresseur est à l’extérieur), puis vers un évaporateur en cassette (faux plafond), voire rechercher un placement de l’évaporateur dans un local annexe (couloir ?) afin de profiter en plus de l’absorption acoustique de la gaine.

À ce titre, on pourrait classer le choix en fonction de ses performances acoustiques de gauche à droite :

  Illustration plafonnier rapporté.  Illustration plafonnier intégré.  Illustration unité de plafond + gaine.

Mais ce critère sera affiné ci-dessous.

En fonction d’un éventuel découpage par zone

Il faut découper le local par zone, chaque zone étant desservie par une bouche de soufflage :

Si la surface du local est importante :

Illustration sur principe de surface du local.

Un phénomène d’irrigation incomplète des locaux apparaît lorsque la distance de pénétration du jet (mentionnée par le fournisseur) est inférieure à la dimension de la pièce (dans la direction de soufflage). Il se forme alors un mouvement d’air en sens contraire (boucle secondaire) dans le fond du local, zone mal rafraîchie.

Dans ce cas un découpage du local en plusieurs zones s’impose.

Exemple : découpage d’un local rectangulaire suivant les zones d’influence des diffuseurs plafonniers circulaires.

Si un obstacle se trouve au plafond

Lorsque l’air est soufflé à proximité d’une surface (ex : soufflage horizontal à proximité du plafond), il se produit un effet d’adhérence du jet à la paroi : c’est l’effet « COANDA » (augmentation de 30% de la portée).

Illustration sur effet "COANDA

L’effet Coanda est très utile quand on pulse de l’air froid, car il facilite la bonne pénétration du jet dans le local.

La présence d’un obstacle perpendiculaire au jet d’air (poutre, luminaire) peut faire dévier prématurément le jet vers la zone occupée et engendrer un courant d’air désagréable.

Illustration sur effet "COANDA

En conséquence :

  • il faut souffler soit à partir de l’obstacle, soit parallèlement à celui-ci et diviser le local en zones correspondantes,
  • l’éclairage au plafond doit être soit encastré, soit suspendu avec une longueur de suspension de 0,3 m minimum,
  • on tiendra compte de la présence éventuelle de colonnes qui ne pourront se situer dans la trajectoire du jet.

Si le local présente une forme de L

La distance de pénétration ne peut dépasser 4 fois la hauteur de la pièce. Dès lors, pour les locaux forts en longueur (et a fortiori pour les locaux en L), on prévoira une position centrale ou un dédoublement des bouches.

Si l’apport de chaleur est très localisé

Si la source de chaleur est concentrée (équipement, vitrage, …) dans une partie du local, il est judicieux de traiter spécifiquement cette zone.

Par exemple si la production des calories est éloignée de la façade (local profond), le souci d’économie d’investissement qui conduirait au choix d’un système « window unit » entraînerait un inconfort dans la zone à refroidir.

S’il y a présence de zones fumeurs et non-fumeurs

La zone à destination des fumeurs doit être traitée si possible indépendamment de la zone non-fumeurs, notamment en prévoyant l’extraction dans l’espace fumeurs.

En fonction de la centralisation ou non du traitement

Les zones étant définies, il est nécessaire de fixer le mode de traitement de l’air.

Un traitement centralisé et une distribution de l’air par gainage sont envisagés :

  • si les besoins des locaux ou des zones sont similaires, car l’air est distribué à même température dans les différentes pièces,
  • si les locaux ou les zones ont des charges thermiques trop faibles par rapport aux puissances des appareils sur le marché,
  • si le passage des gaines est possible (présence de faux plafond, de local annexe),
  • si les locaux de travail exigent des critères acoustiques sévères.

Dans ces différents cas, un seul appareil de traitement alimentera plusieurs zones via un réseau de gaines de distribution. Cette centralisation entraînera souvent le placement de l’appareil hors des locaux de travail et la possibilité d’une absorption acoustique par le gainage.

Climatiseur avec gaines.

Un traitement décentralisé est envisagé :

  • si les locaux ont des besoins différents (orientation des fenêtres, par exemple),
  • si les parois extérieures sont perçables de manière à faire traverser les liaisons électriques et frigorifiques, ainsi que la tuyauterie d’évacuation des condensats.

Illustration sur traitement décentralisé

On choisit dans ce cas, un traitement local par local au moyen d’appareils indépendants.

Photo sur traitement décentralisé

Un condenseur commun et plusieurs unités intérieures = multi-split.

Cette configuration n’exclut pas l’utilisation d’un système multi split.

Il est alors possible de diminuer la puissance à installer si on peut prendre en considération la non-simultanéité des besoins.


Choix d’ une armoire de climatisation

illustration sur armoire de climatisation

Tout comme les climatiseurs, les armoires de climatisation présentent, par rapport aux systèmes sur boucle d’eau ou d’air, l’avantage d’une très grande flexibilité d’implantation et de gestion. En termes de puissance frigorifique, on peut dépasser parfois la centaine de kW ce qui les différencie des climatiseurs de local. En termes de débit d’air, on atteint alors les 20 000 m³/h. Un des défauts majeurs est le bruit généré par cet équipement, à proximité des occupants…

Les armoires de climatisation se trouvent dans le traitement des salles informatiques, surtout lorsqu’elles constituent la seule demande du bâtiment. Lorsque le bâtiment comporte plusieurs armoires de ce type, il devient intéressant de les raccorder sur une boucle d’eau glacée, équipée d’un système centralisé d’évacuation de la chaleur. La même armoire peut climatiser plusieurs locaux (avec distribution de l’air traité par conduit) mais ces locaux doivent avoir des besoins semblables.

Techniques

Pour connaître plus en détail les caractéristiques technologiques et le fonctionnement des armoire de climatisation, cliquez ici !

Découvrez ces exemples concrets de système de climatisation : le Centre Hospitalier du Bois de l’Abbaye de Seraing et la climatisation et l’hôpital des Fagnes de Chimay.

Tableau récapitulatif des principales caractéristiques

Tableau récapitulatif des principales caractéristiques.

Types de
lampe
Puissances (W) Flux lumineux
(lm)
Efficacité lumineuse (sans ballast)
(lm/W)
IRC T°de
couleur

(K)
Durée de vie utile (h) Durée  de vie moyenne (h) Dimmable Domaine d’application
Incandescente normale 7 à 300 21
à
4 850
3 à 19 100 2 700
(2 600 à 3 000)
 Plus de 1 000** 1 000
(jusque 3 000 dans de rares cas)
oui Domestique essentiellement

Retrait du marché

Incandescente halogène * 5 à 500 60
à
9 900
12 à 28 100 3 000
(de 2 800 à 4 700)
Plus de 2 000** 2 000
(1 500 à 5 000)
oui Domestique essentiellement

Retrait du marché

Tube fluorescent 4 à 140 120

à

8 350

30 à 112 50 à 98 2 700

à

8 000

Plus de 20 000** 12 000

à

66 000

oui Éclairage général des commerces et bureaux, éclairage industriel, sportif
Fluo-
compacte culot à visser
5 à 30 150

à

2 000

30 à 67 82 à 85 2 700 Plus de 10 000** 10 000

(6 000 à 15 000)

oui certains produits spéciaux En substitution aux incandescentes
Fluo-
compacte culot à broche
5 à 120 250

à

9 000

42 à 82 80 à 98 2700

à

4 000

Plus de 10 000** 6 500

à

20 000

oui Éclairage domestique et tertiaire
Halogénures métalliques 20 à 2 100 1 300

à

225 000

37 à 118 65 à 95 2 600

à

5 600

Plus de 6 000** 15 000

à

24 000

non Éclairage tertiaire, accentuation dans les commerces, éclairage public, sportif et industriel
Sodium
haute pression
35 à 1 000 3 400

à

130 000

35 à 150 25 à 81*** 1 800

à

2 200

Plus de 30 000** 10 000

à

30 000**

oui Éclairage routier, industriel, horticole, des salles et terrains de sport
Mercure
haute pression
50 à 1 000 1 100

à

58 500

11 à 60 36 à 72 2 900

à

4 200

8 000** 20 000** non Éclairage industriel et extérieur
Sodium
basse pression
18 à 185 1 800

à

32 000

100 à 200 1 800 Largement supérieur à 16 000 non Éclairage autoroute
Induction 55 à 85

3 500

à

6 000

65 à 70 80 à 85

2 700

à

4 000

30 000

à

40 000

60 000 non Anciennement éclairage intérieur et extérieur quand l’accès est difficile
Lampe LED 1 à 18 140

à

950

30 à 120 80 à 90**** 2 700

à

4 000

Plus

de

15 000

25 000 à 30 000 oui si le driver le permet Éclairage domestique et tertiaire

* Parmi les lampes halogènes, quelques gammes présentent des puissances allant jusqu’à 2 000 W.  Le flux émis peut alors atteindre 50 000 (lm), avec une efficacité lumineuse de seulement 25 lm/W. Il faudra faire attention aux surchauffes…

** Selon CIE 97:2005

*** Seule de rares gammes atteignent de telles valeurs d’Indice de Rendu des Couleurs (81). En général, l’IRC maximal des Sodium haute pression est de 65.

**** Mauvais rendu des tonalités rouges

Voici, un comparatif des performances lumineuses de différentes sources permettant de se faire une idée de l’orientation que risque de prendre le marché :

Ce dernier tableau permet de comparer les différents lots de lampes entre eux. On voit tout de suite que les incandescentes (standards et halogènes) présentent une mauvaise efficacité énergétique initiale, et qu’en plus, celle-ci diminuera très vite en fonctionnement par l’augmentation du pourcentage de lampes hors service et par la diminution du flux qu’elles émettent.

Les lampes les plus intéressantes seront celles présentant une courbe la plus haute et la plus horizontale possible !

Les halogénures métalliques bien que présentant une efficacité lumineuse initiale élevée deviennent rapidement moins efficaces que les tubes fluorescents. Leur efficacité se rapproche d’ailleurs rapidement de celle des fluocompactes.

Si le but est de changer le moins souvent possible les lampes, et donc de limiter les frais de maintenance en même temps que les frais liés à la consommation d’électricité on optera alors pour les sodiums haute pression (ou pour les lampes à induction…). On fera particulièrement attention à l’Indice de Rendu des Couleurs (IRC) et à la température de couleur. En effet, ces lampes ne présentent pas les meilleures performances pour ces deux aspects. Pour obtenir un indice de rendu des couleurs suffisant, il faudra se tourner vers les iodures métalliques à brûleur céramique.

Calculs

Pour comparer l’efficacité moyenne en service de différentes lampes correspondant à une situation précise.

Techniques

Pour en savoir plus sur les caractéristiques des LED.

Choisir les ballasts et les « drivers »

Choisir les ballasts et les "drivers"


Les ballasts pour lampes fluorescentes

Techniques

En conception, choix s’effectue entre 3 types de ballasts :

  • électronique avec préchauffage,
  • électronique sans préchauffage,
  • électronique gradable ou dimmable.

BE pour tube T8, BE pour tube T5, BED pour tube T5.

  • BE : ballast électronique
  • BED : ballast électronique « dimmable »

En fonction de la durée d’utilisation

En conception, il est illusoire de vouloir faire une comparaison de performance entre un ballast électromagnétique et un ballast électronique. En effet, le ballast électronique a une consommation propre plus faible que le ballast électromagnétique et augmente la durée de vie des lampes. Le ballast électromagnétique à très faible perte reste sur le marché uniquement pour des circonstances où le ballast électronique n’est pas à recommander (p.ex. certains environnements industriels).

Il faut cependant savoir qu’un ballast électronique implique un risque de défectuosité plus grand qu’un ballast électromagnétique. Ceci est normal étant donné le nombre de composants de ces ballasts. Il faut donc choisir des ballasts de qualité, éprouvés sur le marché.

Des ballasts électroniques à préchauffage doivent être placés dès que l’installation est susceptible d’être allumée et éteinte plus de 2 fois par jour.

Ce n’est que dans le cas d’une utilisation absolument continue des lampes que le ballast électronique sans préchauffage peut être utilisé. En outre, toutes les marques de lampe ne peuvent fonctionner correctement avec tous les ballasts électroniques. Chaque ballast est conçu pour une résistance donnée des électrodes du tube fluorescent. On peut ainsi avoir un taux de défectuosité important des lampes uniquement parce que la marque des tubes fluorescents utilisés n’est pas compatible avec la marque du ballast choisi. Au moment de l’installation, il est difficile de vérifier si ce problème est présent. On peut cependant se renseigner auprès du fabricant (de luminaires ou de ballasts) pour savoir si le ballast proposé a été développé pour les lampes choisies.

En fonction de l’apport de lumière naturelle

Lorsque les locaux bénéficient d’un pourcentage standard d’ouverture dans la façade de 40 .. 60 %, le fait de placer des ballasts électroniques dimmables permet de tabler sur des économies d’énergie de l’ordre de 30 .. 50 % pour la rangée de luminaires proche des fenêtres et 15 .. 30 % pour la rangée contiguë en cas de gestion appropriée.

La rentabilité du système de gestion dépendra bien entendu, du tarif électrique appliqué au bâtiment.

Calculs

Pour estimer le gain réalisé en plaçant des ballasts électroniques dimmables : cliquez ici !

Par rapport à la classe énergétique définie dans la directive 2000/55/CE

Pour les ballasts électroniques, on impose que la catégorie énergétique soit au minimum A3.

Pour assurer plusieurs niveaux d’éclairements et/ou éviter le suréclairement

Dans certaines situations, il est intéressant de placer des ballasts électroniques dimmables. Ceux-ci, raccordés à un simple dimmer permettent, après installation, d’ajuster le niveau d’éclairement en fonction des réactions des utilisateurs ou des besoins réels. Par exemple, dans les salles de sports utilisées pour la compétition, on doit assurer plusieurs niveaux d’éclairement.

Si les luminaires ne sont pas prévus pour allumer un nombre différent de lampes par luminaire, les différents niveaux peuvent être atteints par « dimming« . Dans ce cas, on devra opter pour des ballasts électroniques dimmables.

Ceux-ci permettent d’ajuster le niveau d’éclairement en fonction des besoins. En outre, on limite ainsi le surdimensionnement inévitable des nouvelles installations.

Pour assurer une plus grande sécurité

Beaucoup de machines, dans les ateliers, ont des mouvements périodiques. L’utilisation de lampes fluorescentes ou à décharge (au sodium haute pression, aux iodures métalliques,…) risquent, si elles sont alimentées à la même fréquence que les machines, de provoquer des illusions d’optiques très dangereuses pour l’utilisateur. Ce phénomène s’appelle l’effet stroboscopique : si une machine tourne à la même fréquence que le clignotement des lampes (par exemple 50 Hz), on aura l’impression qu’elle est immobile, ce qui peut provoquer des accidents très graves.

Machine tournante éclairée par une lampe avec ballast haute fréquence (à gauche) et éclairée par une lampe avec ballast 50 Hz (à droite).

Pour éviter cela, on choisira de nouveau les ballasts électroniques qui, contrairement aux ballasts électromagnétiques traditionnels, fonctionnent eux à haute fréquence (plus de 25 kHz).

En cas d’hésitation

Certains constructeurs proposent des luminaires intelligents possédant un grand nombre de fonctions qui sont initialement bloquées (gradation, régulation en fonction de la lumière du jour, …). Celles-ci peuvent être activées par après grâce à l’utilisation de l’interface standard DALI.

Ce genre de système présente deux gros avantages :

  • Le coût de base du luminaire correspond aux fonctions disponibles initialement. Chaque ajout de fonctions devra être payé par après.
  • Lorsque l’on veut ajouter des fonctions au système d’éclairage, il n’est plus nécessaire de réaliser des travaux importants et coûteux de remplacement des luminaires et de câblage. La fonction est simplement débloquée grâce à une extension logicielle.

Particularité des hôpitaux

La lampe fluorescente et son ballast produisent des ondes électromagnétiques. Celles-ci sont accentuées avec l’utilisation de ballasts électroniques. Elles peuvent perturber le fonctionnement des appareils électroniques de précision (électro-encéphalogramme, électro-cardiogramme, …). C’est pourquoi leur utilisation peut parfois poser des problèmes dans les salles d’opération, les soins intensifs, … Ce problème est encore plus critique pour les lampes fluocompactes à ballast incorporé car celui-ci n’est pas déparasité.

Pour limiter les risques, on peut :

  • exiger la garantie du fabricant du luminaire quant à l’utilisation de son matériel dans ces circonstances particulières, et exiger la conformité aux normes concernant les ballasts électroniques :
    • EN 60928        sécurité
    • EN 60929        fonctionnement
    • EN 61547        compatibilité électromagnétique
    • EN 61000-3-2  harmoniques
  • éloigner le plus possible les appareils de mesure des luminaires, les perturbations diminuant avec la distance,
  • sortir tous les ballasts de la zone de travail,
  • utiliser, à défaut, des lampes halogène.


En tout cas, les luminaires devront, au minimum, porter un label garantissant la limitation des émissions parasites.

Concevoir

Choix des auxiliaires.

Les ballasts pour lampes à décharge

  • Ballast électronique, pour lampe à vapeur de sodium HP.
  • Ballast électronique pour lampe aux iodures métalliques.

En fonction de la durée de vie de la lampe

Pour les lampes à décharge au sodium haute pression ou aux iodures métalliques, les ballasts électroniques s’imposent, car ils peuvent accroître la durée de vie des lampes à décharge jusqu’à 30 %.

En fonction de la sécurité

Ici aussi, les ballasts électroniques sont recommandés pour la simple raison qu’ils éliminent les problèmes de clignotement et, par conséquent, d’effet stroboscopique.

En fonction de l’apport de lumière naturelle

À l’heure actuelle, certains constructeurs proposent des ballasts électroniques dimmables pour les lampes à décharge à vapeur de sodium HP et à iodure ou halogénure métallique (surcoût de 20 % par rapport aux ballasts électroniques). Certains constructeurs proposent même des ballasts électroniques dimmables et programmables de type DALI. Avec ce type de ballast, les flux sont réglables jusqu’à 50 % de la valeur nominale. Mais le dimming des lampes à iodure ou halogénure risque encore de poser des problèmes (changement de couleur).


Les ballasts DALI

À l’heure actuelle, les ballasts électroniques de type DALI ont le même ordre de grandeur de prix que les ballasts électroniques dimmables analogiques. Dans les bâtiments de taille moyenne ou importante et avec des apports de lumière naturelle corrects, on a tout intérêt à orienter le choix d’un ballast vers un type DALI. Il offre beaucoup plus de possibilités :

  • de gestion centralisée par groupe adressable de façon à générer facilement des zonages. Les zonages seront très flexibles et permettront au bâtiment d’évoluer sans grand investissement comme le recâblage ;
  • de contrôle des lampes à distance ;
  • d’interfaçage facile avec des bus de type IEB (KNX) ;

Les drivers des LEDs

 En général, chaque LED à sa propre alimentation ; c’est un gage de qualité ! Les LEDs étant souvent commandées en très basse tension et en faible courant, il faut se méfier des chutes de tension en ligne entre le driver et la lampe. Pour cette raison, il est nécessaire de limiter les longueurs de câble. Pour tout système d’éclairage à LED, le choix de l’alimentation prendra en compte de la concordance entre celle-ci et la source d’éclairage :

  • des tensions et courants de commande ;
  • de la puissance ;
  • de la classe d’isolation électrique (classe I à III ou de la simple isolation à la double en très basse tension).

Driver dimmable de lampe LED et driver  à courant constant de lampe LED.

Bilan énergétique d’un meuble fermé vertical négatif

Bilan énergétique d'un meuble fermé vertical négatif

Calculs

Pour se rendre compte des énergies mises en jeu, les deux exemples ci-dessous prennent des cas concrets de meubles frigorifiques couramment rencontrés sur le marché.

Hypothèses générales

Pour déterminer le bilan énergétique, il est nécessaire comme pour le meuble positif vertical de poser des hypothèses semblables à celles qui sont utilisées dans les essais pour la certification ouverture d'une nouvelle fenêtre ! EUROVENT :

  • Les conditions d’ambiance externes sont de la classe 3 (température Tambiance = 25 °C, Humidité HRa = 60 %).
  • L’enthalpie hambiance = 58 kJ/kg dans les conditions standards retenues par EUROVENT (soit à une température ambiante de 25 °C et 60 % d’humidité relative).

Caractéristiques d’un meuble négatif

On retrouve souvent en application négative des meubles verticaux dont les caractéristiques sont les suivantes :

Schéma principe meuble négatif.
  • température de conservation = – 18°C;
  • nombre de dégivrages journaliers nbre_dégivr = 2;
  • temps de dégivrage tdégivr = 0,5 heure;
  • longueur =  2,34 m;
  • hauteur = 2,3 m;
  • Surfacepénétrative = 15 m²;
  • Surfaceporte_vitrée = 4,3 m²;
  • Kmoyen_paroi = 0,6 [W/m².K] pour un meuble vertical avec de l’ordre de 6 cm d’isolant;
  • Kmoyen_porte_vitrée = 3 [W/m².K] pour un double vitrage classique;
  • nombre de portes Nporte = 3.

Calculs

Pour évaluer le coefficient de conductivité thermique d’une paroi
  • Les conditions d’ambiance internes sont liées à la classe de température des paquets « test », soit L1 pour les meubles frigorifiques négatifs (la température des paquets les plus chaud est de -15°C et celle des paquets les plus froid de -18°C).
  • L’enthalpie hinterne = -15 kJ/kg dans les conditions standards retenues par EUROVENT.
  • La puissance électrique des ventilateurs Pvent =  150  W.
  • la puissance électrique de l’éclairage Pécl =  288  W (soit 2 x 4 tubes de 36 W);
  • La puissance du cordon chauffant Pcordon_chaud = 60 W.
  • La puissance de dégivrage Pdégivrage = 6 400 W.
  • Nombre d’ouverture des portes Nouverture = 10 ouvertures/h.porte.
  • Temps ouverture des portes touverture = 10 s/porte.
  • Le volume libre (entre les denrées et les portes) Vlibre_meuble = 0,8 m³.

Énergie de jour

L’énergie de jour est principalement due à la pénétration au travers des parois (isolant et vitrage des portes), à l’ouverture des portes et au dégivrage.

Qjour  = Σ Pi apports_jour x tijour [Wh/jour]
Apports de chaleur Calculs Qjour[Wh/jour]
Pénétration paroi Qpen_paroi  = K moyen_paroi x Sparoi x (Tambiance – Tinterne) x tjour

= 0,6 x 15 x (25 – (-18)) x 10

3 870
Pénétration vitrage Qpen_vitrage  = Kmoyen_porte_vitrée x Sparoi x (Tambiance – Tinterne) x 

(tjour – touverture_porte)

= 3  x 4,3 x (25 – (-18)) x (10 – (3 x 10 x 10 / 3 600))

5 498
Ouverture des portes Nporte x Nouverture  x Vlibre_meuble x Cair  x 

(Tambiance – Tinterne) / 3600

= 3 x 10 x  0,8 x 2 x (25 – (-18) x 10 / 3,6

5 733
Ventilation Qvent  = (Pvent + Pcordon_chaud) x tjour

= (150 + 60) x 10

2 100
Éclairage Qéclair  = Péclair  x tjour

= 288 x 10

2 880
Dégivrage Qdég  = Pdég  x tdég

= 6 400 x 0.5 x 2

6 400
Qjour 26 481

 

Energie de nuit

La perte d’énergie de nuit continue par les parois principalement et les vitrages. L’éclairage est éteint et le ventilateur continue de brasser l’air dans le meuble fermé.

Qnuit  = Σ Pi apports_nuit x tinuit [Wh/jour]
Apports de chaleur Calculs Puissance absorbée par le meuble frigorifique [Wh/jour]
Pénétration paroi Qpen_paroi  = K moyen_paroi x Sparoi x (Tambiance – Tinterne) x tnuit

= 0,6 x 15 x (25 – (-18)) x 14

5 418
Pénétration vitrage Qpen_vitrage  = Kmoyen_porte_vitrée x Sparoi x (Tambiance – Tinterne)

 x tnuit

= 3  x 4.3 x (25 – (-18)) x 14

7 766
Ouverture des portes
Ventilation Qvent  = (Pvent + Pcordon_chaud) x tnuit

= (150 + 60) x 14

2 940
Eclairage

Qnuit

16 124

Bilan énergétique

L’énergie frigorifique journalière est l’énergie froide consommée par l’évaporateur du meuble ouvert.

Qtotal = QjourQnuit [Wh/jour]
Apports de chaleur Energie de jour (10 heures/jour) Energie de nuit (14 heures/jour) Energie total journalière
Pénétration paroi 3 870 5 418 9 288
Pénétration vitrage 5 498 7 766 13 264
Ouverture des portes 5 733 0 5 733
Ventilation/cordon chaud 2 100 2 940 5 040
Eclairage 2 880 0 2 880
Dégivrage 6 400 0 6 400
Total 42 605
Total/m² d’ouverture de portes 42 605/(4.3 x 1000) = 9,9 [kWh/m².jour]

Puissance frigorifique de l’évaporateur

Vu la présence d’un système de dégivrage électrique (en négatif, le dégivrage naturel ne suffit pas), la détermination de la puissance frigorifique du meuble doit s’effectuer en partant de l’énergie journalière. Soit :

P0 = (Qtotal)  / (24 – nombredégivrage x tempsdégivrage)

P0 = 42 605  / (24 – 2 x 0.5)

P0 = 1 852 [W]

Puissance frigorifique spécifique

La puissance frigorifique spécifique ou couramment connue sous le nom de puissance par mètre linéaire de meuble frigorifique est de :

Pml = P 0 / longueur du meuble

Pml = 1 852  / 2,3

Pml = 805  [W/ml]

Bilan énergétique d’un meuble ouvert horizontal négatif

Schéma caractéristiques meuble négatif.

Définitions

Bilan thermiques

Les bilans thermiques instantanés de jour et de nuit sont différents. Ils s’expriment par la somme des déperditions tant internes qu’externes selon la période de la journée, à savoir :

Bilan thermique instantané de jour Pjour >=

Σ P apports_jour = P pen + Pind_jour + Pray_jour + Pecl + Pvent [W]

Bilan thermique instantané de nuit Pnuit =

Σ P apports_nuit = Ppen + Pouv_nuit + Pray_nuit  + Pvent [W]

  • Ppen : apport par pénétration (déperditions négatives) au travers des parois du meuble [W].
  • Pind_jour : apport par induction (mélange de l’air de la zone de vente et de l’air du meuble) [W].
  • Pray_jour : apport par rayonnement mutuel des parois chaudes extérieures au meuble et les parois froides internes du meuble principalement par les ouvertures [W].
  • Pecl : apport des éclairages internes au meuble [W].
  • Pvent : apport des moteurs de ventilation placés dans le flux d’air froid [W].
  • Pouv_nuit : apport par l’ouverture du meuble. S’il n’y a pas de rideau de nuit ou des couvercles de couverture, les apports sont par induction. Par contre si le rideau de nuit est présent, ce sont plutôt des apports par pénétration au travers de la protection qui doivent être considérés.

Bilan énergétique

Le bilan énergétique journalier représente l’énergie nécessaire à l’évaporateur du meuble frigorifique pour vaincre les apports internes et externes. Il s’écrit de la manière suivant :

Bilan énergétique

 Q = Pjour x t jour + Pnuit x tnuit + Pdégivrage x nbre_dégivr x tdégivr[kWh/jour]

avec :

  • nbre_dégivr = nombre de dégivrage par jour;
  • tdégivr = temps de dégivrage.

Calculs

Pour se rendre compte des énergies mises en jeu, les deux exemples ci-dessous prennent des cas concrets de meubles frigorifiques couramment rencontrés sur le marché.

Hypothèses générales

Pour déterminer le bilan énergétique, il est nécessaire comme pour le meuble positif vertical de poser des hypothèses semblables à celles qui sont utilisées dans les essais pour la certification ouverture d'une nouvelle fenêtre ! EUROVENT :

  • Les conditions d’ambiance externes sont de la classe 3 (température Tambiance = 25 °C, Humidité HRa = 60 %).
  • La température des parois de la zone de vente Tparoi_vente est de l’ordre de 30 °C.
  • L’enthalpie hambiance = 58 kJ/kg dans les conditions standards retenues par EUROVENT (soit à une température ambiante de 25 °C et 60 % d’humidité relative).
  • Le facteur d’émissivité entre les surfaces du plafond et du meuble frigorifique φ1 = 0,8; ce qui correspond à des valeurs d’émissivité de corps noirs des parois de la surface de vente et des parois du meuble de respectivement εp et εi de l’ordre de 0.9 (1 correspond à un corps noir parfait).
  • Le facteur d’angle sous lequel les deux parois se voient φ2 = 1 pour un meuble horizontal.

Caractéristiques d’un meuble négatif

On retrouve souvent en application négative des meubles horizontaux à rideau d’air dont les caractéristiques sont les suivantes :

Schéma caractéristiques meuble négatif.
  • température de conservation = – 18°C.
  • nombre de dégivrage journalier nbre_dégivr = 2.
  • temps de dégivrage tdégivr = 0,5 heure.
  • longueur =  7,5 m.
  • largeur = 1,1 m.
  • Surfacepénétrative = 24.6 m².
  • Surfacerideau_d’air = 8,25 m².
  • Débitrideau_d’air = 0,3 kg/s.
  • taux d’induction X = 0.06.
  • Kmoyen_paroi = 0,4 [W/m².K] pour un meuble horizontal avec de l’ordre de 10 cm d’isolant.
  • Kmoyen_rideau_nuit = 2,5 [W/m².K] pour une toile classique de protection d’ouverture.

Calculs

Pour évaluer le coefficient de conductivité thermique d’une paroi 
  • Les conditions d’ambiance internes sont liées à la classe de température des paquets « test » soit L1 pour les meubles frigorifiques négatifs (température du paquet le plus chaud est de -15°C et celle du paquet le plus froid de -18°C).
  • L’enthalpie hinterne = -15 kJ/kg dans les conditions standards retenues par EUROVENT.
  • Le coefficient d’échange équivalent entre deux parois considérées comme corps noirs et orthogonales hro = 4,9 W/m²K.
  • La puissance électrique des ventilateurs Pvent =  240  W.
  • La puissance électrique de l’éclairage Pécl =  0 W.
  • La puissance du cordon chauffant Pcordon_chaud = 200 W.
  • La puissance de dégivrage Pdégivrage = 9 600 W.

Apports de jour

Les apports de jour sont principalement dus au rayonnement et à l’induction. On remarque que les pertes par radiation sont importantes du fait que l’écart des températures des parois qui se font vis-à-vis (parallèles) est plus grand (30 – (-18)) [°C] que pour un meuble frigorifique positif.

Pjour = Ppen + Pind_jour + Pray_jour + Pvent  Pcord_chauf + PEclair [W]
Apports de chaleur Calculs Puissance absorbée par le meuble frigorifique [W]
Pénétration

Ppen  = K moyen_paroi x Sparoi x (Tambiance – Tinterne)

= 0,4 x 24,6 x (25 – (-18))

423
Induction

Pind_jour  = Xrideau_air x mrideau_air x (hambiance – hinterne) x

1000

= 0,06 x 0,3 x (58 – (-15)) x 1 000

1 314
Rayonnement

Pray_jour = hro x Souverture (Tparoi_vente – Tinterne) x φ1 x φ2

= 4,9 x  8,25  x (30 – (-18) x 0,8 x 1

1 552
Ventilation Pvent  = Pvent + Pcordon_chaud 440
Éclairage PEclair  = PEclair 0
Pjour= Σ Papports_jour 3 729

Apports de nuit

Les apports de nuit continuent par les parois principalement, y compris par le couvercle ou le rideau de nuit placé au dessus de l’ouverture du meuble. Globalement le coefficient de pénétration est plus faible que pour le meuble vertical positif sachant que pour une configuration d’une paroi horizontale, à l’extérieur le chaud monte et à l’intérieur le froid descend; l’échange y est donc réduit. Tout comme pour la cas du meuble vertical, les apports par rayonnement, dans ce cas-ci aussi sont inclus dans le poste induction.

Pnuit = Ppen + Pind_nuit + Pray_nuit + Pvent  [W]
Apports de chaleur Calculs Puissance absorbée par le meuble frigorifique [W]
Pénétration

Ppen  = K moyen_paroi x Sparoi x (Tambiance – Tinterne)

= 0,4 x 24,6 x (25 – (-18))

423
Ouverture

Pouv_nuit  = K moyen_rideau_nuit x Srideau_nuit x (Tambiance – Tinterne)

= 2,5 x 8.25 x (25 – (-18))

887
Rayonnement Pray_nuit = hro x Souverture (Tparoi_vente – Tinterne) x φ1 x φ2 0

(intégré dans les apports par induction)

Ventilation Pvent  = Pvent + Pcordon_chauffant 440
Eclairage QEclair  = PEclair 0

Pnuit= Σ Papports_nuit

1 750

Bilan énergétique

L’énergie frigorifique journalière est l’énergie de froid consommée par l’évaporateur du meuble ouvert.

Q = Pjour x t jour + Pnuit x tnuit + Pdégivrage x nbre_dégivr x tdégivr [kWh/jour]
Apports de chaleur Énergie de jour (10 heures/jour) Energie de nuit (14) heures/jour) Energie total journalière
Pénétration 4,2 5,9 + 12,4 10,1
Induction 13,1 0 25,6
Rayonnement 15,5 0 15,5
Ventilation/ cordon chaud 4,4 6,1 10,5
Dégivrage 9,6 0 9,6
Total 71,4
Total/m² 71,4/8,25 = 8,6 kWh/m².jour]

Pour ce cas de figure le bilan énergétique est repris ci-dessous :

Meuble frigorifique horizontal ouvert négatif : bilan énergétique journalier.

Puissance frigorifique de l’évaporateur

Vu la présence d’un système de dégivrage électrique (en négatif, le dégivrage naturel ne suffit pas), la détermination de la puissance frigorifique du meuble doit s’effectuer en partant de l’énergie journalière. Soit :

P0 = Q / (24 – nombredégivrage x tempsdégivrage

P0 = 71,4  / (24 – 2 x 0.5)

P0 = 3.1 [kW]

Puissance frigorifique spécifique

La puissance frigorifique spécifique ou couramment connue sous le nom de puissance par mètre linéaire de meuble frigorifique est de :

Pml = P 0 / longueur du meuble

Pml = 3 100  / 7,5

Pml = 413  [W/ml]

Bilan énergétique d’un meuble ouvert vertical positif

Bilan énergétique d'un meuble ouvert vertical positif

Définitions

Bilan thermique

Les bilans thermiques instantanés de jour et de nuit sont différents. Ils s’expriment par la somme des déperditions tant internes que externes selon la période de la journée, à savoir :

Bilan thermique instantané de jour Pjour =

Σ P apports_jour = P pen + Pind_jour + Pray_jour + Pecl + Pvent [W]

Bilan thermique instantané de nuit Pnuit =

Σ P apports_nuit = Ppen + Pouv_nuit + Pray_nuit  + Pvent [W]

  • Ppen : apport par pénétration (déperditions négatives) au travers des parois du meuble [W].
  • Pind_jour : apport par induction (mélange de l’air de la zone de vente et de l’air du meuble) [W].
  • Pray_jour : apport par rayonnement mutuel des parois chaudes extérieures au meuble et les parois froides internes du meuble principalement par les ouvertures [W].
  • Pecl : apport des éclairages internes au meuble [W].
  • Pvent : apport des moteurs de ventilation placés dans le flux d’air froid [W].
  • Pouv_nuit : apport par l’ouverture du meuble. S’il n’y a pas de rideau de nuit, les apports sont par induction. Par contre si le rideau de nuit est présent, ce sont plutôt des apports par pénétration au travers de la protection qui doivent être considérés.

Bilan énergétique

Le bilan énergétique journalier représente l’énergie nécessaire à l’évaporateur du meuble frigorifique pour vaincre les apports internes et externes. Il s’écrit de la manière suivante :

Bilan énergétique

 Q = Pjour x t ouverture + Σ Pnuit x tfermeture + Pdégivrage x nbre_dégivr x tdégivr[kWh/jour]

(si un dégivrage électrique est nécessaire)

avec :

  • Pdégivrage : puissance de dégivrage.
  • nbre_dégivr : nombre de dégivrages par jour.
  • tdégivr : temps de dégivrage [h];
  • touverture : période d’ouverture du magasin [h].
  • tfermeture : période de fermeture du magasin [h].

Calculs

Pour se rendre compte des énergies mises en jeu, les deux exemples ci-dessous prennent des cas concrets de meubles frigorifiques couramment rencontrés sur le marché.

Hypothèses générales

Pour déterminer le bilan énergétique, il est nécessaire de poser des hypothèses de départ semblables à celles qui sont utilisées dans les essais pour la certification ouverture d'une nouvelle fenêtre ! EUROVENT :

  • Les conditions d’ambiance externes sont de la classe 3 (température Tambiance = 25 °C, Humidité HRa = 60 %).
  • La température des parois de la zone de vente Tparoi_vente est de l’ordre de 30 °C.
  • L’enthalpie hambiance = 58 kJ/kg dans les conditions standards retenues par EUROVENT (soit à une température ambiante de 25 °C et 60 % d’humidité relative).
  • Le facteur d’émissivité entre les surfaces du plafond et du meuble frigorifique φ1 = 0,8; ce qui correspond à des valeurs d’émissivité de corps noirs des parois de la surface de vente et des parois du meuble de respectivement εp et εi de l’ordre de 0.9 (1 correspond à un corps noir parfait).
  • Le facteur d’angle sous lequel les deux parois se voient φ2 = 0,65 pour un meuble vertical.

Caractéristiques d’un meuble vertical positif

On retrouve souvent en application positive des meubles verticaux à rideau d’air dont les caractéristiques sont les suivantes :

Schéma de principe meuble ouvert vertical positif.
  • température de conservation = 2°C.
  • nombre de dégivrage journalier nbre_dégivr = 2.
  • temps de dégivrage tdégivr = 0.67 heure.
  • longueur =  2,5 m.
  • hauteur = 2 m.
  • Surfacepénétrative = 10 m².
  • Surfacerideau_d’air = 4,25 m².
  • Débitrideau_d’air = 0,3 kg/s.
  • taux d’induction X = 0.15.
  • Kmoyen_paroi = 0,6 [W/m².K] pour un meuble vertical avec de l’ordre de 6 cm d’isolant.
  • Kmoyen_rideau_nuit = 6 [W/m².K] pour une toile classique de protection d’ouverture.

Calculs

Pour évaluer le coefficient de conductivité thermique d’une paroi
  • Les conditions d’ambiance internes sont liées à la classe de température des paquets test, soit H2 pour les meubles frigorifiques positifs (température du paquet le plus chaud = 10°C et température du paquet le plus froid =-1°C.
  • L’enthalpie hinterne = 12 kJ/kg dans les conditions standards retenues par EUROVENT.
  • Le coefficient d’échange équivalent entre deux parois considérées comme corps noirs et orthogonales hro = 5,2 W/m²K.
  • La puissance électrique des ventilateurs Pvent =  150  W et la puissance du cordon chauffant est de l’ordre de 60 W.
  • La puissance électrique de l’éclairage Pécl =  288  W (soit 2 x 4 tubes de 36 W).

Apports de jour

Les apports de jour, en principe, interviennent tout au long du fonctionnement du meuble frigorifique pendant la période d’ouverture du magasin. Les apports par induction conditionnent énormément le bilan frigorifique sachant qu’une grande partie de la puissance frigorifique part dans l’ambiance au niveau du rideau d’air.

Pjour = Ppen + Pind_jour + Pray_jour + Pvent  Pcord_chauf + PEclair [W]
Apports de chaleur Calculs Puissance absorbée par le meuble frigorifique [W]
Pénétration

Ppen  = K moyen_paroi x Sparoi x (Tambiance – Tinterne)

= 0,6 x 10 x (25 – 2)

138
Induction

Pind_jour  = Xrideau_air x mrideau_air x (hambiance – hinterne) x

1000

= 0,15 x 0,3 x (58 – 12) x 1 000

2070
Rayonnement

Pray_jour = hro x Souverture (Tparoi_vente – Tinterne) x φ1 x φ2

= 5,2 x  4,25 x (30 – 2) x 0,8 x 0,65

321
Ventilation Pvent  = Pvent + Pcordon_chauffant 210
Éclairage PEclair  = PEclair 288
Pjour= Σ P apports_jour 3 027

Apports de nuit

En général, si le commerce est bien géré, en dehors des heures d’ouverture, l’éclairage est éteint et le rideau de nuit (s’il est présent) est baissé. Le bilan thermique se résume à des apports par pénétration et par les déperditions du ventilateur et du cordon chauffant. Les pertes par l’ouverture du meuble sont réduites par la présence du rideau de nuit. En simplifiant, ces pertes se font par pénétration au travers d’une toile (paroi verticale) avec une convection normale sur sa face externe et une convection forcée sur sa face interne. À noter aussi que les pertes par rayonnement sont comprises dans le poste induction de nuit.

Pnuit = Ppen + Pouv_nuit + Pray_nuit + Pvent  [W]
Apports de chaleur Calculs Puissance absorbée par le meuble frigorifique [W]
Pénétration

Ppen  = K moyen_paroi x Sparoi x (Tambiance – Tinterne)

= 0,6 x 10 x (25 – 2)

138
Ouverture

Pind_nuit  = Kmoyen_rideau_nuit x Srideau_nuit x (Tambiance – Tinterne)

= 6 x 4.25 x (25 – 2)

586
Rayonnement Pray_nuit = hro x Souverture (Tparoi_vente – Tinterne) x φ1 x φ2 0

(intégré dans les apports par induction)

Ventilation Pvent  = Pvent + Pcordon_chauffant 210
Eclairage PEclair  = PEclair 0
Pnuit= Σ Papports_nuit 874

Puissance frigorifique de l’évaporateur

Dans ce cas, la puissance frigorifique nécessaire pour que l’évaporateur puisse contrecarrer les apports tant interne qu’externe est de :

P0 = 3 027 [W]

Puissance frigorifique spécifique

La puissance frigorifique spécifique ou couramment connue sous le nom de puissance par mètre linéaire de meuble frigorifique est de :

Pml = P 0 / longueur du meuble

Pml = 3 027  / 2,5

Pml = 1 210 [W/ml]

Bilan énergétique

L’énergie frigorifique journalière est l’énergie froid consommée par l’évaporateur du meuble ouvert.

Q = Pjour x t jour + Pnuit x tnuit [kWh/jour]
Apports de chaleur Énergie de jour (10 heures/jour) Energie de nuit (14 heures/jour) Energie total journalière
Pénétration 1,4 1,9 + 8,2 3,3
Induction 20,7 0 28,9
Rayonnement 3,2 0 3,2
Ventilation/cordon chaud 2,1 2,9 5,0
Eclairage 2,9 0 2,9
Total 43,5
Total/m² 43,5/4,25 = 10,23 [kWh/m².jour]

Pour ce cas de figure le bilan énergétique est repris ci-dessous :

Meuble frigorifique vertical : bilan énergétique journalier.

Masse d’eau piégée par un évaporateur - EnergiePlus

Masse d’eau piégée par un évaporateur

Masse d'eau piégée par un évaporateur

La quantité de condensats des meubles frigorifiques

Il existe une énergie non négligeable de refroidissement qui actuellement n’est pas récupérée et envoyée directement à l’égout.

Il y a t-il un intérêt à la récupérer ?


Masse d’eau piégée

Meuble ouvert vertical avec rideau d’air.

Cycle de l’air du meuble ouvert sur le diagramme de l’air humide.

La masse d’eau piégée par les meubles frigorifiques ouverts peut être importante. Ce type de meuble agit en véritable climatiseur et déshumidificateur des ambiances de vente. Dans les « allées froides », par exemple, la température ambiante peut atteindre des valeurs de 16 à 18°C avec des taux d’humidité relative de l’ordre de 30 à 40 %. Si l’humidité ambiante diminue c’est nécessairement qu’elle se retrouve au niveau de l’évaporateur du meuble sous forme de givre, de neige, de glace, …

Eau piégée

La masse d’eau piégée par jour [kg/j] peut se calculer par la relation suivante et en s’appuyant sur le diagramme de l’air humide :

Mgivre = Xinduction x  M1 (xa – xi)  x 24 x 3,6 [kg/j] (1)

où :

  • Xinduction = taux d’induction du rideau d’air (si présent).
  • M1 = le débit d’air du rideau d’air [kg/s].
  • xa = l’humidité absolue dans l’ambiance de la zone de vente [geau / kg air sec].
  • xi =  l’humidité absolue à l’intérieur du meuble [geau / kg air_sec].

par définition le taux d’induction du rideau d’air est la quantité d’air ambiant mélangé au rideau d’air. On a la relation suivante :

Xinduction = Ma / M1

Estimation du taux d’induction

La masse d’eau piégée par jour [kg/j] peut aussi se calculer par la relation suivante lorsque l’on considère que toute l’humidité dans l’air ambiant se condense sur l’évaporateur :

Mgivre = M1 (x1 – x2)  x 24 x 3,6 [kg/j] (2)

où :

  • M1 = le débit d’air du rideau d’air [kg/s].
  • x1 = l’humidité absolue à la sortie des buses de pulsion du rideau d’air [geau / kgair_sec].
  • x2 =  l’humidité absolue à la bouche de reprise du rideau d’air [geau / kg air_sec].

Des relations (1) et (2) on peut en déduire le taux d’induction qui caractérise l’efficacité du rideau d’air :

Xinduction ~ (x2 – x1) / (xa – xi)

où :

  • M1 = le débit d’air du rideau d’air [kg/s].
  • x1 = l’humidité absolue à la sortie des buses de pulsion du rideau d’air [geau / kgair_sec].
  • x2 =  l’humidité absolue à la bouche de reprise du rideau d’air [geau / kg air_sec].

Avec une précision relative, le taux d’induction peut aussi s’estimer par la relation suivante :

Xinduction ~ (t2 – t 1) / (ta – t i)

où :

  • t1 = température à la sortie des buses de pulsion du rideau d’air [°C].
  • t 2 = température à la bouche de reprise du rideau d’air [°C].
  • ta =  température dans l’ambiance de vente [°C].
  • t i = température à l’intérieur du meuble [°C].

Exemple : calcul pour un meuble frigorifique ouvert

Données

Un supermarché est équipé de 150 m de meubles frigorifiques verticaux ouverts (laitier, charcuterie, traiteur, pâtisserie, …) dits linéaires.

Par mètre linéaire on a les données suivantes :

  • taux d’induction Xinduction = 0,15 (valeur courante).
  • débit du rideau d’air par mètre linéaire M1 = 0,15 kg/s.ml.
  • xa = 12 geau / kg air_sec pour une température d’ambiance de 25°C et une humidité relative de 60 %.
  • xi = 3 à 4 geau / kg air_sec pour une température de l’ordre de 4°C au sein du meuble.

Calcul de la masse piégée

Mgivre = Xinduction x M1 (xa – xi) x 24 x 3,6 [kg/j.ml]

où,

  • Mgivre = 0,15 x 0,15 (12 – 4) x 24 x 3,6
  • Mgivre = 15,6 [kg/j.ml]

pour les 150 m de meubles, on a :

Mgivre_total = 15,6 x150 = 2 333 [kg/j]

Calcul d’une valeur du taux d’induction

La détermination du taux d’induction est nécessaire afin d’évaluer l’efficacité du rideau d’air. La formule approchée déterminée ci-dessus est basée sur le relevé des températures :

  • t1 = température à la sortie des buses de pulsion du rideau d’air = 1 [°C].
  • t2 = température à la bouche de reprise du rideau d’air = 5 [°C].
  • ta = température dans l’ambiance de vente = 25 [°C].
  • t i = température à l’intérieur du meuble = 4 [°C].

Xinduction ~ (t2 – t 1) / (ta – t i)

Xinduction ~ (5 -1) / (25 – 4)

Xinduction ~ 0,19

Choisir les cables du réseau de distribution

Choisir les cables du réseau de distribution

Influence de la section des câbles

Pour les circuits d’éclairage fortement chargés, où le courant absorbé est de l’ordre de 10 A, il est intéressant de dimensionner les câbles de distribution en 2.5 mm2 plutôt qu’en 1.5 mm2. En effet, la réduction des pertes par effet joule (et donc de la consommation) compense le surcoût dû à l’augmentation de section.

Exemple

Soit l’installation suivante :

  • Des luminaires de 58 W chacun.
  • Le premier luminaire est séparé d’un mètre de l’alimentation 230 V.
  • Les luminaires suivants sont séparés entre eux de 1 mètre.
  • Chaque luminaire est parcouru par un courant de l’ordre de 0.3 A et donc la première section du circuit d’éclairage est parcourue par un courant de l’ordre de 10 A, le second 9.7 A, etc …

 

On bénéficie aussi des données suivantes :

  • le prix du kWh est de 0.17 €,
  • le surcoût du câble en 2.5² par rapport au 1.5² est de l’ordre de 3,67 €/m.

On prend les hypothèses suivantes :

  • la perte des ballasts est négligeable par rapport à la puissance consommée par les lampes ;
  • l’installation fonctionne 2 500 heures par an.

On obtient les résultats suivants :

Interprétation

Le choix d’une section de 2.5 mm² au lieu de 1,5 mm² est assez peu rentable quel que soit le nombre de luminaires (entre 10 et 30 ans). Le temps de retour simple est, exprimé comme le rapport entre le surcoût d’une section 2.5 mm² par rapport à une section de 1,5 mm² et le coût de la réduction de consommation par effet joule (moins de perte dans une section de 2,5 mm² que dans 1,5 mm²).

Conclusion

Sur la durée de vie de l’installation d’éclairage (> 30 ans), on a intérêt à légèrement surdimensionner les sections de câbles. C’est le prix du cuivre qui réduit fortement la rentabilité.

Diminuer le niveau sonore [Froid alimentaire]

Diminuer le niveau sonore [Froid alimentaire]


Plan d’action

Évaluer sa situation

Schéma niveau sonore dans commerce.

Évaluer

Après l’analyse de la situation sur le terrain, la logique à suivre est basée sur le type de bruit.

Repérer le type de bruit

Soit le bruit est aérien

Puisqu’il est produit par l’écoulement de l’air et les turbulences qui y sont liées, on peut envisager de réduire la source du bruit, par exemple en diminuant la vitesse de rotation du ventilateur, en améliorant l’écoulement dans les bouches, dans les coudes,…

À défaut, puisque ce bruit est émis à haute fréquence, il possible de l’absorber  par des matériaux fibreux : silencieux, parois de gaines absorbantes,…

Si ce bruit est transmis entre deux locaux, c’est l’isolation phonique des parois qui les séparent qu’il faut améliorer.

Soit le bruit est solidien (bruit d’impact)

Puisque ce sont les vibrations des équipements qui sont transmises par voie solide, la diminution de vitesse permettra également de réduire les vibrations. Certaines sociétés de maintenance peuvent enregistrer les vibrations émises à l’arbre d’un ventilateur et dire si un balourd serait responsable du bruit en cause.

A défaut, on cherchera à couper toute transmission du bruit par le placement d’un matériau résilient entre l’équipement et son environnement : plots antivibratiles, manchettes souples, plancher flottant,…

Schéma bruit solidien - 01.

Idéalement, c’est la coupure du matériau qui empêchera le mieux la transmission du son.

Schéma bruit solidien - 02.

A défaut, il faudra interrompre le matériau dur par un matériau plus souple (dit « matériau résilient « ).

Agir à la source du problème

Agir à la source :

  • Placer des supports antivibratiles
  • Limiter le bruit des pompes

Agir à la transmission :

  • Limiter la transmission sonore des tuyauteries

Agir au niveau des locaux :

  • Modifier la disposition des locaux
  • Réaliser le doublage acoustique des parois
  • Renforcer l’isolation acoustique des baies vitrées

Placer des supports antivibratiles

Photo supports antivibratiles.

Pour réduire la propagation des vibrations de certains appareils (compresseurs, ventilateurs,…) à la structure du bâtiment, on insère des supports élastiques antivibratiles.

L’ensemble « équipement-support » constitue un système « masse-ressort », soumis aux lois de la mécanique des vibrations, et disposant dès lors d’une fréquence propre.

Pour dimensionner correctement les plots antivibratiles, il faut connaître :

  • la fréquence excitatrice liée à la vitesse de rotation du moteur,
  • la masse de l’équipement et sa répartition sur la dalle.

Schéma supports antivibratiles - 01.

Schéma supports antivibratiles - 02.

Schéma supports antivibratiles - 03.

Pour une bonne efficacité, la fréquence propre du système antivibratile doit être 3 à 4 fois inférieure à la fréquence excitatrice. Dans certains cas il sera nécessaire d’alourdir la dalle sur laquelle sont fixés les équipements afin de réduire la fréquence propre de vibration. De plus, le fait « d’écraser davantage les ressorts » permet un meilleur amortissement des vibrations.

Exemple.

un ventilateur tournant à une vitesse de rotation de 1 500 tours/minute provoque des vibrations de 25 Hz (puisque rotation de 25 tours/seconde). Les plots devront être calculés sur une fréquence propre de 6 à 8 Hz.

En pratique, on rencontre :

  • des ressorts, utilisés pour toutes les fréquences propres mais surtout lorsqu’ inférieures à 8 Hz,
  • des plots à base de poudre de liège mélangée à un élastomère, pour des fréquences propres supérieures à 8 Hz
  • des plots à base d’élastomères, pour les fréquences propres supérieures à 12 Hz
  • un système de « dalle flottante », c.-à-d. la construction d’un socle de béton sur un matelas de laine minérale ou de mousse plastique souple, pour les fréquences propres moyennes ou aiguës.

Ce dernier système de dalle flottante est assez difficile à réaliser puisqu’ en aucun endroit il ne peut y avoir de contact (raccords de mur, écoulement de sols, tuyauteries, conduits, …). Devant la nécessité d’exercer un contrôle quasi permanent durant les travaux, on préfère parfois la technique des éléments antivibratiles…! Ou alors un contrôle de la qualité acoustique de la dalle est imposé à la fin des travaux.

Exemples de ponts phoniques par le tuyau d’écoulement et la plinthe.

En général, il sera fait appel à un spécialiste de cette question pour le dimensionnement correct des plots.


Limiter le bruit des pompes

Origines du bruit des pompes

  • Les bruits d’origine hydraulique : c’est la source de bruit la plus importante. On remarque l’effet de sirène qui est dû à l’interaction entre les aubes et les parties fixes. Ce type de bruit est le plus gênant dans les bâtiments, car il se produit dans une zone de fréquences audibles.Lorsque la pression disponible à l’aspiration de la roue est trop faible, un bruit de cavitation apparaît. Il faut dans ce cas veiller à faire fonctionner la pompe avec une pression à l’aspiration suffisante. Lorsque de l’air s’introduit dans le fluide, il se crée des turbulences et des écoulements bruyants au niveau de la pompe. Il faudra veiller à purger correctement le circuit.
  • Les bruits d’origine électromagnétique : ces bruits proviennent du moteur qui transmet des vibrations aux équipements et structures environnantes.
  • Les bruits d’origine mécanique : ces bruits apparaissent au niveau des garnitures mécaniques et des paliers de la pompe, on les appelle balourds. Ils proviennent généralement d’une erreur de montage, d’équilibrage ou d’une erreur de conception de la pompe.
  • Les bruits d’origine aéraulique : ces bruits proviennent du passage de l’air, nécessaire au refroidissement du moteur, dans le ventilateur de la pompe. Il peut s’agir dans certains cas de la source de bruit la plus importante d’une pompe. Le fabricant de pompes doit correctement calculer les grilles d’aspiration et de refoulement de l’air qui peuvent être des obstacles au bon écoulement de l’air et donc générer du bruit.

Transmission du bruit

Une pompe transmet du bruit par trois voies différentes :

  • Par voie aérienne : le moteur de la pompe émet une diffusion acoustique qui se propage dans le local technique puis dans locaux occupés adjacents.
  • Par voie hydraulique : la pompe génère des variations de pression dans le fluide qui sont transmises par les canalisations et diffusent sur les structures environnantes.
  • Par voie solide : les vibrations émises par la pompe se transmettent par contact direct aux différentes structures.

Le niveau de bruit des pompes

Le niveau de puissance acoustique d’une pompe dépend principalement de sa conception, de ses conditions de fonctionnement (débit et pression) et de sa puissance électrique. Aucune norme ne spécifie les caractéristiques acoustiques des pompes.
Il est possible d’effectuer un calcul approximatif du niveau de pression acoustique à 1 m :

Lp = 48 + 10 log Pe [dB (A)]

où,

  • PE est la puissance électrique du moteur [W]

Mise en œuvre

  • Il faut limiter la vitesse du fluide dans la pompe à 1,5 m/s.
  • Il faut soigner la fixation de la pompe en mettant en œuvre un dispositif d’assise souple : placer la pompe sur une petite dalle flottante de 15 cm d’épaisseur, reposant sur des supports élastiques. La dalle flottante aura à peu près trois fois le poids de l’équipement.
  • Il faut équiper l’aspiration et le refoulement des pompes de manchons antivibratoires.

Manchon antivibratoire.

  • Il est également important d’entretenir les pompes, de lubrifier les paliers. L’usure de certaines pièces peut conduire à des vibrations génératrices de bruits.

Limiter la transmission sonore des tuyauteries

Empêcher la transmission des bruits de vibration

Il est utile de réaliser des raccords souples entre les conduits (fluides, gaz, électricité…) et la machine qui vibre, afin d’éviter non seulement la transmission des vibrations, mais également le risque de rupture.

Schéma transmission des bruits de vibration.

Pour diminuer la transmission des vibrations des tuyauteries aux parois, on peut introduire des coquilles isophoniques entre la tuyauterie et le collier de fixation. Il est également possible d’utiliser des colliers avec caoutchouc isophonique mais ceux-ci sont moins efficaces que les coquilles isophoniques.

Schéma colliers avec caoutchouc.

Exemple : pour la fixation des tuyauteries d’eau glacée aux parois du bâtiment, il est de bonne pratique de réaliser les 3 premières fixations après la pompe avec des fixations anti-vibratoires.

Autre exemple : lors du placement d’un split-system, un soin tout particulier doit donc être apporté à la sélection de l’emplacement du condenseur et à son mode de fixation : une coupure élastique doit être prévue entre l’appareil et le mur de fixation afin d’empêcher de mettre en vibration la structure du bâtiment (l’appareil doit bouger lorsqu’on le secoue !). De même, les tuyauteries doivent être raccordées via des raccords flexibles.

Il est également possible de suspendre élastiquement une tuyauterie à un plafond.

Par contre, il faut éviter de placer des tuyauteries sur des parois légères ou les parois séparant les locaux techniques des locaux occupés.

Limiter les bruits de dilatation

Lorsque la force de dilatation des tuyauteries devient trop importante, des frottements apparaissent entre les conduits et les colliers de support. Ce phénomène de dilatation provoque des claquements bruyants.
Recommandations :

  • Prévoir des points fixes et des compensateurs entre les points fixes.


Compensateur de dilatation.

  • Éviter de bloquer les canalisations à la traversée des parois.

  • En cas de problèmes, desserrer légèrement certains colliers.
  • Éviter les variations brusques de température dans l’installation, par exemple en utilisant des vannes à 3 voies en mélangeuses.
  • Placer des matériaux souples entre les colliers et les tuyauteries, et entre les fourreaux et les tuyauteries.

Diminuer la production de turbulences

Les vitesses admissibles dépendent du tracé et des accessoires utilisés. Si des vitesses élevées peuvent être admises dans les tubes droits, on doit adopter des vitesses plus réduites dans les coudes, les réductions.

Une installation peut créer des turbulences suite au placement même des équipements : tuyauteries à angle droit, vannes placées trop près les unes des autres,…

Schéma diminution de la production de turbulences.

Ce deuxième type de raccordement sera de loin préférable.

La présence de bulles d’air dans les circuits est également génératrice de bruit, il faut doter l’installation de dispositifs comme purgeurs (manuels ou automatiques), pots de dégazage, séparateur d’air tangentiel.


Modifier la disposition des locaux

De par la localisation des fonctions dans un magasin, une grande partie de l’isolement acoustique peut déjà être effective :

  • disposition de locaux tampons entre locaux bruyants et locaux calmes (ex : locaux de stockage),
  • rassemblement des locaux bruyants,

Dans un magasin existant, le déplacement du local technique (local des compresseurs par exemple) est difficilement réalisable, mais certaines réorganisations internes d’activité sont possibles.

Mais plus que tous les bâtiments tertiaires classiques, un magasin vit, des parois se déplacent,… les critères acoustiques peuvent parfois entrer en compte dans le choix de la nouvelle disposition des locaux !


Réaliser le doublage acoustique des parois

Si le son perturbateur est créé par du bruit aérien traversant une paroi, il est possible de doubler celle-ci. On pense tout spécialement aux locaux techniques dont on souhaiterait renforcer l’isolation par rapport au reste du bâtiment.

Si la faute correspond à une insuffisance des éléments de construction, il est possible d’améliorer la situation jusqu’à 10 dB environ, à l’aide d’un panneau rapporté (plafond suspendu constitué de plâtre dépourvu de joint, panneaux de carton-plâtre rapportés devant les parois). Pour que le doublage placé devant le mur puisse faire son effet de cloison double, on privilégiera une fixation indépendante et des joints élastiques. À défaut, une fixation par colle. Au pire une fixation par clous,…

Schéma doublage acoustique des parois.

Exemple.

une paroi de séparation entre un local technique et un magasin était constituée d’un mur en briques modulaires de 17,5 cm enduit sur les deux faces. Son isolement acoustique initial (frein apporté par la paroi au passage du son) était de R = 48 dB. Le doublage au moyen de panneaux de carton-plâtre avec supports en profilés métalliques (pose indépendante du mur) a permis d’améliorer l’isolement jusqu’à 56 dB.


Renforcer l’isolation acoustique des baies vitrées

Si l’objectif est de se protéger d’un bruit extérieur (bruit de condenseur sur une plate-forme, par exemple), une amélioration de la qualité acoustique des baies peut être envisagée. Et le premier regard doit se porter sur l’étanchéité à l’air (davantage que sur la vitre elle-même). En effet, le bruit passe essentiellement par les joints non étanches. C’est ce qui fait la médiocre qualité des fenêtres coulissantes…

Le choix des travaux à réaliser sur les ouvertures d’un magasin dépend du niveau d’isolement acoustique que l’on désire obtenir.

Conservation des fenêtres existantes

Si l’on ne recherche pas un isolement de façade supérieur à 30 dB(A) et s’il n’y a pas d’entrée d’air spécifique en façade, il suffit la plupart du temps de mettre en place des joints d’étanchéité entre les ouvrants et les dormants.

Remplacement des fenêtres

Il existe une valeur seuil d’isolement au-delà de laquelle on doit changer les fenêtres, ce qui induit un surcoût important. Cette valeur seuil dépend de la surface des fenêtres. Elle se situe généralement aux alentours de 33 dB(A).

Une solution couramment adoptée consiste à conserver les anciens dormants en leur appliquant un traitement ou un renforcement éventuel. On pose alors une nouvelle fenêtre souvent en PVC, en fixant les nouveaux dormants sur les anciens, après la pose de joints préformés et, si nécessaire, l’ajout d’un joint en silicone. La nouvelle fenêtre est munie de double vitrage acoustique et d’une entrée d’air insonorisée. Cette technique a cependant l’inconvénient de réduire la surface vitrée. Ainsi, on obtient un isolement acoustique supérieur à 35 dB(A), à condition d’avoir effectué un traitement acoustique des bouches de ventilation et une mise en œuvre correcte.

Toutefois, pour certaines fenêtres particulières, le remplacement est indispensable quel que soit l’objectif d’isolement. Par exemple, pour une fenêtre coulissante, le simple changement des vitrages n’est souvent pas suffisant pour atteindre l’objectif d’isolement acoustique fixé.

D’autre part, pour les portes-fenêtres, les objectifs d’isolement sont plus difficiles à atteindre, même en cas de remplacement. En effet, la valeur de l’isolement acoustique d’une porte-fenêtre est en général inférieure à celle d’une fenêtre. On observe assez fréquemment un écart moyen de 2 dB(A). En effet, la surface de jointures, et donc de fuites possibles, est plus importante dans le cas d’une porte-fenêtre.

Photo baie vitrée.

Obtention d’un isolement de 40 dB(A) avec une seule fenêtre

L’obtention de cette valeur d’isolement nécessite toujours le remplacement des fenêtres par d’autres de très bonne qualité acoustique.

Le vitrage doit avoir un indice de réduction de bruit de l’ordre de 40 dB(A). Ce vitrage est obtenu à l’aide d’un feuilleté acoustique spécial. La menuiserie de la fenêtre doit comporter une triple barrière d’étanchéité entre l’extérieur et l’intérieur du logement pour les fenêtres en PVC. Un double rang de joints de bonne qualité doit être posé entre l’ouvrant et le dormant.

Pour une pièce aux dimensions standard, c’est-à-dire dont la surface est d’environ 25 m² , avec une fenêtre de 1,5 à 2 m² une isolation acoustique de 40 dB(A) est délicat à obtenir s’il y a une entrée d’air. Quelques précautions doivent alors être prises :

  • Les entrées d’air choisies doivent être insonorisées. La valeur de leur coefficient d’affaiblissement acoustique doit être la plus grande possible. Toutefois, il est difficile du trouver sur le marché des entrées d’air de faible encombrement, pouvant être placées dans la menuiserie, ayant une valeur du coefficient d’affaiblissement acoustique supérieure à 42 dB(A). La zone de fonctionnement de la bouche d’entrée d’air choisie doit permettre d’atteindre le débit nominal. En effet, certains systèmes intégrés dans une fenêtre ont une surface d’entrée d’air trop faible pour obtenir le débit nominal imposé par les systèmes d’extraction actuels.
  • L’étanchéité entre le gros-œuvre et le dormant doit être de qualité. L’amélioration de l’étanchéité, obtenue par la pose d’un joint mastic de type silicone ou polyuréthane, augmente la valeur de l’isolement acoustique.
  • Il est utile de vérifier et de remettre en état les joints de façade des grands panneaux préfabriqués, surtout s’il y a des entrées d’air parasites.

Pose de double fenêtre

C’est pratiquement la seule solution technique si l’on veut obtenir une isolation acoustique supérieure à 40 dB(A). La pose s’effectue le plus souvent au nu extérieur de la façade, avec ou sans conservation des volets existants. La nouvelle menuiserie est généralement de type vantaux coulissant, en aluminium ou en PVC. Cette solution permet d’atteindre, dans certaines configurations, des isolements proches de 50 dB(A).

Elle est également satisfaisante sur le plan thermique en hiver, mais présente cependant quelques inconvénients :

  • la difficulté de nettoyage, surtout de la face extérieure de la nouvelle fenêtre,
  • les difficultés d’ouverture de la nouvelle fenêtre et d’accès aux persiennes,
  • la nécessité de remplacer les éventuels volets existants, ce qui induit un surcoût important,
  • une certaine diminution de l’éclairage naturel,
  • la difficulté éventuelle d’obtenir les autorisations urbanistiques.

Il faut évidemment éviter la pose d’entrées d’air insonorisées en regard l’une de l’autre pour limiter la création de pont phonique.

Chaîne du froid et énergie, comme l’eau et le feu ?

Chaîne du froid et énergie, comme l'eau et le feu ?

La qualité du froid, la vente, le confort et l’énergie

Quelques chiffres de sensibilisation

Idée des consommations énergétiques des commerces ?

Il nous paraît important de (re)préciser aux commerçants que lorsqu’ils passent le pas-de-porte de leur magasin de détail ou de leur moyenne et grande surface où le froid alimentaire est présent, ils doivent être conscients que les quantités d’énergie mises en jeu pour :

  • conserver les denrées dans les chambres froides;
  • climatiser les ateliers de boucherie par exemple;
  • refroidir tous les types de meubles frigorifiques d’exposition;

sont beaucoup plus importantes que dans les magasins dit « no food ».

ouverture d'une nouvelle fenêtre ! La Région Wallonne publie régulièrement les valeurs des consommations spécifiques par secteur d’activité. Plus particulièrement, les commerces ont des niveaux de consommation énergétique spécifique suivant le type :

Type de commerce Surface

[m²]

Consommation spécifique en électricité

[kWh/m².an]

Consommation spécifique en combustible

[kWh/m².an]

Consommation spécifique totale

[kWh/m².an]

Commerce non alimentaire 400 à 2 500 113 124 237
Commerce non alimentaire > 2 500 59 105 164
Supermarché 680 258 938
Hypermarché 361 162 523

ouverture d'une nouvelle fenêtre ! l’ADEME en France établit des répartitions des consommations énergétiques par usage suivant les différents types de commerce :

  

Répartition des consommations pour l’ensemble du parc en France (source CEREN).

Hypermarchés [700 kWh/m².an] (source EDF).

  

Supermarchés [1 000 kWh/m².an] (source EDF).

Grandes surfaces non alimentaires [200 KWh/m².an] (source EDF).

Comparatif de vos consommations énergétiques chez vous et celle de votre commerce

Le comparatif des consommations énergétique présenté ci-dessous n’a pas pour ambition de pointer les « mauvais élèves » mais, tout simplement, de montrer quelle empreinte énergétique chacun de nous laisse aux générations futures à titre personnel et au travers des commerces que nous fréquentons tous.

Le coup de poing de cette comparaison réside dans la consommation énergétique d’un supermarché par rapport à la celle d’une maison nouvelle par exemple. En effet, dès que l’on franchit le pas d’un supermarché, on sait que l’on contribue à la multiplication des dépenses énergétiques par plus de 5. À titre indicatif, par rapport à la maison passive, les consommations énergétiques d’un supermarché sont multipliées par plus de 20.

Les quatre éléments conditionnant le froid alimentaire

En froid alimentaire, la cohabitation des quatre impératifs suivants reste toujours un exercice difficile :

  • a qualité du froid (respect des températures et temps de conservation);
  • la vente;
  • le confort du personnel et des consommateurs;
  • et l’énergie;

Pour garder un certain optimisme, à l’image de la Belgique qui reste malgré tout la championne du compromis, il est possible de combiner  :

  • une chaîne alimentaire sans risque pour les consommateurs;
  • un niveau de vente presque inchangé;
  • un confort accru des usagers;
  • une réduction des consommations énergétique.

La qualité du froid alimentaire

Le respect de la qualité du froid alimentaire ne se limite pas à la seule exposition des denrées dans les meubles frigorifiques. Il doit être aussi assuré au niveau :

  • du transfert entre le camion et les chambres de stockage;
  • du stockage;
  • du transfert entre le stockage et les meubles d’exposition;
  • et même des meubles frigorifiques vers le frigo du consommateur. Mais c’est une autre histoire !

La vente

Pour que le commerçant vive, il doit naturellement rendre les denrées attrayantes. Le problème dans le froid alimentaire est que la possibilité de sentir et de toucher les aliments représente une donnée importante au niveau « marketing ». Pour cette raison les meubles de vente frigorifiques sont souvent ouverts aux consommateurs, représentant une difficulté pour :

  • maintenir les températures de conservation;
  • réduire les consommations énergétiques;
  • assurer le confort thermique du personnel et des clients.

Le confort du personnel et des clients

Le confort thermique à proximité des meubles frigorifiques ouverts est difficile à assurer surtout en période estivale où le corps humain subit un choc thermique non négligeable. En effet, non seulement les clients sont peu vêtus, mais de plus, on peut régulièrement enregistrer les températures de l’ordre de 16°C à 1,5 m de hauteur.

L’énergie

Les meubles frigorifiques représentent de plus en plus la majorité de la facture énergétique électrique totale (30 à 50 %) des commerces. Les meubles ouverts se taillent la part du lion, car l’ambiance froide est directement ou indirectement (rideau d’air) mise en contact avec l’ambiance tempérée du reste des zones de vente (no food).

A titre d’exemple, Enertech pour le compte de l’ADEME en France a réalisé ouverture d'une nouvelle fenêtre ! le monitoring électrique complet d’un supermarché de 1 200 m² . Sur base de la consommation électrique annuelle de 255 [kWh/m².an] (bâtiment « full » électrique), la répartition des consommations énergétiques est la suivante :

(Source Enertech).

On observe que 50 % de la consommation énergétique du magasin sert à conserver les denrées.

Évaluer

Pour en savoir plus sur l’évaluation de la qualité de la chaîne du froid alimentaire.
GÉRER LA SENSIBILISATION DES OCCUPANTS

Projet de nouvelle installation de froid alimentaire ?

Projet de nouvelle installation de froid alimentaire ?


La conservation par le froid : objectifs

La réfrigération voire la congélation permet de ralentir les réactions chimiques et enzymatiques, afin de diminuer la multiplication des germes d’altération et surtout de bloquer le développement des bactéries pathogènes.

Les équipements frigorifiques doivent assurer l’hygiène dès l’arrivée des denrées dans les magasins de distribution et durant tout leur cycle de vie depuis les zones de stockage jusqu’à leur distribution.

Températures à garantir

Chambre froide fruits et légumes

4 à 6 °C

Chambre froide viande

2 à 4 °C

Chambre froide poisson

2 à 4 °C

Chambre froide pâtisserie

2 à 4 °C

Chambre froide de jour

2 à 4 °C

Congélateur

– 12 à – 24 °C

Local de stockage des déchets

10 °C

Cave à vin conditionnée

10 à 12 °C/HR 75 %

Local de tranchage

10 °C

Concevoir

Pour en savoir plus sur le choix de l’implantation.

Choix de l’implantation de la zone froide

Photo zone froide - 01.   Photo zone froide - 02.

Photo zone froide - 03.

Une part de l’énergie frigorifique va servir à refroidir (et donc, assécher) l’air des zones tempérées de vente jusqu’à la température de consigne des meubles frigorifiques, de la chambre froide, des ateliers de boucherie, …

Cette part d’énergie peut être élevée sur l’ensemble du bilan frigorifique si l’air ambiant du magasin est chaud et humide.

Ainsi, dans un projet de conception ou de rénovation conséquent, il sera important de respecter une certaine hiérarchisation des priorités :

  • l’implantation des zones « froide » par rapport au contexte externe (l’orientation du bâtiment, présence d’autres bâtiments ou pas , milieu rural ou urbain, ..);
  • l’implantation des zones « froide » par rapport au contexte interne (présence d’apports internes tels que fours, rôtissoires, … à proximité directe des chambres froides, des ateliers de boucherie, des meubles frigorifiques, …);
  • le confinement des zones « froide » par rapport aux zones adjacentes (chambre fermée, chambre semi-fermée, meuble frigorifique ouvert, …).

Schéma implantation zone froide.

Concevoir

Pour en savoir plus sur le choix de l’implantation de la zone de froid.

Choix des meubles frigorifiques

Schéma meuble frigorifique - modèle 01.   Schéma meuble frigorifique - modèle 02.

Schéma meuble frigorifique - modèle 03.   Schéma meuble frigorifique - modèle 04.

À l’heure actuelle, on ne peut plus négliger les aspects environnementaux, énergétiques et financiers tout en sachant que la vente prédominera toujours. Néanmoins les coûts énergétiques devenant importants, on ne peut plus ignorer que les différents aspects du choix des meubles sont désormais intimement liés au chiffre d’affaires réalisé par les commerçants.

Il est donc impératif de prendre en compte le critère de consommation énergétique des meubles et, au sens large du terme, les consommations énergétiques des installations de froid alimentaire.

Critères de choix

Les critères de choix à prendre en compte sont essentiellement liés :

  • à la vente;
  • aux coûts;
  • à l’énergie.

Les critères de choix liés à la vente

Bien évidemment, la toute première fonction d’un meuble frigorifique est de mettre en valeur des denrées afin qu’elles soient vendues. Les principaux critères de choix des meubles frigorifiques par rapport à la motivation de vente sont liés aux types :

  • de denrées vendues (nature des denrées, compatibilités des matériaux du meuble, …);
  • de vente (alimentation générale, spécialisée, …);
  • de magasin (forme, implantation, design, …);
  • de système frigorifique (groupe incorporé ou pas, …);
  • de service (accessibilité avant, arrière, …).

Les critères de choix liés aux coûts

Les principaux coûts dont on devra tenir compte dans un projet seront :
  • l’investissement qui comprend l’achat des meubles frigorifiques proprement dits, les systèmes frigorifiques, l’installation, la réception, … On en déduit un coût global d’investissement annuel comprenant l’investissement lui-même et l’intérêt annuel du capital immobilisé;
  • l’exploitation qui inclut le coût de l’énergie, les entretiens, le loyer annuel par rapport à la surface occupée par les meubles, les montants de police d’assurance couvrant les équipements et la perte des denrées. Sur le même principe que l’investissement, on en déduit un coût d’exploitation annuel.

Les critères de choix liés à l’énergie

Lors de projets de conception, l’aspect énergétique était auparavant négligé au profit naturellement de la vente. Vu l’augmentation constante des prix de l’énergie électrique et par une prise de conscience timide des problèmes d’environnement que cause la production de froid, la conciliation de :
  • la qualité du froid alimentaire;
  • la vente;
  • le confort des clients et du personnel;
  • l’énergie.

est indispensable !

Peu importe les moyens et techniques mis en œuvre, il suffit de prévoir le confinement ou l’enfermement du froid dans une boîte isolée pour améliorer directement l’efficacité énergétique du froid alimentaire. Certains magasins (ils se reconnaîtront) appliquent ce principe depuis déjà longtemps, d’autres se lancent timidement. Il peut s’envisager de manière :

  • globale pour l’ensemble des denrées dans un espace isolé, avec des ouvertures contrôlées tout en permettant un accès aisé;
  • décentralisée comme les meubles frigorifiques où le confinement est réalisé par des portes vitrées par exemple.

Choix des meubles

Selon les différents critères énoncés, un choix de meubles frigorifiques se dégage. Les fabricants classent en général les meubles selon :

  • la température de conservation positive ou négative (quelle valeur) ?
  • le type ouvert, mixte ou fermé, vertical ou horizontal ?
  • l’aménagement interne avec combien d’étagères, avec ou sans éclairage des tablettes, …?
  • équipé d’un convection forcée ou pas ?
  • équipé de porte vitrée, de rideau de nuit, de combien de cordons chauffants ?

Appréhender les dépenses énergétiques

Le choix énergétique du meuble se fera, toute chose restant égale, au niveau du meuble le moins gourmand en consommation journalière d’énergie (kWh par m² de surface d’exposition et par jour) définit par EUROVENT qui effectue des essais aboutissant à une certification du meuble frigorifique dans des conditions d’ambiance tout à fait particulières (la classe 3, par exemple, implique une température ambiante de 25 °C et 60 % d’humidité relative).

Cette certification est naturellement nécessaire pour permettre aux bureaux d’études en techniques spéciales ou au maître d’ouvrage de pouvoir comparer les meubles de même classe ou de même famille ensemble. Les résultats des mesures des consommations énergétiques sont des moyennes mais ne représentent pas les consommations réelles en fonction des conditions ambiantes de température et d’humidité variables à l’intérieur du commerce.

Les principales consommations énergétiques des meubles ouverts sont dues à l’induction de l’air au niveau de l’ouverture.

Puissance frigorifique nécessaire

Une fois le choix des meubles effectué, on peut déterminer assez aisément par les catalogues la puissance frigorifique nécessaire pour son application. Cette puissance conditionnera la valeur de la puissance de l’évaporateur et naturellement celle du compresseur associé.

Il faut toutefois signaler que la puissance frigorifique est donnée en fonction de la classe d’essai EUROVENT (la plus courante c’est la classe 3 : température ambiante de 25 °C et 60 % d’humidité relative). Attention que si les conditions d’ambiance réelle sont différentes de la classe de dimensionnement, on risque de se trouver face à des problèmes d’adaptation de puissance de l’évaporateur par rapport aux apports internes et externes.

Pour être certain de ne pas se « planter », on peut aussi comparer le meuble choisi par rapport à des valeurs de puissance frigorifique par mètre linéaire [W/ml] couramment rencontrées :

  • pour les applications de froid positif, les puissances spécifiques oscillent en général entre 0,2 kW/ml (vitrine service par le personnel en convection naturelle) et 1,3 kW/ml (meuble vertical self service à convection forcée;
  • pour les applications de froid négatif, les puissances spécifiques, quant à elle, varient entre 0,4 et 2,1 kW/ml (respectivement pour les gondoles horizontales self-service en convection forcée et les meubles verticaux à convection forcée).

Le choix des portes fermées

On veillera à choisir des vitrages et des châssis de bonne qualité. on fera attention aux valeurs de consommation énergétique des couches conductrices de désembuage des faces internes des vitres. On demandera éventuellement si les cordons chauffants de porte peuvent être alimentés de manière non continue lorsque les portes son fermées.

Le choix du rideau d’air des meubles ouverts

Le choix du type de rideau d’air est principalement fonction de :

  • la position de l’ouverture du meuble (horizontale, verticale, inclinée, …);
  • la longueur de l’ouverture;
  • l’écart de température.

Un taux d’induction (rapport de la quantité d’air ambiant mélangé par la quantité d’air du rideau d’air et ce, par unité de temps) de l’ordre de 0,1 à 0,2 est courant et garantit la stabilité du rideau d’air. Attention que certains constructeurs proposent des doubles rideaux d’air afin de renforcer cette stabilité, mais ce n’est pas sans risques au niveau des consommations électriques des ventilateurs et de l’augmentation de puissance des évaporateurs (dans certains cas, jusqu’à 15 % de surpuissance).

Le choix du système de dégivrage

Des systèmes intelligents, comme la détection de la fin du palier de fusion de la glace ou du givre, permettent d’optimiser les temps de dégivrage.

Le choix de l’éclairage

Pour éviter de consommer inutilement de l’énergie (de l’ordre de 10 % de l’énergie de jour fournie par l’évaporateur), l’éclairage du meuble doit être prévu en dehors de la zone froide. D’une part, les lampes fluorescentes ont une mauvaise efficacité lumineuse à basse température, d’autre part, les luminaires sont des sources de chaleur et, par conséquent, augmentent les apports internes que l’évaporateur devra évacuer.

Concevoir

Pour en savoir plus sur le choix des meubles frigorifiques.

Choix des chambres froides

Type d’enceinte de conservation

Suivant la capacité de conservation nécessaire pour chaque famille de matières premières (produits laitiers, viandes, …), pour les plats cuisinés à l’avance ou encore pour les produits surgelés, les enceintes seront de type armoire froide, chambre froide compacte, chambre froide modulable, …

On veillera, lors d’un projet de construction de magasin à plutôt s’orienter vers des enceintes modulables afin de permettre de suivre l’évolution de l’activité sans « devoir tout casser ».

Volume et puissance

Le volume nécessaire dépend des ventes, du choix de la gamme des produits, du rythme d’approvisionnement, de leur conditionnement, … Sur cette base, on établira le bilan frigorifique afin de déterminer la puissance de l’évaporateur. Ce calcul est très compliqué et itératif, car il est nécessaire de s’adapter à des conditions particulières telles que les nombres de dégivrages, la tenue de l’isolant dans le temps, …

À noter que le surdimensionnement de l’évaporateur et la régulation étagée du groupe frigo sont intéressants à considérer dans une démarche URE.

Précautions à prendre au niveau de l’utilisation de l’enceinte

Réduire la fréquence et les temps d’ouverture des portes des enceintes permet de réduire les consommations énergétiques au niveau de l’évaporateur et de son dégivrage.

Caractéristiques techniques générales

Le choix d’un réfrigérant s’effectuera en fonction du type de chambre :

  • Pour les chambres positives (0 à 4 °C), le R134a est souvent employé.
  • Pour les chambres négatives (- 10 °C-> ~ – 25 °C), on utilise le R507 ou le R404a (ces fluides sont des HFC (hydrofluorocarbone)).

Aussi, les chambres seront pourvues d’un système d’enregistrement de température au point le plus chaud.

Concevoir

Pour en savoir plus sur le choix des chambres froides.

Choix de l’enveloppe de la chambre froide

Choix constructif

On évite la création de ponts thermiques par le choix des pièces de raccordement d’origine du fabricant ou par l’adaptation intelligente des panneaux isolants au droit des raccordements.

Choix du coefficient de transmission thermique des parois

Si dans le bilan thermique l’isolation des parois prend une importance relative élevée, il faut isoler (cas des chambres de conservation de longue durée). Des ordres de grandeur à atteindre pour les coefficients de transmission thermique sonts :

  • 0,350 à 0,263 W/m²K en stockage réfrigéré,
  • 0,263 à 0,162 W/m²K en stockage surgelé.

Pour des raisons hygiéniques, on évitera la formation de condensation; c’est pour cela qu’il est nécessaire de prévoir une isolation suffisante et placée correctement. Enfin, l’optimum des gains annuels suite à une meilleure isolation interviendra en tenant compte à la fois des coûts liés à la consommation (diminution), à l’investissement dans l’isolation (augmentation) et et la machine frigorifique (diminution).

Faut-il isoler la dalle de sol ?

Plusieurs configurations de chambres froides sont possibles.
Dans le cas :

  • D’une chambre négative avec pièce habitée en dessous, il y a risque de condensation sur le plafond inférieur; il faut donc isoler.
  • D’une chambre négative sur terre-plein, pour peu qu’il y ait de l’eau sous la chambre, il y a risque de gel; il faut aussi isoler.
  • D’une chambre froide positive, on isole le plancher pour autant que la chambre soit utilisée régulièrement.

Attention que l’isolation du plancher impose souvent une marche. Différentes parades tels que le plan incliné, le décaissé dans la dalle, …, permettent d’y remédier.

L’étanchéité des parois

Elle va permettre de limiter la pénétration de l’air (apports thermiques) et la diffusion de la vapeur d’eau risquant de « mouiller » l’isolation (perte de qualité de l’isolation) ou de geler en formant de la glace sur les parois intérieures (risque de déformation des panneaux). Pour réaliser cette étanchéité, la chambre sera équipée d’un pare-vapeur (en général la tôle externe) continu et les portes de joints étanches. Mais la bonne étanchéité de la chambre risque de créer une dépression interne et, par conséquent, une déformation des parois. On y remédie par la pose de soupapes de décompression.

La porte et ses accessoires

La porte de par ses ouvertures apporte des quantités importantes de chaleur et constitue donc un poste important dans le bilan thermique d’une chambre. De plus, de la condensation ou du givre se forme sur les parois. Plusieurs « trucs » permettent de limiter ces effets négatifs :

  • fermeture de porte automatique,
  • lamelles plastiques d’obturation des portes,
  • vitre isolée permettant de repérer ce que l’on cherche de l’extérieur.

La capacité thermique de la chambre

L’inquiétude des exploitants est de tomber en panne de groupe de froid alimentant les chambres froides. C’est la capacité thermique de la chambre, associée avec son isolation qui détermine combien de temps elle tiendra sa température dans une fourchette acceptable de conservation des denrées. Une bonne inertie de dalle de sol placée sur l’isolation permet de répondre en partie à ce problème.

Concevoir

Pour en savoir plus sur le choix de l’enveloppe des chambres froides.

Choix de la cellule de refroidissement rapide

Quand doit-on choisir une cellule de refroidissement rapide ?

Dans tout atelier traiteur où l’on a opté pour une liaison froide, il est recommandé d’abaisser la température au cœur des aliments de + 65 °C à + 10 °C en moins de 2 heures par l’intermédiaire d’une cellule de refroidissement rapide.

Choix du procédé de production de froid

Il est de deux types :

  • froid mécanique;
  •  ou cryogénique (azote liquide).

Le premier est cher à l’investissement par rapport au second. À l’inverse, en exploitation le système cryogénique est onéreux. Dans la pratique, on optera pour un froid mécanique pour la production courante et un froid cryogénique d’appoint en cas de panne de la cellule de refroidissement mécanique.

Précaution d’utilisation

Pour une bonne efficacité de la cellule de refroidissement rapide, l’espacement des denrées à refroidir est primordial.

Capacité et puissance frigorifique des cellules

Le dimensionnement des cellules de refroidissement rapide nécessite de connaître la capacité de cuisson (on ne peut pas refroidir plus ou moins de repas que ceux cuisinés), le temps de refroidissement recommandé et les températures à atteindre. Il faudra encore différentier dans le dimensionnement les cellules positives des négatives; pour ces dernières, il est nécessaire de tenir compte des chaleurs sensibles positives, négatives et de la chaleur latente de congélation.

Concevoir

Pour en savoir plus sur le choix de la cellule de refroidissement rapide.

Choix du compresseur

Photo compresseur - modèle 01.Photo compresseur - modèle 02.Photo compresseur - modèle 03.

Compresseur à vis (source Bitzer), compresseur scroll (source Copeland) et compresseur semi-hermétique à piston (source Bitzer).

Les critères de choix thermiques

On doit garder à l’esprit qu’une température d’évaporation élevée et une température de condensation basse épargnent le compresseur. La température d’évaporation est souvent dictée par l’application (réfrigération, congélation) qui doit respecter les températures de conservation des denrées. La température de condensation, quant à elle, dépend de l’ambiance dans laquelle est placé le condenseur (climat externe, local technique, …). Dans les deux cas, les températures influencent le choix du compresseur.

Les critères de choix énergétiques

Les critères de choix énergétiques à émerger vraiment sont :

  • le coefficient de performance énergétique EER (Energy Efficiency Ratio) ou couramment appelé COPfroid. Sa valeur doit être naturellement la plus élevée possible.
  • le taux de compression HP/BP entre le refoulement et l’aspiration. Le taux de compression ne doit pas dépasser 8, sans quoi le rendement volumétrique du compresseur devient mauvais; c’est la raison pour laquelle en froid négatif on utilise des compresseurs à deux étages;
  • le rendement volumétrique est variable suivant le type de compresseur. Le rendement volumétrique des compresseurs à pistons est variable ne fonction du rapport HP/BP. Par contre celui du compresseur à vis, reste relativement stable en fonction du taux de compression.

Choix du compresseur

Il existe différentes sortes de compresseurs : volumétriques (à pistons, à vis ou à spirales) et centrifuges. On les différencie aussi suivant l’association moteur-compresseur (ouvert, semi-hermétique et hermétique).

La tendance actuelle est au choix des machines tournantes qui donnent plus de fiabilité, un rendement volumétrique plus important, une durée de vie plus longue, … Cependant, les machines tournantes (vis, scroll, …) présentent les désavantages de coûter plus cher et d’être de puissance frigorifique plus importante que les machines alternatives (piston). C’est pour cette raison que le choix de machine tournante dans les commerces de détail n’est pas souvent retenu.

Au sein d’une famille de compresseurs , on sera attentif au taux de compression qui doit être adapté en fonction de la pression de condensation et par conséquent en fonction du régime de fonctionnement du condenseur.

Dimensionnement du compresseur

Le dimensionnement courant du compresseur pour une installation de froid alimentaire est naturellement conditionné par :
  • le type de fluide réfrigérant;
  • la température nécessaire à l’application au niveau de l’évaporateur (froid positif ou négatif, type de denrées à conserver, …) et ce, dans des conditions optimales;
  • la température extrême qu’il peut régner au niveau du condenseur (température de l’air ou de l’eau selon le type de condenseur).

En froid alimentaire, le respect des températures de réfrigération ou de congélation est draconien. En Belgique, nous ne sommes pas privilégiés au niveau du dimensionnement par rapport au climat. En effet, pour quelques heures par an, le bureau d’études doit tenir compte, dans son dimensionnement, de la température de condensation pour une période de canicule (40-45°C sont des températures de dimensionnement courantes correspondant pour un condenseur à air à une température d’air de l’ordre de 32-35°C). En dehors de cette période, le compresseur est surdimensionné. Or on sait qu’à bas régime, le compresseur s’adapte mal et qu’une diminution de 25 % de la puissance frigorifique correspond à environ une diminution de 10 % de la consommation électrique du compresseur.

Choix de régulation de puissance du compresseur

Afin d’augmenter la performance des groupes frigorifiques, on retiendra qu’il est important de réaliser un découpage de la puissance en fonction de la charge par le choix :

  • d’un groupe de froid à plusieurs étages ;
  • d’un compresseur à vitesse variable;
  • de la mise en parallèle de plusieurs compresseurs avec régulation de la puissance par enclenchements et déclenchements successifs;

de manière à éviter le fonctionnement de chaque machine à bas régime.

Quant au réglage de la puissance du compresseur par injection des gaz chauds dans l’évaporateur ou à l’entrée du compresseur, il faut le qualifier de « pur anéantissement d’énergie ». Dans ce cas, la puissance absorbée reste la même lorsque la puissance de réfrigération diminue. De plus, ils provoquent un échauffement du moteur. Dans la mesure du possible, il faut mettre ce système aberrant hors service dans les installations existantes.

Il est clair que l’optimisation de la puissance de compression n’est réalisable qu’en associant des techniques de compression de pointe avec une régulation efficace (numérique par exemple).

Critères acoustiques

Ce sont les compresseurs qui génèrent la majorité du bruit. Pour diminuer les nuisances acoustiques du compresseur, il faut prévoir les dispositifs suivants :

  • un capot acoustique sur la machine.
  • une dalle flottante équipée d’isolateurs à ressorts.
  • des plots en élastomère entre la machine et la dalle flottante.

Concevoir

Pour en savoir plus sur le choix des compresseurs.

Choix du condenseur

Photo condenseur - 01.   Photo condenseur - 02.

Critères de choix généraux

Il faut évacuer la chaleur du réfrigérant vers l’air ambiant; c’est le condenseur qui s’en charge. Deux techniques existent pour y arriver : le condenseur à air ou à eau.

Le choix d’un condenseur dépendra en première approche :

  • de son emplacement par rapport au compresseur; l’idéal étant de placer le groupe de froid en toiture,
  • de la température de condensation conditionnée, pour une température extérieure donnée, par la surface d’échange et le débit d’air ou d’eau (les performances du compresseur seront meilleures si la température de condensation est basse),
  • de la température extérieure; un condenseur en plein soleil ou sous un toit noir n’est pas de bonnes idées.

Critères acoustiques

La principale source de bruit d’un condenseur est constituée par le(s) ventilateur(s). on aura toujours intérêt à les faire fonctionner à faible vitesse. Il faudra être attentif au bruit « solidien » se transmettant à la structure par les fixations du condenseur.

Choix d’un condenseur à air

L’entretien du condenseur à air est limité. Aussi, il n’y a aucun risque de gel en hiver. Mais le coefficient d’échange avec l’air étant faible, le condenseur sera volumineux, et donc lourd et encombrant. Enfin, les températures de condensation sont directement liées aux conditions de température extérieure : la pression de condensation sera forte en été (dégradation du COP de la machine frigorifique), mais plus faible en hiver, entraînant d’ailleurs un besoin de régulation adapté pour un fonctionnement correct.

Le fonctionnement du condenseur en période chaude peut être amélioré en choisissant un système d’évaporation d’eau sur la batterie de condensation (réduction de la température de l’air de refroidissement de l’ordre de 5 à 8 K). Les condenseurs « adiabatiques » permettent de prérefroidir l’air par l’évaporation d’eau qui pourrait très bien provenir d’une réserve d’eau de pluie par exemple. Cette initiative est aussi salutaire dans le sens où on pourrait sous-dimensionner le compresseur de par l’abaissement du taux de compression.

On veillera aussi à considérer :

  • le ventilateur, car sa consommation électrique et le bruit généré ne sont pas négligeables,
  • l’abaissement de la température de condensation par la considération des détails de construction, le positionnement (ombrage possible par exemple), l’environnement (toiture noire), … du condenseur;
  • la récupération de chaleur perdue à la sortie du condenseur;

Choix du condenseur évaporatif

Pour les magasins où l’installation frigorifique est de taille importante, le condenseur évaporatif est aussi une solution intéressante qui permet de garder une installation relativement simple tout en permettant de réduire les températures de condensation si chères à l’optimisation des performances énergétiques des compresseurs. Attention toutefois au risque de légionelles qui résultent souvent d’un manque de suivi et de contrôle des installations utilisant de l’eau de refroidissement.

Choix d’un condenseur à eau

Le réfrigérant de la machine frigorifique cède sa chaleur à l’eau circulant dans le condenseur. Grâce au coefficient d’échange avec l’eau 20 à 30 x plus élevé que le coefficient d’échange avec l’air, la taille du condenseur à eau sera plus réduite et l’échangeur moins encombrant. Aussi, il est moins bruyant que le condenseur à air. Cependant, il nécessite une tour de refroidissement à extérieur ainsi que tout un réseau d’eau à protéger du gel; l’installation est donc très coûteuse, raison pour laquelle en froid commercial (en particulier pour la distribution) on trouve peu d’installation de ce genre.

Une application possible est son utilisation pour les grandes surfaces où l’on veut réduire la quantité de fluide frigorigène.

Choix de la régulation

Le contrôle de la température du condenseur influence le bon fonctionnement du groupe frigo. En effet, on cherche à travailler à basse température pour soulager le compresseur. Mais si elle est trop basse, le détendeur fonctionne mal, car la pression à son entrée est trop faible et il ne peut assurer le débit de réfrigérant dans l’évaporateur. En pratique, on régule le débit du ventilateur du condenseur en fonction de sa pression d’entrée. L’utilisation de variateurs de vitesse apporte un plus dans la régulation de cette pression.

Aussi, on préférera un détendeur électronique plutôt qu’un thermostatique; en effet, l’électronique peut travailler avec des températures de condensation plus basse.

Concevoir

Pour en savoir plus sur le choix du condenseur.

Choix du détendeur

Photo détendeur.

Critères de choix énergétiques

Les critères de choix énergétiques des détendeurs sont :

  • la gestion intelligente de la surchauffe;
  • la capacité à travailler à des pressions d’entrée faibles pour favoriser le choix d’une stratégie de température de condensation basse.

Choix  du type de détendeur

Les détendeurs thermostatiques sont souvent retenus pour leurs coûts réduits et leur capacité à gérer relativement bien la surchauffe au niveau de l’évaporateur.

Quant au détendeur électronique, il commence à être régulièrement retenu pour ses aptitudes à :

  • gérer la surchauffe correctement en « collant » à la valeur minimale de surchauffe stable et d’assurer ainsi un remplissage optimal de l’évaporateur quelle que soit la charge à l’évaporateur;
  • s’intégrer dans des systèmes de régulation globaux (régulation flottante de la pression de condensation par exemple) et communs ;
  • de mieux supporter les faibles différences de pression entre ses orifices lorsque l’on veut réduire au maximum la pression de condensation.

Le choix d’un détendeur électronique est donc principalement énergétique. Certains constructeurs parlent de temps de retour de l’ordre de 2,5 ans sur le surinvestissement.

Dimensionnement du détendeur

Un surdimensionnement du détendeur électronique permet de mieux accepter les pressions de condensation faibles réglées par la régulation flottante au niveau de la pression de condensation.

Concevoir

Pour en savoir plus sur le choix du détendeur.

Choix du dégivrage

Du côté de la chambre froide ou du meuble frigorifique fermé ou mixte négatif, le givre diminue le transfert thermique entre l’air et la surface extérieure de la batterie. L’apport de froid vers la chambre se fait moins bien. La température de la chambre froide monte quelque peu.

D’autre part, du côté du circuit frigorifique, le compresseur de la machine frigorifique travaille avec une mauvaise efficacité énergétique : la couche de glace sur l’évaporateur peut être comparée à une couverture posée sur un radiateur (pour obtenir la même chaleur, il faudra augmenter la température de l’eau et diminuer le rendement en chaudière).

Il faut donc débarrasser périodiquement l’évaporateur du givre formé : c’est le dégivrage.

La chambre frigorifique doit donc être équipée d’un dégivrage automatique.

Le personnel d’exploitation, s’il n’effectue pas lui-même le dégivrage, doit cependant en vérifier le bon déroulement et surtout s’assurer périodiquement que les dégivrages sont effectués complètement. Aucune trace de givre ne doit subsister sur la surface froide à la fin du dégivrage.

Précautions à prendre au niveau du choix de l’enceinte et du groupe

Pour une question d’efficacité et de limitation du nombre de dégivrages, l’évaporateur doit être placé le plus loin possible de l’entrée de la chambre. De plus, pour les opérations de dégivrage proprement dites, on choisit de préférence une vanne magnétique sur le circuit réfrigérant et un manchon souple placé à la sortie du ventilateur de l’évaporateur afin de garder la chaleur lors de la coupure du ventilateur (début de l’opération de dégivrage).

Précaution à prendre au niveau de l’utilisation de l’enceinte

Il est un fait certain que moins il y aura d’ouverture de la porte de la chambre (organisation rationnelle), moins on gaspillera de l’énergie nécessaire :

  • pour le dégivrage,
  • pour le refroidissement et le séchage de l’air extérieur entré par la porte,
  • pour évacuer la chaleur produite au niveau de l’évaporateur par l’opération de dégivrage.

Choix de la technique de dégivrage

Le réchauffage de la batterie pour assurer la fusion du givre peut se faire de diverses façons :

  • par résistance chauffante (la plus courante pour les moyennes puissances),
  • par introduction de vapeurs refoulées par le compresseur où l’évaporateur reçoit les gaz chauds par inversion du cycle en devenant le temps du dégivrage le condenseur du groupe frigo,
  • par aspersion d’eau sur la surface externe, givrée, de la batterie,
  • par circulation d’air.

Les deux premières méthodes citées ci-dessus sont les plus courantes.

Choix de la régulation de dégivrage

Vu que le dégivrage est une source de dépense énergétique, l’optimisation des du dégivrage prend toute son importance en terme de fréquence et de longueur de cycle. Parmi les types de dégivrage, les plus courants sont les systèmes :

  • par horloges (difficulté d’optimisation par rapport à l’organisation de la cuisine),
  • électroniques contrôlant la présence de glace par l’analyse de la courbe de remontée en température de l’évaporateur (plateau de t° = fusion),
  • électroniques contrôlant l’écart de température entre l’ambiance et l’évaporateur.

Les systèmes électroniques sont en plus capables d’accepter des niveaux d’alarme, de contrôler un délestage, …

Évacuation des condensats

On cherchera le chemin le plus court pour évacuer les condensats sans qu’ils ne gèlent. Cette évacuation demandera une maintenance toute particulière, car elle influence directement le bon fonctionnement de l’évaporateur.

Les meubles fermés ou mixtes

Les principes généraux de dégivrage des chambres froides s’appliquent assez bien aux meubles frigorifiques fermés ou mixtes négatifs, car l’évaporateur subit le même type d’agressions hygrothermiques lors des ouvertures des portes. En ce qui concerne les meubles frigorifiques ouverts négatifs horizontaux (gondole par exemple) ils subissent les agressions hygrothermiques de manière moins forte vu que l’influence de l’induction de l’air de la zone de vente n’est pas prépondérante. Néanmoins, pour ce type de meubles, le dégivrage par résistance électrique ou injection de gaz chaud est souvent nécessaire.

Les meubles ouverts positifs

Ce type de meubles, quant à lui, subit les agressions hygrothermiques en permanence de par l’induction de l’air de l’ambiance de vente de manière naturelle ou au travers d’un rideau d’air en ventilation forcée. L’induction d’air apportant irrémédiablement de la vapeur d’eau contenue dans l’air ambiant sur l’évaporateur, le dégivrage est plus que nécessaire mais, vu les températures d’échange au niveau de l’air sur les ailettes de l’évaporateur sont proches de 0°C, un dégivrage naturel sans apport de chaleur est suffisant dans la plupart des applications.

Concevoir

Pour en savoir plus sur le choix du dégivrage.

Choix de la régulation

Variateur de fréquence d’un compresseur (source : Delhaize).

Critères de choix

Dans ce cadre-ci, les critères de choix d’une régulation s’articulent autour de l’optimisation de la puissance frigorifique de l’évaporateur et de la consommation énergétique des équipements. Par exemple, une bonne régulation du détendeur permet de remplir idéalement l’évaporateur en fluide frigorigène afin de maximiser la puissance frigorifique et naturellement de réduire le temps de travail du compresseur.

Choix de la régulation

Le choix d’une régulation d’une application de froid alimentaire doit être pris :

  • dans un premier temps de manière globale. En effet, vu que le cycle frigorifique est fermé, la régulation particulière d’un équipement influence naturellement la régulation des autres. Par exemple, la régulation de la pression de condensation au niveau du ventilateur d’un condenseur à air influence celle du compresseur, etc …
  • dans un second temps, pour chaque équipement en particulier en fonction de l’aptitude ou pas à accepter une régulation simple ou sophistiquée.

Concevoir

Pour en savoir plus sur le choix du dégivrage.

Choix d’un fluide frigorigène

Photo fluides frigorigènes.

Le choix d’un fluide frigorigène dépendra de plusieurs facteurs dont :

  • L’impact environnemental;
  • l’impact énergétique (ou qualité thermodynamique);
  • la sécurité d’usage;
  • les contraintes techniques;
  • le coût;
  • les tendances futures.

Concevoir

Pour en savoir plus sur le choix du fluide frigorigène.

Investir dans une récupération de chaleur ?

Schéma principe récupération de chaleur.

Principe de fonctionnement

Une machine frigorifique transfère de la chaleur extraite des meubles frigorifiques vers l’extérieur. Par ailleurs, une proportion non négligeable des meubles frigorifiques ouverts  est présente dans l’ambiance tempérée des zones de vente qui se refroidit.

En période froide, il semblerait dès lors logique de tenter de récupérer la chaleur sur le condenseur de la machine frigorifique pour l’injecter dans l’ambiance plutôt que de l’évacuer à l’extérieur.

On sait aussi qu’une machine frigorifique est d’autant plus performante que sa température de condensation est basse. On se trouve donc devant un choix difficile entre :

  • d’une part, utiliser la température externe pour refroidir le condenseur entraînant une perte de chaleur non négligeable vers l’extérieur, mais en augmentant la performance de la machine frigorifique;
  • d’autre part, récupérer la chaleur de condensation pour la réinjecter directement ou indirectement dans l’ambiance des zones de vente, d’où en fin de compte elle provient.

Plus largement, la chaleur que l’on peut récupérer du cycle frigorifique peut provenir :

  • à haute température de la phase de désurchauffe du cycle frigorifique suivi d’une condensation classique à basse température (air externe en période froide par exemple). À ce stade, les températures peuvent être intéressantes (> 70°C voire plus) mais la quantité d’énergie échangée reste faible;
  • à moyenne température de la phase de condensation suivie d’une condensation classique à basse température (Chauffage au sol pour des températures de l’ordre de 35-40°C);
  • à basse température de la phase de condensation (préchauffage de l’eau chaude sanitaire à des températures de condensation de l’ordre de 20°C.

Application au chauffage du magasin et des annexes par l’air

Dans le cas de l’utilisation de la chaleur de condensation pour chauffer directement le magasin (cas des meubles frigoriques avec groupe condenseur incorporé), en période froide, cette technique peut être intéressante. En période chaude, il vaut mieux prévoir une évacuation de cette chaleur dehors (sinon la performance énergétique de la machine froid se dégrade).

Application au chauffage du magasin et des annexes par l’eau

La récupération de la chaleur de condensation pour chauffer de l’eau destinée à alimenter un système de chauffage au sol doit être envisagée avec précaution. En effet, pour fonctionner correctement, le chauffage au sol nécessite une température d’eau de l’ordre de 35- 40 °C. Si l’on n’y prend pas garde, les températures de condensation pourraient atteindre les 50-55°C réduisant la performance du compresseur. Enfin, en terme de confort, la solution du chauffage au sol dans les allées froides pourrait être intéressante sans trop modifier le régime de fonctionnement des meubles frigorifiques (chauffage radiant augmentant les apports externes des meubles).

Application au préchauffage de l’eau chaude sanitaire

L’idée est ici de profiter d’un besoin de chauffage d’un fluide à basse température (la température de l’eau de ville varie entre 5° en hiver et 15°C en été).

Mais le système ne fonctionnera bien que lorsque la puissance de récupération nécessaire est supérieure à la puissance fournie par le condenseur. Autrement dit, il faut que les besoins d’eau sanitaire soient très importants par rapport à la puissance de la machine frigorifique; ce n’est pas nécessairement le cas des magasins.

Concevoir

Pour en savoir plus sur l’intérêt d’investir dans une récupération de chaleur.

Tuyauterie des installations frigorifiques

Conduite liquide

Si elles traversent des espaces tempérés, les conduites liquides non isolées entre le condenseur et le détendeur, risquent de re-vaporiser le fluide frigorigène (« flash gaz ») causant le mauvais fonctionnement du détendeur. Au final, l’évaporateur perdra de la puissance frigorifique.

Conduite d’aspiration

Lors de la conception, le choix d’un long traçé du circuit d’aspiration crée des pertes de charge importantes qui influencent négativement le travail de compression du compresseur. Il en est de même pour le manque d’isolation, mais à plus faible échelle.

Concevoir

Pour en savoir plus sur précautions à prendre lors du placement des conduites.

Comment améliorer l’installation de froid alimentaire ?

Comment améliorer l'installation de froid alimentaire ?


Améliorer l’étanchéité du bâtiment

   

De manière générale, toute infiltration d’air génère une consommation supplémentaire de chaleur en hiver, de froid en été. Elle peut être estimée en considérant qu’elle augmente la consommation liée au taux d’air neuf du magasin.

En particulier pour les magasins où le froid alimentaire est présent :
  • en période froide, on serait tenté de dire que c’est une bonne chose de laisser « entrer le froid » et ce afin de réduire les apports thermiques aux applications de froid (et donc réduction des consommations énergétiques). Mais bien évidemment, le confort dans les zones tempérées comme les caisses, le « no food », …, ne serait pas assuré. Pour les courageux dans les commerces de détail, on pourrait envisager un fonctionnement comme sur les marchés (boucherie, crémerie, …);
  • en période chaude, de manière générale, le manque d’étanchéité du magasin cause des surconsommations d’énergie électrique au niveau des compresseurs des productions de froid. En effet, la température externe (via l’ambiance du magasin) augmente indirectement les apports thermiques. Quant à l’humidité, indirectement aussi, elle générera de la condensation au niveau des points froids, mais surtout le givrage des évaporateurs des installations de froid alimentaire.

Pour les commerces, c’est principalement par les entrées que l’étanchéité est rompue.

Les portes d’entrée

De manière générale, le problème des commerces réside dans les ouvertures et fermetures incessantes des portes par les clients. Bien vite s’installe une habitude de laisser les portes ouvertes en permanence, été comme hiver, afin de faciliter l’accès à l’intérieur et, tout aussi important pour le commerçant d’améliorer son marketing (comme dirait un commerçant béninois : « entre, c’est ouvert, tout est gratuit jusqu’à la caisse !).

Les impacts énergétiques et de confort ne sont pas les mêmes suivant qu’il s’agit d’un commerce de type « no food » ou « food » :

  • Pour les commerces type « no food », en période froide, les ouvertures devraient être fermées afin d’éviter les pertes de chaleur vers l’extérieur. En période caniculaire, il faudrait garder les portes fermées en journée, limiter les éclairages, éviter la climatisation, … et la nuit tenter de refroidir par un free cooling de nuit (refroidissement naturel par l’air);
  • Pour les commerces type « food », en période froide, au détriment  peut-être du confort (surtout ne faites pas fuir vos clients), certains pourraient ouvrir leurs portes (comme l’adopte si souvent les commerces « non-food » afin de réduire la sollicitation de la machine frigorifique (pour autant que le chauffage ne soit pas à fond). En mi-saison et en période chaude, par contre, il est impératif de fermer ses portes afin de réduire les apports externes vers les comptoirs ou les meubles frigorifiques.

On voit bien que les comportements des deux types de commerces sont assez différents.

Pour les grandes et moyennes surfaces, type « food »

Vu qu’il y a plus de place, en général, les améliorations possibles sont principalement la mise en place :

  • de sas d’entrée (coûts relativement importants);
  • de tourniquets;
  • d’une surpression contrôlée au niveau de la ventilation hygiénique afin d’éviter les courants d’air incontrôlés entre les entrées principales et les accès fournisseurs;

La fermeture des accès en mi-saison et en période chaude est importante.

Pour les commerces de détail, type « food »

Pour ce type de commerces, les solutions ne sont pas légion. La fermeture des accès en mi-saison et en période chaude est importante.

En période froide, mais c’est une question de motivation, quand la température externe correspond à la température de travail dans les boucheries, par exemple, pourquoi ne pas soulager la production frigorifique en laissant les portes ouvertes (vu à plusieurs reprises dans d’autres pays); il faudra naturellement tenir compte de la qualité de l’air externe.

Un exemple frappant : sur les marchés, en période froide, les besoins en froid sont très faibles.

Améliorer

Pour en savoir plus sur l’amélioration de l’étanchéité des bâtiments

Limiter les apports tant internes qu’externes

En froid alimentaire, les ennemis des meubles frigorifiques, des ateliers et des chambres froides sont les apports thermiques tant externes qu’internes.

Les apports externes

Quand on parle d’apports externes, on pense généralement aux apports solaires (rayonnement solaire direct). Ces apports solaires au travers des vitrages contribuent :

  • à réchauffer, directement ou indirectement via l’ambiance, les applications de froid (augmentation des apports);
  • à dégrader les denrées exposées à un rayonnement solaire direct au travers des baies vitrées.

Les vitrages

Photo vitrages de toiture.  Photo vitrages de toiture.

Baie vitrée orientation est-ouest (source : Bioshanti).

« Shede » orienté nord (source Delhaize).

Dans les bâtiments tertiaires avec apports internes élevés, il faut limiter les surfaces vitrées au Sud et surtout à l’Ouest, et prendre la lumière naturelle au Nord afin de profiter du rayonnement diffus (dans la limite des possibilités urbanistiques).

On entend par rayonnement diffus, le rayonnement émit par le ciel. Cette valeur de rayonnement a l’avantage de rester relativement constante au cours de l’année, du moins en Belgique.

Les protections solaires

Photo protections solaires.   Photo protections solaires.   Photo protections solaires.

Pour que les protections solaires soient efficaces, il est nécessaire de concilier la protection contre les surchauffes et un apport en éclairage naturel suffisant, quelle que soit la saison.

Les apports internes

   

L’apport des occupants

Les occupants apportent de la chaleur sensible (température du corps) et latente (respiration, transpiration). En période froide cet apport contribue à l’amélioration du bilan thermique du chauffage de l’ambiance de vente. Il est bien entendu que le bilan thermique des meubles frigorifiques est d’autant meilleur que les apports internes sont faibles. Néanmoins, le confort du personnel et des clients doit être assuré; ce qui signifie que les apports internes sont les biens venus en période froide si on considère que le confort thermique doit être assuré (« c’est un soulagement pour la chaudière ! »).

En période chaude, les évaporateurs des meubles frigorifiques condensent la transpiration du corps humain; ce qui défavorise le bilan thermique des évaporateurs et, par conséquent, celui de la machine de froid. Outre la fermeture des ouvertures des meubles frigorifiques, une manière d’améliorer leur bilan énergétique est de réduire au maximum les températures ambiantes à leur proximité immédiate de manière à réduire la transpiration des clients (attention au confort des consommateurs).

L’apport des équipements

Toute charge électrique (éclairage, caisse électronique, TV, Hifi, …) dans un local où le froid alimentaire est présent est payée plus d’une fois :

  • une fois pour effectuer le travail attendu (consommation électrique pour produire de la lumière par exemple),
  • plus une partie pour évacuer cette énergie qui s’est transformée en chaleur et qui doit être évacuée par l’évaporateur et, in fine, par la machine frigorifique.

L’éloignement des sources de chaleur tel que les fours de boulangerie, rôtissoires, … des comptoirs frigorifiques est nécessaire. En ce qui concerne les éclairages à proximité immédiate des meubles frigorifiques, s’ils sont nécessaires à la vente, la sélection d’une source lumineuse énergétique efficace est de mise.


Améliorer le confort thermique

Illustration améliorer le confort thermique.

On sait que le travail dans les ambiances froides des commerces doit-être adapté. Le seul moyen d’améliorer son confort est d’adapter son habillement et son temps de travail à la température qu’il y règne.

A proximité des meubles frigorifiques ouverts ou dans les « allées froides », le message doit être très clair : le confort des clients et du personnel de réapprovisionnement des meubles ouverts est quasi incompatible avec la performance énergétique du froid alimentaire et, dans une moindre mesure avec l’efficacité thermique, à moins de fermer les frigos.

Le tout est de savoir ce que l’on veut !

Dans les allées froides des meubles frigorifiques ouverts

Fermer les ouvertures

Le simple fait de fermer une ouverture de meuble frigorique ouvert, réduit considérablement les déperditions typiques à ce type de meuble (par induction d’air et par rayonnement) de l’ordre de 30 à 40 %. Lorsque les ouvertures des meubles sont obturées, l’air d’ambiance à leur proximité immédiate se refroidit moins, les échanges radiatifs entre les parois froides et le corps humain sont réduits, d’où l’impression de confort accrue.

Photo frigos fermés.   Photo frigos fermés.

Meuble négatif et meuble positif (source Bioshanti).

Faut-il chauffer les allées froides ?

À cette question délicate on aurait tendance à répondre ceci :

« Êtes-vous bien sûr de ne pas vouloir fermer les ouvertures même en journée ? »

Dans la négative, une seconde question vient tout de suite à l’esprit :

« Pensez-vous, si vos clients sont sensibilisés, que réduire la température de confort dans les espaces de froid alimentaire va les faire fuir ? »

Dans l’affirmative, il vaut mieux chauffer les allées froides à l’aide d’un système de chauffe performant à haut rendement.

Dans les zones froides

Adapter l’habillement et le temps de travail

L’adaptation de sa tenue vestimentaire et de son temps de travail dans les zones réservées au personnel (atelier chambre froide, …) est nécessaire pour améliorer le confort et la sécurité thermique.


Améliorer le confort acoustique

Schéma améliorer le confort acoustique.

Évaluer

Après l’analyse de la situation sur le terrain, la logique à suivre est basée sur le type de bruit.

Soit le bruit est aérien

Puisqu’il est produit par l’écoulement de l’air et les turbulences qui y sont liées, on peut envisager de réduire la source du bruit, par exemple en diminuant la vitesse du ventilateur, en améliorant l’écoulement dans les bouches, dans les coudes,…

À défaut, puisque ce bruit dispose d’un spectre développé surtout dans les hautes fréquences, il est possible d’absorber le bruit par des matériaux fibreux : silencieux, parois de gaines absorbantes,…

Si ce bruit est transmis entre deux locaux, c’est l’isolation phonique de ces parois qu’il faut améliorer.

Soit le bruit est solidien (bruit d’impact)

Puisque ce sont les vibrations des équipements qui sont transmises à la masse du bâtiment, la diminution de vitesse permettra également de réduire les vibrations. Certaines sociétés de maintenance peuvent enregistrer les vibrations émises à l’arbre d’un ventilateur et dire si un balourd serait responsable du bruit en cause.

A défaut, on cherchera à couper toute transmission du bruit par le placement d’un matériau résilient entre l’équipement et son environnement : plots antivibratiles, manchettes souples, plancher flottant,…

Réaliser le doublage acoustiques des parois

Lorsqu’un local est adjacent à un local technique, différentes dispositions peuvent être prises afin de réduire la transmission du bruit tel que le dédoublement des parois de carton-plâtre, …

Renforcer l’isolation acoustique des baies vitrées

Si l’objectif est de se protéger d’un bruit extérieur (bruit de condenseur sur une plate-forme, par exemple), une amélioration de la qualité acoustique des baies peut être envisagée. Et le premier regard doit se porter sur l’étanchéité à l’air (davantage que sur la vitre elle-même). En effet, le bruit passe essentiellement par l’inétanchéité des joints. C’est ce qui fait la médiocre qualité des fenêtres coulissantes…


Diminuer les consommations énergétiques des meubles

La principale consommation énergétique des meubles frigorifiques ouverts est issue de l’échange entre l’ambiance de la zone de vente et l’intérieur du meuble au travers :

  • du rideau d’air par induction et rayonnement;
  • des parois de la « carcasse » du meuble par conduction et convection. Il constitue les apports externes.

Cependant, il ne faut pas négliger les apports internes constitués par l’éclairage internes des denrées, la production de chaleur des ventilateurs, des cordons chauffants et des systèmes de dégivrage.

La solution radicale

 

Meuble frigorifique ouvert et confinement et isolation légère (double vitrage).

Confinement et isolation importante (enceinte opaque).

Quel que soit le type d’application de froid alimentaire, le confinement des denrées dans des espaces fermés est la règle d’or.

Il faut bien reconnaître que dans la pratique, ce n’est pas tout à fait le cas vu la recrudescence des meubles frigorifiques ouverts afin de favoriser la vente. Néanmoins, certains magasins ont appliqué cette excellente résolution avec succès sans impact sur le chiffre d’affaire en plaçant des protections devant les meubles.

Par exemple, le placement de fermetures en plexyglass sur les gondoles négatives a permis à une chaîne alimentaire de notre pays de réduire les consommations énergétique de l’ordre de 30 à 35 % (source DAPESCO).

D’autres encore ont opté pour des solutions encore plus radicales, à savoir le confinement global ou partielle d’une grande partie des produits frais dans des chambres froides avec libre passage des clients au travers d’ouvertures contrôlées.

Optimiser l’efficacité du rideau d’air

Pour les irréductibles des meubles ouverts, l’optimisation du rideau d’air est impératif. Ce mal nécessaire limite les apports de chaleur par induction de l’air ambiant, à hauteur de 50 à 66 % de la puissance frigorifique nécessaire à l’évaporateur et, in fine, à la machine frigorifique.

Ces échanges de chaleur entre l’ambiance des zones de vente et les denrées doivent être réduits au maximum. Pour atteindre ce but, un optimum est à trouver au niveau du débit du rideau d’air. On conseille en pratique de limiter les vitesses des rideaux d’air :

  • pour les meubles horizontaux, à 0,5 m/s;
  • pour les meubles verticaux, entre 0,6 et 0,7 m/s.

Réduire les pertes par rayonnement

Surtout pour les meubles frigorifiques horizontaux négatifs (« bacs à frites », « bacs à glace », …), l’échange par rayonnement entre les parois des meubles et le plafond peut représenter de l’ordre de 40 % de l’appel de puissance à l’évaporateur. La réduction des consommations énergétiques passe par le placement de « baldaquins » qui permettent de réduire les températures des denrées en surface de l’ordre de 3 à 5 °C. De même, la création « d’allée froide » (meubles verticaux ouverts positifs placés en vis à vis) réduit aussi les apports par rayonnement. Attention seulement au confort.

Baldaquins pour les meubles horizontaux ouverts.

Limitation du rayonnement vers le plafond

Placer ou optimiser les protections de nuit

Le simple placement de couvertures de nuit pour les meubles ouverts horizontaux ou de rideaux de nuit pour les meubles ouverts verticaux permet de réduire les consommations énergétiques de l’ordre de 8 à 30 % selon le cas.

Photo couvertures de nuit pour les meubles ouverts horizontaux.

Optimiser ou supprimer l’éclairage des tablettes

Le placement d’éclairage dans l’enceinte même du meuble frigorifique est une très mauvaise idée puisque le commerçant puise deux fois et peut-être plus à sa propre caisse :

  • une première fois parce que l’éclairage proprement dit consomme de l’électricité;
  • une seconde fois pour la simple raison qu’une grande partie de l’énergie consommée par les luminaires est transformée en chaleur et doit être évacuée par l’évaporateur;
  • enfin, vu que la plupart des luminaires utilisés en froid commercial sont des lampes fluorescentes (TL), à basse température, ce type de lampes a un mauvais rendement lumineux (de l’ordre de 40 %).

Une nette amélioration passe par la coupure des éclairages à l’intérieur de l’enceinte du meuble et l’optimisation ou le placement d’un éclairage performant à l’extérieur du meuble comme par exemple en dehors du rideau d’air.


Optimiser le dégivrage

L’air ambiant autour de l’évaporateur contient de l’eau. Cette eau givre au contact des surfaces froides de l’évaporateur lorsque la température du fluide à l’intérieur de celui-ci est inférieure à 0°C.

Du côté de la chambre froide ou du meuble frigorifique fermé ou mixte négatif, le givre diminue le transfert thermique entre l’air et la surface extérieure de la batterie. L’apport de froid vers la chambre se fait moins bien. La température de la chambre froide monte quelque peu.

D’autre part, du côté du circuit frigorifique, le compresseur de la machine frigorifique travaille avec une mauvaise efficacité énergétique : la couche de glace sur l’évaporateur peut être comparée à une couverture posée sur un radiateur (pour obtenir la même chaleur, il faudra augmenter la température de l’eau et diminuer le rendement en chaudière).

Il faut donc débarrasser périodiquement l’évaporateur du givre formé : c’est le dégivrage.

La chambre froide, les meubles frigorifiques, les vitrines, …doivent  donc être équipées d’un dégivrage automatique.

Le personnel d’exploitation, s’il n’effectue pas lui-même le dégivrage, doit cependant en vérifier le bon déroulement et surtout s’assurer périodiquement que les dégivrages sont effectués complètement. Aucune trace de givre ne doit subsister sur la surface froide à la fin du dégivrage.

Amélioration du dégivrage au niveau des chambres froides

Pour une question d’efficacité et de limitation du nombre de dégivrages, l’évaporateur doit être placé le plus loin possible de l’entrée de la chambre ou des bouches de reprise des meubles frigorifiques. Si dans votre situation existante ce n’est pas le cas, il faut envisager de la déplacer. De plus, pour les opérations de dégivrage proprement dites, on vérifie qu’une vanne magnétique sur le circuit réfrigérant est présente (début de l’opération de dégivrage). Dans la négative, à voir avec le frigoriste l’intérêt de la placer. Le placement d’un manchon peut s’avérer intéressant.

Précautions à prendre au niveau de l’utilisation de l’enceinte

Il est un fait certain que moins il y aura d’ouvertures des portes du meuble fermé ou de la chambre froide (organisation rationnelle), moins on gaspillera de l’énergie nécessaire :

  • pour le dégivrage,
  • pour le refroidissement et le séchage de l’air extérieur entré par la porte,
  • pour évacuer la chaleur produite au niveau de l’évaporateur par l’opération de dégivrage.

Amélioration ou remplacement de la régulation du dégivrage

Vu que le dégivrage est une source de dépense énergétique, l’optimisation du dégivrage prend toute son importance en terme de fréquence et de longueur de cycle. Parmi les types de dégivrage, les plus courants, du moins au plus efficace, sont les systèmes :

  • par horloges (difficulté d’optimisation par rapport à l’organisation de la cuisine) – -> +;
  • électroniques contrôlant la présence de glace par l’analyse de la courbe de remontée en température de l’évaporateur (plateau de t° = fusion) –> ++;
  • électroniques contrôlant l’écart de température entre l’ambiance et l’évaporateur –> +++.

Les systèmes électroniques sont en plus capables d’accepter des niveaux d’alarme, de contrôler un délestage, …

Dans le cadre d’une rénovation conséquente, il serait intéressant, si la régulation existante est vétuste, de la moderniser.

Les meubles fermés ou mixtes négatifs

Les principes généraux de dégivrage des chambres froides s’appliquent assez bien aux meubles frigorifiques fermés ou mixtes négatifs car l’évaporateur subit le même type d’agression hygrothermique lors des ouvertures des portes. En ce qui concerne les meubles frigorifiques ouverts négatifs horizontaux (gondoles par exemple), ils subissent les agressions hygrothermiques de manière moins forte vu que l’influence de l’induction de l’air de la zone de vente n’est pas prépondérante. Néanmoins, pour ce type de meubles, le dégivrage par résistance électrique ou injection de gaz chaud est souvent nécessaire. A vérifier sa présence et son efficacité par un contrôle du niveau de givrage.

Les meubles ouverts positifs

Ce type de meubles, quant à lui, subit les agressions hygrothermiques en permanence de par l’induction de l’air de l’ambiance de vente de manière naturelle ou au travers d’un rideau d’air en ventilation forcée. L’induction d’air apportant irrémédiablement de la vapeur d’eau contenue dans l’air ambiant sur l’évaporateur, le dégivrage est plus que nécessaire mais, vu les températures d’échange au niveau de l’air sur les ailettes de l’évaporateur sont proches de 0°C, un dégivrage naturel sans apport de chaleur (pas de résistance électrique) est suffisant dans la plupart des applications en laissant tourner la ventilation forcée au niveau de l’évaporateur.

Il est nécessaire d’adapter les périodes de dégivrage de chaque groupe de meuble en cas de présence massive de linéaires afin de réduire la pointe quart horaire.


Améliorer la machine frigorifique

 Remarques :

  • Pour les actions développées ci-dessous, il est difficile et pas forcément nécessaire d’établir de savants calculs de rentabilité ! Souvent, la méthode par essais successifs (modification de la consigne, …) entraîne des économies importantes, sans même que l’utilisateur ne s’en aperçoive…
  • Il est cependant toujours utile de consulter préalablement le fournisseur du matériel.
  • Vous trouvez qu’il y a bien trop de choses à lire : mettez un compteur de COP sur l’installation, imposez une valeur minimale et laissez la société de maintenance se débrouiller, c’est son boulot après tout.

Les principes à suivre

Les projets d’amélioration peuvent poursuivre plusieurs objectifs :

  • Réduire la consommation d’énergie,
  • limiter la pointe de puissance quart-horaire,
  • améliorer la maintenance de l’installation.

Améliorer la régulation de puissance du compresseur

En partant du constat que les groupes frigorifiques sont surpuissants lors du dimensionnement de l’installation un technicien peu agir à plusieurs niveaux pour réguler la puissance du ou des compresseurs en fonction de la charge réelle :

  • Mieux contrôler les cascades si l’installation comporte plusieurs compresseurs ou plusieurs étages de compression;
  • Adapter la puissance de la machine en faisant varier la vitesse du compresseur ou en mettant hors service certains cylindres tout en sachant que les bas régimes ne sont pas énergétiquement profitables;
  • Supprimer la régulation par injection des gaz chauds à l’évaporateur (destruction de l’énergie).
  • Augmenter le seuil de déclenchement de la haute pression du compresseur.

Une supervision par régulation numérique

Photo régulation numérique.

La régulation numérique (ou digitale) est en plein essor ces dernières années. Cette fois, ce n’est plus le câblage qui va déterminer les séquences, mais bien le programme inclus dans l’automate programmable ou le régulateur du groupe.

Il s’agit en fait une gestion globale du système qui vient se superposer à celle des équipements frigorifiques.

Améliorer le fonctionnement du condenseur

Photo condenseur.   Photo condenseur.

Le principe de base est l’abaissement de la température de condensation. Pour y arriver, on peut :

  • Positionner et configurer le condenseur dans un endroit où la fraîcheur de l’air extérieur est mise à profit en évitant les recirculations d’air extrait;
  • Favoriser l’échange de chaleur par un entretien régulier des ailettes des condenseurs à air et par un détartrage régulier des condenseurs à eau;
  • Réguler la vitesse des ventilateurs des condenseurs à air en fonction de la charge réelle;
  • Travailler avec des détendeurs électroniques plutôt qu’avec des thermostatiques.

Placer des compteurs sur l’installation existante

Le placement de compteurs horaires sur l’alimentation électrique du compresseur permet d’évaluer la puissance moyenne au cours de l’année en fonction du nombre d’heures de fonctionnement et du dimensionnement de la machine. Le calcul du COPfroid au cours de l’année nécessite de mesurer la consommation électrique du compresseur.

Récupérer l’eau de pluie et les condensats des évaporateurs

Il faut garder à l’esprit qu’une partie de l’énergie prise à l’ambiance par les évaporateurs des meubles frigorifiques est perdue. À l’heure actuelle, les condensats qui se forment au niveau de l’évaporateur sous forme d’eau, de givre, … sont mis à l’égout en permanence ou lors des dégivrages. On estime la quantité d’eau glacée mis à l’égout aux alentours de 0.6 à 1 litre d’eau par mètre linéaire de meuble et par heure. Elle représente une source de refroidissement du condenseur qui peut être intéressante à récupérer dans certains cas. A méditer !

Il pleut beaucoup en Belgique. Alors, pourquoi ne pas récupérer l’eau de pluie. On estime à 0,06 m³/m².mois la quantité d’eau qui tombe. Pour les grandes surfaces pourquoi ne pas combiner la récupération d’eau de pluie pour les sanitaires du personnel avec un refroidissement adiabatique des condenseurs.

Schéma récupération eau de pluie.   Schéma récupération condensats des évaporateurs.


Récupération de chaleur au condenseur

La récupération de la chaleur de réjection (au condenseur) dans une installation existante doit être considérée comme une intervention importante; ce qui signifie, tout comme les projets de conception, qu’elle doit passer entre les mains expertes d’un bureau d’étude spécialisé sachant qu’une récupération mal étudiée pourrait, sous certaines conditions s’avérer devenir une « catastrophe énergétique » comme le chauffage du magasin par l’équivalent d’un chauffage électrique direct.

Principe de fonctionnement

Une machine frigorifique transfère de la chaleur extraite du bâtiment vers l’extérieur.

Il semble dès lors logique de tenter de récupérer la chaleur sur le condenseur de la machine frigorifique. Par la même occasion, on améliore le rendement du groupe de froid en abaissant la température de condensation.

Application au chauffage du magasin ou des annexes par l’air

En première approche, il est indispensable de garder à l’esprit que la récupération de chaleur au condenseur passe après :

  • la limitation des apports tant externes (rayonnement solaire direct, meubles frigorifiques ouverts, …) qu’internes (éclairage d’étagères, ventilateur peu performant, …);
  • l’isolation de l’enveloppe du magasin par rapport aux rigueurs du climat;
  • la fermeture des meubles frigoriques ouverts

Si vraiment toutes ces améliorations sont impossibles à réaliser pour des questions budgétaires, architecturales, …, des calculs simplifiés purement théoriques montrent que la récupération directe de chaleur dans l’enceinte du magasin est intéressante lorsqu’elle est importante et permettrait, par exemple, de compenser les déperditions d’un magasin peu isolé.

Récupération de la chaleur de condensation.

Evacuation de la chaleur de condensation à l’extérieur.

On voit tout de suite d’après les figures ci-dessus, qu’en période froide, la récupération est maximale lorsque la chaleur des condenseur est récupérée dans le magasin. Dans cette configuration, on réduit théoriquement les consommations de chauffage par 3.

Il est évident que la mise en œuvre d’un tel système n’est pas simple. En effet, en période chaude, la chaleur à évacuer des condenseurs est excédentaire et doit donc être évacuée à l’extérieur.

Un grand distributeur en Belgique a effectué plusieurs essais d’installations comme montré ci-dessous :

  • en pérode froide, la chaleur est récupérée;
  • en période chaude, la chaleur est évacuée.

 Récupération de la chaleur de condensation.

Evacuation de la chaleur de condensation à l’extérieur.

Application au chauffage du magasin ou des annexes par l’eau

Une idée novatrice, serait de récupérer une partie de la chaleur de réjection d’un condenseur à eau et de l’injecter dans un chauffage au sol. Le confort dans les allées froides devrait être meilleur. À l’heure actuelle, les systèmes mis en œuvre n’ont pas encore fournit de résultats de bilans énergétiques chiffrés et validés.

Exemple de schéma de principe.

Application au préchauffage de l’eau chaude sanitaire

L’idée est ici de profiter d’un besoin de chauffage d’un fluide à basse température (la température de l’eau de ville varie entre 5° en hiver et 15°C en été).

Mais le système ne fonctionnera bien que lorsque la puissance de récupération nécessaire est supérieure à la puissance fournie par le condenseur. Autrement dit, il faut que les besoins d’eau sanitaire soient très importants par rapport à la puissance de la machine frigorifique comme par exemple dans les cuisines.


Améliorer la maintenance de l’installation

Il est impossible de reprendre ici toutes les règles d’entretien pour toutes les installations frigorifiques. Cependant, on peut attirer l’attention sur les interventions qui influencent la facture énergétique.

Machine frigorifique

Une check-list du groupe frigorifique est reprise dans les pages de détails; en voici les principaux points :

  • Température et régime d’eau glacée,
  • intensité mesurée au compresseur,
  • écart de température entre le condenseur et le fluide refroidissant,

Un contrôle régulier de ces points de mesure améliore le rendement, les consommations et la durée de vie de l’installation.

Boucle frigoporteur

La mesure régulière des températures d’eau glycolée permettra de mettre en évidence des pertes d’efficacité des groupes frigorifiques dues principalement :

  • à des températures de boucle trop élevées;
  • à des écarts de températures entre l’entrée et la sortie de l’évaporateur trop faible traduisant des débits d’eau trop importants;

Aérorefroidisseurs

Le contrôle de l’état d’encrassement et de corrosion des ailettes, le suivi de la régulation de l’aérorefroidisseur telle que la régulation de la pression de condensation en vérifiant le fonctionnement des ventilateurs.

Déclenchements du compresseur par forte température extérieure

L’augmentation temporaire du niveau de déclenchement de la haute pression (avec accord du constructeur) permet dans un temps limité de pallier au manque de puissance de l’installation.

Nuisances acoustiques

Si la nuisance sonore est surtout importante aux basses fréquences, il est possible que les machines tournantes (ventilateur du condenseur, moteur du compresseur,…) soient mal équilibrées. Ce défaut s’accentue avec l’usure des équipements; des solutions sont possibles …


Évaluer l’installation de froid alimentaire

Évaluer l'installation de froid alimentaire


La qualité de la chaîne du froid

Depuis le stade de la production jusqu’à celui de la consommation, la limitation de la dégradation des denrées alimentaires passe par le maintien de la « chaîne du froid « . Que les denrées arrivent dans les commerces au stade « en l’état » (ne subissent pas de transformation depuis leur culture, leur pêche, …) ou « manufacturées (fromage, yaourt, …), la température de conservation, l’humidité sont des données essentielles pour ralentir leur dégradation. En effet, il faut garantir aux consommateurs une qualité des denrées au niveau hygiénique, nutritionnel et organoleptique.

Deux techniques de conservation prédominent, à savoir :

  • la réfrigération ou froid positif (> 0 °C, 4 à 8 °C, >8 °C);
  • la congélation ou froid négatif (-24 °C,-18 °C, -12 °C).

Les équipements frigorifiques doivent donc assurer l’hygiène dès l’arrivée des denrées dans les magasins de distribution et durant tout leur cycle de vie depuis les zones de stockage jusqu’à leur distribution.

Températures à garantir

Chambre froide fruits et légumes

4 à 6 °C

Chambre froide viande

2 à 4 °C

Chambre froide poisson

2 à 4 °C

Chambre froide pâtisserie

2 à 4 °C

Chambre froide de jour

2 à 4 °C

Congélateur

– 12 à – 24 °C

Local de stockage des déchets

10 °C

Cave à vin conditionnée

10 à 12 °C/HR 75 %

Local de tranchage

10 °C

Réglementation

Deux réglementations européennes décrivent principalement les dispositions à prendre pour les conservations des denrées alimentaires classiques  (CE 852/2004) et d’origine animale (CE 853/2004) (PDF).

Deux Arrêtés royaux (AR 57470 paru au moniteur belge du 22.12.2005 et AR 57449 paru au moniteur belge du 22.12.2005) traduisent respectivement les réglementations européennes en droit belge.

Recommandation

Les réglementations en matière d’hygiène alimentaire ne précisent que très peu les températures de conservation à respecter durant toute la chaîne alimentaire froide. Aussi, la plupart se réfèrent au code de bonne pratique HACCP (Hazard Analysis Critical Control Point).

Les Guides HACCP pour les PME et les artisans représentent une source importante d’informations concernant les températures réglementées en fonction du type de denrée.

Comment évaluer sa situation ?

L’évaluation de la qualité de la chaîne de froid passe principalement par le respect et le contrôle :

  • des températures de conservation et des fluctuations autour de la valeur moyenne de ces températures;
  • des durées de conservation;
  • de la qualité des emballages;

Du point de vue énergétique, la mesure des températures de conservation est essentielle.

Évaluer

Pour en savoir plus sur l’évaluation de la qualité de la chaîne du froid alimentaire

Le confort thermique et acoustique

 Le confort thermique

Le confort thermique du corps humain est complexe car différents paramètres l’influencent; à savoir principalement :

  • la température de l’air;
  • la température de rayonnement du milieu qui l’entoure;
  • l’humidité de l’air;
  • la vitesse de l’air;
  • son métabolisme et le type de vêtements qui le recouvre.

Dans les commerces, la présence du froid alimentaire complexifie la perception du confort thermique puisque les travailleurs peuvent se retrouver confrontés à des températures variables dans des laps de temps assez courts comme passer d’une température de -18 °C dans les chambres froides à 18 °C dans les réserves et vice versa.

Effet du froid sur le corps humain ?

Le corps humain est prévu pour fonctionner à une température constante de 37 °C. Quand il est soumis à des températures externes basses, des mécanismes complexes internes adaptent le métabolisme afin de rétablir l’équilibre thermique. Le froid, dans des conditions extrêmes de température peut devenir vite dangereux pour la santé.

Quels risques pour la santé ?

L’exposition à des basses températures se rencontre fréquemment dans la chaîne de froid alimentaire que ce soit au niveau du personnel ou des clients. Les principaux effets sur la santé d’une exposition directe et prolongée au froid sont :

  • l’hypothermie;
  • l’engelure;
  • un risque accru de troubles musculosquelettiques (TMS) en cas d’exposition prolongée.

Dans les commerces, ce dernier risque est le plus représentatif des problèmes liés au travail dans le froid. Une exposition prolongée des extrémités du corps (mains principalement) au froid entraîne une perte de dextérité liant les basses températures aux risques d’accident du travail.

Quels facteurs de risque ?

Les facteurs de risque sont de différents types :

  • climatiques ou ambiants tels que la température, l’humidité et la vitesse de l’air. En dessous de 15 °C l’inconfort est présent, sous les 5 °C, il y a un risque pour la santé, au-dessus d’une vitesse de déplacement de l’air de 0,2 m/s, la sensation d’inconfort s’accroît, …
  • liés au poste de travail ou à la tâche à exécuter. Le type d’habillement, la pénibilité du travail (transpiration ou pas), … prennent toute leur importance par rapport au risque d’inconfort et d’accidents liés au froid;
  • individuels tels que le type d’alimentation, l’état de fatigue, le sexe, …

Comment évaluer sa situation ?

L’évaluation du confort passe par l’élaboration d’une méthode de quantification de l’équilibre thermique du corps humain en fonction des contraintes externes et de l’habillement. L’indice d’isolation vestimentaire IREQ (Required Clothing Insulation Index) permet de choisir des vêtements adaptés au froid en assurant au corps un bon équilibre thermique. Il est admis que cet indice doit être utilisé lorsque la température est inférieure à 10 °C. Un IREQ couramment rencontré est 2,6.

L’évaluation de la « température cutanée du dos de la main » permet d’établir un seuil en dessous duquel la dextérité des mains se réduit; c’est le cas en dessous de 24 °C. Dès cet instant, il est nécessaire d’adapter son temps de travail et exposé et de choisir un type de gant adapté à la tâche.

Une tenue vestimentaire composée :

  • de sous-vêtements;
  • d’un caleçon long;
  • d’un pantalon;
  • d’une veste isolante;
  • d’un surpantalon ;
  • de chaussettes ;
  • de chaussures;
  • d’un bonnet;
  • de gants;

permet d’atteindre un IREQ de l’ordre de 2,6.

Attention que la couche la plus proche de la peau doit être isolante et perméable à la transpiration de manière à éloigner l’humidité de la peau afin de la maintenir sèche.

Recommandations, normes et règlementations

  • La norme EN 511 définit les exigences et les méthodes d’essai des gants de protection contre le froid, d’origine climatique ou artificielle, transmis par convection ou par conduction jusqu’à – 50 °C;
  • Le prEN 342 spécifie les exigences et les méthodes d’essais de performance des vêtements de protection contre le froid à des températures inférieures à – 5 °C.

L’inconfort des bouches de pulsion d’air

Lorsque l’air pulsé entre dans la zone d’occupation du local, il se réchauffe au contact de l’air ambiant. Si la différence de température entre cet air et l’air ambiant dépasse encore 1 °C en pulsion froide on risque de ressentir une sensation de « masse d’air » lorsque l’on se déplace dans le local.

La zone d’occupation est souvent représentée par la surface du local de laquelle on a soustrait une bande de 50 cm le long des murs intérieurs et de 1 m le long des murs extérieurs, ce sur une hauteur de 1,8 m. Dans cette zone, à 1.8 m du sol, la vitesse de l’air ne devrait pas dépasser 0,2 m/s et le long des murs 0,4 m/s.

Dans l’évaluation du confort, on veillera ce que l’effet COANDA (effet plafond) ne soit pas perturbé par des obstacles au plafond (retombée, poutre, luminaires, …)

Schéma effet coanda

Locaux requérant une attention particulière

> Les chambres froides

Il n’y pas vraiment de confort dans ces locaux sachant que les températures sont basses, les mouvements d’air important, … Heureusement pour le travailleur, il n’y passe que très peu de temps. De plus, il est nécessaire qu’il s’habille en conséquence pour limiter les risques liés au froid intense.

> Les zones climatisées

La liaison froide est en général recommandée par HACCP (Hazard Analysis Critical Control Point) lorsque l’activité dans les commerces nécessite de transformer les denrées alimentaires; c’est le cas par exemple des boucheries, des traiteurs, … Ces zones sont occupées par du personnel qui doit travailler dans une ambiance où la température ne peut pas dépasser 12 °C. Comme on peut s’y attendre, l’inconfort est un souci majeur.

> Les allées froides des meubles frigorifiques ouverts

L’ouverture permanente des meubles frigorifiques dans les « allées froides » perturbe le confort du personnel et des clients d’autant plus que dans un souci d’une part de vente et d’autre part d’efficacité énergétique, les meubles frigorifiques verticaux sont en vis-à-vis et, par conséquent augmentent l’inconfort au point de devoir chauffer la partie centrale des allées. Dans la pratique, les températures au centre des « allées froides peuvent descendre à 16 °C.

Évaluer

Pour en savoir plus sur l’évaluation du confort thermique.

Le confort acoustique

Un faible niveau sonore améliore la qualité de l’ambiance de travail et réduit la fatigue.

Outre le confort thermique, certaines ambiances des locaux liés au froid alimentaire sont souvent inconfortables. On se référera, par exemple, aux ateliers de boucherie où les ventilateurs des évaporateurs peuvent être, si on n’y prend pas garde, de véritables sources de nuisance sonore. Idem dans les surfaces de vente, les meubles frigorifiques ouverts ont des rideaux d’air qui peuvent, faute d’entretien, devenir bruyants perturbant le confort sonore des clients.

Attention qu’il faut bien distinguer les zones de présence permanence (par exemple les ateliers, les espaces de vente, … ) des zones où la présence des travailleurs est momentanée (chambre froide de stockage par exemple).

Valeurs recommandées

Quel confort acoustique est à atteindre dans les locaux, quel niveau de bruit maximum est acceptable ?

Dans les commerces, une valeur souvent rencontrée est de l’ordre de 35-45 dB.

Comment évaluer sa situation ?

Avant de l’évaluer, il est primordial de déterminer les sources en différenciant les bruits aériens (transmission des vibrations par l’air) des solidiens (transmission des vibrations, des impacts par la masse du bâtiment par exemple).

On veille aussi à prendre soin de l’isolation des bâtiments par rapport aux bruits extérieurs (notamment, les fenêtres sont un point faible dans la façade). Une fois la source sonore nuisible isolée, on peut évaluer sa valeur par l’utilisation d’un sonomètre.


L’efficacité énergétique des meubles frigorifiques, des chambres froides, …

 Les meubles frigorifiques ouverts et fermé

Schéma principe meuble frigorifique-01.  Schéma principe meuble frigorifique-02.  Schéma principe meuble frigorifique-03.  Schéma principe meuble frigorifique-04.

Les efficacités thermique et énergétique des meubles frigorifiques ouverts ou fermés sont intimement liées. Dans les deux cas, il est nécessaire de maintenir à température les denrées tout en optimisant les consommations énergétiques.

Dans les commerces où le froid alimentaire est très présent, les consommations qui lui sont liées (y compris la production frigorifique) représentent en direct de l’ordre de 30 à 55 % du total des consommations électriques.

Attention qu’à l’heure actuelle des consommations parallèles (ou indirectes) peuvent être générées par le refroidissement excessif des ambiances des magasins (quantité de linéaire ouvert très importante) en augmentant les consommations HVAC (Heating Ventilation Air Conditioning). C’est le cas notamment pour assurer le confort comme le réchauffement des « allées froides ».

La principale consommation énergétique :

  • des meubles frigorifiques fermés provient de l’échange d’air entre l’ambiance de la zone de vente et l’intérieur du meuble lors de l’ouverture des portes;
  • celle des meubles frigorifiques ouverts est issue de l’échange d’air entre l’ambiance de la zone de vente et l’intérieur du meuble à travers le rideau d’air ou l’interface entre les deux ambiances climatiques.

Certifications et normes

La performance énergétique des meubles frigorifiques peut être déterminée dans le cadre d’une certification EUROVENT. La plupart des grandes marques adhèrent à cette certification qui permet de comparer des pommes avec des pommes au niveau des consommations énergétiques des équipements.

Des tests sont réalisés en laboratoire dans des classes de fonctionnement tendant à se rapprocher le plus possible de la réalité du terrain. Les fourchettes de consommation moyenne totale TEC/TDA des meubles certifiés par EUROVENT sont :

  • pour la réfrigération (froid positif) comprise entre 5 et 15 kWh/m².jour* selon l’application;
  • pour la congélation (froid négatif) comprise entre 20 et 35 kWh/m².jour* selon l’application.

* : consommation électrique totale du meuble par m² de surface totale d’exposition et par jour.

Attention que ces valeurs ne sont pas des critères d’efficacité énergétique, mais simplement des mesures de consommations énergétiques selon un même protocole de mesures.

Apports thermiques

Les apports thermiques des meubles ouverts et fermés influencent leur bilan énergétique. Ils proviennent des apports internes et externes :
  • les apports internes sont principalement dus à l’éclairage, la chaleur des ventilateurs en convection forcée, les cycles de dégivrage, …;

  • les apports externes eux proviennent de l’ambiance de la zone de vente par induction et rayonnement au niveau de l’ouverture, par pénétration au niveau des parois, …

Bilans thermique et énergétique

> Les meubles ouverts

Le bilan thermique des meubles permet de dégager les consommations énergétiques de la production frigorifique (consommations électriques des compresseurs principalement). En effet, le bilan thermique des apports tant internes qu’externes détermine la puissance frigorifique de l’évaporateur des meubles qui, elle, conditionne au cours du temps le bilan énergétique de la machine frigorifique :

  • pour les applications de froid positif, on retiendra que l’évaporateur doit fournir les 2/3 de son énergie frigorifique pour combattre principalement l’induction au travers de l’ouverture du meuble.
  • Pour les applications de froid négatif, la plupart des consommations énergétiques proviennent surtout des apports externes (induction, rayonnement et pénétration) mais aussi du dégivrage. Il faudra donc en tenir compte dans une démarche énergétique URE (Utilisation Rationnelle de l’Énergie).

Exemple d’apports énergétiques d’un meuble ouvert vertical positif d’apports énergétiques d’un meuble ouvert horizontal négatif.

> Les meubles fermés

Le même exercice pour les meubles fermés :

  • en journée, l’évaporateur doit fournir une énergie frigorifique pour combattre principalement l’induction au travers de l’ouverture des portes du meuble. Cette induction représente 25 % des apports internes et externes tandis que les dégivrages nécessaires par résistances électriques représentent, quant à eux, 25 % des apports;
  • en dehors des périodes d’occupation, la moitié des apports proviennent de la pénétration au travers des vitres.

Exemple d’apports énergétiques de jour d’un meuble fermé vertical négatif et d’apports énergétiques de nuit d’un meuble fermé vertical négatif.

Dans certains cas, la consommation moyenne des meubles fermés peut être de l’ordre de 50 % du même modèle de meuble ouvert.

Puissances frigorifiques spécifiques et températures

La classification des meubles frigorifiques s’articule principalement sur des valeurs de puissance frigorifique par mètre linéaire [W/ml] :

  • pour les meubles ouverts :
    • pour les applications de froid positif, les puissances spécifiques oscillent en général entre 0,2 kW/ml (vitrine service par le personnel en convection naturelle) et 1,3 kW/ml (meuble vertical self service à convection forcée);
    • pour les applications de froid négatif, les puissances spécifiques, quant à elle, varient entre 0,4 et 2,1 kW/ml (respectivement pour les gondoles horizontales self-service en convection forcée et les meubles verticaux à convection forcée).
  • Pour les meubles frigorifiques fermés, les valeurs de puissance frigorifique par mètre linéaire sont de l’ordre de 0,8 à 0,9 [kW/ml]. On rencontre la plupart des meubles fermés dans les applications à froid négatif. Imaginez ce que serait la consommation des meubles à froid positif fermés.

Influence sur le bilan frigorifique du rideau d’air, du givrage, …

> Les rideaux d’air

Rideau d’air d’un meuble vertical ouvert positif.

Rideau d’air d’un meuble horizontal ouvert négatif.

Le point faible des meubles frigorifiques ouverts est naturellement la difficulté de maintenir une température interne basse au sein du meuble par rapport à une ambiance des zones de vente de l’ordre de 20 °C, soit un écart de température pouvant aller jusqu’à 50 °C, voire plus dans certaines conditions. Le rideau d’air vient au secours de ce type de meubles.

Pour évaluer l’efficacité d’un rideau d’air, on définit en général le taux d’induction X par le rapport de la masse d’air ambiant mélangée à celle du rideau d’air du meuble par unité de temps.

Le taux d’induction optimal est :

  • de l’ordre de 0,05 à 0,06 pour les meubles horizontaux;
  • de l’ordre de 0,1 à 0,2 pour les verticaux.

Le mélange de l’air ambiant et de l’air du rideau et de l’air interne au meuble entraîne deux phénomènes :

  • le refroidissement et la déshumidification de l’air ambiant externe au meuble (zones de vente);
  • le réchauffement et l’humidification à la reprise du rideau d’air. Ce deuxième phénomène est la cause principale de la consommation énergétique de l’évaporateur et, par conséquent de la production de froid (énergie nécessaire au refroidissement et au dégivrage).

Intuitivement, les déperditions par induction seront plus grandes pour les meubles frigorifiques verticaux de par un taux d’induction plus important.

> Le givrage

Formation de givre.

La formation de givre entraîne une réduction de la puissance frigorifique P0 suite à :
  • une réduction du débit d’air passant au travers de l’évaporateur;
  • et par conséquent une augmentation des pertes de charge dans le circuit de refroidissement;
  • une augmentation de la résistance thermique de la surface de refroidissement;
  • une chute de la température du fluide frigorigène.

Aussi, il découle de la réduction de débit que l’efficacité du rideau d’air sera moindre en favorisant l’augmentation des apports par induction, le passage accru de l’humidité de l’air ambiant et l’augmentation de la température de l’intérieur du meuble, …

Un dégivrage est donc nécessaire : pour les applications négatives, il faut tenir compte dans le bilan énergétique de la consommation de la résistance électrique de dégivrage.

Rappelons que de l’ordre de 23 % de l’énergie nécessaire à l’évaporateur pour combattre les apports sont dus au dégivrage lorsque l’on effectue 2 dégivrages de 30 minutes par jour.

> L’éclairage
Photo éclairage meuble frigorifique - 01. Photo éclairage meuble frigorifique - 02. Photo éclairage meuble frigorifique - 03.

Le placement d’éclairage directement dans l’enceinte du meuble augmente la consommation d’énergie à l’évaporateur de l’ordre de 10 %.

> Les protections de nuit

Photo protections de nuit meuble frigorifique - 01.   Photo protections de nuit meuble frigorifique - 02.

Les rideaux de nuit sont primordiaux dans la lutte contre les apports thermiques des meubles ouverts.

Sur une journée, avec des périodes d’inoccupation de 12 à 14 heures, on peut réduire de l’ordre de :

  • 8 à 45 % les consommations des meubles horizontaux suivant le type de protection (simple rideau à couvercle isolé par exemple);
  • 12 à 30 % les consommations des meubles verticaux.
> Les cordons chauffants

Photo cordons chauffants meuble frigorifique.

La chaleur générée par les cordons chauffants représente un apport de l’ordre de 1 %.

Évaluer

Pour en savoir plus sur l’évaluation de la performance énergétique des meubles ouverts.

Évaluer

Pour en savoir plus sur l’évaluation de la performance énergétique des meubles fermés.

 Les chambres froides

Photo chambres froides - 01.  Photo chambres froides - 02.

Analyse quantitative

Elle est purement indicative et n’est valable que si elle est complétée par l’analyse qualitative et comparée à une valeur de référence (de l’ordre de 200 Wh/m² de surface de vente pour la conservation par exemple). Bien que parfois difficile, l’évaluation de sa propre consommation peut se faire en mesurant les consommations électriques sur plusieurs jours au niveau de l’alimentation électrique :

  • du compresseur;
  • des ventilateurs de l’évaporateur et du condenseur;
  • des éclairages;
  • des cordons chauffants;

Analyse qualitative

La consommation (en général électrique) du poste froid dépend essentiellement du rendement de la production frigorifique, de la quantité de froid nécessaire pour refroidir les denrées et de la perte de froid. En décortiquant différents indices d’anomalie de consommation consignés dans une grille d’évaluation, on peut réaliser une analyse qualitative. Les indices sont entre autres : le type de refroidissement du compresseur, le transfert de froid dans la chambre froide, les fuites d’énergie par déperdition, …


L’efficacité énergétique et environnementale de la distribution du froid et de la production frigorifique

La distribution du froid

Circuit simple à détente directe.

Centrale à détente directe.

Centrale avec circuit caloporteur bi-tube (eau glycolée par exemple).

Centrale avec circuit caloporteur mono-tube (eau glycolée par exemple).

Détentes directe et indirecte : principe

Les diverses réglementations et normes accentuent la pression afin de diminuer l’utilisation massive des fluides frigorigènes ayant un impact sur l’effet de serre et la couche d’ozone (comme le R22 par exemple).

La solution qui vient directement à l’esprit est la détente directe (c’est le fluide frigorigène qui produit directement le froid avec un seul circuit) avec groupe frigorifique incorporé au meuble. Cette solution est intéressante pour les commerces de détail avec toutefois un bémol quant au niveau de la performance énergétique de l’installation (la température de condensation est en permanence élevée de part la température élevée régnant généralement dans les magasins).

Dans les moyennes et grandes surfaces, la détente directe est toujours envisageable, mais avec une production frigorifique centralisée à l’extérieur des zones de vente. Des quantités plus importantes de fluide frigorigène sont mises en jeu; ce qui grève l’efficacité environnementale de l’installation (on parle régulièrement de 600 kg de fluide frigorigène pour un supermarché par exemple). Pour cette raison, des solutions ont été développées pour réduire la quantité de fluides dans les circuits frigorifiques. Par exemple, l’utilisation de circuits primaires de fluides frigorifiques classiques en production centralisée et des circuits secondaires à fluide frigoporteur en distribution « utiles » (boucle secondaire d’eau glycolée par exemple) sont des solutions actuellement proposées aux responsables des grandes surfaces.

Réglementations et normes

En matière de sécurité, la norme NBN EN 378-1 traitant des « Systèmes de réfrigération et pompes à chaleur – Exigences de sécurité et d’environnement – Partie 1 : Exigences de base, définitions, classification et critères de choix » est une norme utilisée plutôt pour la conception, la fabrication, l’installation, le fonctionnement et la maintenance des installations frigorifiques. Cependant, elle nous donne aussi une idée précise dans l’évaluation des risques liés à l’utilisation de ces fluides.

Détente directe pour groupe incorporé

Les groupes incorporés dans les meubles frigorifiques ont des faibles charges de fluide frigorigène; ce qui limite l’impact de ce type de distribution sur l’environnement. Par contre, au niveau de l’efficacité énergétique, la détente directe de « proximité » est réservée au faible puissance frigorifique. Indirectement, de par un risque d’investissement trop conséquent par rapport à la puissance mise en jeu, les auxiliaires de régulation sont souvent peu performants et, par conséquent réduise l’efficacité énergétique de l’ensemble.

Détente directe pour production centralisée

Dans ce cas, le groupe frigorifique ne se trouve pas nécessairement à proximité des applications (meubles, chambre froide, …). La quantité de fluide frigorigène augmente donc et influence défavorablement l’impact sur l’environnement. En 2004, on comptait encore de l’ordre de 10 à 22 % de taux d’émission de fluide frigorigène dans l’atmosphère. Au niveau énergétique, il est nécessaire :

  • de limiter les pertes de charge tant dans les conduites d’aspiration que liquides (entre le condenseur et le détendeur);
  • d’isoler les conduites d’aspiration afin de faciliter le travail du compresseur;
  • d’isoler les conduites liquides afin d’éviter le risque de « flash gaz » et d’augmenter la puissance frigorifique de l’évaporateur.

Circuit frigoporteur

Les circuits frigoporteurs ne sont pas encore très courants dans le froid alimentaire au niveau de la distribution. Cependant, l’impact sur l’environnement et la sécurité des usagers pourraient voir apparaître des solutions comme les boucles frigoporteurs. Ce type de circuit secondaire permet de limiter les quantités de fluide frigorigène pour les grandes installations.

Actuellement, on trouve des installations dont le fluide frigoporteur est de l’eau glycolée, du CO2, ….

Évaluer

Pour en savoir plus sur l’efficacité de la distribution de froid.

La production de froid

Photo production de froid - 01. Photo production de froid - 02. Photo production de froid - 03.

L’efficacité de la production frigorifique

De l’analyse du fonctionnement thermodynamique de la machine frigorifique, on déduit son efficacité énergétique instantanée ou COPfroid. C’est le rapport entre la quantité de chaleur absorbée par l’évaporateur et la quantité d’énergie électrique totale absorbée par l’installation, soit principalement le compresseur, mais également les équipements annexes (ventilateurs, pompes de circulation d’eau, … ). On trouve dans les catalogues des valeurs de COPfroid de l’ordre de 2,5 à 5. Plusieurs méthodes d’évaluation de la performance énergétique d’un groupe de froid sont disponibles dont la lecture des puissances sur la plaque signalétique et la mesure des différences de température aux échangeurs.

Le bilan énergétique annuel

Si l’estimation ponctuelle du COPfroid de la machine frigorifique n’est déjà pas simple, réaliser le bilan énergétique annuel de l’appareil est vraiment complexe et long.

Pour déterminer la consommation d’énergie d’une installation, il est nécessaire d’intégrer tout au long de l’année les puissances absorbées à chaque régime de marche de tous les éléments consommant de l’énergie. Pour cela, il faut déterminer la variation des besoins de froid et le nombre d’heures correspondant à chacun de ses besoins; ceux-ci seront spécifiques à chaque installation. Le calcul est donc complexe …

En pratique, c’est un compteur électrique qui pourra totaliser les consommations, et l’historique du régulateur numérique qui pourra établir le fonctionnement sur une saison.

Le diagnostic d’une installation existante

Les signes de dysfonctionnement d’une installation frigorifique tels que les augmentations du temps de fonctionnement ou de démarrage du compresseur, le givrage de l’évaporateur, … entraînent des surconsommations. Les moyens de les mettre en évidence sont la mesure des puissances électriques et à l’évaporateur (calcul du COP) ou la mesure des temps de fonctionnement, du nombre de démarrages, … et d’effectuer la comparaison avec les valeurs nominales fournies par le constructeur.

La rentabilité énergétique des interventions de maintenance

Certaines sources (SECA) montrent que des économies peuvent être générées en nettoyant les ailettes des condenseurs à air (10 à 30 %) ou l’intérieur des échangeurs fluide frigorigène/eau côté eau (15 à 25 %). À l’inverse, le manque d’entretien peut entrainer des surconsommations de l’installation.

L’analyse de la puissance frigorifique installée

Une installation surdimensionnée génère des pertes de fonctionnement supplémentaires… Il est donc conseillé de « coller le plus possible aux besoins frigorifiques des applications :

  • Les applications de réfrigération comme les meubles, les vitrines … ont des puissances installées comprises entre 200 et 1 300 W/ml* suivant le type d’application. Le relevé du nombre de mètres linéaires installés dans le magasin permet d’approcher la valeur de puissance que devrait renseigner la plaque signalétique du ou des compresseurs alimentant ces meubles;
  • Les applications de congélation comme les meubles, les gondoles, … ont des puissances installées comprises entre 400 et 2 100 W/ml suivant le type d’application. De nouveau, le relevé du nombre de mètres linéaires installés dans le magasin permet d’approcher la valeur de puissance que devrait renseigner la plaque signalétique du ou des compresseurs alimentant ces meubles et gondoles;
  • Les chambres froides, quant à elles ont des puissances installées comprises entre 60 et 90 W/m³ suivant le type d’application (réfrigération, congélation). Le relevé du nombre de m³ des chambres froides considérées dans les réserves du magasin permet d’approcher la valeur de puissance que devrait renseigner la plaque signalétique du ou des compresseurs alimentant ces chambres.

* : W/ml ou des watts par mètre linéaire de meuble frigorifique.

L’intérêt d’une récupération de chaleur au condenseur

La récupération de chaleur sur le condenseur ne fonctionne que si les besoins de chaud et de froid sont nécessaires simultanément. Cela peut être le cas des magasins d’alimentation. Cependant, il faut s’assurer que les besoins de chaleur sont à basse température comme par exemple le préchauffage de l’eau chaude sanitaire, le chauffage au sol, … Dans le cas contraire (régime de température de 90-70 °C ou même 70-50 °C), on en arrive à des paradoxes où l’on se chauffe à l’électricité en direct avec une « usine à gaz » (c’est le cas de le dire).


Les fluides frigorigènes : impact environnemental et énergétique

Le fluide frigorigène utilisé à un impact :

Concevoir

Pour en savoir plus sur le choix d’un fluide frigorigène.

Outre le bon choix de fluide, il faudra veiller aux contrôles d’étanchéité tels qu’imposés par la réglementation.

Mesures

Pour en savoir plus sur comment mesurer les fuites de fluides frigorigènes.

Optimiser le dégivrage des chambres froides

Optimiser le dégivrage des chambres froides


Amélioration du dégivrage au niveau des chambres froides

Au niveau de la configuration de l’enceinte et pour éviter la formation de givre sur l’évaporateur, il est préférable que celui-ci soit situé loin de l’entrée par laquelle est amené l’air chaud et humide. Si ce n’est pas le cas, il est nécessaire de se poser la question en terme financier par rapport au gain énergétique, du déplacement de l’évaporateur vers le fond de la chambre froide.

Exemple.

La chambre froide est installée chez un grossiste en fruits et légumes. L’évaporateur de la chambre froide se situe comme sur le dessin ci-après :

La porte est ouverte toute la journée pour permettre aux clients (des petites supérettes) de venir faire leurs achats, des bandes en plastique sont installées pour limiter les pertes frigorifiques.

La température d’évaporation étant de -8° un dégivrage est nécessaire. La proximité de la porte favorise les entrées d’air à température moyenne de 20°. Cet air chaud est aspiré par l’évaporateur et du givre apparaît très vite sur la batterie.
Un dégivrage est nécessaire toutes les deux heures alors que dans d’autres conditions seuls 3 à 4 dégivrages par 24 heures seraient suffisants.

Pour éviter des consommations importantes d’électricité et une régulation qui apporterait toujours des soucis, il a été prévu d’arrêter la production frigorifique toutes les deux heures tout en laissant tourner les ventilateurs de l’évaporateur. On dégivre 10 minutes uniquement grâce à la température ambiante de l’air.

En ce qui concerne l’installation, pour faciliter et optimiser les opérations de dégivrage, on vérifie , si l’installation est équipée :

  • d’une vanne magnétique sur le circuit frigorifique (juste avant l’évaporateur).
    Cette vanne va permettre d’arrêter le cycle du fluide frigorigène lors d’un dégivrage : lors d’un dégivrage, l’alimentation électrique de la vanne magnétique est coupée. La vanne se ferme. La Basse Pression au compresseur descend et le compresseur s’arrête dès que le niveau réglé sur le pressostat Basse Pression est atteint. Quand il n’y a pas de vanne magnétique, le compresseur devrait être directement arrêté électriquement (contacteur). Mais dans ce cas, une migration de réfrigérant peut se produire et encore continuer à s’évaporer, ce qui peut poser problème.
  • de manchons souples placés à la sortie du ventilateur de l’évaporateur si la technique de dégivrage produit de la chaleur sur l’évaporateur. Lors d’un dégivrage, lorsque la ventilation est à l’arrêt, ce manchon retombe et se rabat sur la surface de pulsion du ventilateur. Une barrière physique est ainsi créée autour de la chaleur produite dans l’évaporateur pour dégivrer l’évaporateur.
    Ces manchons souples en fibre polyester sont encore appelés « shut up ».


Précautions à prendre au niveau de l’utilisation de la chambre froide

Une organisation rationnelle des interventions dans les chambres froides peut être source d’économies d’énergie. On peut regrouper les interventions et laisser les portes ouvertes pendant un temps le plus court possible.

Il y aura ainsi moins d’air humide qui entrera à l’intérieur de l’enceinte. Au niveau économies d’énergie, on gagne ainsi sur trois plans :

  • au niveau de l’énergie nécessaire pour dégivrer,
  • au niveau de l’énergie nécessaire au refroidissement et au séchage de l’air humide qui entre dans l’enceinte,
  • au niveau de l’énergie nécessaire pour éliminer les quantités de chaleur accumulées dans les évaporateurs au moment des dégivrages, dont le nombre et la durée peuvent diminuer.
Exemple.

Soit une chambre froide négative de dimensions intérieures : L = 4 m, l = 4 m, h = 3 m.
L’air à l’extérieur de la chambre a les caractéristiques suivantes : t° = 28°C, HR = 80 %.
L’air intérieur a les caractéristiques suivantes : t° = -18°C, HR = 50 %.
La chambre est « sollicitée » pendant 12h/jours.

Il y a 10 interventions par heure, pendant chacune d’elle la porte est laissée ouverte pendant 30 secondes.
Avec cette utilisation, l’énergie électrique nécessaire pour le dégivrage est de 15,6 kWh/jour.

Avec une meilleure organisation, le personnel n’ouvre plus la porte que 5 fois par heure et ne la laisse plus ouverte que 6 secondes par intervention.
L’énergie électrique nécessaire pour le dégivrage n’est plus que de 3,9 kWh/jour soit une économie de 11,7 kWh/jour.
Avec un prix moyen de 0,11 € du kWh, cela représente une économie de 11,7 [kWh] x 0,11 [€] 260 [jours], soit 350 € par an pour une seule chambre froide.

Il faut ajouter à cette économie, l’énergie gagnée sur le refroidissement et le séchage de l’air entrant dans la chambre froide, ainsi que sur le givrage de la vapeur qu’il contient.
En effet, dans le premier cas, le renouvellement d’air de la chambre est de 61 volumes par 24 h; l’énergie frigorifique nécessaire pour traiter cet air est de 109,6 kWh pour le refroidissement et le séchage, dont 46,9 kWh pour le givrage.
Dans le second cas, le renouvellement n’est plus que de 6,2 volumes par 24h et l’énergie nécessaire n’est plus que de 11 kWh (refroidissement et séchage), dont 4,7 kWh pour le givrage.

Avec un COP global moyen de 2,5 et un coût moyen de 0,115 € du kWh électrique, cela représente une économie supplémentaire de ((109,6-11) [kWh] / 2,5) x 0,11 [€] x 260 [jours], soit 1179 € par an.

Dans cet exemple, on n’a pas diminué le nombre de dégivrages dans le cas où il y a moins de vapeur qui entre dans la chambre. Cela représente, en fait, une économie supplémentaire, car il faut moins d’énergie pour refroidir les masses métalliques des évaporateurs, chauffées lors des dégivrages.

Remarque : vu la remarque ci-dessous, cet exemple sert plus à montrer qu’il y a de grosses possibilités d’économies par une utilisation rationnelle de la chambre froide qu’à donner des chiffres exacts. En effet, la masse de l’évaporateur ainsi que le nombre de dégivrages ont été encodés de manière arbitraire.

Calculs

Si vous voulez estimer vous même , les possibilités d’économiser de l’énergie grâce à une utilisation rationnelle de votre chambre froide.

Mais ATTENTION : ce tableau doit être utilisé avec beaucoup de précautions !

En effet, les résultats dépendent de paramètres introduits par l’utilisateur. Or ces paramètres ne sont pas toujours connus et dépendent eux-mêmes du résultat des calculs.

Par exemple :

  • La masse des évaporateurs est une donnée arbitrairement introduite par l’utilisateur. Or elle dépend d’une série de paramètres qui ne sont pas dans le tableau (et notamment la puissance frigorifique totale). Il est donc a priori très difficile d’introduire une valeur correcte pour la masse des évaporateurs.
  • Le nombre de dégivrages est aussi une donnée arbitrairement introduite par l’utilisateur.
    Or, il dépend de la masse de givre piégée sur les ailettes des évaporateurs, de l’écartement de ces ailettes, de la surface d’échange des évaporateurs (c’est-à-dire de leurs dimensions) qui conditionne l’épaisseur moyenne de givre collé sur les ailettes.

Il faut aussi se rappeler que le rendement d’un évaporateur baisse au fur et à mesure que du givre vient se placer dans les interstices entre les ailettes.
Cela veut dire que si on diminue artificiellement le nombre de dégivrages, on diminue évidemment l’énergie nécessaire pour les dégivrages parce qu’il faut moins souvent chauffer les masses métalliques, mais on diminue aussi le rendement des évaporateurs (et donc de la machine entière) avec le grand danger d’avoir des évaporateurs bourrés de glace, ce qui provoquera finalement l’arrêt de la machine.

En fait, cela revient à dire que le calcul des machines frigorifiques doit être un calcul intégré où les éléments du bilan frigorifique ne peuvent pas toujours être envisagés séparément, comme c’est le cas ici avec ce tableau…; il s’agit d’un calcul itératif !


Amélioration ou modernisation de la technique de dégivrage

Le réchauffage de la batterie pour assurer la fusion du givre peut se faire de diverses façons :

  • par résistance chauffante,
  • par introduction de vapeurs refoulées par le compresseur,
  • par aspersion d’eau sur la surface externe, givrée, de la batterie,
  • par circulation d’air.

Les deux premières méthodes citées ci-dessus sont les plus courantes :

Par résistance chauffante

Des résistances chauffantes sont imbriquées dans les tubes en cuivre qui composent la batterie de l’évaporateur. Leur position et leur puissance sont étudiées par le fabricant de manière à répartir uniformément la chaleur produite à l’ensemble de la batterie.

Avantages, inconvénients et choix

C’est une méthode simple, très répandue pour les unités de puissance moyenne.
Elle n’est pas dénuée de divers inconvénients : la consommation se fait en électricité directe, et donc à un prix élevé en journée, surtout si la période de dégivrage a lieu durant la pointe quart-horaire du mois.

Précautions

Dans les équipements frigorifiques des grandes cuisines, la place disponible fait souvent défaut et la tendance des architectes est de sélectionner du matériel très compact. D’autre part, les budgets sont de plus en plus étroits, ce qui ne facilite pas la sélection de matériel de qualité.

Cependant pour assurer un bon fonctionnement du dégivrage à long terme, certaines précautions sont à prendre :

  • Les résistances n’ont pas une durée de vie éternelle. Elles doivent être remplacées en cas de défaillance. Lors de l’installation de l’évaporateur, il ne faudra donc pas oublier de tenir compte de leur longueur (généralement la longueur de l’évaporateur) et laisser l’espace nécessaire pour permettre de les extraire de leur  » doigt de gant « .
  • Toutes les résistances sont fixées à l’aide de fixation ad hoc dans la batterie. Il importe de fixer également les nouvelles qui seraient introduites après un remplacement.
    En effet, si les résistances ne sont pas bien fixées, les dilatations produites lors du chauffage et du refroidissement peuvent faire bouger les résistances et les faire sortir de leur position initiale avec comme conséquence de ne plus chauffer uniformément la batterie sans compter les inconvénients matériels que cela suppose.

Par introduction de vapeurs refoulées par le compresseur

Cette technique, encore appelée dégivrage par « vapeurs chaudes » ou par « gaz chauds », consiste à inverser le cycle et à faire fonctionner l’évaporateur, le temps du dégivrage, en condenseur.

Avantages, inconvénients et choix

L’inversion de cycle est très économique, notamment car les vapeurs chaudes sont directement introduites dans les tubes avec des températures très élevées (avec le R22 on peut facilement atteindre plus de 90°). Les temps de dégivrage sont donc très courts : parfois quelques secondes suffisent.

Néanmoins, cette méthode complique le réseau des conduites frigorifiques : des éléments supplémentaires tels que la vanne à 4 voies (qui sert à l’inversion de cycle), vannes magnétiques pour couper les circuits, etc. viennent s’ajouter à l’installation en cas de rénovation.

Ainsi, elle est surtout utilisée dans les installations industrielles.

Dans les équipements frigorifiques des grandes surfaces, il n’y a que les machines à glaçons (lit de glace en poissonnerie), quand il en existe, qui sont parfois munies d’un système d’inversion de cycle pour démouler les glaçons.

Par aspersion d’eau sur la surface externe, givrée, de la batterie

Avantages, inconvénients et choix

Cette technique est parfois utilisée pour des enceintes froides à des températures voisines de 0°C et pour des enceintes réclamant une humidité élevée (chambres de conservation de fruits). La consommation d’eau, fluide de plus en plus coûteux, est un inconvénient.

Par circulation d’air de la chambre

De l’air provenant soit de l’intérieur de la chambre même, soit de l’extérieur, est envoyé sur l’échangeur. Dans le premier cas, le dégivrage est très lent. Dans le second, il faut isoler l’évaporateur de la chambre, ce qui n’est pas pratique.

Avantages, inconvénients et choix

L’inertie des produits stockés doit être suffisante à maintenir l’ambiance dans une fourchette de température acceptable. C’est donc une technique qui n’est pas à utiliser pour des chambres froides qui sont quasi vides juste avant le réapprovisionnement.

La première de ces méthodes a l’avantage de récupérer totalement l’énergie frigorifique stockée dans la glace. De plus, seule une horloge est nécessaire pour interrompre la production frigorifique. Elle ne tombe donc jamais en panne.

En général, cette méthode est utilisée avec une température de chambre supérieure à 0°C et lorsque les enceintes ne sont pas trop sollicitées par des ouvertures de portes. Mais la pratique montre que certains régulateurs « intelligents » utilisent également ce système lorsque la température est fortement négative, grâce au fait qu’en dessous de -5°C la structure de la glace est très différente (beaucoup plus poudreuse et donc moins collante : une sublimation est alors possible).

Remarque : cette technique est celle utilisée par un fabricant  qui propose une régulation intelligente des dégivrages.


Amélioration ou remplacement de la régulation du dégivrage

Le dégivrage est une source de consommation d’énergie :

  • Par l’apport de chaleur nécessaire à la fusion du givre (effet utile).
  • Suite à l’échauffement, suivi du refroidissement, de la masse métallique de la batterie (effet nuisible).
  • Par le réchauffement partiel, suivi de la remise en température de la chambre froide, une partie de la chaleur que nécessite le dégivrage ayant été perdu dans cette enceinte (effet nuisible).

Il existe donc une fréquence optimale de dégivrage pour minimiser l’énergie dépensée par cette opération :

  • Trop fréquents, ils sont effectués alors qu’une faible quantité de givre s’est déposée sur la surface froide, l’effet utile est insuffisant devant les effets nuisibles qui l’accompagnent.
  • Trop peu fréquents, la masse excessive de givre présente sur la batterie diminue l’efficacité énergétique de la machine frigorifique.

Dans le cadre d’une amélioration, les techniques de régulation et de commande modernes deviennent très accessibles financièrement parlant. Si votre régulation existante est vétuste, le remplacement d’une horloge classique, par exemple, par un module de régulation ne devrait pas vous ruiner.

Choix du type de régulation

Pour les petites enceintes, une régulation par horloge peut suffire. Mais mal utilisée, cette régulation peut conduire à des aberrations énergétiques : qu’il y ait présence ou non de glace, le dégivrage est enclenché à l’heure programmée, la durée du dégivrage est fixe, quelle que soit la présence effective de glace.

Ainsi, en fonction des conditions d’exploitation des enceintes froides (peu ou beaucoup d’ouvertures de portes), les agents d’exploitation devront modifier la fréquence des dégivrages par le réglage des horloges, et une sonde de fin de dégivrage doit permettre à l’installation de redémarrer plus rapidement que la période fixée.

Cependant, ils ne doivent, en aucun cas, intervenir sur la séquence. Certaines d’entre elles, interne des opérations de dégivrage, si elles sont mal conduites, peuvent créer des écarts de pression intolérables entre l’intérieur et l’extérieur des chambres froides.

Pour les plus grandes enceintes, il est indispensable, au niveau énergétique, que la séquence des dégivrages réels se rapproche au mieux de la séquence utile. On utilise pour cela une régulation électronique intelligente de dégivrage. De tels systèmes permettent des économies substantielles.

Il en existe au moins deux sur le marché :

  • Le premier système de régulation électronique intelligent permet d’espacer la séquence de dégivrages initialement programmés s’il n’a pas détecté de phase de fusion suffisamment longue durant les 10 dernières opérations de dégivrage programmées.
  • Le second système de régulation électronique intelligent détecte la présence de glace à partir de deux sondes de température (l’une mesure la température ambiante de la chambre, l’autre est placée dans les ailettes de l’évaporateur). L’explication de ce principe ne nous a pas été détaillée.
    Chez ce fabricant, le critère d’arrêt du dégivrage classique est une température d’évaporateur de 10°C. Cela semble élevé, mais c’est, semble-t-il, une sécurité par rapport à l’absence totale de glace.
    En plus de cette détection de givre, ce système choisit un dégivrage par circulation d’air de la chambre chaque fois que la température intérieure le permet. Ce qui est très intéressant au niveau énergétique puisque non seulement il ne faut pas produire de la chaleur pour le dégivrage, mais qu’en plus, toute l’énergie latente contenue dans la glace sera restituée à l’ambiance.
    Un dégivrage classique par résistance chauffante n’aura lieu que lorsqu’il n’est pas possible d’attendre la fusion de la glace par l’air ambiant.

Quel que soit le système de régulation intelligente, la souplesse de ces appareils par rapport aux thermostats mécaniques permet d’affiner les réglages et de proposer des fonctions complémentaires :

  • alarmes,
  • possibilité de faire fonctionner le congélateur avec une consigne abaissée de 5°C la nuit (pour bénéficier du courant de nuit),
  • possibilité de délester durant la pointe 1/4 horaire,

D’après le fabricant du second système ci-dessus, l’investissement (+/- 1 625 €) est amorti en moins d’un an.

Exemple.

Une chaîne de supermarchés belge a adopté ce système pour l’ensemble de ses chambres froides depuis 2 ans. Un des responsables techniques nous a confirmé que l’investissement a largement été amorti sur cette période en regard des économies d’énergie apportées (plus de 20 % de la consommation de la chambre). Une généralisation de ce système à l’ensemble des points de vente est programmée.

De plus, ces systèmes peuvent tout à fait s’adapter sur des installations existantes.

Lors de la pose d’un système de régulation de dégivrage, il est important de l’adapter au mieux à la chambre froide et à son utilisation. Il appartient au frigoriste de bien poser au client les questions pour comprendre son mode opératoire et de cibler la régulation la plus appropriée.

Autres précautions…

Pour optimiser le dégivrage, le frigoriste ne doit pas oublier de prévoir deux temporisations dans les étapes de dégivrage :

  • Après l’opération de dégivrage proprement dite, il faut prévoir une temporisation avant l’ouverture de la vanne magnétique (permettant à la production frigorifique de reprendre). Cette précaution permet d’assurer l’égouttage.
  • Ensuite, il faut prévoir une deuxième temporisation avant la remise en fonctionnement des ventilateurs de l’évaporateur. Cette temporisation permet à la batterie d’atteindre une température moyenne inférieure ou égale à celle de l’enceinte. À défaut, la remise en route prématurée des ventilateurs peut envoyer de la chaleur dans la chambre froide et/ou des gouttelettes d’eau encore présentes.

Il veillera aussi à prévoir un système de sécurité qui arrête le dégivrage dès qu’une température ambiante excessive est atteinte. Cette sécurité doit, par exemple, être accompagnée d’une alarme qui prévient le personnel du problème.

Cette précaution est d’autant plus importante que les produits stockés sont coûteux.

Exemple.

Il est déjà arrivé qu’un contacteur qui commandait les résistances électriques de dégivrage d’une enceinte stockant des crustacés, du caviar, etc. reste bloqué et que du chauffage soit diffusé toute la nuit dans la chambre avant que le personnel ne s’en aperçoive le lendemain matin.

 

Récupérer la chaleur sur condenseur de la machine frigorifique [Améliorer – Froid alimentaire]

Récupérer la chaleur sur condenseur de la machine frigorifique [Améliorer - Froid alimentaire]


Principe de fonctionnement

Une machine frigorifique transfère de la chaleur extraite d’une chambre froide, d’un meuble frigorifique ouvert, … vers l’extérieur.

Il semble dès lors logique de tenter de récupérer la chaleur sur le condenseur de la machine frigorifique.

Fonctionnement du condenseur

En principe, trois opérations successives se passent dans le condenseur de la machine frigorifique :

Evolution des températures du fluide frigorigène et du fluide de refroidissement.

  1. Dans une machine frigorifique, les gaz qui sont expulsés par le compresseur en fin de compression sont à très haute température (de 70 à 80°C). On dit qu’ils sont surchauffés. Comme la condensation se fait à une température largement inférieure (aux alentours de 40°C, par exemple), une quantité de chaleur va devoir être évacuée des gaz surchauffés pour les amener à leur température de condensation qui correspond à la pression de refoulement (dite pression de condensation). C’est la désurchauffe.
  2. Puis lors de la condensation elle-même, une importante quantité de chaleur va aussi devoir être évacuée pour liquéfier (si possible complètement) le fluide frigorigène gazeux.
  3. Enfin, si les conditions des échanges thermiques dans le condenseur le permettent (température du fluide refroidisseur suffisamment basse, débit du médium de refroidissement suffisamment important), le liquide condensé va subir le sous-refroidissement, ce qui améliore le rendement de l’évaporateur.

Récupération de l’énergie

Dans certains cas, on pourrait envisager de récupérer cette énergie pour chauffer de l’eau ou de l’air, au lieu de la gaspiller en pure perte :

  • si on a des besoins en eau chaude sanitaire à une température pas trop élevée (45° à 50°C);
  • si on a des besoins de chauffage pour des allées froides, des locaux contigus, …
  • si on veut éviter ou diminuer la puissance de climatisation du local des machines, ou faire des économies d’énergie sur ce poste;
  • si on veut participer à la lutte contre le réchauffement global de l’atmosphère.

La récupération de l’énergie du côté des condenseurs suppose évidemment des investissements supplémentaires par rapport à des machines classiques plus simples :

  • des échangeurs de condenseurs adaptés;
  • des réservoirs-tampons pour l’eau chaude sanitaire ou de chauffage;
  • une disposition plus compliquée des tuyauteries;
  • une bonne évaluation des pertes de charge dans les tuyauteries;
  • une régulation complète permettant le contrôle correct de toute l’installation, y compris des récupérateurs.

Étant donné les spécificités inhérentes à chaque projet, le rapport entre l’investissement et les économies d’énergie doit faire l’objet de calculs adaptés, à demander aux auteurs de projet. Il faut en effet considérer ensemble la machine frigorifique et les appareils de production d’eau chaude sanitaire ou de chauffage.
Le bilan doit prendre en compte :

  • l’apport d’énergie « gratuite » par la machine frigorifique,
  • le fait que l’on doit quand même disposer, en plus des récupérateurs, d’une puissance installée suffisante pour palier au manque de puissance de chauffe lors des périodes où la machine frigorifique ne fonctionne pas,
  • la pénalisation énergétique apportée toute l’année par l’échangeur supplémentaire,
  • le cas où le condenseur de la machine frigorifique doit assurer à lui seul, l’évacuation de toute la chaleur (lorsqu’il n’y a pas de besoin d’énergie dans les récupérateurs, ou quand ces derniers sont arrivés à leur consigne maximale de température).
Exemple d’application très intéressante

Le plus logique est de récupérer la chaleur sur le condenseur à air pour chauffer directement l’air d’un local. Ainsi, un supermarché Delhaize à Bruxelles évacue la chaleur du condenseur du groupe frigorifique (armoires de congélation) en créant un rideau d’air chaud à l’entrée du magasin. En été, la chaleur est déviée en toiture par un clapet.


Application au chauffage de l’ambiance du magasin ou des annexes par l’air

Le moins qu’on puisse dire, c’est que les idées ne manquent pas quant à la récupération de la chaleur des condenseurs afin de chauffer l’ambiance des magasins directement ou des annexes indirectement.
La question traditionnelle qui revient dans les discussions est la suivante :

« J’ai déjà payé mon électricité pour garder à basse température mes aliments, que puis-je faire de la chaleur des condenseurs ? C’est quand même idiot de la rejeter à l’extérieur en période froide alors que je dois en plus chauffer mon magasin ».

Sur base du principe  :

« La véritable économie d’énergie est celle que l’on ne consomme pas ! »

On ne recommandera jamais assez de fermer les meubles frigorifiques tout en rappelant qu’un meuble de 1 mètre de largeur (1 mètre linéaire) échange par convection et rayonnement de l’ordre de 800 W et représente les 2/3 de la demande de froid au niveau de l’évaporateur.

Il est sûrement l’heure de rappeler aussi que l’on a atteint le paradoxe de la chaîne alimentaire froide. En effet, on en arrive, depuis un certain temps, à réchauffer les « allées froides » des magasins, et ce, afin d’assurer le confort des clients.

 » C’est une aberration énergétique criante ! »

Pour bien illustrer ce petit « coup de gueule », l’étude simplifiée qui suit montre les effets conjugués du succès des meubles frigorifiques d’ouverture de plus en plus imposante avec les effets négatifs qui vont de paire, à savoir :

  • le risque accru pour la conservation de la chaîne du froid;
  • l’inconfort évident des « allées froides ».

 Incorfort dans les allées froides.

Dans ce qui suit, on se propose d’analyser, de manière théorique, différents cas souvent rencontrés dans les magasins d’alimentation :

  • des meubles frigorifiques fermés avec le rejet de la chaleur de condensation dans l’ambiance du magasin et un appoint venant d’une chaudière traditionnelle;
  • des meubles frigorifiques fermés avec le rejet de la chaleur de condensation à l’extérieur du magasin et le chauffage du magasin venant d’une chaudière traditionnelle;
  • des meubles frigorifiques ouverts avec le rejet de la chaleur de condensation dans l’ambiance du magasin et un appoint venant d’une chaudière traditionnelle;
  • des meubles frigorifiques ouverts avec le rejet de la chaleur de condensation à l’extérieur du magasin et le chauffage du magasin venant d’une chaudière traditionnelle.

Ici, on analyse les consommations énergétiques finales et primaires ainsi que le bilan CO2 des différentes configurations en tenant compte des valeurs de rendement et d’efficacité énergétiques des équipements :

  • La chaudière présente un rendement saisonnier sur PCI (Pouvoir Calorifique Inférieur) de 0.90 ( ouverture d'une nouvelle fenêtre ! valeur de la CWaPE ou Commission Wallonne Pour l’Énergie.  ).
  • Le rendement global des centrales belges est de 55 % (selon la CWaPe). Dans cet exercice, on se place dans une situation défavorable, à savoir que le rendement moyen belge des centrales (en tenant compte du rendement des centrales nucléaires) est plutôt de 38 %.
  • 1 kWh de gaz consommé représente 251 g de CO2.
  • Le prix actuel du gaz est estimé à 0.05 €/kWh PCI.
  • Le prix de l’électricité est évalué à 0.11 €/kWh.

Les conditions d’ambiance du magasin sont simplifiées pour les besoins du calcul, à savoir :

  • la température ambiante que le commerçant veut assurer est de 24°C;
  • la température moyenne externe est de 6°C;

Le bilan thermique du magasin est aussi simplifié dans le sens où :

  • Les déperditions du magasin sont ramenées aux seules pertes des parois de l’enveloppe :
    • pour un petit commerce peu isolé de 40 m² au sol (4 façades), avec un Uglobal de l’ordre de 4 W/m².K, les déperditions sont de l’ordre de 12 kW en régime établi;
    • pour le même commerce fortement isolé, avec un coefficient Uglobal de l’ordre de 1.2 kW/m².K, les déperditions atteignent 3.6 kW;
  • Les apports internes et externes ne sont pas pris en compte (occupations, éclairage, … et l’ensoleillement. On se place donc dans des conditions défavorables au niveau de la récupération de chaleur.

Configuration 1 : meubles ouverts, condenseurs à l’extérieur et commerce peu isolé (configuration classique)

Le commerçant possède un commerce peu isolé (12 kW de déperditions). Il investit dans des meubles frigorifiques ouverts (2 x 10 kW) et les groupes de froid (groupes condenseurs) sont placés à l’extérieur.

La température de condensation des groupes condenseurs en externe est de l’ordre de 22°C pour un air externe moyen sur l’année de 6°C. Le coefficient de performance du groupe condenseur en externe est de 4.2 d’après un constructeur de machine frigorifique (COP’s équivalents donnés par Bitzer software de BITZER et Select 6 de COPELAND).

Pour cette configuration, un appoint de chaleur est nécessaire; c’est la chaudière qui le donne.

Schéma

Performance des équipements

Le bilan thermique montre que, vu la bonne performance des compresseurs pour une température de condensation basse (COP de l’ordre de 4.2), les rejets de chaleur à l’extérieur sont limités. Néanmoins, la chaudière doit apporter 32 kW pour maintenir un certain confort dans le magasin et compenser les déperditions de 12 kW au travers des parois et la perte de chaleur vers les meubles frigorifiques ouverts (soit 20 kW).

Bilan énergétique et CO2

Poste Calcul Unités
Energie finale (au niveau du magasin)
Energie chaudière

32/0.9 = 35.6

kWh/h

 

Energie compresseurs 

 

2.4 x 2 = 4.8 kWh/h
Energie condenseur 12.4 x 2 = 24.8 kWh/h
Coût 35.6 x 0.05 + 4.8 x 0.11= 2.3 €/h
Energie primaire (à la centrale électrique)
Energie primaire 35.6+ 4.8 / 0.38= 48.2 kWh/h
CO2 48.2 x 0.251 = 12.1 kg/h de CO2

Configuration 2 : meubles ouverts, condenseurs dans l’enceinte et commerce peu isolé

Le commerçant décide de remplacer ses groupes de condensation, car il sont vétustes (soumis au intempéries depuis 15 ans par exemple). L’installateur lui conseille de les placer à l’intérieur afin de récupérer la chaleur de condensation.

La température de condensation des groupes condenseurs en interne est de l’ordre de 50°C afin de pouvoir chauffer l’air aux environs des 40°C pour une température d’air d’entrée au condenseur de 32°C (condenseur placé dans des mauvaises conditions de fonctionnement). Le coefficient de performance du groupe condenseur est de 1.66 d’après un constructeur de machine frigorifique.

Schéma

Performance des équipements

Le bilan thermique nous montre que les compresseurs, vu leur performance médiocre (COP de 1.7), doivent évacuer plus de chaleur au niveau des condenseurs. Il en résulte que la chaudière, dans ce cas, n’a pas besoin de venir en appoint. La question clef est de savoir s’il faut récupérer la chaleur au prix de la dégradation de la performance énergétique des compresseurs ou l’inverse.

Bilan énergétique et CO2

Poste Calcul Unités
Energie finale (au niveau du magasin)
Energie chaudière

0

kWh/h

 

Energie compresseurs 

 

6 x 2 = 12 kWh/h
Energie condenseur 16 x 2 = 32 kWh/h
Coût 0 x 0.05 + 12 x 0.11= 1.32 €/h
Energie primaire (à la centrale électrique)
Energie primaire 0 + 12 / 0.38= 31.6 kWh/h
CO2 31.6 x 0.251 = 7.9 kg/h de CO2

Configuration 3 : meubles fermés, condenseurs à l’extérieur et commerce peu isolé

Le commerçant est très sensibilisé à l’énergie.

Il décide de réinvestir dans des meubles fermés. Pour une même capacité d’exposition des denrées, la puissance à l’évaporateur sera moindre. En effet, sur base de l’étude du bilan thermique des meubles ouverts, les pertes par l’ouverture représentent de l’ordre de 66 % de la puissance disponible à l’évaporateur. En fermant ces ouvertures, la puissance nécessaire à l’évaporateur est de l’ordre de 2 x 3 kW.

Dans un second temps, il se dit qu’il n’y a plus de nécessité de récupérer la chaleur de condensation puisqu’il devrait y avoir moins de pertes de chaleur vers les meubles frigorifiques. Les groupes de froid (groupes condenseurs) sont donc placés à l’extérieur.

La température de condensation des groupes condenseurs en externe est de l’ordre de 22°C pour un air externe moyen sur l’année de 6°C. Le coefficient de performance du groupe condenseur en externe est de 4.2 d’après le même constructeur de compresseur.

Schéma

Performance des équipements

Le bilan thermique nous montre que, vu la bonne performance des compresseurs pour une température de condensation basse (COP de l’ordre de 4.2), les rejets de chaleur à l’extérieur sont limités. La chaudière doit tout de même apporter 18 kW pour maintenir un certain confort dans le magasin et compenser les déperditions de 12 kW au travers des parois et la perte de chaleur vers les meubles frigorifiques fermés (soit 6 kW).

Bilan énergétique et CO2

Poste Calcul Unités
Energie finale (au niveau du magasin)
Energie chaudière

18/0.9 = 20

kWh/h

 

Energie compresseurs 

 

0.7 x 2 = 1.4 kWh/h
Energie condenseur 3.7 x 2 = 7.4 kWh/h
Coût 20 x 0.05 + 1.4 x 0.11= 1.2 €/h
Energie primaire (à la centrale électrique)
Energie primaire 20 + 1.4 / 0.38= 23.7 kWh/h

CO2

23.7 x 0.251 = 5.9 kg/h de CO2

Configuration 4 : meubles fermés, condenseurs dans l’enceinte et commerce peu isolé

Le commerçant furieux, demande à l’installateur de se débrouiller pour réduire la facture de chauffage. Les groupes de froid sont donc incorporés dans les meubles et la chaleur évacuée par les condenseurs est réintroduite dans le magasin aussi pour assurer le confort des clients (dans les allées froides par exemple).

La température de condensation des groupes condenseurs en interne est de l’ordre de 50°C afin de pouvoir chauffer l’air aux environs des 40°C pour une température d’air d’entrée au condenseur de 32°C. Le coefficient de performance du groupe condenseur est de 1.66 d’après un constructeur de machines frigorifiques.

Schéma

Performance des équipements

Le bilan thermique nous montre que malgré le rejet de 9,2 kW dans l’ambiance du magasin, la chaudière doit apporter 8,8 kW pour maintenir un certain confort dans le magasin et compenser les déperditions de 12 kW au travers des parois et la perte de chaleur vers les meubles frigorifiques fermés (soit 6 kW).

Bilan énergétique et CO2

Poste Calcul Unités
Energie finale (au niveau du magasin)
Energie chaudière

8.4/0.9 = 9.3

kWh/h

 

Energie compresseurs 

 

1.8 x 2 = 3.6 kWh/h
Energie condenseur 4.8 x 2 = 9.6 kWh/h
Coût 8.4 x 0.05 + 3.6 x 0.11= 0.8 €/h
Energie primaire (à la centrale électrique)
Energie primaire 8.4 + 3.6 / 0.38= 17.9 kWh/h
CO2 17.9 x 0.251 = 4.5 kg/h de CO2

Configuration 5 : meubles fermés, condenseurs dans une enceinte très isolée

Le commerçant constate qu’il a encore une facture de chauffage exagérée. Tout en conservant sa configuration précédente, il décide d’isoler son enveloppe (des primes existent). Les déperditions ne sont plus que de 3.6 kW.

La température de condensation des groupes condenseurs en interne est de l’ordre de 50°C afin de pouvoir chauffer l’air aux environs des 40°C pour une température d’air d’entrée au condenseur de 32°C. Le coefficient de performance du groupe condenseur est de 1.66 d’après un constructeur de machine frigorifique.

Schéma

Performance des équipements

Le bilan thermique nous montre que le rejet de 9,6 kW dans l’ambiance du magasin permet à la chaudière de ne pas être allumée et compenser, non seulement les 6 kW pris par les meubles frigorifiques, mais aussi les 3.6 kW de déperdition au travers des parois.

On a donc affaire à une pompe à chaleur dont :

  • la source froide (la source d’où provient l’énergie) est chaude puisque dans l’ambiance;
  • à la consommation près du compresseur, l’énergie, « tournant » sur elle-même, est utilisée pour refroidir les meubles frigorifiques et, après utilisation, est restituée à l’ambiance;
  • la chaleur de compression excédentaire sert en fait à compenser les déperditions au travers des parois de l’enveloppe.

Bilan énergétique et CO2

Poste Calcul Unités
Energie finale (au niveau du magasin)
Energie chaudière

0

kWh/h

 

Energie compresseurs 

 

1.8 x 2 = 3.6 kWh/h
Energie condenseur 4.8 x 2 = 9.6 kWh/h
Coût 3.6 x 0.11= 0.4 €/h
Energie primaire (à la centrale électrique)
Energie primaire 3.6 / 0.38= 9.5 kWh/h
CO2 9.5 x 0.251 = 2.4 kg/h de CO2

Synthèse

Tableau comparatif

Configuration Enveloppe Type  de meuble Condenseur Energie finale consommée chaudière [kWh/h] Energie finale électrique consommée [kWh/h] Energie primaire consommée [kWh/h] Coût de l’énergie [€/h] kg/h de CO2 Rejet de CO2
1 peu isolée ouverts externe 35.6 4.8 48.2 2.3 12.1 +504 %
2 peu isolée ouverts interne 0 12 31.6 1.32 7.9 +329 %
3 peu isolée fermés externe 20 1.4 23.7 1.2 5.9 +246%
4 peu isolée fermés interne 9.3 3.6 17.9 0.8 4.5 +188 %
5 bien isolée fermés interne 0 3.6 9.5 0.4 2.4 0

Choix des meubles frigoriques fermés

La toute première conclusion à tirer est qu’il faut choisir des meubles frigorifiques fermés quel que soit le type de denrée exposé. À ce sujet, au risque de passer pour des doux rêveurs, c’est possible de choisir des meubles tant en froid positif qu’en froid négatif avec des portes sans trop de risque pour que le chiffre d’affaires tombe en chute libre.

Energie finale

Le graphique ci-dessous montre l’évolution des énergies finales que consomment l’installation de froid avec récupération ou sans récupération et le système de chauffage.

Ces consommations énergétiques sont celles que le commerçant peut retrouver à partir de ses factures de chauffage et d’électricité.

Récupération importante par rapport aux besoins de chaleur

Le tableau comparatif précédent permet de tirer des conclusions :

  • Il faut fermer les meubles frigorifiques ouverts.
  • En période froide, même si la performance énergétique des compresseurs est dégradée (COP de 1.66) vu que la température de condensation (le condenseur se trouve à l’intérieur) est élevée, il est intéressant de récupérer l’énergie de condensation. L’optimum se situe naturellement lorsque la chaleur rejetée par les condenseurs équivaut aux déperditions des parois de l’enveloppe du commerce;
  • En plus de récupérer la chaleur, on aura donc intérêt à limiter au maximum les déperditions de l’enveloppe qu’elles soient sous forme :
    • d’une meilleure isolation;
    • d’un meilleur contrôle des infiltrations au niveau des portes d’entrée et des réserves;
    • d’une gestion efficace de la ventilation de l’air hygiénique.

Régime en période chaude

Là où le bât blesse, c’est pendant les périodes chaudes :

Les condenseurs étant incorporés aux meubles frigorifiques ou dans l’enceinte même du magasin, lorsque les déperditions au travers des parois s’inversent (période chaude, apport solaire important, …), il est nécessaire d’évacuer la chaleur des condenseurs à l’extérieur. Dans le cadre d’une installation de récupération de chaleur sur un condenseur à air, il n’est pas aisé de le réaliser.

Pour récupérer la chaleur de condensation, Delhaize, par exemple, a mis au point un système similaire à celui représenté dans les figures suivantes permettant de récupérer la chaleur en période froide pour chauffer l’ambiance.

 Schéma de principe en période froide (récupération); source : Delhaize.

 Schéma de principe en période chaude (pas de récupération); source : Delhaize.

Bilan des énergies primaires

Dans le tableau de synthèse ci-dessus, on parle aussi d’énergie primaire. Ce bilan est moins parlant, car, surtout au niveau de l’énergie électrique, on a souvent tendance à oublier que nos centrales électriques ont aussi un rendement.

Comme précisé dans les hypothèses, le rendement global, selon les sources, est de 55 ou 38 % suivant que l’on compte ou non les centrales nucléaires dans le parc des centrales belges. Ce qui signifie que lorsqu’on consomme 1 kWh d’énergie électrique chez nous les centrales, elles, en consomment 1 / 0,38 = 2,63 kWh sous forme de gaz, de nucléaire, de biomasse, …

Quant à l’énergie primaire consommée par notre chaudière (c’est plus facile), c’est le gaz, le fuel, le m³ de bois consommé.

Le graphique suivant montre cette approche :

Bilan CO2

À partir des énergies primaires, on peut déterminer quelle sera notre production de CO2 :

Remarques

La plupart des cas présentés ci-dessus, sont issus de cas réellement observés. Malheureusement, aucun monitoring des consommations n’est disponible à l’heure actuelle. Il va de soi que le placement d’une batterie de chauffe au dessus de la tête des clients dans l’allée froide n’est pas un bon principe, mais est juste utilisé comme moyen d’interprétation ou de réaction des lecteurs. Ce principe donne les avantages et inconvénients suivants:

(+)

  • simple;
  • modulable;

(-)

  • nécessite des vitesses d’air plus importantes afin d’amener l’air chaud à environ 1.5 m du sol pour assurer un certain confort thermique des clients;
  • augmente l’induction de l’air chaud au niveau du rideau d’air, car le mouvement de l’air dans cette zone est amplifié;

Application au chauffage de l’ambiance du magasin ou des annexes par un condenseur à eau

Beaucoup de techniciens dans l’âme se retrouveront dans les configurations qui suivent sachant que tout un chacun recherche à récupérer un maximum d’énergie sur les consommations des groupes frigorifiques. De manière générale, il n’y a pas de solution miracle, mais des solutions partiellement efficaces.

Configuration 1 : chauffage par air pulsé au pied des meubles

Cette configuration existe dans certains magasins Delhaize et est en cours de monitoring.

Elle se compose essentiellement :

  • d’un ballon de 1 000 litres constituant un condenseur à eau dont le circuit secondaire est branché sur le collecteur principal de la chaufferie. Le circuit primaire est constitué du circuit frigorifique et est en série avec le condenseur à air classique situé sur le toit du magasin;
  • le condenseur à eau, via le collecteur de chauffage, alimente une batterie chaude de la centrale de traitement d’air;
  • la pulsion de l’air chaud s’effectue au niveau du pied du meuble frigorifique, assurant un certain confort au niveau de l’allée froide;
  • la reprise d’air de la centrale de traitement d’air se situe en hauteur;
  • la température d’air de pulsion au pied du meuble frigorifique peut être modulée en fonction de la température de reprise et de la température de l’air neuf nécessaire à la ventilation hygiénique.

En période froide :

  • le condenseur à eau réchauffe l’eau du ballon par la désurchauffe du fluide frigorigène;
  • le condenseur à air assure la condensation du fluide frigorigène et même un certain sous-refroidissement (ce qui permet d’améliorer la performance de la machine frigorifique);
  • la batterie chaude de la CTA (Centrale de Traitement d’Air) réchauffe l’air neuf mélangé à l’air de reprise pour la pulser au pied des meubles frigorifiques. Attention que le fait de pulser cet air à proximité des rideaux d’air des meubles augmente les apports par induction du meuble (dans quelle proportion ? difficile à dire pour l’instant).

En période chaude :

  • en principe, on ne devrait plus réchauffer l’air de pulsion au pied des meubles. En pratique, il se fait que l’ouverture des meubles étant de plus en plus importante, le refroidissement de l’air ambiant est véritablement présent et inconfortable pour les clients (surtout quand on vient faire ses courses en maillot); d’où la tendance actuelle à réchauffer l’air même en été;

« Voilà un bon exemple de destruction d’énergie à grande échelle ! »

  • le condenseur à air assure l’évacuation de la chaleur de condensation.

Schéma

Régime en période froide.

Régime en période chaude.

Configuration 2 : Chauffage par le sol dans les allées froides

Cette configuration est à creuser. Toutes les réalisations ou idées à ce sujet sont les bienvenues.

Elle se composerait essentiellement :

  • d’un ballon constituant un condenseur à eau dont le secondaire est branché sur le collecteur principal de la chaufferie. Le primaire est en série avec le condenseur à air classique situé sur le toit du magasin;
  • le condenseur à eau, via le collecteur de chauffage, alimente un réseau de chauffage au sol au niveau de l’allée froide;
  • d’une chaudière d’appoint raccordée sur le collecteur principal.

En période froide :

  • le condenseur à eau réchauffe l’eau du ballon par la désurchauffe du fluide frigorigène;
  • le condenseur à air assure la condensation du fluide frigorigène et même un certain sous-refroidissement (ce qui permet d’améliorer la performance de la machine frigorifique);
  • le réseau de chauffage au sol assure un chauffage rayonnant dans l’allée froide. Cette configuration peut être intéressante dans le sens où la chaleur rayonnante devrait influencer moins les meubles frigorifiques qui sont principalement sensibles aux apports par induction d’air (mélange convectif entre l’air de l’ambiance et celui du rideau d’air du meuble). La basse température de l’eau de chauffage au sol permettrait de réduire la température de condensation et, par conséquent, d’améliorer le COP de la machine.

En période chaude :

  • le condenseur à air assurerait l’évacuation de la chaleur de condensation.

Schéma

Régime en période froide.

 Régime en période froide.

Intérêt ou pas du chauffage au sol

Parmi les avantages et les inconvénients du chauffage par le sol en association avec les meubles frigorifiques positifs ouverts en position verticale, on pointera principalement :

(+)

  • Le chauffage au sol apporte de la chaleur principalement par rayonnement (70 à 80 %) mais aussi par convection. Or en froid positif, les principaux apports qui influencent prioritairement le bilan thermique et énergétique du meuble sont les apports par induction (mélange de l’air ambiant avec celui du rideau d’air froid). De plus, l’échange entre deux parois étant maximal lorsque celles-ci sont parallèles, les apports de chaleur dus au chauffage au sol seraient plus faibles vu que les surfaces sont orthogonales;
  • le confort devrait être meilleur;
  • les températures de condensation, pour ce type de chauffage, pourraient être basses et donc améliorer la performance de la machine frigorifique;

(-)

  • La mise en œuvre d’un chauffage au sol est coûteuse;
  • Comme les magasins demandent une certaine flexibilité dans l’agencement des meubles frigorifiques, le chauffage au sol est un frein par rapport à cette flexibilité. Cependant, à la conception, il est possible par une bonne programmation de déterminer les emplacements dans les zones de vente où les meubles n’ont pratiquement aucune chance de bouger. De plus, il faut aussi tenir compte que les évacuations des condensats de dégivrage des meubles ainsi que les conduites liquides et gaz du circuit frigorifique sont souvent, eux aussi, figés voire encastrés dans le sol.

Application au préchauffage de l’eau chaude sanitaire

L’idée est ici de profiter d’un besoin de chauffage d’un fluide à basse température (la température de l’eau de ville varie entre 5° en hiver et 15°C en été. Mais le système ne fonctionnera bien que lorsque la puissance de récupération nécessaire est supérieure à la puissance fournie par le condenseur. Autrement dit, il faut que les besoins d’eau sanitaire soient très importants par rapport à la puissance de la machine frigorifique.

Ainsi, dans les commerces  où le froid alimentaire est nécessaire, les besoins d’eau chaude sanitaire peuvent être importants et une récupération de chaleur au condenseur se justifie tout à fait. Mais un ballon de préchauffage est propice au développement de la légionelle.

Il faut donc s’assurer que l’eau séjournera durant un temps suffisamment long dans le dernier ballon : 60°C durant 30 minutes ou 70°C durant 4 minutes, par exemple (en cas de débit de pointe, de l’eau « contaminée » risque de traverser seulement le 2ème ballon).

Configuration 1 : Un échangeur thermique parcouru par le fluide frigorigène est inséré au bas d’un ballon d’eau chaude

Dans le système ci-contre, un simple échangeur thermique (placé en série et en amont du condenseur normal) est inséré au bas d’un ballon d’eau chaude. Par effet de cheminée, la chaleur sera donnée à la zone la plus froide du ballon puis communiquée à l’ensemble du réservoir.

On parle de condenseur-désurchauffeur parce que la désurchauffe des gaz provenant du compresseur aura lieu dans cet échangeur.

La réglementation impose le principe selon lequel il ne doit pas y avoir de contact possible entre le fluide frigorigène et l’eau potable. En cas de perforation de l’enveloppe du fluide, la détérioration éventuelle doit se manifester à l’extérieur du dispositif.

Dans l’échangeur ci-dessus, une double paroi de sécurité est prévue selon DIN 1988.

Configuration 2 : Un ballon intermédiaire à double échange est intégré comme interface

On peut également prévoir un système à double échange :

Deux échangeurs sont intégrés dans un même ballon (1). Le premier échangeur est celui du condenseur de la machine frigorifique, le deuxième est le serpentin de préchauffage de l’eau chaude sanitaire.

Dans ce ballon intermédiaire, il n’y a aucun risque de dépôt calcaire puisque l’eau n’est jamais renouvelée.

En cas de fuite de fluide frigorigène, la pression dans le ballon augmente et une alarme est déclenchée.

Un deuxième condenseur en série est nécessaire pour le cas où le besoin de chauffage de l’eau sanitaire serait insuffisant.

Configuration 3 : en présence d’une boucle de distribution

Le régulateur de température de départ de la boucle utilise l’appoint lorsque le niveau de température du ballon est insuffisant.

Un tel schéma (contrairement au précédent) risque cependant d’être propice au développement de légionelles , puisque le ballon de récupération peut être à une température inférieure à 60°C durant un temps assez long. Il n’est pas à recommander si des douches sont présentes dans l’installation.

Évaluer les besoins du froid

Évaluer les besoins du froid


Les quatre impératifs en présence

Photo champ de culture.   Photo assiette avec nourriture.

Le froid alimentaire au niveau des commerces, qu’ils soient de détail ou de moyenne/grande surface, occupe une place prépondérante dans notre société actuelle. Notre souci permanent d’amélioration de la qualité des denrées alimentaires passe impérativement et principalement par le respect des températures de conservation des aliments pendant depuis leur production jusque dans l’assiette du consommateur.

La distribution fait naturellement partie de la chaîne de froid depuis l’approvisionnement par camions frigorifiques jusqu’au « caddie » ou le sac « récupérable » (nous insistons) du ou de la consommatrice.

À ce niveau de la chaîne alimentaire, le souci d’éviter de « casser » la chaîne du froid est un défi difficile à maîtriser d’autant plus qu’il faut concilier les impératifs de vente qui ont tendance pour la plupart à ouvrir les espaces de réfrigération (4 à 6°C) et de congélation (-18°C par exemple) à l’ambiance de vente (18, …, 20, …24 °C) et le respect des règles de conservation des denrées.

A cela vient s’ajouter le problème très présent du confort du personnel dans les ambiances froides des réserves et des ateliers et du confort du personnel et des clients dans les espaces de vente.

Et « last but not least », n’oublions pas ce pour quoi Énergie+ doit exister, à savoir l‘énergie. Cette énergie qui, à première vue est en contradiction totale avec les trois autres impératifs sous nos latitudes tempérées.

Nous avons donc affaire à un « quadrinôme » d’impératifs indissociables et cohabitant difficilement ensemble.


La qualité du froid alimentaire

La certitude que la vente de denrées au niveau des commerces ne représente pas risque pour la santé des consommateurs est sans conteste l’élément le plus important à respecter.

La partie visible de l’iceberg est naturellement les surfaces de vente où les marchandises sont exposées dans des comptoirs frigorifiques. À l’écart des regards des clients, la chaîne de froid est bien présente que ce soit :

  • avant le stockage dans les chambres frigorifiques;
  • pendant le stockage;
  • après le stockage.

Avant le stockage

Photo camion et caisses de salades.

Les transferts entre le camion frigorifique et la chambre froide influencent naturellement la pérennité des denrées alimentaires à cause du contact possible avec les ambiances internes et externes au magasin (climat, gaz d’échappement en ville, déchet de toutes sortes à proximité, …). En général, les principaux facteurs qui peuvent influencer les denrées sur le plan thermique sont :

  • le temps de transfert;
  • la différence de température entre les denrées et l’air extérieur;
  • leur masse;
  • leur type de conditionnement (emballée ou pas, type d’emballage, …);
  • leur teneur en eau;

Pratiquement, les commerçants se contentent simplement d’effectuer un transfert le plus rapide possible du camion vers les chambres de conservation. Sachant qu’à l’heure actuelle, la plupart des denrées sont conditionnées dans des emballages dès la production, une ambiance extérieure « hostile » (déchet à proximité, gaz d’échappement, …) influence moins la pérennité des denrées. Néanmoins, les commerçants devront toujours éviter que les flux « propres et sales » ne se croisent dans les réserves.

L’évaluation de la qualité du transfert relève d’une procédure interne à mettre en place en s’inspirant par exemple de l’HACCP (Hazard Analysis Critical Control Point = Analyse des dangers et points critiques pour leur maîtrise).

Pendant le stockage

Photo GTC (Gestion Technique Centralisée)  

Mis à part le contrôle du temps de stockage, le respect des températures de conservation constitue le principal gage de qualité dans la chaîne du froid. Cette température est monitorée en permanence à l’aide d’un enregistreur dédicacé à la chambre froide ou d’une GTC (Gestion Technique Centralisée) qui regroupe tous les enregistrements de température des installations plus complexes de froid alimentaire.

La conservation des denrées en phase de stockage dépend essentiellement du contrôle :
  • des ouvertures de portes;
  • du dégivrage des évaporateurs.

Influence des ouvertures et fermetures des portes

Le contrôle d’accès aux chambres froides des réserves est primordial pour pouvoir maintenir les températures de conservation et éviter la prise en glace trop rapide des évaporateurs. A l’heure actuelle, l’isolation des chambres froides est relativement bonne et la principale source d’échange thermique avec l’ambiance extérieure est liée :

  • au temps pendant lequel la porte reste ouverte;
  • à l’étanchéité de la porte.

L’impact de l’ouverture de porte ou du manque d’étanchéité du joint de porte est double dans le sens où la température et l’humidité au sein de la chambre augmentent, ce qui, d’une part risque de réduire la qualité de conservation en température et, d’autre part de solliciter les évaporateurs par rapport aux opérations de dégivrage.

Influence du dégivrage des évaporateurs

L’air ambiant humide provenant des zones de réserves va naturellement se condenser en grande partie sur les ailettes des évaporateurs des chambres froides. Si aucun dispositif de régulation ou de dégivrage n’est présent, on dit que l’évaporateur « prend en glace ». Il s’ensuit une perte d’efficacité de l’évaporateur qui en l’occurrence ne peut plus assurer le maintien à température des denrées alimentaires.

Transfert après stockage

photo rayon froid supermarché

Le temps de transfert des chambres de stockage vers les rayons ou les ateliers de transformation, tout comme le trajet entre le camion frigorifique et les chambres de stockage, doit rester le plus court possible sachant que les chariots de transfert sont rarement équipés d’un groupe frigorifique embarqué afin de maintenir la température.


La vente

Un des critères de vente des denrées alimentaires est que le client puisse « toucher », « soupeser », …, « sentir » très facilement les produits. Au niveau des denrées réfrigérées (produits laitiers, fruit, légumes, …) et surgelées (frites, soupe, crèmes glacées, …), l’approche « marketing » est complexe. Tant au niveau du froid positif que négatif, l’impact sur la qualité du froid et les consommations énergétiques est énorme sachant que l’on doit garder en permanence une température de l’ordre :

  • de 0-4 voire 8 °C (pour le froid positif);
  •  et -18 °C voire moins (pour le froid négatif);

dans les meubles frigorifiques ouverts (conditions de fonctionnement extrêmes) dans une ambiance de vente de 20-24 °C avec comme « isolation » entre les deux un rideau d’air plus ou moins efficace.

« Le client est roi », c’est bien connu. Mais à quel prix !


Le confort du personnel et des clients

Non seulement l’ouverture permanente des meubles frigorifiques réchauffe les denrées alimentaires au risque de « casser la chaîne du froid » mais l’ambiance de vente se refroidit en réduisant le confort. La tentation est forte de pallier à l’inconfort des clients par le chauffage permanent des allées froides :

Il y a donc « destruction » de l’énergie !

La sonnette d’alarme doit être tirée à ce niveau, car on voit de plus en plus « fleurir » des systèmes de chauffage des allées froides afin de réduire l’inconfort.

Périodes chaudes

En période chaude, la sensibilité au confort de la clientèle est aiguisée par les paramètres suivants :

  • l’écart des températures est important entre d’une part l’extérieur et l’intérieur du magasin et d’autre part entre les zones de vente classique et celles où se trouvent les rayons de froid alimentaire (devant les meubles frigorifiques), le pire étant les allées froides (allées en deux rangées de meubles frigorifiques linéaires);
  • le faible habillement des clients.

Ces deux paramètres combinés entraînent nécessairement un inconfort pouvant friser, dans certains cas, le choc thermique.

Périodes froides

Lors des périodes froides, l’inconfort est moins grand. La raison en est simple, les clients s’habillent en conséquence (pull, manteau, …) tout en considérant aussi que le corps s’habitue à la longue aux températures plus basses régnant à l’extérieur et, par conséquent, le « désensibilisant » partiellement lorsque le client passe à proximité des meubles frigorifiques ouverts.


L’énergie

« Le client est roi », c’est bien connu. Mais à quel prix ! Non seulement l’ouverture permanente des meubles frigorifiques réchauffe les denrées alimentaires au risque de « casser la chaîne du froid » mais aussi l’ambiance de vente se refroidit au point de se retrouver dans la situation où l’on doit réchauffer l’air devant les comptoirs afin de réduire l’inconfort qui y règne. À l »inverse, l’ambiance tempérée du magasin augmente les apports externes aux enceintes frigorifiques.

Le respect de la chaîne du froid dans les commerces au sens large du terme (commerces de détail et moyennes/grandes surfaces) est un sujet où les ingénieurs et techniciens de tous bords s’arrachent les cheveux. En effet, comment concilier des points de vue qui, à première vue, sont antinomiques ?
à savoir :

  • le besoin de garantir des basses températures les plus constantes possible dans le temps aux denrées tout au long de la chaîne alimentaire;
  • la nécessité de vendre le plus possible et donc de favoriser un maximum le contact visuel et tactile des denrées par le client en imposant de laisser une interface ouverte entre les deux ambiances.

Cette approche purement « marketing » a des répercussions énormes non seulement sur la qualité du froid à assurer, mais aussi sur les consommations énergétiques des comptoirs de vente réfrigérés.

Sans grande observation scientifique, on se rend tout de suite compte que les échanges thermiques ou plus généralement enthalpiques (influence de la température et de l’humidité de l’air), entre les deux ambiances, c’est-à-dire entre les meubles frigorifiques et l’ambiance de vente, sont importants. Au travers du rideau d’air des meubles frigorifiques :

  • l’air de la surface de vente à température ambiante (24°C par exemple) et à taux d’humidité de l’ordre de 50 % réchauffe et humidifie l’intérieur des meubles frigorifiques;
  • à l’inverse, l’air froid du meuble (4°C par exemple) refroidit et déshumidifie l’ambiance de vente

A l’heure actuelle, des réglementations et des méthodes d’analyse de risques élaborées telles que le HACCP (Hazard Analysis Critical Control Point)  permettent de garantir, ou du moins de tendre vers le respect de la qualité du froid alimentaire. La garantie de protection de la santé publique tout en assurant la vente des denrées a imposé le développement de techniques de réfrigération sophistiquées au niveau :

  • des rideaux d’air des meubles frigorifiques ouverts;
  • du dégivrage des évaporateurs.

Entendons-nous bien, ce n’est pas la mission d’Énergie+ que de mettre en cause les techniques mises en œuvre ni d’évaluer si ces techniques de vente sont ou ne sont pas pertinentes. Par contre, c’est de notre compétence d’analyser, de constater, de critiquer positivement, d’établir des bilans, … afin de concilier le respect de la qualité du froid avec le confort humain pour une consommation énergétique optimisée.

Boucles frigoporteuses

Boucles frigoporteuses

Boucle frigoporteur à eau glycolée (source : Delhaize).


Définitions

Détente directe

On parle de détente directe lorsque le fluide frigorigène assure lui-même le transfert de chaleur « utile » aux applications de froid alimentaire (meubles frigorifiques, les ateliers de boucherie, les chambres de stockage, …).

 Refroidissement par détente directe.

Refroidissement indirect

Le refroidissement est indirect lorsque le transfert de chaleur « utile » n’est pas assuré par le fluide frigorigène lui-même, mais plutôt par un fluide intermédiaire appelé frigoporteur.

 Refroidissement indirect par boucle secondaire monotube.

Frigoporteur

En raison de la simplicité avec laquelle les frigoporteurs assurent le transfert de chaleur « utile » entre deux points sans gros risque de toxicité et d’inflammabilité et dans un souci de réduire les fuites de fluide frigorigène (néfastes à la couche d’ozone et à l’effet de serre), ce type de configuration revient en force dans le domaine du froid alimentaire.


Les types de frigoporteur

On retrouve 2 principaux types de frigoporteur :

  • Les frigoporteurs monophasiques composés d’un liquide incongelable dans la gamme des températures standard du froid alimentaire (-3 à – 38 °C par exemple).
  • Les frigoporteurs biphasiques composés :
    • d’un liquide et d’un solide;
    • d’un liquide et de sa vapeur.

Frigoporteurs monophasiques

L’eau glacée constitue le plus connu des frigoporteurs monophasiques. Tout le transfert de la chaleur est effectué par la variation de la température (chaleur sensible) du frigoporteur.

Des débits importants sont nécessaires pour travailler en chaleur sensible. Ceci signifie que les boucles de distribution utilisent des sections de passage importantes et constituent donc une dépense énergétique non négligeable pour faire circuler le frigoporteur.

On retrouve sur le marché différents frigoporteurs :

  • les substances pures telles que l’eau, les hydrocarbures liquides, les alcools simples (méthanol, éthanol), les polyalcools (éthylène glycol, propylène glycol, …);
  • les mélanges tels que l’eau + sel (saumure), l’eau + ammoniac (alcali), …

Il est clair qu’en froid alimentaire, le type de frigoporteur ne doit pas altérer les denrées et ne pas constituer un risque de toxicité et d’inflammabilité pour les personnes; ce qui limite le choix.

Pour donner un ordre de grandeur, on parle pour les frigoporteurs monophasiques de transfert de chaleur de  ~ 20 [kJ/kg] en chaleur sensible.

Avantages

  • Équipements de boucle simples.

Inconvénients

  • Débit important.
  • Dimensionnement conséquent.
  • Dépense énergétique non négligeable.

Frigoporteurs diphasiques (liquide + solide)

On rencontre ce type de frigoporteur sous forme de « coulis » ou « sorbet » dans les applications de froid positif. On parle ici de chaleur latente de fusion dans les transferts de chaleur; ce qui permet d’augurer des réductions de débits pour évacuer la même quantité de chaleur qu’un frigoporteur fonctionnant en chaleur sensible.

De même, un ordre de grandeur acceptable de transfert de chaleur est de  ~ 250 [kJ/kg].

Avantages

  • Chaleur latente de fusion importante.
  • Débit réduit par rapport à la solution type chaleur sensible.
  • Dimensionnement réduit des conduites et des pompes.
  • Consommation énergétique plus faible qu’avec un frigoporteur à chaleur latente.

Inconvénients

  • Coût élevé de l’évaporateur.

Frigoporteurs diphasiques (liquide + vapeur)

On rencontre ce type de frigoporteur dans les applications de froid négatif par exemple les installations à frigoporteur au CO2. On parle ici de chaleur latente de vaporisation dans les transferts de chaleur. Cette chaleur de vaporisation est en général fort importante.

Pour une température d’application de -40°C, sachant que l’évaporation n’est pas totale, sur une chaleur totale de vaporisation de ~ 322 [kJ/kg], on peut envisager disposer de 107 [kJ/kg] (pour un titre à la sortie de l’évaporateur de l’ordre de 33 %).

Avantages

  • Chaleur latente de vaporisation importante.
  • Bon coefficient d’échange thermique.
  • Faibles volumes massiques du liquide et de la vapeur.
  • Tuyauterie de faible diamètre.
  • Absence d’huile.
  • Prix faible.
  • Peu d’influence sur l’environnement.
  • Très faible impact sur l’effet de serre (GWP = 1). À titre de comparaison, le GWP du R404A est de 3 800 et celui du R134a est de 3 260.
  • Frigoporteur naturel, largement disponible.
  • Applications pouvant aller jusqu’à -54°C.
  • Aux basses températures, sa viscosité reste faible évitant des pertes de charge importantes.

Inconvénients

  • Danger d’asphyxie au-delà de concentration > 8 %.
  • Les dégivrages demandent des précautions particulières.
  • Peu de techniciens formés.
  • Nécessite une déshydratation très poussée de la boucle (sinon formation d’acide avec l’eau).
  • En cas d’arrêt prolongé, perte de charge de CO2 (dégazage).
  • Fortes pressions de service.

Les types de boucle

Ces types de boucle utilisent les technologies monotube et bitube.

Technologie monotube

Cette technologie, comme son nom l’indique est composée d’une boucle à un seul tuyau qui alimente les évaporateurs terminaux en série. Le même tube dessert les entrée et sortie de chaque évaporateur.

Schéma de principe Technologie monotube.

Avantages

  • Très modulable en exploitation.
  • Débit pratiquement constant dans la boucle frigoporteur.
  • Pas de nécessité de variateur de fréquence sur les pompes de mise en circulation du frigoporteur (investissement réduit).

Inconvénients

  • Coût important.
  • Maintenance des circulateurs des applications terminales alors que dans le cas du bitube, il n’y a que des électrovannes sans beaucoup d’entretien (augmentation de l’ordre de 10 % des coûts d’entretien).
  • La non-variation du débit entraîne des pertes énergétiques lorsque la demande frigorifique est faible.

Technologie bitube simple

Cette technologie positionne les évaporateurs terminaux en parallèle sur la boucle frigoporteur.

Schéma de principe technologie bitube simple

Avantages

  • Une simple vanne suffit à alimenter un évaporateur terminal.
  • Le débit variable des pompes de circulation du frigoporteur permet de réduire les consommations énergétiques.

Inconvénients

  • Mise en œuvre plus conséquente de par la nécessité d’adapter les sections des tuyauteries tout au long de l’aller et du retour de boucle.
  • Pertes de charge variables nécessitant une régulation du débit des pompes de circulation (investissement dans des variateurs de fréquence).

Technologie bitube avec vannes 3 voies montées en décharge

Cette technique permet de remédier au problème de débit variable grâce au placement de « by-pass » des évaporateurs terminaux.

Schéma de principe technologie bitube avec vannes 3 voies montées en décharge.

Avantages

  • Débit constant au niveau des pompes de circulation du frigoporteur.

Inconvénients

  • Sans débit variable au niveau des pompes, les pertes énergétiques sont plus importantes.
  • Les coûts d’investissement sont importants.

Choisir le type d’éclairage : direct, mixte ou indirect ?

Éclairage direct

C’est l’éclairage direct qui donne les meilleurs résultats en termes de conception énergétique. On peut arriver à des valeurs de puissance spécifique sous certaines conditions de l’ordre de 1,5 W/m²/100 lux. Suivant l’usage des locaux ou des espaces dans les locaux, trois types d’éclairage ou un mixte des trois seront envisagés :

  • un éclairage général uniforme ;
  • un éclairage général orienté ;
  • un éclairage ponctuel.

Éclairage général uniforme

L’éclairage général uniforme  permet d’avoir une grande flexibilité des postes de travail. Attention toutefois que ce genre de considération conduit souvent à un surdimensionnement inutile des installations d’éclairage. La dernière version de la norme NBN EN 12464-1 palie à ce risque de surdimensionnement. En effet, dans la zone dite « de fond », le niveau d’éclairement peut être réduit au tiers de celui de la zone de travail et l’uniformité à 0,1. Ce qui permet d’envisager un éclairage général uniforme de faible niveau d’éclairement et de prévoir des zones de travail mobiles et flexibles avec l’uniformité et le niveau d’éclairement requis. Énergétiquement parlant, c’est acceptable et vivement conseillé.

Exemple
Soit un hall d’usinage qui demande une très grande flexibilité par rapport à la position des postes de travail. Le niveau d’éclairement pour certains postes de travail pourrait être de 750 lux. Selon la NBN EN 12464-1, le niveau d’éclairement moyen devrait s’élever à 250 lux.

 

Cette configuration de luminaires permet d’envisager :

  • De modifier complètement la disposition du hall sans toucher à l’éclairage ;
  • Une disposition variable des postes de travail sur toute la surface du hall ;
  • L’installation de nouveaux équipements.

Les caractéristiques des luminaires peuvent être les suivantes :

  • Une répartition de façon non préférentielle ;
  • Des luminaires à caractéristiques modifiables (position des lampes, type de réflecteur, …) ;
  • Des luminaires montés sur rails porteurs, donc facilement déplaçables ; ce qui avait été envisagé dans l’étude de cas réalisée.

Éclairage général orienté

Lorsque la position des zones de travail est fixe (tableau d’une salle de cours, écran d’une salle de réunion, machines-outils fixes, …), localiser l’éclairage près des zones de travail est une excellente méthode pour limiter la puissance installée.
Attention toutefois au recommandation de la norme NBN EN 12464-1 :  Éviter des contrastes trop élevés. Dans la zone dite « de fond »,  le niveau d’éclairement peut être réduit au tiers de celui de la zone de travail et l’uniformité à 0,1.
De manière générale, ce type d’éclairage permet :

  • D’envisager un niveau d’éclairement plus faible pour les circulations.
  • D’éviter de trop éclairer des zones où la lumière naturelle est présente en abondance sachant que lorsqu’il fait noir dehors, l’éclairage de la zone devant la baie vitrée n’est pas nécessaire.
  • Par le choix de luminaires asymétriques, obtenir un éclairement suffisant sur des plans verticaux comme dans les rayonnages des archives par exemple.

Le choix de l’éclairage général orienté devra aussi composer avec la structure du plafond et l’emplacement des poutres de structures qui risquent de faire écran à la disposition de la lumière ; à méditer !

Attention toutefois qu’un éclairage orienté mal positionné provoque des ombres indésirables et peut être dangereux notamment dans les ateliers où les postes de travail sont, par exemple, des machines tournantes.
Lorsqu’un atelier comporte des machines-outils dangereuses, des marquages appropriés doivent délimiter les zones de circulation et de travail, ainsi que les zones de danger. L’éclairage doit alors appuyer ces mesures en insistant sur les trois types de zone.

Éclairage ponctuel

Ce type d’éclairage permet de disposer d’un éclairement important au niveau des postes de travail de précision, sans augmenter exagérément le niveau d’éclairement général. Cette solution est toute profitable d’un point de vue énergétique.

Les luminaires individuels complémentaires  peuvent augmenter localement le niveau d’éclairement et accentuer certains contrastes.

Leur emplacement doit être approprié pour ne pas générer des situations dangereuses de travail :

Soit le ou les luminaires sont placés dans les allées encadrant les postes de travail, et ce en veillant à ce que la lumière provienne des côtés et qu’il n’y ait ni ombre ni d’éblouissement gênant.
Soit le ou les luminaires sont placés contre les postes de travail. Idéalement, ces luminaires devraient être équipés d’un gradateur de lumière. La position et l’orientation de ces luminaires doivent être réglables pour éviter les réflexions sur les objets éclairés.

Conseil : pensez  éventuellement à placer un interrupteur ou un détecteur de présence/d’absence à chaque poste de travail pour éviter que ces lampes restent allumées inutilement à des postes non-occupés.

Pour éviter de trop grandes variations de luminance dans le champ de vision des utilisateurs, maintien d’un niveau d’éclairement général suffisant par rapport à l’éclairement de la tâche :

Éclairement général = 3 x (Éclairement ponctuel)½

 Exemple dans les commerces

Dans les commerces d’ancienne génération, on se souvient tous, même les plus jeunes, du surdimensionnement de l’éclairage général uniforme de manière à couvrir l’ensemble de la surface de vente avec des niveaux d’éclairement de l’ordre de 750 lux. « Question de marketing, disaient les vendeurs ! »

Cependant, cet éclairage présente le risque de créer des zones d’ombre qui peuvent se révéler gênantes. Ce risque est d’autant plus important que la hauteur sous plafond est grande et que l’on utilise des luminaires suspendus. De plus, énergétiquement parlant, ce n’était pas la meilleure manière de travailler.

Le système direct à deux composantes est à préférer au système direct lorsque l’on veut mettre en valeur des objets, créer des contrastes de luminosité. On réalisera des économies d’énergie d’autant plus importantes que le niveau d’éclairement à assurer est supérieur au niveau d’éclairement général nécessaire (censé permettre un déplacement par exemple). On économisera de l’énergie en augmentant l’éclairage localement via un deuxième circuit plus intensif que le premier. Dans la pratique, on vérifiera ce constat théorique en réalisant une étude comparative des systèmes « directs »  et « à deux composantes ».

Éclairage indirect

Un éclairage indirect via le plafond a l’avantage de ne pas provoquer d’éblouissement par la vue directe des lampes. La probabilité d’ombre est inférieure. Mais son efficacité énergétique est faible et fort dépendante des coefficients de réflexion des parois (généralement le plafond).  Comme ceux-ci n’atteignent que rarement les 0.85, il faudra surdimensionner l’installation d’éclairage (en première approximation entre 15 et 30% voire 50% dans locaux où la hauteur sous plafond est importante) pour réaliser un éclairement équivalent à celui fourni par un éclairage direct. Ce système sera fortement dépendant de l’état de propreté des parois du local (ceci peut aussi conduire à la nécessité de surdimensionner l’installation de plus d’une vingtaine de pour cent par rapport à un éclairage direct).

 Exemple dans les commerces

Ce type d’éclairage sera proscrit sachant que, typiquement dans les commerces de type grande surface, les plafonds sont parcourus par des gaines de ventilation, des chemins de câbles électriques, … La tendance actuelle, bien comprise par un certain nombre de responsables énergie de magasin de grande distribution, est de prescrire un éclairage direct bien positionné avec un plafond sombre pour masquer sensiblement les techniques spéciales apparentes.

Éclairage mixte

Du point de vue efficacité énergétique, ce système se situe entre les systèmes directs et indirects. Plus la composante directe sera prépondérante, moins énergivore le système sera.

Il est à noter que les pertes complémentaires dues à la partie indirecte de l’éclairage seront en partie compensées par un rendement total du luminaire mixte souvent plus important que celui du luminaire direct.

En ce qui concerne le confort, ce type de système peut trouver son utilité dans le cas de locaux possédant une grande hauteur sous plafond, pour éviter la création d’une zone d’ombre trop importante. Ce constat est d’autant plus marqué si l’on utilise des luminaires suspendus. Dans ce cas, une faible proportion de flux lumineux dirigée vers le haut suffira.

Bien entendu, si la hauteur sous plafond est raisonnable, la réflexion sur les murs et le sol suffira à éclairer suffisamment le plafond.

Comme dans le cas du système indirect, ce système sera dépendant de l’état de propreté des parois du local (ceci peut conduire à la nécessité de surdimensionner l’installation de plus d’une vingtaine de pour cent par rapport à un éclairage direct).

 Exemple des commerces

Lorsque les plafonds ou faux plafonds sont de qualité acceptable et ne sont pas encombrés par des techniques spéciales apparentes, on pourra envisager ce type d’éclairage en favorisant la composante directe des luminaires, la composante indirecte donnant un « look » commercial intéressant.
« Il en faut pour tous les goûts ! »
Un autre exemple éclairant

On peut considérer que seul le flux dirigé vers le bas est efficace. En effet, la plupart du temps les luminaires sont situés au-dessus de la marchandise à éclairer. La plupart du temps seulement, car dans certains cas, la lumière émise vers le haut peut avoir un effet utile (éviter la présence d’une ombre gênante au niveau du plafond…).

Si l’on considère que seule la lumière dirigée vers le bas est utile, alors on peut introduire la notion de rendement utile du luminaire. Soit un appareil possédant les rendements suivants :

Rendement vers le bas : 30 %
Rendement total : 90 %
Rendement vers le haut : 60 %

La lumière dirigée vers le haut, avant d’atteindre la marchandise, devra être réfléchie par le plafond. Si on considère que cette surface possède un coefficient de réflexion de 0.7, alors 30 % de la lumière émise vers le haut sera « perdue ». On peut donc estimer que le luminaire possède les rendements utiles suivants :

Rendement vers le bas : 30 % Rendement total : 72 %
Rendement vers le haut :
60 * 0.7 = 42 %

Le rendement du luminaire a ainsi diminué de 20 %.

La figure suivante donne le facteur par lequel il faut multiplier le rendement pour trouver son équivalent « utile » en fonction du type d’éclairage choisi et pour un coefficient de réflexion de 0.7 pour le plafond. Notez que cette valeur est celle prise de manière standard. Cette valeur est assez élevée puisqu’elle correspond à un plafond peint en blanc. La valeur de ce coefficient descend à 0.25 si la peinture est brune et à 0 dans le cas d’un plafond noir.

Bien entendu, ce calcul est simplifié. Pour être exact, on devrait tenir compte de l’influence du système d’éclairage sur l’uniformité des niveaux d’éclairement, des autres réflexions sur les murs du local, …

Le but de cet exemple est de montrer qu’il est essentiel, lorsque l’on vise l’efficacité énergétique de limiter la composante supérieure du flux émis.

Comparaison en termes d’efficacité énergétique

Un point de comparaison s’impose entre les différents éclairages :

Comparaison de trois systèmes d’éclairage pour une même puissance installée :

6 luminaires de 2 x 36 W (et ballast électronique),
pour une classe de 7 m x 8 m x 3,2 m, soit 7,7 W/m²,
coefficients de réflexion : 0,7 (plafond); 0,5 (murs); 0,3 (sol).

Système d’éclairage

Direct Mixte Indirect

Éclairement sur le plan de travail

348 lux 350 lux 231 lux

Éclairement au sol

310 lux 304 lux 207 lux

Type de lampes

Tubes fluo Tubes fluo Tubes fluo

Puissance spécifique/100 lux sur le plan de travail

2,2 W/m2 2,2 W/m2 3,3 W/m2

Parmi les choix énergétiquement corrects, on retiendra le direct et le mixte. L’indirect sera juste réservé pour créer des ambiances bien spécifiques lorsque ce choix se révèle incontournable comme dans certains locaux d’hôtel (bar, accueil, …), des chambres d’hôpital, …

Découvrez ces exemples de rénovation de l’éclairage : un établissement scolaire au centre de Liège et une fabrique de peinture à Lausanne.

Choisir la cellule de refroidissement ou de congélation rapide [Concevoir – Froid alimentaire]

Quand doit-on choisir une cellule de refroidissement rapide ?

Dans tout atelier traiteur par exemple où l’on a opté pour une liaison froide, il est recommandé d’abaisser la température au cœur des aliments de + 65 °C à + 10 °C en moins de 2 heures. La cellule de refroidissement rapide est l’équipement idéal pour atteindre ces performances.

Il ne s’agit pas d’une obligation, mais d’une bonne pratique de fabrication qui est recommandée si l’on veut refroidir des aliments cuits en toute sécurité et si on veut prouver que des procédures de sécurité sont appliquées conformément à l’art. 3 et 4 de l’A.R du 07/02/97.

Cette bonne pratique provient, en fait, d’une réglementation qui s’applique aux établissements de transformation de la viande : A.R. du 4 juillet 1996 relatif aux conditions générales et spéciales d’exploitation des abattoirs et d’autres établissements / annexe chapitre V point 5, qui dépendent de l’IEV (Institut d’Expertise Vétérinaire).

Il convient de noter que le choix de la liaison froide peut se faire pour l’ensemble des menus ou pour une partie seulement. Il existe, par exemple, certaines cuisines collectives qui proposent chaque jour des plats végétariens en plus du menu du jour, mais pour ne pas avoir à fabriquer chaque jour deux plats, les plats végétariens sont préparés un jour par semaine, par exemple, en liaison froide.


Choix du procédé de production du froid

Il existe deux procédés de production du froid dans une cellule de refroidissement rapide :

Les coûts d’utilisation d’une cellule de froid mécanique sont nettement (10 x) plus faibles que ceux d’une cellule de froid cryogénique. Par contre, les coûts d’investissement pour une cellule cryogénique sont nettement plus faibles que pour une cellule mécanique.

Pour une utilisation régulière de la cellule, la cellule mécanique sera donc beaucoup plus intéressante. Dans le seul cas d’une utilisation occasionnelle, une cellule cryogénique peut être intéressante.

Lorsque le refroidissement rapide est utilisé régulièrement, il paraît risqué de n’avoir qu’une seule cellule. En cas de panne, la préparation est bloquée. On peut alors songer à investir dans une cellule de refroidissement mécanique principale et une deuxième cellule cryogénique de dépannage.

Parmi les fluides utilisés pour le froid cryogénique, vu la très faible température d’ébullition de l’azote, celui-ci est utilisé lorsque les distances à parcourir entre le lieu de stockage du fluide et le lieu de production du froid sont grandes.

Il faut cependant veiller à bien calorifuger les conduites. Le dioxyde de carbone (CO2) sera utilisé lorsque ces distances sont plus courtes.


Précautions d’utilisation

Pour obtenir un fonctionnement satisfaisant et économique, on place les préparations sur les clayettes ou les supports prévus à cet effet, afin de favoriser la circulation de l’air, et d’utiliser la cellule à sa capacité nominale.

Capacité et puissance frigorifique des cellules

La capacité (kg)

Elle doit correspondre à celle des appareils de cuisson, c’est-à-dire qu’elle doit permettre de refroidir le nombre de préparations qui peuvent être préparées en une seule fois par les autres appareils de cuisson.

L’ensemble des mets préparés pourra ainsi être refroidi dès la fin de la cuisson. En effet, selon la réglementation, « la durée de refroidissement entre la fin de la cuisson et une température à cœur de 10°C doit être inférieure ou égale à deux heures. »

D’autre part, la cellule pourra ainsi être utilisée à sa pleine capacité. Ce qui permet de travailler au meilleur rendement possible.

La puissance frigorifique

de l’appareil dépend de la durée que prend le refroidissement ou la congélation, de la capacité désirée et de la température à atteindre. Le besoin en frigories est donné par la quantité de chaleur qu’il faut retirer des aliments pour les faire passer de 65°C à 10 °C (ou – 18 °C).

Le calcul ci-dessous est statique et purement théorique. Il est donné à titre indicatif. En réalité, pour correspondre à la réalité, le calcul devrait être fait en dynamique. Statique, le bilan ci-dessous néglige les apports de chaleur au travers des parois, relativement négligeables par rapport à la chaleur à extraire des aliments.
En refroidissement rapide

Q = m x Cs x δt

Où :

  • Q = besoin en frigories (en kWh),
  • m  = poids des aliments dans la cellule (kg),
  • Cs= chaleur spécifique des aliments (kWh/kg°C),
  • δt = différence entre la température à l’entrée et à la sortie des aliments (10°C) (K).

En congélation rapide

Q = (m x Cs x δt) + (m x Cl) + (P1 x Cs‘ x δt’)

Où :

  • Q = besoin en frigories (en Wh),
  • m  = poids des aliments dans la cellule (kg),
  • Cs = chaleur spécifique au-dessus de 0°C des aliments (Wh/kg°C),
  • Cl = chaleur latente nécessaire au changement d’état du constituant liquide des aliments (passage à l’état solide) (Wh/kg),
  • Cs‘ = chaleur spécifique en-dessous de 0°C des aliments (Wh/kg°C),
  • δt = différence entre la température à l’entrée des aliments et 0°C (K),
  • δt’ = différence entre 0°C et la température de sortie des aliments (-18°C) (K),

La puissance frigorifique de l’évaporateur

P(W) = Q (Wh) / t (h)

Où :

  • t = temps maximum légal – temps nécessaire au conditionnement des aliments.

Temps maximum légal = 2 h pour le refroidissement de 65 °C à 10 °C et 3 h pour le passage de 10 °C à -18 °C (congélation).

Exemple.

1. Soit une cellule de congélation rapide, d’une capacité de 20 kg; la congélation doit se faire en 4 h.

Q = 20 x 1,04 x 65 + 20 x 80 + 20 x 0,53 x 18 = 3 143 (Wh) (soit 157 Wh par kg)
P =  3 143  /  4 = 785 W (soit 40 W/ kg.)

2. Soit une cellule de refroidissement rapide, d’une capacité 20 kg; le refroidissement doit se faire en 1h30.

Q = 20 x 1,04 x 55 = 1 144 Wh (soit 57 Wh/kg.)
P = 1 144/1h30 = 762 W (soit 38 W/kg).

En réalité la puissance calculée ci-dessus en statique est une moyenne. Or, la puissance nécessaire varie en fonction du temps, selon une courbe d’allure exponentielle, et la puissance maximale est demandée à l’évaporateur en début de processus (c’est alors que les Δt sont les plus importants). La puissance frigorifique des cellules correspond donc à cette puissance maximale.

Voici les puissances électriques que nous avons relevées dans la documentation d’un fournisseur :

Remarque : entre la puissance frigorifique et la puissance électrique, il y a le COP.

Cellule à clayette – surgélation et refroidissement rapide
Capacité par cycle (kg) Puissance électrique installée (W)
7 2 100
15 2 280/450*
25 4 000/580*
50 6 100/580*

* version équipée sans groupe frigorifique (à distance).

Cellule à chariots – surgélation et refroidissement rapide
Capacité par cycle (kg) Puissance électrique installée (W)
En surgélation En refroidissement
65 65 3 200/900*
80 110 5 400/4 300*
160 220 9 600/6 600*
240 330 11 500*
320 440 14 000*
480 660 20 000*

* version équipée sans groupe non comprise l’alimentation du groupe frigorifique (à distance).

Évaluer le confort thermique des ambiances froides

Évaluer le confort thermique des ambiances froides


Effet du froid sur le corps humain

Photo chambre froide.

Travailler dans des températures froides comme en boucherie peut être dangereux pour la santé pouvant même, à l’extrême, entraîner la mort (au risque de faire sourire certain, rester bloqué dans une chambre de congélation pendant un temps prolongé peut être fatal). Le corps doit absolument maintenir sa température corporelle à 37 °C pour préserver la santé des personnes et aussi fournir l’énergie nécessaire aux activités physiques. Le métabolisme sert au corps humain à s’adapter aux conditions difficiles de travail dans des ambiances froides.

Afin de maintenir son équilibre thermique en zone froide, le corps dispose de mécanismes de régulation :

  • Un mécanisme très complexe de régulation physiologique qui a pour but d’adapter le métabolisme et l’échange de chaleur au niveau de la peau et des poumons en fonction des conditions intra et extracorporelles. Pour demeurer actif dans une zone froide, le corps compense la perte constante de chaleur par la production équivalente de chaleur en « brûlant » le glycogène qui est notre carburant vital. Les frissons, par exemple, augmentent la production de chaleur de notre corps de l’ordre de 500 %. À ce niveau de consommation, notre corps s’épuise en quelques heures; raison pour laquelle le risque de s’endormir dans des ambiances froides est non négligeable.
  • Des mécanismes comportementaux qui permettent à l’humain d’améliorer sa tolérance au froid. Il peut très bien adapter son alimentation, son hydratation, sa tenue vestimentaire, ses attitudes posturales et physiques.

Quels risques pour la santé ?

L’exposition aux basses températures se rencontre fréquemment dans la chaîne de froid alimentaire que ce soit au niveau du personnel que des clients. Les principaux effets sur la santé d’une exposition directe et prolongée au froid sont :

  • l’hypothermie;
  • l’engelure;
  • un risque accru de troubles musculosquelettiques (TMS) en cas d’exposition prolongée;

Il faut être particulièrement vigilant dès que la température ambiante devient inférieure à 5 °C; ce qui se rencontre assez régulièrement dans les commerces (boucherie, poissonnerie, …)

Hypothermie

L’hypothermie est une des principales causes de mortalité liée à l’exposition directe au froid. Dans les commerces, ce risque est uniquement présent dans les chambres froides à 4 °C et – 18 °C. Pour cette raison, les portes des chambres froides sont toujours équipées de moyens d’ouverture des portes de l’intérieur.

Le tableau suivant montre les différents stades de l’hypothermie :

Manifestation clinique de l’hypothermie
Niveau

Température corporelle

Symptômes
Léger
35 – 32 °C
  • Confusion minime.
  • Frissons.
  • Perte de la coordination motrice.
  • Augmentation de la fréquence cardiaque et pression artérielle.
  • Vasoconstriction périphérique.
Modéré
 < 32,2 – 28 °C
  • Coma vigile.
  • Rigidité musculaire.
  • Disparition des frissons.
  • Hypoventilation.
Sévère
< 28 °C
  • Coma aréactif.
  • Rigidité.
  • Apnée.
  • Disparition des pouls.
  • Fibrillation ventriculaire.

Engelure

C’est le premier degré de la gelure. Dans les zones froides des commerces, c’est surtout les extrémités et surtout les mains qui sont les plus exposées au froid lors des manutentions des denrées alimentaires congelées par exemple.

Douleurs

La sensation de froid suivie de douleurs dans les parties exposées du corps est l’un des signes de gelures ou d’une hypothermie légère.

Acrosyndrome et syndrome de Raynaud

Le syndrome de Raynaud est le résultat d’une diminution du diamètre des artérioles des mains et des orteils lors d’une exposition prolongée au froid. La diminution du diamètre entraîne une réduction de l’irrigation sanguine dans les extrémités et se traduit par l’apparition d’une pâleur de deux à trois doigts de chaque main.

Troubles musculosquelettiques

Des études ont mis en évidence une relation entre des troubles musculosquelettiques et les situations de travail dans le froid associées à des facteurs tels que :

  • des mouvements répétitifs;
  • des amplitudes articulaires importantes;
  • des postures extrêmes;
  • des vibrations;
  • du temps de repos insuffisant;
  • du stress;

Quels facteurs de risque ?

Les risques dépendent de différents facteurs :

  • climatiques ou ambiants tels que la température, l’humidité et la vitesse de l’air;
  • liés au poste de travail ou à la tâche à exécuter;
  • individuels.

Facteurs climatiques ou ambiants : la température

La température et l’humidité de l’air sont deux des 6 paramètres qui influencent la sensation de confort thermique. On retrouve en effet :

  • Le métabolisme, qui est la production de chaleur interne au corps humain permettant de maintenir celui-ci autour de 36,7 °C. Un métabolisme de travail correspondant à une activité particulière s’ajoute au métabolisme de base du corps au repos.
  • L’habillement, qui représente une résistance thermique aux échanges de chaleur entre la surface de la peau et l’environnement.
  • La température ambiante de l’air Ta.
  • La température moyenne des parois Tp.
  • L’humidité relative de l’air (HR), qui est le rapport exprimé en pourcentage entre la quantité d’eau contenue dans l’air à la température Ta et la quantité maximale d’eau contenue à la même température.
  • La vitesse de l’air, qui influence les échanges de chaleur par convection.

En général le couple température-humidité est indissociable dans des conditions climatiques normales sous nos latitudes.

Le problème des températures au niveau de la chaîne de froid alimentaire est conditionné par le respect des températures de conservation tout au long de la chaîne. Nécessairement, ces températures sont basses et n’entrent pas dans les températures de confort pour le corps humain.

À partir de températures inférieures à :

  • 15 °C, notamment pour les postes statiques ou de pénibilité légère, l’inconfort a des fortes chances de se ressentir mais varie selon les individus;
  • 5 °C et en particulier à des températures négatives, le risque pour la santé est immédiat comme dans le cas de travail dans les chambres froides de stockage positives ou négatives.

Clairement, les ambiances froides dans lesquelles évoluent les travailleurs sont inconfortables; elles sont dues principalement aux basses températures et à l’humidité.

Par rapport à la plage de confort hygrothermique habituellement présentée (extrait de l’article de R. Fauconnier L’action de l’humidité de l’air sur la santé dans les bâtiments tertiaires paru dans le numéro 10/1992 de la revue Chauffage Ventilation Conditionnement), on voit tout de suite qu’au niveau de nombreux postes de travail l’inconfort est souvent présent :

  • dans les allées froides, les températures peuvent descendre sous les 16 °C, ce qui signifie qu’en été, par exemple, le choc thermique peut être important vu que les clients passent rapidement d’une ambiance chaude (rayon « no food »), voire surchauffée (boulangerie), à une ambiance réfrigérée;

  • dans les zones climatisées basses (12 °C) et en chambre froide (0 °C, 4 °C et -18 °C).

  1. Zone à éviter vis-à-vis des problèmes de sécheresse.
  2. et 3 : Zones à éviter vis-à-vis des développements de bactéries et de microchampignons.
  3. Zone à éviter vis-à-vis des développements d’acariens.
  4. Polygone de confort hygrothermique.

Le schéma suivant représente des polygones de fonctionnement classiques des meubles frigorifiques dans les zones de vente. Le polygone « rose » représente l’ambiance de la zone (température, hygrométrie) dans laquelle le meuble frigorifique fonctionne correctement. C’est aussi en grande partie la zone de confort des usagers. On voit tout de suite que l’inconfort se situe à l’extrême gauche du polygone de confort. En pratique, dans les allées froides, cette limite est souvent atteinte.

La zone hachurée correspond à la zone de confort.

Facteurs climatiques ou ambiants : l’humidité

L’humidité relative influence le confort du corps humain dans le sens où la perte de chaleur du corps humain augmente dans des conditions humides. Cependant, le taux d’humidité présent aux températures basses de la chaîne de froid dépend de plus en plus :

  • de l’échange hygrothermique qui s’opère avec l’ambiance extérieure;
  • de l’occupation (respiration des personnes dans l’ambiance froide).

En effet, à part les fruits et les légumes, les denrées alimentaires sont souvent conditionnées dans des emballages qui réduisent ou évitent leur échange hygrométrique avec l’ambiance froide. De plus, l’humidité résiduelle présente dans l’ambiance froide va en grande partie se condenser et geler sur les ailettes de l’évaporateur qui agissent comme déshumidificateur. Il en résulte que l’humidité absolue dans les ambiances froides reste sensiblement basse. Toutefois, même dans une ambiance relativement froide avec une humidité absolue faible, l’inconfort peut aussi être présent pour des humidités relatives élevées.

Accumulation de l’humidité ambiance sur les ailettes de l’évaporateur (« prise en glace »).

Facteurs climatiques ou ambiants : la vitesse

La vitesse de l’air est un facteur qui renforce la sensation d’inconfort. On parle souvent d’une vitesse de l’ordre de 0.2 m/s maximum pour ne pas augmenter l’inconfort dans les zones à basse température.

Grille des températures ressenties en fonction de la vitesse du vent et niveau de danger d’une exposition au froid
Indice de refroidissement éolien

Vitesse de l’air [m/s]

La température réellement mesurée correspond à une vitesse de vent nulle [°C]
0
5 0

-5

-10

-15 -20 -25 -30
1,4
4 -2 -7 -13 -19 -24 -30 -36
2,8
3 -3 -9 -15 -21 -27 -33 -39
4,2
2 -4 -11 -17 -23 -29 -35 -41
5,6
1 -5 -12 -18 -24 -31 -37 -43
7 1 -6 -12 -19 -25 -32 -38 -45
8,3
0 -7 -13 -20 -26 -33 -39 -46
9,7
0 -7 -14 -20 -27 -33 -40 -47

11,1

-1 -7 -14 -21 -27 -34 -41 -48
12,5
-1 -8 -15 -21 -28 -35 -42 -48
13,9
-1 -8 -15 -22 -29 -35 -42 -49
Risque faible. Risque modéré. Risque élevé.
Risque faible.
  • peu de danger pour les expositions au froid de moins d’une heure avec peau sèche;
  • risque d’engelure faible, mais inconfort;
  • risque d’hypothermie pour les expositions de longue durée sans protection adéquate.
Risque modéré.
  • risque croissant pour des températures comprises entre – 25 et – 30°C;
  • la peau peut geler en 10 à 30 minutes;
  • il faut surveiller tout engourdissement ou blanchissement du visage et des extrémités;
  • risque d’hypothermie pour les expositions de longue durée sans protection adéquate.
Risque élevé.
  • risque élevé pour des températures comprises entre – 40 et – 49°C;
  • gelures graves en moins de 10 minutes;
  • il faut surveiller tout engourdissement ou blanchissement du visage et des extrémités;
  • risque sérieux d’hypothermie pour les expositions de longue durée.

Photo chambre froide.Source : Commission de la Santé et de la Sécurité au Travail (CSST/Canada) : Contrainte thermique : Le froid; Service Météorologique du Canada : le refroidissement éolien.

Facteurs inhérents au poste de travail ou à la tâche à exécuter

Il est clair que certains facteurs de condition de travail ou d’exposition au froid peuvent augmenter les risques. On pointera principalement :

  • la prolongation de la durée d’exposition en continu au froid;
  • L’absence de salle de repos chauffée;
  • Exécution d’une tâche à des cadences ou d’un travail physique intense ou moyen mettant le sujet exposé en transpiration. La peau humide est plus sensible au froid et des vêtements humides sont inconfortables et isolent mal du froid;
  • L’insuffisance des poses de récupération;
  • Le port de vêtements non adapté au froid, ou ne procurant pas un niveau d’isolation thermique suffisant.
  • La possibilité de contact direct de la peau nue avec des surfaces métalliques froides à des températures inférieures à -7 °C;
  • L’utilisation de gants peu adaptés à la tâche à réaliser sachant que des gants épais réduisent la dextérité et augmentent l’effort à fournir.

Facteurs individuels

En général, la réaction au froid varie d’un individu à l’autre. Cependant, certaines caractéristiques individuelles contribuent à majorer les conséquences d’une exposition au froid comme :

  • l’age : les personnes âgées sont plus sensibles;
  • le sexe : la vitesse de refroidissement des pieds et des mains chez la femme (égalité avez-vous dit ?);
  • la morphologie : rapport entre la surface de peau et le volume du corps;
  • la condition physique : les personnes en bonne santé supportent mieux la sensation de froid;
  • la présence de trouble de la circulation;
  • la fatigue;
  • les apports alimentaires et liquides insuffisants (contribuant à la production de chaleur par l’organisme et limitant la déshydratation).

Certains facteurs de risque peuvent favoriser la survenue de symptômes liés au froid comme par exemple :

  • les médicaments comme l’insuline peuvent être responsable d’hypothermie;
  • l’alcool est un vasodilatateur qui accroît la perte de chaleur du corps, réduit la régulation thermique interne et modifie le métabolisme du sucre dans le sang;
  • lors de la grossesse, la femme est plus vulnérable;

Acclimatation au froid

En fait, il n’y a pas vraiment d’acclimatation au froid. Cependant, certaines parties du corps comme les mains peuvent développer une certaine résistance au froid (cas des bouchers qui peuvent sans problème couper de la viande froide sans gants).

Conclusion

La conservation des denrées alimentaires fixant les températures qu’il doit régner dans les enceintes froides, impose au personnel de s’habiller en conséquence. Le temps de travail doit être aussi adapté sous peine de voir le risque d’accident augmenter et l’efficacité du travail diminuer rapidement.


Comment évaluer sa situation ?

Confort en ambiance froide

L’évaluation du confort dans des ambiances froides se révèle beaucoup plus difficile que dans les zones des commerces qui sont à température ambiante classique (de l’ordre de 20 °C). En effet, la plupart des études sur le confort se cantonnent dans des valeurs de température au dessus de 15 °C. Or les températures que l’on rencontre dans les commerces au niveau de la chaîne de froid alimentaire se trouvent plutôt dans la fourchette de – 20 °C à 12 °C avec comme cas particulier les températures comprises entre 10 et 12 °C pour des conditions de travail prolongé.

La notion du confort peut être exprimée par l’équilibre thermique du corps. En effet, placé dans une ambiance thermique froide le corps humain perd de sa chaleur. Si la production de la chaleur liée au métabolisme est égale aux pertes de chaleur à travers les vêtements et les extrémités non protégées, le bilan thermique est nul et l’occupant est en équilibre thermique.

L’évaluation du confort passe donc par l’élaboration d’une méthode de quantification de l’équilibre thermique du corps humain en fonction des contraintes externes et de l’habillement.

Indices d’isolation vestimentaire

Vu la nécessité de se vêtir correctement dans les ambiances froides, la notion de confort et de sécurité passe par un indice intéressant qui a été introduit dans un document de travail ISO (ISO/TR 11 079) portant sur l’évaluation des ambiances thermiques froides; c’est l’indice d’isolation vestimentaire IREQ (Required Clothing Insulation Index). Il permet de choisir des vêtements adaptés au froid en assurant au corps un bon équilibre thermique. Il est admis que cet indice doit être utilisé lorsque la température est inférieure à 10 °C.

Le port d’un vêtement dont l’isolement est inférieur à l’indice IREQ requis, implique qu’une durée d’exposition limite doit être calculée (DLE). Il en résulte que si la durée d’exposition est inférieure à la durée DLE calculée, il n’y a pas de risque d’hypothermie. Pour les travailleurs en chambre froide, l’indice IREQ est en général compris entre 2,5 et 4 [clo]. Actuellement, les meilleurs vêtements de protection contre le froid offrent une isolation thermique comprise entre 3 et 4 [clo].

Clo : c’est l’unité d’isolement thermique où 1 [clo] correspond à 1,155 [K.m²/W].

Pratiquement parlant, il est admis que plusieurs couches de vêtements valent mieux qu’un seul vêtement épais.

Exemple

Une tenue vestimentaire composée :

  • de sous-vêtements;
  • d’un caleçon long;
  • d’un pantalon;
  • d’une veste isolante;
  • d’un sur-pantalon;
  • de chaussettes ;
  • de chaussures;
  • d’un bonnet;
  • de gants;

permet d’atteindre un IREQ de l’ordre de 2,6.

Attention que la couche la plus proche de la peau doit être isolante et éloigner l’humidité de la peau afin de la maintenir sèche.

Attention qu’il ne faut pas oublier, lors d’un travail en ambiance froide, qu’il est nécessaire d’adapter l’isolement vestimentaire à la pénibilité de la charge de travail. Ainsi, la valeur de l’indice IREQ peut être réduite de l’ordre de :

  • 10 % pour un travail léger;
  • 20 % pour les travaux plus intenses.

Contrainte ou astreinte thermique

Les conditions climatiques de l’ambiance froide sont évaluées en mesurant différents paramètres physiques :

  • la température de l’air avec un thermomètre. Les équipements faisant partie de la chaîne de froid (chambre froide, chambre climatisée, meuble frigorifique ouvert, …) sont souvent équipés de leur propre thermomètre ou même un enregistreur de température. L’évaluation n’est donc pas difficile en soi;
  • la température de rayonnement avec par exemple un thermomètre de contact pour la température de paroi;
  • l’humidité avec un hygromètre;
  • la vitesse de l’air avec un anémomètre.

Une bonne image du confort thermique est donnée par la température opérative, moyenne arithmétique entre la température de l’air et la température des parois.

Topérative = (Tair + Tparois) / 2

  • La mesure de la température de l’air se fait à l’aide d’un thermomètre protégé du rayonnement solaire et du rayonnement des parois du local.
  • La température de surface d’une paroi se fait à l’aide d’une sonde de contact ou sonde à rayonnement infrarouge.

Malheureusement, la température de rayonnement des parois est celle ressentie par l’occupant à l’endroit où il se trouve. Elle doit en principe être « individualisée » sur base de la position de l’occupant et de sa relation avec l’ensemble des parois. Mais ne soyons pas plus catholiques que le pape.

Dépense énergétique

Pour produire 1 [Joule] de travail, l’organisme en produit entre 5 et 90 Joules de chaleur. Dans les ambiances froides, l’activité physique « protège » le corps humain en brûlant de l’énergie fournie entre autres par l’alimentation. À titre indicatif, la norme ISO 8996 [32] détaille les différentes méthodes d’évaluation de la dépense énergétique.

Température corporelle : température cutanée du dos de la main

Le travail prolongé au niveau de la chaîne alimentaire nécessite que l’on adapte les conditions de travail pour maintenir un confort relatif et surtout une sécurité optimale des occupants.

Dans des températures habituelles de travail, le refroidissement corporel et le risque d’hypothermie sont faibles. Il n’en est pas de même pour le refroidissement des extrémités. Dans la plupart des cas de condition d’ambiance froide dans le secteur des commerces, la température de peau des extrémités du corps constitue une bonne évaluation de l’impact des basses températures sur le confort et la sécurité. Plus particulièrement, la mesure de la température cutanée du dos de la main représente un critère de dextérité conservée.

En général, on associe la température du dos de la main à une durée d’exposition.

L’INRS (Institut National de Recherche Scientifique : M. Aptel, Le travail au froid artificiel dans l’industrie alimentaire : description des astreintes et des recommandations, Cahier des notes documentaires n°126, 1er trimestre 1987) a montré l’influence de la température cutanée du dos de la main, du temps d’exposition au froid et de la répartition des alternances chaud/froid sur la dextérité des mains.

Les schémas ci-dessous montrent l’évolution de la contrainte thermique cutanée en fonction des répartitions des périodes d’exposition au froid au cours d’une journée de travail entre chambre froide (- 23°C) et en chambre climatisée (5°C).

Les expériences menées à l’INRS ont montré plusieurs choses :

  • Au-dessus d’un seuil de température cutanée de 24 °C, la dextérité des doigts des mains n’est altérée. À ce seuil, le refroidissement de la main n’entraîne qu’un inconfort thermique. Mais dès que le seuil des 24 °C est franchi, la capacité à effectuer des tâches de précision est réduite.
  • Une pause d’environ 25 minutes n’est pas suffisante pour réchauffer les mains.
  • Le réchauffement de la main pendant la pause est d’autant plus important que le refroidissement est plus intense.
  • Le refroidissement du travailleur en chambre climatisée est plus important que celui en chambre froide.

La mesure de la température cutanée du dos de la main est la méthode qui semble la plus intéressante pour les conditions de travail en ambiance froide, mais elle ne constitue pas un indice permettant de prévoir le refroidissement des travailleurs à partir des mesures des paramètres physiques des conditions climatiques des zones froides. Cependant, cet indicateur est le plus facilement exploitable car :

  • spontanément les occupants adaptent leur tenue vestimentaire en fonction de la sévérité des conditions d’ambiance; ce qui simplifie l’évaluation de l’impact du froid sur la personne;
  • lorsque la température cutanée de la main descend sous 23-24 °C , la dextérité diminue;
  • la perception du refroidissement des extrémités varie d’un individu à l’autre. Seul un indicateur d’astreinte peut la prendre en compte;
  • enfin, il peut être mesuré facilement.

Recommandations, normes et règlements

Les recommandations et normes se concentrent essentiellement sur la protection des travailleurs exposés au froid. La notion de confort est moins perceptible par rapport à la sécurité, mais est néanmoins bien présente puisqu’elle influence l’efficacité du travail et, par conséquent, le bien-être et la sécurité.

Les vêtements de protection

Les vêtements de protection contre le froid sont considérés comme des équipements de protection individuelle (EPI).

Les vêtements contre le froid offrent une barrière entre la peau et le milieu ambiant, modifiant aussi bien les échanges de chaleur convectifs et radiatifs, que ceux par évaporation. Il se crée autour de la peau couverte, un microclimat caractérisé par une température d’air et par une pression partielle de vapeur d’eau. La température de rayonnement caractéristique du microclimat est celle de la face interne du vêtement. L’influence du vêtement sur les échanges de chaleur, comme on l’a vu ci-dessus est très complexe.

Le port d’un vêtement de protection freine les échanges thermiques, ce qui est bénéfique en ambiance froide.

Classes des vêtements de protection

La majorité des vêtements contre le froid appartiennent à la classe II. Mais les vêtements, les accessoires (détachables ou non) et tous les équipements destinés à la protection de tout ou d’une partie du visage, du pied, de la jambe, de la main, du bras et conçus pour permettre l’intervention dans les ambiances froides dont les effets sont comparables à ceux d’une température d’air inférieure ou égale à -50°C appartiennent à la classe III. Quant aux vêtements et aux accessoires (détachables ou non) qui sont conçus pour protéger contre les conditions atmosphériques qui ne sont ni exceptionnelles ni extrêmes et à usage professionnel, ils appartiennent à la classe I.

La norme EN 511

La norme EN 511 définit les exigences et les méthodes d’essai des gants de protection contre le froid, d’origine climatique ou artificielle, transmis par convection ou par conduction jusqu’à -50 °C.

Les principaux sujets traités sont repris dans le tableau suivant :

Sujet Définition
Froid convectif
TR [°C.m²/W] représente la résistance à la perte de chaleur sèche de la main.
Niveau d’isolement thermique

R en m² °C/W)

Froid de contact
est fondée sur la résistance thermique du matériau composant le gant lorsqu’il est en contact avec un objet froid
Imperméabilité à l’eau

 

facteur de pénétration du gant par l’eau

La norme prEN 342

Le prEN 342 spécifie les exigences et les méthodes d’essais de performance des vêtements de protection contre le froid à des températures inférieures à -5 °C.

L’isolation thermique du vêtement de protection est évaluée en combinaison avec les sous-vêtements standards :

  • maillot à manches longues;
  • caleçons longs;
  • chaussettes;
  • pantoufles en feutre;
  • gilet isolant;
  • caleçons isolants;
  • gants tricotés;
  • passe-montagne.

L’isolation thermique d’un ensemble de vêtements (vêtements de protection et sous-vêtements) est classée en fonction de la valeur de l’isolation de base résultante mesurée (Iclr).

La performance d’un ensemble vestimentaire, en termes de maintien de l’équilibre thermique du corps à la température normale, dépend de la production de chaleur métabolique interne. C’est pourquoi la valeur de protection d’un ensemble vestimentaire est évaluée en comparant sa valeur d’isolation mesurée et la valeur d’isolation requise calculée (IREQ) comme montré dans le tableau ci-dessous :

Icl. r.
Activité
très légère : 90 W/m² légère : 115 W/m² modérée 170 W/m²
temps d’exposition [heures]
[m².°C/W] clo
8
1
8
1
8
1
0,15
1,0
-3
3
-5
0,23
1,5
4
8
-13
-7
-18
0,31
2,0
10
-4
1
-23
-18
-31
0,38
2,5
4
-12
-6
-33
-29
-44
0,46
3,0
-1
-21
-13
-43
-39
-57
0,54
3,5
-7
-30
-20
-53
-49
-70
0,62
4,0
-13
-39
-28
-63
-60
0,70
4,5
-19
-48
-35
  • Les valeurs Icl. r. sont seulement valables avec des gants, chaussures et couvre-chef adéquats et une vitesse d’air compris entre 0,3 m/s et 0,5 m/s;
  • Des vitesses d’air plus élevées augmenteront les températures indiquées dans le tableau à cause de l’effet de refroidissement par le vent (WCI). Un niveau adapté de l’isolation de tout le corps peut ne pas être suffisant pour éviter le refroidissement des parties sensibles du corps (par exemple les mains, les pieds, le visage) et le risque concomitant de gelures.

Le projet de norme ISO/TR 11079

Le projet de norme ISO /TR 11079 Évaluation des ambiances froides – Détermination de l’isolement requis des vêtements (IREQ) décrit la procédure d’évaluation des ambiances froides et de détermination de l’isolement requis des vêtements à mettre à la disposition des travailleurs.

Par ailleurs, en ce qui concerne les autres vêtements de protection contre le froid, les chaussures de protection utilisées dans les enceintes froides, en plus des protections générales contre les chutes d’objets, les coupures, l’humidité, …, doivent également assurer une isolation contre le froid (indiquée par le symbole CL).

Quant aux sous-vêtements isolants, ils sont également soumis au marquage CE.

Pour plus d’informations : Le travail dans le froid artificiel, Ministère fédéral de l’Emploi et du Travail, 1998, 35 p.


L’inconfort des bouches de pulsion d’air

Zone tempérée

En climatisation classique, la source d’inconfort est principalement liée :

  • à l’emplacement de la bouche dans le local considéré;
  • la température de pulsion;
  • le débit de pulsion;

Lorsque l’air pulsé entre dans la zone d’occupation du local et que la différence de température entre cet air et l’air ambiant dépasse encore 1°C en pulsion froide, on risque de ressentir une sensation de « masse d’air » lorsque l’on se déplace dans le local.

La zone d’occupation est souvent représentée par la surface du local de laquelle on a soustrait une bande de 50 cm le long des murs intérieurs et de 1 m le long des murs extérieurs, et ce sur une hauteur de 1,8 m. Dans cette zone, la vitesse de l’air ne peut dépasser 0,2 m/s (0,28 dans les locaux de passage) et le long des murs, à 1,8 m, elle ne peut dépasser 0,4 m/s :

L’inconfort éventuel est lié au choix des bouches de pulsion ou à la température de pulsion :

  • diffuseurs trop proches l’un de l’autre entraînant une retombée rapide du jet d’air vers le sol, avant son brassage correct avec l’air ambiant,
  • diffuseurs ne présentant pas assez d’induction par rapport à la hauteur du local (pas assez de brassage avec l’air ambiant),
  • différence entre la température de consigne de l’air pulsé et la température ambiante trop grande.

Inconfort par effet Coanda rompu

Lorsque l’air est soufflé à proximité d’une surface (ex : soufflage horizontal à proximité du plafond), il se produit un effet d’adhérence du jet à la paroi : c’est l’effet « COANDA ».

L’effet Coanda est très utile quand on pulse de l’air froid, car il facilite la bonne pénétration du jet dans le local (augmentation de 30 % de la portée).

Problème 1

La présence d’un obstacle perpendiculaire au jet d’air (poutre, luminaire) peut faire dévier prématurément le jet vers la zone occupée et engendrer un courant d’air désagréable.

En conséquence :

  • Il faut souffler soit à partir de l’obstacle, soit parallèlement à celui-ci et diviser le local en zones correspondantes.
  • L’éclairage au plafond doit être soit encastré, soit suspendu avec une longueur de suspension de 0,3 m minimum.
  • On tiendra compte de la présence éventuelle de colonnes qui ne pourront se situer dans la trajectoire du jet.

Problème 2

Lorsqu’une bouche plafonnière pulsant de l’air froid est surdimensionnée, la vitesse de sortie de l’air risque d’être trop faible (< 2 m/s) pour créer un effet Coanda. Le jet d’air tombera alors directement vers le sol, risquant de provoquer un courant d’air froid sous la bouche. Paradoxalement, pour éviter le courant d’air, il faudra augmenter la vitesse de l’air en réduisant la taille du diffuseur.

Problème 3

Les diffuseurs utilisent dans les systèmes de climatisation à débit d’air variable (VAV ou climatiseurs à plusieurs vitesses) doivent être spécifiquement dimensionnés pour conserver l’effet Coanda même aux faibles débits.

Concevoir

Pour plus d’infos : choix des bouches de pulsion et d’extraction en climatisation.

Zone de froid alimentaire

Dans les zones où il est nécessaire de maintenir des températures de conservation de l’ordre de quelques degrés au dessus de 0 °C en application positive voire franchement sous les 0 °C en froid négatif (congélation), outre l’inconfort dû à la température, les débits d’air sont souvent importants; l’inconfort est par conséquent accru.

Pour les zones de travail telles que les ateliers de boucherie, par exemple, l’évaluation de l’inconfort dû aux bouches de pulsion se complexifie de par l’augmentation des débits d’air pour atteindre des températures de l’ordre de 12 °C. La limitation des vitesses de déplacement d’air plus froid doit être inférieure à 0,4 m/s.

Attention que plus l’air est froid moins l’effet « COANDA » est présent vu que la densité de l’air augmente et nécessairement l’alourdit.


Cas particulier des chambres froides

Les chambres froides sont des locaux de stockage dans les commerces. L’ambiance à l’intérieur des chambres est refroidie dans une gamme de températures classiques variant de -30 à +4 °C. Nécessairement, l’inconfort règne et exige que les travailleurs y pénétrant soit habillés de manière appropriée. En général, c’est le genre de local où l’on s’attarde peu.


Cas particulier des ateliers

Les zones climatisées sont les espaces où l’on procède à la transformation des produits (préparation de sous-produits du poulet pour le traiteur par exemple). Les ateliers de boucherie, de poissonnerie, … sont les plus couramment rencontrés au niveau des commerces que ce soit de détail ou en grande surface. Les ateliers ne sont qu’une étape de transformation des produits qui interviennent entre le stockage et la distribution et se caractérisent par la nécessité de maintenir les températures de la chaîne du froid en dessous de 12 °C. De plus, ces zones climatisées, contrairement à la chambre de stockage, abritent une activité humaine importante et souvent longue.

L’évaluation du confort pour ces zones est donc primordiale et nécessite de déterminer, en fonction principalement de la température ambiante et de la vitesse de l’air :

  • le type d’habillement;
  • le temps de travail des personnes exposées;
  • leur temps de pose entre leurs périodes de travail.

Une attention toute particulière sera prise par rapport à la vitesse de l’air dans ces zones qui peut générer très vite un inconfort au niveau des extrémités découvertes du corps (la tête et les mains par exemple).

Photo travailleur dans chambre froide.

Afin de créer le froid nécessaire, des ventilo convecteurs sont couramment utilisés. Ils ont des débits importants qui peuvent induire, s’ils sont mal positionnés, des vitesses d’air supérieures à 0,2 m/s à 1,8 m de hauteur par rapport au sol. Une manière d’évaluer la vitesse de l’air est d’utiliser un anémomètre en différents endroits du local dans différentes directions notamment au niveau des postes de travail.

À noter d’emblée que les manchettes ou chaussettes, … à air sont des moyens de diffuser des débits d’air froid importants en garantissant des vitesses d’air faibles tout assurant les températures voulues.


Cas particulier des allées froides

Photo allée froide

Marché oblige, les meubles frigorifiques ouverts, et principalement les meubles frigorifiques verticaux « MFV », sont de plus en plus nombreux dans les commerces. Dans un souci commercial et énergétique, ces meubles sont régulièrement placés en vis à vis créant ainsi des « allées froides » totalement inconfortables au point que les responsables techniques sont tentés de réchauffer par n’importe quel moyen le centre des allées. L’évaluation du problème s’effectue au moyen d’un thermomètre et d’un hygromètre en différents endroits de l’allée.

Des mesures de température et d’humidité ont été réalisées dans plusieurs commerces de grande surface. En moyenne, les températures relevées ne dépassaient pas les 16 °C avec une humidité relative de l’ordre de 35 %.

Planifier un programme de maintenance de l’éclairage

Planifier un programme de maintenance de l'éclairage


Cette page montre comment utiliser les fichiers permettant de planifier un programme de maintenance en utilisant la durée de vie moyenne annoncée par le fabricant.


Déterminer les valeurs du facteur de survie catalogue

Les valeurs utilisées par défaut pour planifier la maintenance sont des valeurs moyennes issues d’un rapport de la ouverture d'une nouvelle fenêtre ! CIE. Quand on parcourt le catalogue de l’un ou l’autre des constructeurs de lampes, on se rend compte qu’à l’intérieur d’une catégorie de lampe, il existe une grande diversité de valeur de durée de vie moyenne (exception faite des lampes incandescentes et halogènes qui présentent une durée de vie moyenne toujours proche de 1 000 heures pour les premières et de 2 000 heures pour les secondes).

À l’aide de ce fichier Excel, il est possible de déterminer les valeurs du facteur de survie correspondant à la durée de vie moyenne catalogue et de les utiliser dans les deux fichiers Excel présentés dans la suite de cette page et qui permettent de planifier un programme de maintenance. En effet, la durée de vie moyenne est définie comme étant la durée de fonctionnement pour laquelle le facteur de survie de la lampe est de 0.5.

Dans ce fichier Excel, deux couleurs ont été utilisées pour les tableaux :

  • Les tableaux gris vous permettent d’insérer les données correspondantes à votre projet.
  • Les tableaux jaunes servent à afficher les résultats.

Tableau 1 : type de lampe et durée de vie moyenne catalogue

Le premier tableau présenté dans le fichier Excel vous permet d’indiquer le type de lampe que vous voulez choisir ainsi que la durée de vie moyenne annoncée par le constructeur.

Tableau 2 : résultats

Le tableau 2 reprend :

  • la durée de vie moyenne telle que définie par la ouverture d'une nouvelle fenêtre ! CIE
  • les valeurs du facteur de survie ouverture d'une nouvelle fenêtre ! CIE et catalogue en fonction de la durée de fonctionnement

Il vous est alors possible de copier les valeurs de facteur de survie catalogue pour les insérer dans l’un des deux fichiers Excel présentés ci-dessous. Pour insérer les valeurs, il vous faudra sélectionner les cellules correspondantes, appuyer sur le bouton droit de la souris, sélectionner l’option « Collage spécial », puis l’option « Valeurs ».

1 : Copie des valeurs

2 : Collage spécial des valeurs


Planifier une maintenance préventive

Dans ce fichier Excel, trois couleurs ont été utilisées pour les tableaux :

  • Les tableaux turquoise donnent des informations sur les choix que vous devez faire (définition des différentes catégories d’environnement…).
  • Les tableaux gris vous permettent d’insérer les données correspondantes à votre projet.
  • Les tableaux jaunes servent à afficher les résultats

Les différentes étapes menant à la planification de la maintenance

Définition de la catégorie d’environnement

Le tableau juste au dessus vous permet de voir dans quelle catégorie se situe votre bâtiment.

Définition du nombre d’heures de fonctionnement par an du système d’éclairage

Le tableau au dessus vous permet de voir combien d’heures par an fonctionne le système d’éclairage en fonction du type d’activité.

Choix du type de lampe et insertion des valeurs de facteur de survie

Trois graphiques, basés sur les valeurs de la ouverture d'une nouvelle fenêtre ! CIE, vous sont présentés dans le but de vous aider à faire le meilleur choix.

Le premier graphique donne l’évolution du facteur de maintenance du flux lumineux (pourcentage du flux initial émis en service) de chaque type de lampe au cours des années.

Plus la pente est horizontale, plus la lampe conserve son flux initial. Cela permet de réduire le surdimensionnement initial et donc de :

  • limiter l’investissement et les coûts énergétiques de fonctionnement
  • et/ou de rallonger la période entre deux relamping et de diminuer les frais de maintenance.

Le deuxième graphe donne l’évolution du facteur de survie des lampes (la chance qu’elle continue à marcher jusque-là) en fonction des années de fonctionnement.

Plus la pente est horizontale, et moins il est nécessaire de remplacer souvent les lampes. Il est intéressant de noter que la hiérarchie des lampes fonctionnant le plus longtemps est très proche celle des lampes opérant le mieux durant toute leur durée de vie.

Le troisième tableau donne l’évolution du pourcentage de lampe hors services pour le nombre d’années de fonctionnement.

Concevoir

Pour en savoir plus sur le choix des lampes dans le cadre de la planification d’une maintenance.

Une fois le type de lampe sélectionné, vous pouvez vous référer au catalogue de l’un ou l’autre fabricant, y trouver la durée de vie moyenne de la lampe que vous allez installer et utiliser le fichier Excel décrit précédemment.

Choix de l’intervalle de temps entre deux relamping

Pour vous aider dans ce choix, deux graphiques vous sont présentés :

Le premier permet de voir l’évolution du facteur LLMF*LSF (c’est-à-dire la proportion du flux initial du système maintenu en service) et du pourcentage de lampe hors service. La périodicité du relamping est définie comme l’intervalle de temps qui précède l’instant où l’un de ces deux facteurs atteint une certaine valeur limite (définie par vos soins).

Une fois la cadence du relamping définie et sélectionnée, il est possible d’observer grâce au deuxième graphique les conséquences de votre choix.

Ce graphique est suivi d’un tableau reprenant les valeurs clefs du système.

Choix des facteurs de réflexion des parois du local

Il est possible de choisir entre plusieurs jeux de valeurs. Juste avant, les coefficients standards sont rappelés.

Choix du système d’éclairage et de la périodicité du nettoyage des parois

Ce graphique permet de voir en une seule fois l’influence du choix du système d’éclairage et de la périodicité du nettoyage des parois.

En ce qui concerne le système d’éclairage, plus la composante directe sera prédominante, plus celui-ci sera efficace et peu sensible à l’encrassement du local.

Pour ce qui est de la périodicité du nettoyage des parois du local, pour être efficace, celui-ci devrait être réalisé tous les 0.5 ans. Ceci ne semble pas réalisable dans la pratique et il n’est donc pas nécessaire de porter une grande attention à ce facteur.

Choix du type de luminaire et de la périodicité de leur nettoyage

Tous les luminaires ne sont pas égaux vis-à-vis de leur empoussièrement. Le dernier graphique présenté vous permet de choisir celui qui résistera le mieux à la poussière et fournira tout au long de son utilisation le flux le plus important (qui possédera le plus grand LMF).

En ce qui concerne le nettoyage des luminaires, une bonne stratégie est de prévoir celui-ci tous les deux ans.


Planifier une maintenance curative

Dans ce fichier Excel, trois couleurs ont été utilisées pour les tableaux :

  • Les tableaux turquoise donnent des informations sur les choix que vous devez faire (définition des différentes catégories d’environnement, …).
  • Les tableaux gris vous permettent d’insérer les données correspondantes à votre projet.
  • Les tableaux jaunes servent à afficher les résultats.

Les différentes étapes menant à la planification de la maintenance

Définition de la catégorie d’environnement

Le tableau juste au dessus vous permet de voir dans quelle catégorie se situe votre bâtiment.

Définition du nombre d’heures de fonctionnement par an du système d’éclairage

Le tableau au dessus vous permet de voir combien d’heures par an fonctionne le système d’éclairage en fonction du type d’activité.

Choix du type de lampe et insertion des valeurs de facteur de survie

Deux graphiques, basés sur les valeurs de la CIE, vous sont présentés dans le but de vous aider à faire le meilleur choix.

Le premier graphique donne l’évolution du facteur de maintenance du flux lumineux du système (tient compte en même temps du LSF et du LLMF de chaque sorte de lampe), pour chaque type de lampe, au cours des années.

Pour pouvoir interpréter correctement ce graphe, il est nécessaire de l’analyser en parallèle avec le deuxième graphique.

Le deuxième graphe donne le nombre (cumulé) de lampes changées tout au long du fonctionnement du système.

Il faut bien se rendre compte qu’ici, contrairement à ce qui a été dit dans le cas d’une maintenance préventive, il ne faut pas simplement rechercher le type de lampe qui présentera une courbe de LLMF la plus horizontale possible.

En effet, une telle logique conduirait à choisir des lampes incandescentes ou halogènes. Mais si on regarde le second graphique, on s’aperçoit que pour maintenir un flux acceptable tout au long de la durée de fonctionnement de l’installation à l’aide de ces lampes, il sera nécessaire de les remplacer très souvent. Ceci amènera à des surcoûts importants par rapport aux autres types de lampes.

Si on analyse correctement ces deux graphiques, on se rend compte que les lampes fluorescentes triphosphores constituent généralement le maître achat :

  • très bon maintien du flux lumineux,
  • très bonne durée de vie moyenne.

Deux qualités auxquelles il ne faut pas oublier de rajouter :

  • large gamme de température de couleur envisageable,
  • bon indice de rendu des couleurs,
  • et surtout haute efficacité lumineuse.

Concevoir

Pour en savoir plus sur le choix des lampes dans le cadre de la planification d’une maintenance.

Une fois le type de lampe sélectionné, vous pouvez vous référer au catalogue de l’un ou l’autre fabricant, y trouver la durée de vie moyenne de la lampe que vous allez installer et utiliser le fichier Excel décrit en premier.

Choix de l’intervalle de temps entre deux relamping

Pour vous aider dans ce choix, deux graphiques vous sont présentés :

Le premier permet de voir l’évolution du facteur LLMF (c’est-à-dire la proportion du flux initial du système entier maintenu en service) et du pourcentage de lampe ayant été changée. La périodicité du relamping est définie comme l’intervalle de temps qui précède l’instant où l’un de ces deux facteurs atteint une certaine valeur limite (définie par vos soins).

Une fois la cadence du relamping définie et sélectionnée, il est possible d’observer grâce au deuxième graphique les conséquences de ce choix.

Ce graphique est suivi d’un tableau reprenant les valeurs clefs du système.

Choix des facteurs de réflexion des parois du local

Il est possible de choisir entre plusieurs jeux de valeurs. Juste avant, les coefficients standards sont rappelés.

Choix du système d’éclairage et de la périodicité du nettoyage des parois

Ce graphique permet de voir en une seule fois l’influence du choix du système d’éclairage et de la périodicité du nettoyage des parois.

En ce qui concerne le système d’éclairage, plus la composante directe sera prédominante, plus le système sera efficace et peu sensible à l’encrassement du local.

Au niveau de la périodicité du nettoyage des parois du local, pour être efficace, celui-ci devrait être réalisé tous les 0.5 ans. Ceci ne semble pas réalisable dans la pratique et il n’est donc pas nécessaire de porter une grande attention à ce facteur.

Choix du type de luminaire et de la périodicité de leur nettoyage

Tous les luminaires ne sont pas égaux vis-à-vis de leur empoussièrement. Le dernier graphique présenté vous permet de choisir celui qui résistera le mieux à la poussière et fournira tout au long de son utilisation le flux le plus important (qui proposera le plus grand LMF).

En ce qui concerne le nettoyage des luminaires, une bonne stratégie est de le prévoir tous les deux ans.