
Il recupero del calore di scarto dei data center non è più un’opzione ecologica, ma un asset strategico misurabile che trasforma un costo operativo in un centro di profitto.
- La qualità del calore (temperatura di uscita) è il fattore determinante per la redditività del teleriscaldamento, più importante della semplice quantità.
- L’efficienza va oltre il PUE: integrare il raffreddamento a liquido, il fotovoltaico e i sistemi di accumulo (BESS) sblocca nuovi modelli di ricavo.
Raccomandazione: Progettare non solo il sistema di raffreddamento, ma un intero ecosistema energetico integrato per massimizzare il Total Cost of Ownership (TCO) e generare valore dai servizi di rete come UVAM e Capacity Market.
La crescita esponenziale dei data center in Italia sta mettendo a dura prova la rete elettrica nazionale. Con richieste di connessione che, secondo Terna, hanno superato i 50 GW, la questione energetica non è più solo un tema di costi, ma di sostenibilità e stabilità dell’intero sistema. Per un progettista di data center o un energy manager, la sfida non è più unicamente ridurre il PUE (Power Usage Effectiveness), ma trasformare quello che è sempre stato visto come il più grande spreco – il calore – in una risorsa strategica e profittevole.
L’approccio convenzionale si concentra su soluzioni isolate: ottimizzare il raffreddamento, installare pannelli solari, migliorare l’isolamento. Queste sono azioni necessarie, ma insufficienti. La vera rivoluzione, e l’opportunità economica, risiede nel cambiare paradigma: smettere di pensare al data center come a un consumatore passivo di energia e iniziare a progettarlo come un hub energetico attivo, un ecosistema di efficienza integrato con il territorio circostante. Il calore di scarto non è un problema da mitigare, ma un prodotto da valorizzare.
Ma come si passa dalla teoria alla pratica? Se la vera chiave non fosse solo recuperare il calore, ma recuperare un calore di alta qualità termica, rendendolo direttamente utilizzabile per il teleriscaldamento senza costosi passaggi intermedi? E se, oltre a vendere calore, il data center potesse vendere flessibilità alla rete, generando ulteriori flussi di ricavo?
Questo articolo non è l’ennesima lista di buone pratiche. È una guida ingegneristica pensata per chi progetta e gestisce infrastrutture critiche. Analizzeremo, passo dopo passo, le tecnologie, le strategie e i modelli economici per trasformare il calore di scarto da passività a asset strategico, esplorando come il raffreddamento a liquido, le certificazioni energetiche e la partecipazione ai mercati della flessibilità elettrica compongano un business case robusto e a prova di futuro.
In questa analisi approfondita, esploreremo le diverse componenti tecnologiche ed economiche che costituiscono un ecosistema di efficienza per i data center moderni. Il sommario seguente offre una panoramica dei temi chiave che affronteremo.
Sommario: Progettare un ecosistema di efficienza per il data center
- Free Cooling diretto o indiretto: come usare l’aria esterna per raffreddare il CED risparmiando il 40% di elettricità?
- Water Usage Effectiveness: perché consumare troppa acqua per raffreddare è il nuovo problema ambientale dei Data Center?
- Pannelli solari sul tetto del Data Center: bastano davvero o servono contratti PPA (Power Purchase Agreement) verdi?
- LEED o ISO 50001: quale certificazione valorizza meglio l’efficienza del tuo Data Center agli occhi dei clienti?
- L’errore di tenere la sala server a 18°C: perché alzare la temperatura a 24°C è sicuro e fa risparmiare fortune?
- Raffreddamento a liquido o ad aria: quale conviene per i nuovi server ad alta densità (HPC)?
- Capacity Market: come farsi pagare per la disponibilità a ridurre i consumi in caso di emergenza rete?
- Demand Response e UVAM: come le aziende energivore possono guadagnare offrendo flessibilità alla rete elettrica?
Free Cooling diretto o indiretto: come usare l’aria esterna per raffreddare il CED risparmiando il 40% di elettricità?
Il Free Cooling rappresenta una delle strategie più consolidate per migliorare l’efficienza energetica di un data center, riducendo la dipendenza dai compressori dei sistemi di condizionamento tradizionali. Il principio è semplice: utilizzare l’aria esterna, quando la sua temperatura e umidità sono sufficientemente basse, per raffreddare direttamente o indirettamente l’aria della sala server. Questa tecnica permette di ottenere un risparmio energetico significativo, che in alcune configurazioni ottimali può arrivare fino al 72% sui costi di raffreddamento, secondo un’analisi comparativa.
Tuttavia, il potenziale di questa tecnologia è strettamente legato alla geografia. Il clima locale determina il numero di ore all’anno in cui il Free Cooling è effettivamente operativo. In Italia, le differenze sono notevoli e impattano direttamente sul ritorno dell’investimento, come dimostra un’analisi di Mitsubishi Electric sulle principali città italiane.
| Città | Zona climatica | Ore/anno Free Cooling | Risparmio stimato |
|---|---|---|---|
| Milano | E | 4.200 | 40% |
| Roma | D | 3.100 | 30% |
| Palermo | B | 1.800 | 18% |
Sebbene il Free Cooling sia eccellente per abbassare il PUE, presenta un limite strategico nell’ottica del recupero di calore per il teleriscaldamento. Questa tecnologia, per sua natura, produce un calore di scarto a bassa temperatura, difficilmente valorizzabile se non con l’ausilio di costose pompe di calore. Pertanto, va considerato come un tassello fondamentale dell’efficienza interna del data center, ma non come la soluzione per la creazione di un asset termico esterno.
Water Usage Effectiveness: perché consumare troppa acqua per raffreddare è il nuovo problema ambientale dei Data Center?
Per anni, l’industria si è concentrata quasi esclusivamente sul PUE (Power Usage Effectiveness) come metro di misura dell’efficienza. Tuttavia, con l’aumento della densità dei rack e l’intensificarsi dei cambiamenti climatici, un’altra metrica sta diventando critica: il WUE (Water Usage Effectiveness). Molti sistemi di raffreddamento evaporativo, pur essendo energeticamente efficienti, consumano enormi quantità di acqua, una risorsa sempre più preziosa e costosa. Questo pone un problema non solo ambientale, ma anche di rischio operativo in aree soggette a siccità.

In questo contesto, il raffreddamento a liquido a circuito chiuso emerge come la soluzione strategica. A differenza dei sistemi evaporativi, questi impianti non consumano acqua, annullando di fatto il WUE. Ma il loro vantaggio più significativo risiede nella capacità di catturare il calore in modo molto più efficiente e a una temperatura più elevata. Questo calore non è più un rifiuto, ma diventa un prodotto di alta qualità. Un esempio virtuoso in Italia è il progetto del data center di A2A e Qarnot a Brescia, dove il sistema di raffreddamento a liquido recupera energia termica fino a 65°C. Quest’acqua calda viene immessa direttamente nella rete di teleriscaldamento cittadina, fornendo 800 MWh termici annui e servendo oltre 1.300 abitazioni, dimostrando come un problema (il calore) possa diventare una soluzione per la comunità.
Pannelli solari sul tetto del Data Center: bastano davvero o servono contratti PPA (Power Purchase Agreement) verdi?
L’integrazione di impianti fotovoltaici è un passo quasi obbligato per i data center che puntano alla sostenibilità e a una riduzione dei costi energetici. L’autoproduzione da fonte solare permette di abbattere i consumi dalla rete durante le ore diurne, riducendo l’esposizione alla volatilità del Prezzo Unico Nazionale (PUN). Tuttavia, è fondamentale essere realistici: la superficie del tetto di un data center, per quanto estesa, raramente è sufficiente a coprire l’intero fabbisogno energetico di un’infrastruttura così energivora, soprattutto considerando il funzionamento 24/7. L’energia solare è intermittente e non disponibile di notte.
Per questo motivo, una strategia energetica completa non può prescindere dai Power Purchase Agreement (PPA) verdi. Questi contratti a lungo termine con produttori di energia rinnovabile (eolica, idroelettrica, solare su larga scala) garantiscono una fornitura costante di energia certificata “green” a un prezzo prevedibile, proteggendo l’azienda dalle fluttuazioni del mercato e assicurando una copertura energetica carbon-neutral anche quando l’impianto sul tetto non produce. L’enorme potenziale del recupero di calore è stato sottolineato anche da Guido Bortoni, Presidente di CESI, durante un convegno:
Un data center da 500 MW potrebbe generare 1 TWh di calore in sei mesi, in grado di alimentare 50 mila appartamenti e risparmiare 50 milioni di metri cubi di gas.
– Guido Bortoni, Presidente CESI, convegno Key To Energy Milano
La vera sinergia si crea quando l’energia fotovoltaica viene integrata nell’ecosistema del recupero di calore. Ad esempio, l’energia solare in eccesso prodotta in estate può essere utilizzata per alimentare pompe di calore ad alta efficienza, che innalzano ulteriormente la temperatura del calore di scarto recuperato dai server, aumentandone il valore per la rete di teleriscaldamento. In alternativa, si può dar vita a una Comunità Energetica Rinnovabile (CER), dove il data center agisce da prosumer, condividendo l’energia in eccesso con le aziende vicine e ottimizzando i flussi energetici a livello locale.
LEED o ISO 50001: quale certificazione valorizza meglio l’efficienza del tuo Data Center agli occhi dei clienti?
Nel comunicare l’impegno verso la sostenibilità, le certificazioni sono uno strumento di marketing e di validazione insostituibile. Le due più note nel contesto dei data center sono LEED (Leadership in Energy and Environmental Design) e ISO 50001. Sebbene entrambe siano preziose, rispondono a obiettivi strategici differenti. La certificazione LEED si concentra sull’edificio nel suo complesso: valuta la sostenibilità del sito, l’efficienza idrica, i materiali, la qualità dell’aria interna. È un’ottima certificazione per dimostrare la qualità costruttiva dell’infrastruttura, molto apprezzata nel mercato immobiliare e da clienti attenti all’immagine “green” dell’edificio che li ospita.

La certificazione ISO 50001, invece, si focalizza sul Sistema di Gestione dell’Energia (SGE). Non certifica l’edificio, ma il processo di miglioramento continuo delle prestazioni energetiche. Impone all’organizzazione di misurare i consumi, definire obiettivi di risparmio, implementare azioni e verificarne i risultati. Per un data center, la cui principale voce di costo operativo (OPEX) è l’energia, la ISO 50001 ha un valore strategico superiore. Non è solo una targa da appendere al muro, ma uno strumento gestionale che spinge all’efficienza reale. Inoltre, in Italia, la certificazione ISO 50001 è una via preferenziale per accedere al meccanismo dei Certificati Bianchi (TEE – Titoli di Efficienza Energetica). Come confermano gli esperti di Certimac, le aziende certificate possono presentare progetti a consuntivo, ottenendo incentivi economici per i risparmi energetici conseguiti, con un valore che attualmente si attesta intorno ai 260€ per ogni Tonnellata Equivalente di Petrolio (TEP) risparmiata. Questo trasforma l’efficienza da costo a centro di profitto.
L’errore di tenere la sala server a 18°C: perché alzare la temperatura a 24°C è sicuro e fa risparmiare fortune?
Uno dei miti più radicati nella gestione dei data center è la necessità di mantenere le sale server a temperature glaciali, spesso intorno ai 18-20°C. Questa pratica, retaggio di vecchie tecnologie, non solo è superata ma è anche estremamente dispendiosa. Gli standard moderni, come quelli definiti dall’ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers), indicano un range operativo di temperatura consigliato per l’aria in ingresso ai server tra 18°C e 27°C. Operare nella parte alta di questo range è non solo sicuro, ma anche economicamente vantaggioso.
Per ogni grado Celsius in più nella temperatura della sala server, si ottiene un risparmio energetico sui sistemi di raffreddamento che va dal 5 al 7%. Alzare il setpoint da 20°C a 24°C può quindi portare a un risparmio immediato di oltre il 20% sui costi di climatizzazione, senza alcun impatto sull’affidabilità dell’hardware moderno, progettato per operare a temperature ben più elevate. Ma il vantaggio strategico più importante si manifesta nell’ottica del recupero di calore.
Un data center che opera a una temperatura più alta produce, di conseguenza, un calore di scarto a una temperatura superiore. Come evidenziato in un recente approfondimento, operare con un’aria in uscita dai server a 35-40°C, anziché a 25°C, significa disporre di una risorsa termica molto più pregiata. Questo calore di “media temperatura” è più facilmente e più economicamente riutilizzabile nel teleriscaldamento, poiché richiede l’intervento di pompe di calore meno potenti, o in alcuni casi può essere scambiato direttamente, migliorando drasticamente il ROI (Return on Investment) del progetto di recupero termico. Tenere la sala server “troppo fredda” non è solo uno spreco di energia, ma una distruzione di valore potenziale.
Raffreddamento a liquido o ad aria: quale conviene per i nuovi server ad alta densità (HPC)?
Con l’avvento dei server ad alta densità, utilizzati per carichi di lavoro come l’High-Performance Computing (HPC) e l’Intelligenza Artificiale, il raffreddamento ad aria tradizionale sta mostrando i suoi limiti fisici. Rimuovere centinaia di kilowatt di calore da un singolo rack diventa inefficiente e costoso. Qui, il raffreddamento a liquido, in particolare il Direct-to-Chip, diventa non solo un’opzione, ma una necessità tecnica ed economica. Sebbene il costo di investimento iniziale (CAPEX) per un sistema a liquido sia generalmente superiore a quello di un sistema ad aria, l’analisi del Costo Totale di Possesso (TCO) su un orizzonte di 3-5 anni ribalta la prospettiva.
Il raffreddamento a liquido è intrinsecamente più efficiente: l’acqua ha una capacità termica circa 3.500 volte superiore a quella dell’aria. Questo si traduce in un costo operativo (OPEX) drasticamente inferiore, grazie al minor consumo energetico delle pompe rispetto ai ventilatori e ai chiller. Ma il vero vantaggio strategico, in linea con la nostra analisi, è la qualità del calore recuperato. Un sistema Direct-to-Chip può produrre acqua calda a temperature di 60-70°C, una risorsa perfetta per l’immissione diretta nelle reti di teleriscaldamento.
| Parametro | Aria + Pompa di Calore | Liquido + Scambiatore |
|---|---|---|
| CAPEX iniziale | 100.000 € | 140.000 € |
| OPEX annuale | 25.000 € | 10.000 € |
| Temperatura calore recuperato | 35-40°C | 60-70°C |
| Risparmio energetico | – | 25% |
| TCO 5 anni | 225.000 € | 190.000 € |
Il confronto del TCO mostra chiaramente come l’investimento maggiore nel raffreddamento a liquido sia ampiamente ripagato non solo dal risparmio energetico, ma anche dal valore generato dal calore di alta qualità, che riduce o elimina la necessità di costose pompe di calore per il suo riutilizzo. Per i nuovi data center ad alta densità, la scelta del liquido è una decisione strategica che abilita un nuovo modello di business basato sulla valorizzazione termica.
Capacity Market: come farsi pagare per la disponibilità a ridurre i consumi in caso di emergenza rete?
L’integrazione di un data center in una rete di teleriscaldamento crea un nuovo vincolo operativo: la necessità di garantire una fornitura di calore continua e affidabile. Questo potrebbe sembrare in conflitto con la partecipazione ai mercati della flessibilità elettrica, come il Capacity Market, che remunerano i grandi consumatori per la loro disponibilità a ridurre i consumi su richiesta del gestore di rete (Terna) in caso di emergenza. Come si può offrire flessibilità senza compromettere il servizio di riscaldamento?
La risposta sta ancora una volta in una progettazione a ecosistema. L’esempio del progetto di teleriscaldamento dal data center TIM di Rozzano, che serve oltre 5.000 abitazioni, dimostra che la sinergia è possibile. La chiave è disaccoppiare, per quanto possibile, il carico IT dalla flessibilità offerta alla rete. Esistono diverse strategie per raggiungere questo obiettivo, garantendo sia i ricavi dal mercato elettrico sia l’affidabilità della fornitura termica.
Piano d’azione: Partecipare al Capacity Market senza interrompere la fornitura di calore
- Integrazione di Accumuli Energetici (BESS): Utilizzare sistemi di accumulo a batteria per fornire servizi di regolazione ultra-rapida alla rete. Questo permette di offrire flessibilità senza modulare il carico dei server, mantenendo costante la produzione di calore.
- Contratti di Fornitura Termica Flessibili: Definire con l’utility del teleriscaldamento contratti che prevedano clausole di flessibilità, con preavvisi e durate di interruzione concordate, e possibili penali o bonus.
- Sistemi di Backup Termico: Implementare fonti di calore di backup (es. caldaie a gas a basso utilizzo o pompe di calore addizionali) che possano attivarsi durante i brevi periodi di riduzione del carico richiesti da Terna, garantendo la continuità.
- Modulazione del Carico IT Non Critico: Identificare carichi di lavoro differibili o non critici all’interno del data center che possono essere ridotti o spostati temporalmente senza impattare le operazioni essenziali.
- Pianificazione Predittiva: Sfruttare algoritmi di machine learning per prevedere i picchi di domanda della rete elettrica e della rete di teleriscaldamento, pianificando proattivamente la gestione dei carichi e dell’accumulo.
Attraverso queste strategie, la partecipazione al Capacity Market si trasforma da rischio a opportunità, aggiungendo un ulteriore, significativo flusso di ricavi all’ecosistema economico del data center, senza tradire la promessa fatta alla comunità locale.
Punti chiave da ricordare
- La qualità del calore (alta temperatura) è più importante della quantità per la redditività del teleriscaldamento. Il raffreddamento a liquido è la tecnologia chiave per ottenerla.
- Un approccio a ecosistema (raffreddamento, fotovoltaico, accumuli) è superiore alle soluzioni singole, creando sinergie che massimizzano il TCO e il ROI.
- L’efficienza diventa un centro di profitto attraverso certificazioni (ISO 50001 per i TEE) e la partecipazione attiva ai mercati della flessibilità (UVAM, Capacity Market), trasformando il data center in un asset per la rete.
Demand Response e UVAM: come le aziende energivore possono guadagnare offrendo flessibilità alla rete elettrica?
L’ultimo tassello, e forse il più innovativo, dell’ecosistema di efficienza è la partecipazione attiva ai programmi di Demand Response, come il mercato per il servizio di dispacciamento (MSD) tramite le Unità Virtuali Abilitate Miste (UVAM). Se il Capacity Market remunera la disponibilità a lungo termine, le UVAM remunerano la flessibilità quasi in tempo reale, offrendo servizi di bilanciamento alla rete elettrica. Per un data center, questo rappresenta la trasformazione finale da consumatore passivo a protagonista attivo del sistema energetico.
Tradizionalmente, i sistemi di continuità (UPS) e i generatori di backup sono visti come un costo assicurativo, un asset fermo utilizzato solo in caso di emergenza. L’integrazione con i sistemi di accumulo energetico a batteria (BESS) cambia completamente questo paradigma. Un BESS non solo funge da UPS ultra-rapido, ma diventa un asset dinamico che può generare profitti. Quando non è utilizzato per l’emergenza, può partecipare alle UVAM, offrendo alla rete servizi di regolazione di frequenza rapidissimi, oppure può ottimizzare l’autoconsumo dell’energia prodotta dall’impianto fotovoltaico, immagazzinandola quando costa poco (o quando c’è sovrapproduzione) e rilasciandola quando costa molto.
Secondo un’analisi di Ingegno, i BESS nei data center sono la chiave per sbloccare nuovi flussi di ricavo, trasformando un centro di costo in un centro di profitto. La capacità di offrire flessibilità alla rete non è solo un vantaggio economico, ma anche strategico: in un futuro dove la stabilità della rete sarà sempre più legata alla gestione delle fonti rinnovabili intermittenti, i data center che possono agire come “centrali elettriche virtuali” avranno un enorme vantaggio competitivo e negoziale.
In sintesi, l’ecosistema del data center moderno non si ferma al recupero del calore. Si estende alla produzione, all’accumulo e alla vendita di servizi energetici, chiudendo il cerchio e massimizzando il valore di ogni singolo elettrone e di ogni singolo joule di calore. Progettare un data center oggi significa progettare una piccola, ma potentissima, utility energetica.
Per tradurre questi principi in un progetto concreto, l’approccio non può più essere settoriale. È necessario adottare una visione olistica fin dalla fase di concept, valutando simultaneamente le tecnologie di raffreddamento, le strategie energetiche e i modelli di business per la valorizzazione degli scarti e dei servizi. Valuta ora come integrare queste strategie nel tuo prossimo progetto di data center per garantirne la sostenibilità economica e ambientale a lungo termine.