
Raggiungere la resilienza del 99,99% non è più una questione di semplice ridondanza tecnica, ma la costruzione di un’architettura strategica che bilancia rischi operativi, efficienza energetica e sovranità dei dati.
- L’avvento di carichi HPC e AI impone un ripensamento radicale dei sistemi di raffreddamento e alimentazione, rendendo il raffreddamento a liquido una necessità strategica.
- La conformità normativa italiana (GDPR, AGID, PSN) e la gestione dei rischi, come lo Shadow IT, sono ormai parte integrante della progettazione infrastrutturale, tanto quanto la scelta degli UPS.
Raccomandazione: È imperativo avviare un audit completo dell’infrastruttura attuale, non solo per la ridondanza, ma per la sua capacità di sostenere la densità critica futura e garantire la sovranità operativa.
Per un CIO di una banca o di un’infrastruttura ospedaliera, il concetto di “downtime” non è un inconveniente, è un evento catastrofico. L’obiettivo non è semplicemente la continuità operativa, ma l’infallibilità: l’uptime del 99,999% (i famosi “cinque nove”), sinonimo di una certificazione Tier IV. Molti si concentrano sulla ridondanza dei componenti, pensando che basti duplicare ogni sistema per ottenere la resilienza. Questa visione, oggi, è pericolosamente incompleta.
La vera sfida non è più solo evitare un guasto, ma progettare un ecosistema in grado di resistere a shock sistemici: crisi energetiche, carichi di lavoro ad altissima densità dovuti all’Intelligenza Artificiale, e un quadro normativo sempre più stringente sulla sovranità dei dati, specialmente in Italia. La resilienza non è una checklist tecnica, è un’architettura strategica. Implica una profonda comprensione del bilanciamento tra rischio energetico, conformità normativa e performance. Non si tratta più di chiedersi “cosa succede se un server si guasta?”, ma “la nostra infrastruttura può sostenere un’ondata di calore estiva mentre esegue modelli AI complessi, rispettando al contempo le direttive del Garante Privacy?”.
Questo articolo non è un elenco di componenti. È una guida strategica, redatta dalla prospettiva di un Data Center Designer certificato Uptime Institute, per navigare le decisioni critiche. Esamineremo le fondamenta fisiche della resilienza, dalle nuove frontiere del raffreddamento alla gestione dell’energia, per poi elevarci al livello strategico, affrontando la gestione dei rischi cloud e l’allineamento con la strategia digitale nazionale. L’obiettivo è fornire gli strumenti per progettare o scegliere un’infrastruttura che non solo sopravviva, ma prosperi nell’era della densità critica e della sovranità operativa.
In questo approfondimento, analizzeremo punto per punto le componenti chiave di questa architettura della resilienza. Partiremo dalle fondamenta, come il raffreddamento e l’alimentazione, per poi salire verso le ottimizzazioni e le strategie di governance necessarie per garantire un servizio infallibile nel contesto italiano.
Sommario: Progettare l’infrastruttura IT per la massima resilienza in Italia
- Raffreddamento a liquido o ad aria: quale conviene per i nuovi server ad alta densità (HPC)?
- UPS e Gruppi Elettrogeni: come dimensionarli correttamente per reggere il carico durante un blackout lungo?
- PUE (Power Usage Effectiveness): come abbassare questo indice sotto l’1.5 per risparmiare e essere green?
- L’errore di usare spegnimento ad acqua sui server: quali gas inerti scegliere per non distruggere l’hardware?
- Quando il disordine dei cavi blocca il flusso d’aria e complica la manutenzione: best practice di cabling
- Free Cooling diretto o indiretto: come usare l’aria esterna per raffreddare il CED risparmiando il 40% di elettricità?
- Inventario degli asset: l’errore di dimenticare i servizi Cloud “ombra” nella mappatura dei rischi
- Come navigare la strategia “Cloud Italia” e scegliere tra Cloud Pubblico, Privato o Ibrido per i dati sensibili?
Raffreddamento a liquido o ad aria: quale conviene per i nuovi server ad alta densità (HPC)?
La discussione “aria vs. liquido” è stata a lungo accademica, ma l’avvento di CPU e GPU per High-Performance Computing (HPC) e Intelligenza Artificiale l’ha resa una scelta strategica ineludibile. I rack tradizionali, con densità di 5-10 kW, potevano essere gestiti efficacemente con sistemi ad aria. Oggi, i rack che ospitano carichi di lavoro AI possono facilmente superare i 50 kW e arrivare fino a 100 kW. A questi livelli, il raffreddamento ad aria raggiunge i suoi limiti fisici e, soprattutto, economici. Diventa inefficiente, rumoroso e incapace di mantenere temperature operative stabili, aumentando il rischio di throttling delle performance o di guasti hardware.
Il raffreddamento a liquido, in particolare il direct-to-chip, non è più un’opzione esotica ma una necessità per la densità critica. Portando il liquido refrigerante direttamente a contatto con i processori, si ottiene una capacità di dissipazione del calore enormemente superiore. Questo si traduce non solo in performance stabili per i carichi più intensivi, ma anche in un drastico miglioramento dell’efficienza energetica. Non è un caso che, secondo analisi di settore, il PUE (Power Usage Effectiveness) di un data center ottimizzato con raffreddamento a liquido possa scendere a valori prossimi a 1,04, un risultato irraggiungibile con la sola aria.
Il contesto italiano ne è una prova lampante: tutti i principali progetti di supercalcolo, dal CMCC di Lecce per lo studio del clima al futuro calcolatore Pitagora del Cineca a Bologna, si basano su sistemi a liquido. Per un CIO, la scelta non è più se adottare il liquido, ma come pianificare la transizione. La soluzione ibrida, dove coesistono corridoi ad aria per i carichi tradizionali e zone ad alta densità a liquido, rappresenta spesso l’approccio più pragmatico.
Il seguente schema riassume quando una tecnologia diventa indispensabile rispetto all’altra, in base alla densità di potenza del rack.
| Densità Rack | Tecnologia Consigliata | Efficienza |
|---|---|---|
| <30 kW | Raffreddamento ad aria tradizionale | Sufficiente |
| 30-50 kW | Sistemi ibridi aria/liquido | Ottimale |
| >50 kW | Raffreddamento a liquido necessario | Indispensabile |
Ignorare questa evoluzione significa progettare un data center già obsoleto, incapace di supportare le innovazioni di domani e gravato da costi energetici insostenibili.
UPS e Gruppi Elettrogeni: come dimensionarli correttamente per reggere il carico durante un blackout lungo?
L’alimentazione elettrica è la linfa vitale di un data center. Un’interruzione, anche di pochi millisecondi, può causare il riavvio di interi sistemi e la corruzione di dati. La coppia UPS (Uninterruptible Power Supply) e gruppo elettrogeno è il cuore della resilienza elettrica. L’UPS garantisce la continuità immediata, coprendo l’intervallo di tempo (da pochi secondi a un minuto) necessario al gruppo elettrogeno per avviarsi e prendere in carico l’intera struttura.
Il dimensionamento è un’arte precisa, non una stima. L’errore più comune è calcolare il fabbisogno basandosi solo sul carico IT. Un dimensionamento corretto deve includere il carico totale: server, storage, network, ma soprattutto l’intero sistema di condizionamento (CRAC/CRAH), l’illuminazione e tutti i sottosistemi ausiliari. Omettere il raffreddamento dal calcolo è un errore fatale che porterà al surriscaldamento e allo spegnimento dei server anche se l’alimentazione è garantita.
La strategia di ridondanza definisce il livello di affidabilità.
- N+1: La configurazione più comune. Se il data center richiede ‘N’ moduli UPS per funzionare, se ne installa uno in più (N+1) per garantire continuità in caso di guasto di un singolo modulo. Offre una buona resilienza a costi contenuti.
- 2N: Architettura completamente ridondata. Esistono due linee di alimentazione indipendenti, ciascuna capace di sostenere l’intero carico del data center. È lo standard per le certificazioni Tier IV e garantisce la continuità anche durante la manutenzione di un’intera linea elettrica.
Per il gruppo elettrogeno, oltre alla potenza, è critica l’autonomia. Per un servizio critico, non si può dipendere dalla rapidità del fornitore di carburante. L’autonomia minima dovrebbe essere di 24 ore a pieno carico, con contratti di rifornimento garantiti (SLA) che prevedano tempi di intervento di poche ore. La scelta tra N+1 e 2N si applica anche ai generatori per i livelli di resilienza più elevati.

In questa immagine, vediamo un sistema di alimentazione resiliente. I moduli UPS in primo piano assicurano la transizione istantanea, mentre il gruppo elettrogeno sullo sfondo è pronto a sostenere il carico per periodi prolungati. Questa combinazione è fondamentale per l’uptime.
Un dimensionamento errato in questa fase non è un’ottimizzazione dei costi, ma una vulnerabilità programmata che si manifesterà nel momento di massima criticità.
PUE (Power Usage Effectiveness): come abbassare questo indice sotto l’1.5 per risparmiare e essere green?
Il PUE (Power Usage Effectiveness) è la metrica regina per misurare l’efficienza energetica di un data center. Si calcola dividendo l’energia totale consumata dalla struttura per l’energia utilizzata esclusivamente dall’hardware IT. Un PUE di 2.0 significa che per ogni watt destinato ai server, un altro watt viene sprecato in raffreddamento, perdite di distribuzione, etc. L’obiettivo è avvicinarsi il più possibile a 1.0. Per un CIO, un PUE basso non è solo un badge di sostenibilità, ma una leva strategica per il controllo dei costi operativi (OpEx).
In Italia e in Europa, la pressione per ridurre il PUE è sia economica che normativa. Se oggi la media si attesta intorno a 1.5, le nuove direttive europee spingono verso un obiettivo di 1,2 per i nuovi impianti. Rimanere sopra 1.5 significa non solo pagare bollette energetiche più alte, ma anche rischiare di diventare non conformi e meno competitivi. Abbassare il PUE richiede un approccio olistico che va oltre l’installazione di un nuovo condizionatore.
Le strategie più efficaci includono:
- Ottimizzazione del flusso d’aria: L’implementazione di corridoi caldi/freddi confinati è il primo passo, fondamentale e a basso costo, per evitare che l’aria calda espulsa dai server venga re-aspirata, migliorando l’efficienza del raffreddamento.
- Adozione di raffreddamento a liquido: Come visto, per le alte densità è la via maestra per un’efficienza drastica. Il supercomputer Leonardo al Tecnopolo di Bologna, con il suo sistema di raffreddamento a liquido, ha un PUE stimato inferiore a 1.1, un benchmark di eccellenza mondiale nel cuore dell’Italia.
- Modernizzazione degli UPS: I moderni UPS modulari offrono efficienze superiori al 98% anche a bassi carichi, a differenza dei vecchi modelli monolitici la cui efficienza crollava sotto il 50% del carico.
- Free Cooling: Sfruttare la temperatura esterna per raffreddare l’acqua o l’aria del data center, riducendo o eliminando l’uso dei compressori energivori (approfondito in una sezione successiva).
Piano d’azione per il miglioramento del PUE
- Implementare sistemi di raffreddamento a liquido per rack con densità superiore a 50kW per un’efficienza massima.
- Integrare soluzioni ibride aria/liquido per gestire una transizione graduale verso carichi di lavoro a più alta densità.
- Ottimizzare la gestione dell’acqua (Water Management) per ridurre l’indice WUE (Water Usage Effectiveness) in parallelo al PUE.
- Monitorare metriche avanzate come TUE (Total Usage Effectiveness), che include anche l’energia non misurata dal PUE, per una visione completa.
- Sfruttare il free cooling, specialmente nelle zone climatiche più favorevoli del Nord Italia, per abbattere i consumi del raffreddamento.
Ogni punto decimale guadagnato sul PUE si traduce in centinaia di migliaia di euro risparmiati e in un significativo passo avanti verso la sostenibilità operativa.
L’errore di usare spegnimento ad acqua sui server: quali gas inerti scegliere per non distruggere l’hardware?
La protezione antincendio in un data center è un paradosso: bisogna spegnere il fuoco senza distruggere ciò che si sta cercando di proteggere. L’errore più grave, e purtroppo ancora presente in strutture obsolete o non specializzate, è affidarsi a sistemi di spegnimento ad acqua (sprinkler). L’acqua, pur essendo efficace sul fuoco, è letale per l’elettronica. Attivare un sistema sprinkler in una sala server equivale a una distruzione totale e garantita dell’hardware, con conseguenze economiche e operative devastanti, ben peggiori di quelle dell’incendio stesso.
La soluzione professionale risiede nei sistemi di spegnimento a “clean agent” o gas inerte. Questi agenti estinguono l’incendio riducendo la concentrazione di ossigeno (gas inerti) o interrompendo la reazione chimica della combustione (agenti chimici), senza lasciare residui e senza danneggiare i delicati componenti elettronici. Una volta estinto l’incendio, la sala può essere ventilata e i sistemi possono, in teoria, essere riavviati.
La scelta dell’agente dipende da vari fattori, inclusi costi, impatto ambientale e normative. Come sottolinea la Direttiva UE sull’efficienza energetica, la sostenibilità è un driver chiave, e questo si estende anche ai sistemi di sicurezza. La tabella seguente mette a confronto le principali tecnologie.
| Sistema | Vantaggi | Svantaggi | Applicazione ideale |
|---|---|---|---|
| Gas inerti (Argonite) | Zero impatto ambientale, sicuro per hardware | Costo installazione elevato | Sale server critiche |
| Novec 1230 | Rapida evaporazione, nessun residuo | Regolamentazione F-Gas UE | Ambienti ad alta densità |
| Sprinkler acqua | Economico | Distruzione hardware garantita | MAI per sale server |
Optare per un sistema a gas inerte non è un costo, ma un investimento che protegge il valore di milioni di euro di asset IT e garantisce la reale continuità del business in caso di incidente.
Quando il disordine dei cavi blocca il flusso d’aria e complica la manutenzione: best practice di cabling
Un cablaggio disordinato, spesso definito “spaghetti cabling”, è molto più di un problema estetico. È una minaccia diretta alla resilienza e all’efficienza del data center. Ammassi di cavi di rete e di alimentazione, lasciati senza gestione sotto il pavimento flottante o dietro i rack, creano vere e proprie barriere che ostacolano il flusso d’aria. Questo impedisce all’aria fredda di raggiungere le prese d’aria dei server e all’aria calda di essere evacuata correttamente, creando hotspot di calore e costringendo il sistema di raffreddamento a lavorare di più per compensare.
Considerando che il raffreddamento può rappresentare fino al 40% del consumo energetico totale di un data center, un cablaggio che ne riduce l’efficienza ha un impatto diretto e misurabile sui costi operativi. Inoltre, un cablaggio caotico trasforma qualsiasi intervento di manutenzione o upgrade in un incubo. Identificare un cavo difettoso diventa un’operazione lunga e rischiosa, con un’alta probabilità di disconnettere per errore un servizio critico. La gestione del cablaggio non è un’attività secondaria, ma una disciplina fondamentale.
Le best practice del cablaggio strutturato includono:
- Codifica a colori: Utilizzare colori diversi per i cavi in base alla loro funzione (es. rete di produzione, rete di management, storage) per un’identificazione immediata.
- Gestione delle lunghezze: Usare cavi della lunghezza esatta necessaria, evitando eccessi che creano grovigli.
- Percorsi separati: Mantenere i cavi di alimentazione e i cavi dati in percorsi, passerelle e canaline separati per ridurre le interferenze elettromagnetiche.
- Etichettatura: Etichettare entrambe le estremità di ogni singolo cavo con un identificatore univoco, riportato nella documentazione di sistema.
- Uso di bracci di gestione dei cavi: Installare bracci e pannelli specifici all’interno dei rack per guidare i cavi in modo ordinato e mantenere libero il percorso dell’aria.

Come si può vedere in questo esempio di cablaggio professionale, l’organizzazione non è solo estetica: garantisce un flusso d’aria ottimale e semplifica drasticamente ogni intervento, riducendo il rischio di errori umani.
Investire tempo e risorse in un cablaggio strutturato fin dall’inizio si ripaga ampiamente in termini di efficienza, affidabilità e velocità di intervento per l’intero ciclo di vita dell’infrastruttura.
Free Cooling diretto o indiretto: come usare l’aria esterna per raffreddare il CED risparmiando il 40% di elettricità?
Il Free Cooling è una delle strategie più efficaci per abbattere drasticamente il PUE e i costi energetici di un data center. Il principio è semplice: quando la temperatura esterna è sufficientemente bassa, si utilizza l’aria o l’acqua fredda dell’ambiente per raffreddare la struttura, riducendo o spegnendo del tutto i compressori dei chiller, i componenti più energivori del sistema di raffreddamento. Questo può portare a risparmi energetici sul raffreddamento che superano il 40% su base annua. In Italia, con la sua varietà climatica, la fattibilità e la tipologia di Free Cooling da implementare sono una valutazione geografica precisa.
Esistono due approcci principali:
- Free Cooling Diretto: L’aria esterna, dopo essere stata filtrata, viene immessa direttamente nella sala server. È il metodo più efficiente, ma presenta rischi legati a umidità, inquinamento e particolato. In aree come la Pianura Padana, dove la qualità dell’aria può essere critica, richiede sistemi di filtrazione estremamente avanzati (per PM10, PM2.5) per non introdurre contaminanti dannosi per l’hardware.
- Free Cooling Indiretto: L’aria esterna non entra mai in contatto con la sala server. Viene utilizzata per raffreddare, tramite uno scambiatore di calore, il fluido (solitamente acqua o glicole) del circuito di raffreddamento interno. È meno efficiente del diretto, ma molto più sicuro, poiché isola l’ambiente IT dagli agenti esterni. È la soluzione più adottata in contesti enterprise critici.
Il potenziale del Free Cooling in Italia è enorme, specialmente nelle regioni settentrionali dove per molti mesi all’anno le condizioni sono favorevoli. Con l’area di Milano che, secondo l’Osservatorio Data Center del Politecnico di Milano, concentra il 68% della potenza installata in Italia, l’adozione su larga scala di queste tecnologie è cruciale per la sostenibilità economica dell’intero settore. La valutazione del ROI (Return on Investment) deve considerare non solo il risparmio energetico, ma anche gli incentivi fiscali per l’efficienza energetica e l’aumento del valore dell’asset immobiliare.
Non sfruttare il Free Cooling, dove le condizioni lo permettono, equivale a lasciare sul tavolo un risparmio significativo e a ignorare una delle più grandi opportunità di ottimizzazione dei costi operativi.
Elementi chiave da ricordare
- La resilienza non è solo ridondanza, ma un’architettura strategica che integra rischi operativi, costi e conformità.
- L’alta densità (HPC/AI) rende il raffreddamento a liquido una necessità, non un’opzione, per garantire performance ed efficienza.
- La governance dei dati e la conformità alle normative italiane (AGID, PSN) sono importanti quanto la progettazione fisica dell’infrastruttura.
Inventario degli asset: l’errore di dimenticare i servizi Cloud “ombra” nella mappatura dei rischi
L’architettura della resilienza non si ferma ai confini fisici del data center. Nell’era del cloud ibrido, uno dei rischi più subdoli e crescenti è lo “Shadow IT”: l’utilizzo di servizi cloud (storage, SaaS, piattaforme di collaborazione) da parte dei dipendenti senza l’approvazione e la supervisione del dipartimento IT. Se da un lato questi strumenti possono aumentare la produttività individuale, dall’altro creano un’enorme superficie di rischio non governata. Dati sensibili, informazioni personali dei clienti o proprietà intellettuale possono essere archiviati su piattaforme non conformi, in giurisdizioni estere non sicure, violando il GDPR e le policy aziendali.
Per un CIO di una banca o di un ospedale, ignorare lo Shadow IT nella mappatura dei rischi è un errore gravissimo. Un data breach proveniente da un servizio cloud “ombra” non autorizzato ha le stesse, se non peggiori, conseguenze legali e reputazionali di una falla nel data center principale. Il Garante Privacy italiano è molto chiaro sulle responsabilità del titolare del trattamento, e una violazione dovuta a negligenza nella governance dei dati può portare a sanzioni pesantissime. L’inventario degli asset, quindi, non può limitarsi a server e switch, ma deve includere una mappatura completa dei flussi di dati, inclusi quelli che transitano su servizi esterni.
L’approccio moderno, tuttavia, non è solo repressivo. Molte aziende italiane stanno trasformando questo rischio in un’opportunità attraverso una strategia di “Sanctioned IT”.
Studio di caso: La strategia “Sanctioned IT” per trasformare il rischio in opportunità
Invece di bloccare ciecamente i servizi non autorizzati, le aziende leader analizzano i pattern di utilizzo dello Shadow IT per comprendere i bisogni insoddisfatti degli utenti. Se i team di marketing usano massicciamente un servizio di file sharing non approvato, significa che la soluzione ufficiale è inadeguata. L’IT può quindi intervenire per fornire un’alternativa sicura, conforme al GDPR e certificata, che soddisfi le esigenze di business. Questo approccio costruttivo trasforma il rischio dello Shadow IT in “Sanctioned IT”, migliorando sia la sicurezza che la produttività e rafforzando il ruolo dell’IT come partner strategico del business.
La vera sovranità operativa si ottiene non solo blindando l’infrastruttura proprietaria, ma governando l’intero ecosistema di dati, ovunque essi risiedano.
Come navigare la strategia “Cloud Italia” e scegliere tra Cloud Pubblico, Privato o Ibrido per i dati sensibili?
La scelta del modello di deployment (on-premise, colocation, cloud pubblico, privato o ibrido) è la decisione strategica finale che definisce la postura di un’organizzazione in termini di costi, agilità e, soprattutto, sovranità dei dati. In Italia, questa scelta è oggi fortemente influenzata dalla “Strategia Cloud Italia” e da un quadro normativo che mira a proteggere i dati critici e strategici del paese. Con investimenti previsti per 7,1 miliardi di euro nel settore tra il 2023 e il 2025, il mercato italiano è in piena effervescenza.
Come sottolinea Alessandro Talotta, Executive President & Chairman di Mix:
L’Italia rappresenta oggi il crocevia tra l’Europa Centrale e il Mediterraneo, il che rappresenta un’attrazione per molti data center.
– Alessandro Talotta, Executive President & Chairman di Mix
Questa centralità strategica, però, impone una governance rigorosa. Per un’entità che gestisce dati sensibili, come una banca o un ospedale, non è possibile scegliere un provider cloud basandosi solo sul prezzo o sulle feature. È obbligatorio seguire le linee guida dell’Agenzia per l’Italia Digitale (AGID), che classificano i dati in:
- Dati Ordinari: Dati la cui compromissione non causa danni al paese.
- Dati Critici: Dati la cui compromissione può arrecare un danno al servizio (es. dati sanitari, finanziari).
- Dati Strategici: Dati la cui compromissione può impattare la sicurezza nazionale.
A seconda di questa classificazione, la legge impone requisiti specifici. I dati critici e strategici devono essere ospitati su infrastrutture qualificate da AGID o, nel caso della Pubblica Amministrazione e degli operatori di servizi essenziali, all’interno del Polo Strategico Nazionale (PSN). Questo garantisce che i dati risiedano sul territorio italiano e siano gestiti secondo standard di sicurezza nazionali. Il modello ibrido emerge come la soluzione dominante: i carichi di lavoro non critici e le applicazioni SaaS possono risiedere su cloud pubblici globali per massimizzare l’agilità, mentre i dati sensibili e i sistemi core rimangono su un cloud privato, in un data center on-premise o in colocation qualificata, garantendo piena sovranità operativa e conformità.
Checklist di audit per la scelta del modello di deployment
- Verificare se l’azienda, per natura o dimensione, rientra nel Perimetro di Sicurezza Nazionale Cibernetica (PSNC) e quali obblighi ne derivano.
- Mappare e classificare tutti i dati gestiti secondo le tre categorie definite da AGID (ordinario, critico, strategico) per identificare i requisiti di hosting.
- Confrontare i provider cloud non solo per le performance ma per le loro qualificazioni AGID, garanzia di conformità e sicurezza per il mercato italiano.
- Valutare l’opportunità o la necessità di utilizzare il Polo Strategico Nazionale (PSN) per i dati più strategici, assicurando il massimo livello di sovranità.
- Progettare un’architettura ibrida che bilanci in modo intelligente costi, agilità e conformità, sfruttando il meglio di ogni mondo (pubblico, privato, colocation).
Per mettere in pratica questi principi, il primo passo consiste nell’eseguire un audit strategico della vostra infrastruttura attuale per identificare le lacune di resilienza e le opportunità di ottimizzazione in linea con le nuove sfide tecnologiche e normative.
Domande frequenti sulla resilienza dei Data Center e la gestione dei rischi
Quali sono le sanzioni GDPR per l’uso di Shadow IT con dati personali?
Il Garante Privacy italiano può comminare sanzioni fino al 4% del fatturato annuo globale per violazioni GDPR legate a trasferimenti non autorizzati di dati tramite servizi cloud ombra.
Come identificare i servizi cloud non autorizzati in azienda?
Utilizzare soluzioni CASB (Cloud Access Security Broker), analizzare il traffico di rete, condurre survey interne periodiche e monitorare i pagamenti con carte aziendali.
Quali rischi comporta il trasferimento dati extra-UE tramite Shadow IT?
Violazione della data residency, non conformità con le sentenze Schrems II, esposizione a giurisdizioni straniere e impossibilità di garantire livelli adeguati di protezione dei dati.