Sentiamo sempre più spesso parlare di virtualizzazione. Magari, associata al cloud computing: giusto ieri citavo l’infrastruttura legata a Xbox One. Raramente, però, c’addentriamo nei dettagli del funzionamento. Su queste pagine abbiamo scritto come provare dei sistemi operativi differenti da quello predefinito, ad esempio. Tuttavia, è soltanto un effetto collaterale della virtualizzazione che da tempo è applicata in ambiti molto diversi, nei quali quest’aspetto è secondario. Cerchiamo di capire come, chi e perché l’utilizzano.
In sintesi, la virtualizzazione consiste nel ricorso a macchine e dischi creati via software e detti appunto virtuali. Questi sono gestiti da un “contenitore” che permette di farli dialogare col sistema operativo e l’hardware del computer, in locale o da remoto: non è obbligatorio che i dischi siano associati a delle macchine o viceversa. Alcune configurazioni, infatti, possono limitarsi a virtualizzare lo storage per aumentarne la capacità massima. È un procedimento complesso, definito thin provisioning, sul quale non indugerò.
Nella maggioranza degli impieghi, sono virtualizzate delle macchine associate a uno o più dischi e che installano un sistema operativo: potrebbe essere lo stesso del computer che lo ospita, a seconda delle esigenze. Create e configurate, possono svolgere disparate funzioni, ma comunemente servono a sostenere infrastrutture professionali molto articolate. Ormai, tutti gli hosting provider affittano server virtuali od ospitano su questi lo spazio web in gestione. Un utilizzo recente riguarda i thin client, sostituiti ai terminali.
Nel caso degli hosting provider, la virtualizzazione aumenta considerevolmente il numero dei servizi erogabili: un computer soltanto, ad esempio, può installare dieci server virtuali. Quello del thin provisioning è un discorso diverso, perché piccoli elaboratori a basso costo avviano il sistema operativo dalla rete locale. Entrambe le configurazioni garantiscono un backup più efficiente e un tempo d’installazione inferiore, poiché le macchine virtuali sono ridondate. Nella seconda ipotesi, un maggiore controllo sulla sicurezza.
Anziché assemblare un computer, collegare i cavi e inserire il supporto d’installazione… è sufficiente clonare una macchina virtuale già esistente e creare l’utenza da assegnare a chi dovrà utilizzare quel sistema operativo. Non ha una grande importanza dove sia ubicato, né l’hardware dal quale accederà: le macchine virtuali comunicano soltanto con la scheda di rete e alcune periferiche, mentre la maggioranza degli altri componenti è emulato. Il processore e la scheda video, ad esempio, sono generati e amministrati via software.
Capite perché sconsiglio d’utilizzare la virtualizzazione, se non in contesti aziendali? Non serve a provare un nuovo sistema operativo, ma a ottimizzare le grandi infrastrutture. Non ha senso per il singolo utente. Col progresso della tecnologia, soluzioni come Hyper-V hanno acquisito l’accelerazione grafica tri- e/o bidimensionale, però le macchine virtuali non sono orientate alla multimedialità e non garantiscono delle prestazioni ottimali all’utente-medio. La maggioranza di esse, infatti, è utilizzata dalla riga di comando.