BYOD e IoT richiedono nuove vision e nuove piattaforme di gestione

Prima con il BYOD e poi con la Internet of Things chi dirige i sistemi informativi ha capito che il futuro sarà sempre più integrato e convergente. Di ogni smart object, infatti, deve essere risolta l’intera governance e su più livelli: gestione delle informazioni e degli accessi, integrazione, bilanciamento delle risorse e, naturalmente, sicurezza

Pubblicato il 19 Mar 2015

internet-things-smart-150319145643

Lo sviluppo delle tecnologie digitali sta progressivamente chiarendo le linee guida della governance. Il BYOD prima e la Internet of Things poi hanno richiesto e stanno richiedendo ragionamenti di più ampia prospettiva e su più livelli: gestione dei dispositivi ma anche delle informazioni e degli accessi, modalità di integrazione, bilanciamento delle risorse e, naturalmente, ridefinizione delle impostazioni legate alla sicurezza

Il Byod ha rivelato (alle aziende in generale e agli amministratori dei sistemi in particolare) che proteggere attraverso la compartimentazione non è più un modello possibile. La Internet of Things, ovvero l’avvento di un mondo di oggetti tutti potenzialmente connessi e comunicanti, non permette di portare in azienda camei tecnologici senza ragionare attraverso un concetto più ampio di ciò che significa impostare le architetture e gestire le soluzioni.

I sistemi operativi multipiattaforma e le app hanno inaugurato una nuova intelligenza distribuita (multitasking, multischermo, multilingua, multicanale). Se tutto potenzialmente può diventare un computer, tutto deve essere gestito in maniera integrata, monitorata, aggiornata e sicura.

Gli oggetti smart sono tutti endpoint

In sintesi, ogni oggetto intelligente IoT a livello di governance diventa un touch point che consente di ragionare in un’ottica customer centrica sia relativamente alla tipologia di servizio che in relazione alle formule di erogazione. Nella governance, dunque, deve rientrare anche la gestione dell’experience.

Chi si occupa di progettazione deve ragionare già oggi su come impostare criteri di controllo e di governo centralizzati, capaci di garantire libertà dei servizi mantenendo alta la sicurezza e gestendo i sistemi in conformità con le politiche aziendali e le normative nazionali e internazionali che regolano la Privacy, la gestione della banda, la conservazione sostitutiva, la salvaguardia ambientale, le transazioni di pagamento e il CRM. I Big Data, per le aziende, sono anche e forse soprattutto questo.

Gli oggetti intelligenti, come lo smartphone, non servono più a una cosa sola ma a molte. Integrare in un oggetto un computer significa doverlo gestire a tutti gli effetti come un endpoint, capace di generare tutta una serie diversa di dati relativi all’oggetto stesso, all’ambiente circostante, agli altri oggetti e alle persone che interagiscono con lui. Lo sa bene la logistica che è sttao il primo settore a rendere intelligenti e comunicanti prodotti e mezzi. Ci vuole una nuova capacità analitica per programmare i flussi in modo sensato, coerente e utile. Il big data management parte da una prospettiva logica, legata al networking di nuova generazione.

Ad abilitare le funzionalità c’è un’infrastruttura di back end, analogica e digitale, che per funzionare deve essere considerata come una piattaforma stratificata su più livelli tecnologici e operativi. Ognuno di questi livelli rappresenta una filiera di servizi innovativi e configurabili, attivati da un cluster di dispositivi comunicanti, selezionati in base a una definizione gerarchica rispetto al core business aziendale e con strategie di prioritizzazione del traffico diverse, gestita da remoto mantenendo un’approccio centralizzato e in cui la Business Intelligence è un asset fondamentale.

Internet of things vision

Prima le logiche client/server, poi la mobility hanno contribuito a fidelizzare le persone a una Internet che è diventata, a tutti gli effetti, l’hosting di una nuova intelligenza digitale, abituando le persone a interagire con un mondo virtuale. La dematerializzazione è diventata così fonte di ispirazione per la programmazione.

L’apice dello sviluppo è stato raggiunto con la virtualizzazione. La programmazione software dei server ha portato la deduplicazione di primo grado a diventare una risorsa sempre più credibile e preziosa per i data center. I vantaggi in termini economici sono evidenti: configurazioni e controllo delle macchine a portata di clic, tramite cruscotto centralizzato, standardizzazione, riduzione dei consumi e della complessità.

Virtualizzare, insomma, dal punto di vista pratico significa ingegnerizzare la complessità per semplificare la governance. Non a caso, l’evoluzione del data center sta portando la gestione a un nuovo livello di progettazione che passa dall’astrazione delle risorse: si chiama Software Defined Data Center (SDDC) ed è un approccio strategico che sceglie la convergenza per garantire velocità, efficienza e sicurezza, attraverso la massima semplificazione. Potenza, intelligenza, memoria, spazio ed energia diventano funzioni variabili, gestite da un unico cruscotto di controllo. L’obiettivo, infatti è una governance iperconvergente, tale da consentire massimo controllo su una pluralità di livelli di gestione, il tutto attraverso un’unica appliance.

Dalla virtualizzazione al cloud computing, dal Software as a Service (SaaS) all’estensione del servizio on demand e pay per use anche per l’infrastruttura (IaaS) e di qualsiasi tipo di piattaforma (PaaS), la tecnologia diventa ubiqua e pervasiva. Insomma tutto l’IT diventa as a Service, in una nuova accezione.

Se il Web diventa ancora più smart

La soluzione cloud sta diventando così un’alternativa sempre più presa in considerazione dalle imprese che desiderano concentrarsi sul proprio core business, demandando a terze parti la gestione dell’infrastruttura IT. L’abitudine di utilizzare la nuvola per la gestione dei servizi IT anche più core, inaugura il modello del Data Center Extension, un servizio che, anch’esso tramite canone al consumo, mette a disposizione dell’azienda utente un VDC (Virtual Data Center) potenzialmente completo, gestito su un cloud privato con risorse esclusivamente dedicate all’utente da parte del fornitore del servizio stesso (cloud provider).

L’obiettivo? Non lasciare in-house macchine fisiche sottoutilizzate rispetto alle loro reali potenzialità, evitare gli sprechi di risorse computazionali, instaurare politiche di preciso, metodico ed equilibrato dimensionamento, con una fruizione on-premise e on-cloud mantenendo una flessibilità bidirezionale della scelta. Anche gli apparati hardware, i computer o le appliance non direttamente virtualizzabili (firewall hardware, server con architettura non x86, come i server AS/400 e SPARC) si possono comunque connettere all’infrastruttura virtuale, in modo da conservare tutte le funzionalità dei dispositivi e delle attrezzature preesistenti. E anche il data center diventa on demand.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati