Infrastruttura IT: sempre più ibrida, automatizzata e semplice da gestire

data center automation robots
Le aziende italiane potranno trarre vantaggio dall’automazione dell’infrastruttura IT e da un uso intelligente del cloud per far fronte a problemi di costi e risorse specializzate. Resta il nodo della connettività, con troppe aree ancora non raggiunte dalla fibra. L’intervista a Sergio Patano di IDC.

Le infrastrutture IT sono il cuore pulsante delle aziende moderne, che devono gestire sempre più dati e applicazioni digitali in modo efficace, sicuro e semplice. Ma quali sono le tendenze che stanno trasformando questo settore? E come si colloca l’Italia nel panorama internazionale?

Per scoprirlo, abbiamo intervistato Sergio Patano, Associate Director Consulting and Custom Solution di IDC, azienda globale di analisi e ricerca di mercato nel campo delle tecnologie ICT. Sergio Patano sarà uno dei relatori dell’evento Future of Digital Infrastructure Forum organizzato da IDC il prossimo 4 maggio.

Sergio Patano: Il fenomeno della cloud repatriation è stato più rilevante qualche anno fa, quando le aziende avevano spostato in cloud tutti i loro dati e carichi di lavoro perdendo però il controllo su costi e governance. L’introduzione del Gdpr ha imposto una revisione di questo approccio e oggi le aziende hanno una maggiore consapevolezza di come usare il cloud in modo ottimale, scegliendo la collocazione più adatta per ogni tipo di dato e applicazione. Non si tratta quindi di tornare indietro, ma di andare avanti con più maturità e competenza.

Sergio Patano, Associate Research Director di IDC

Sergio Patano, Associate Research Director di IDC

Anche le aziende italiane hanno imparato questa lezione e stanno adottando soluzioni cloud ibride ed Edge computing per sfruttare al meglio le potenzialità della tecnologia. Oggi la differenza più importante non è più tra infrastruttura on-premises e cloud, ma quella tra cloud con infrastruttura dedicata al cliente o multi-tenant, condivisa con altri utenti.

Sempre in questa direzione ibrida vanno le proposte dei cloud provider che prevedono di posizionare un proprio punto di presenza direttamente nella sede del cliente, in parte per soddisfare le esigenze di governance dei dati, in parte per gestire carichi di lavoro che richiedono una latenza bassissima. Questo ovviamente comporta uno sforzo aggiuntivo da parte dei vendor, che devono calcolare bene le esigenze presenti e future e poter reagire velocemente anche in caso di eventi imprevedibili, come la pandemia.

DWI: La gestione dell’infrastruttura è sempre più affidata al codice e a procedure software (si parla di Software Defined Infrastructure e infrastructure as Code), e questo permette un’automazione molto spinta, abilitata anche dall’intelligenza artificiale. Chi trarrà più vantaggio da un utilizzo spinto dell’automazione?

SP: L’automazione avvantaggerà le aziende che già hanno carichi di lavoro business critical in cloud. Nelle nostre survey vediamo che un 5-10% delle aziende dichiara di non averne. Molte industrie – in particolare nel manifatturiero – usano sistemi vecchi di 30 anni che sono ancora adeguati a gestire processi che nel tempo non sono cambiati.

A volte, l’automazione viene adottata per necessità, per esempio da parte di aziende in cui il reparto IT si è ridotto, o è rimasto con lo stesso organico, ma che ora deve dedicarsi a decine di altri compiti che pochi anni fa non esistevano o richiedevano meno sforzi (servizi digitali, cloud, lavoro remoto, intelligenza artificiale, cybersecurity….)

Le società di servizi IT che saranno in grado di fornire servizi di integrazione e consulenza sono tra quelle che potrebbero trarre più vantaggio, potendo mettere a fattor comune le competenze in tema di automazione per scalare i propri servizi su un maggior numero di clienti.

Ad ogni modo, tutte le aziende possono trarre vantaggio dall’automazione. Quel che cambia è la scala.

Molti vendor stanno promuovendo modelli di gestione dell’infrastruttura erogati come servizio (Managed Service Provider). Ma stanno ricevendo dalle aziende l’attenzione sperata?

Tante realtà ci si stanno avvicinando al modello MSP per alleggerirsi degli sforzi che devono fare per la gestione dell’infrastruttura, che è un’attività time consuming e di minor valore aggiunto rispetto ad altre.

Tutto quel che riguarda il concetto di esternalizzazione è preso in considerazione anche dalle realtà italiane, interessate anche a esternalizzare alcuni costi interni, come i consumi energetici. In questo senso però tanti service provider stanno spacchettando il puro servizio IT da quello Facility, per poter adeguare i prezzi in modo più dinamico. È comunque un segmento molto interessante e da tenere sotto osservazione.

Qual è la situazione delle aziende italiane nei confronti delle infrastrutture digitali, e cosa possono fare per adeguarle ai tempi attuali?

La situazione è molto eterogenea. Ci sono aziende ormai mature da questo punto di vista, ma altre realtà si stanno ancora avvicinando alla modernizzazione dell’infrastruttura. Altre hanno già affrontato il tema, ma hanno bisogno di fare un salto in avanti.

Noi ovviamente invitiamo tutti coloro che vogliono apprendere le ultime novità tecnologiche del settore, ma anche confrontarsi con propri pari in momenti di condivisione durante micro tavole rotonde su temi specifici, a partecipare al nostro evento Future of Digital Infrastructure Forum, che si terrà a Milano il 4 maggio (qui più informazioni sull’evento, e qui il link per la registrazione).

Aziende:
IDC
Condividi:
 

7 consigli per controllare in modo efficace i costi del cloud serverless

passkey
Un nuovo sondaggio riporta un aumento significativo dell'adozione di soluzioni serverless. Le pratiche di ottimizzazione dei costi del cloud aziendale devono stare al passo per tenere sotto controllo le spese del cloud.

Secondo il sondaggio CNCF Cloud Native Survey 2022, l’adozione del serverless computing ha registrato un’impennata nel 2022. Questa crescente popolarità comporta il rischio potenziale di un aumento della spesa per il cloud, a meno che le aziende non adottino un approccio proattivo ai costi del serverless attraverso la strategia, l’ottimizzazione e il monitoraggio.

Ecco alcuni consigli su come preparare il team di sviluppo ad affrontare i costi del cloud serverless in modo proattivo e non reattivo.

Imparare i modelli di prezzo dei principali fornitori di servizi cloud

La scelta della giusta soluzione di serverless computing inizia dal fornitore di servizi cloud (CSP). Anche in questo caso serverless porterà a un nuovo modello di prezzi che il vostro team deve imparare. Ciascuno dei principali CSP offre il serverless computing con un proprio modello di prezzo. Ad esempio, Amazon Web Services ha annunciato prezzi differenziati per AWS Lambda, la sua offerta di calcolo serverless. Quando arrivano notizie del genere, spesso è un segnale per aggiornarsi sui modelli di prezzo del serverless.

Impiegare pratiche di coding efficienti nei vostri progetti serverless

L’introduzione del serverless computing nel vostro stack tecnologico cloud è un momento ideale per rivedere le pratiche di coding della vostra organizzazione. L’introduzione di pratiche di coding efficienti nei vostri progetti di sviluppo serverless è uno dei primi e più importanti passi che potete compiere nell’ambito delle vostre iniziative di ottimizzazione dei costi del serverless computing. Le pratiche di coding che aiutano a ridurre i costi del serverless computing includono:

  • Ridurre al minimo le dimensioni del codice
  • Utilizzo di librerie ottimali
  • Ottimizzazione delle prestazioni delle funzioni

Dimensionare correttamente le funzioni a partire dalla fase di progettazione

L’overprovisioning della memoria e l’allocazione della CPU sono due colpevoli spesso riscontrati alla base degli sforamenti dei costi del serverless computing. Quando eseguite una funzione serverless nella vostra applicazione cloud, il CSP alloca le risorse in base alla configurazione della funzione. Poi, quando arriva il momento della fatturazione, il CSP basa la fatturazione sulla quantità di risorse consumate dall’applicazione. È opportuno dedicare un po’ di tempo in più durante la fase di progettazione per determinare la quantità appropriata di risorse che ogni funzione serverless richiede, in modo da ridurre al minimo i costi.

Usare il calcolo solo quando è necessario

CloudZero consiglia agli sviluppatori di utilizzare il calcolo solo quando è necessario. L’esempio è quello di utilizzare le funzioni step per chiamare le API invece delle funzioni Lambda, in modo da pagare solo le funzioni step.

serverless-1200x385

Stabilire e monitorare i KPI relativi ai costi serverless

I principali CSP e le piattaforme di gestione del cloud includono dashboard di monitoraggio degli indicatori di prestazione chiave (KPI). Potete anche utilizzare strumenti di osservabilità, come Datadog, per il monitoraggio dei KPI, che dovrebbe avere un ruolo di primo piano nei vostri piani di progetto e di implementazione.

Il fulcro della gestione e del monitoraggio dei costi di serverless è l’adozione di KPI quali:

  • Costo per esecuzione. Questa metrica riflette il costo medio dell’esecuzione di una singola funzione per una sola volta. Il costo per esecuzione si calcola dividendo il costo totale per il numero di esecuzioni della funzione. Il monitoraggio di questo KPI è essenziale perché identifica quali sono le funzioni più costose da eseguire e che richiedono un’ottimizzazione per ridurre i costi del cloud.
  • Durata della funzione. La durata dell’esecuzione delle funzioni è un KPI importante da monitorare, perché tempi di esecuzione più lunghi significano costi più elevati. L’analisi di questa metrica aiuta a identificare le funzioni che impiegano troppo tempo per essere eseguite e che devono essere ottimizzate per ottenere ulteriori risparmi.
  • Tempo di inattività. Può sembrare un KPI innocuo da monitorare, ma il vostro CSP vi fa pagare comunque quando una funzione serverless è in esecuzione ma non svolge alcun lavoro utile, ad esempio quando è in attesa di input o output. Ridurre i tempi di inattività delle funzioni serverless è un’altra tattica fondamentale per ottimizzare l’utilizzo delle risorse e ridurre la spesa per il cloud.

Anche l’uso della memoria, l’uso della CPU, il numero di invocazioni e il tasso di errore contribuiscono all’aumento dei costi del cloud e dovete monitorarli di conseguenza. Dedicate del tempo anche all’analisi delle tendenze e fate in modo che i costi del cloud serverless vengano discussi nei vostri report di progetto, perché possono aiutare tutti a imparare a fare un uso più efficiente del cloud.

Giocare a tutto campo quando si tratta di monitoraggio dei costi e di avvisi

Molto probabilmente le competenze e le pratiche FinOps del cloud della vostra azienda sono ancora in fase di crescita. Se è così, l’aggiunta del serverless computing al vostro stack tecnologico può sollevare un nuovo spettro di problemi di spesa per il cloud, rendendo indispensabile un approccio a tutto campo alla gestione dei costi del cloud serverless. Ecco alcuni consigli per riuscirci:

  • Supportare la curva di apprendimento del vostro team cloud raddoppiando l’analisi dei report di fatturazione e utilizzo, almeno durante i progetti pilota di serverless computing.
  • Automatizzare le pratiche di gestione dei costi quando è possibile, ma non considerare l’automazione come un evento unico, “imposta e dimentica”. La gestione dei costi dei vostri primi progetti serverless è un processo di apprendimento sia per gli sviluppatori, sia per i membri del team FinOps.
  • Implementare il monitoraggio dei costi e gli avvisi sui vostri progetti di serverless computing fin dalle prime fasi del ciclo di vita del progetto. Potete utilizzare strumenti come AWS Cost Explorer per monitorare direttamente i costi del serverless e impostare avvisi per quando i costi del serverless superano il budget. Dovrete dedicare inoltre un po’ di tempo all’iterazione di questi avvisi per assicurarvi che i vostri team siano a conoscenza di picchi di utilizzo inaspettati o di inefficienze dell’applicazione che fanno lievitare i costi in modo inaspettato.

Considerare l’utilizzo di uno strumento specializzato per l’ottimizzazione dei costi di serverless

Una nuova classe di strumenti di ottimizzazione del cloud si concentra sull’ottimizzazione dei costi serverless. Ne sono un esempio Epsagon, IOpipe e Lumigo, tool che utilizzano algoritmi di machine learning per analizzare i modelli di utilizzo e suggerire ulteriori ottimizzazioni che gli sviluppatori possono apportare alle applicazioni di serverless computing per ridurre i costi.

L’introduzione del serverless computing può aggiungere un ulteriore livello di complessità ai vostri sforzi di ottimizzazione dei costi del cloud. Tuttavia, non deve rappresentare un enigma per la gestione dei costi o sconvolgere il CFO con un conto per il cloud spropositato. Se i vostri team sono proattivi e mettono in atto gli strumenti e i processi adeguati, potete introdurre il controllo dei costi serverless nel vostro programma di ottimizzazione dei costi del cloud con la stessa facilità con cui il calcolo serverless entra nel vostro stack tecnologico del cloud. Una tale proattività eviterà che l’introduzione di serverless nello stack tecnologico del vostro cloud faccia da contraltare alle vostre iniziative di ottimizzazione dei costi del cloud.

Condividi: