Gabiano Telecomunicazioni
Il servizio
Abbiamo un portafoglio di servizi digitali innovativi che vanno dal Customer Engagement al Digital Signage.
Customer Engagement
Attraverso l’interazione con i propri Clienti, o con i potenziali tali, attraverso il proprio sito Web, ogni azienda può raggiungere i propri obbiettivi finalizzati ad aumentare le vendite, offrire una migliore Customer Experience, utilizzare il web come un efficace canale di contatto da integrare e associare a quelli canonici (telefono, email).
La soluzione di TocToc migliora la Brand Reputation dell’azienda, rendendo più efficaci ed efficienti processi fino ad oggi gestiti in parte o in toto offline.
Le modalità di interazione possibili sono varie (chat, audio, video) in cui l’Operatore, o i gruppi di Operatori, possono interagire con i navigatori-Clienti o Prospect, per offrire il loro aiuto e rispondere alle varie richieste, infondendo sicurezza e concretezza.
La soluzione permette la raccolta delle informazioni di contatto dei navigatori del sito, il salvataggio di tutte le chat avvenute, oltre che la raccolta di altre informazioni riguardanti i navigatori-clienti (percorso di navigazione, sito web di provenienza, tempo di permanenza nelle pagine, ecc.).
Tutto ciò permette di creare Lead da utilizzare poi in campagne mirate di Digital Marketing. Possiamo aiutarvi anche nella pubblicità sul web, oltre che nella creazione delle Landing Page relative a tali campagne.
La soluzione TocToc è inoltre utilizzabile per il riconoscimento digitale (KYC) e per l’ottenimento della firma elettronica dei vostri clienti, permettendo quindi non solo di ingaggiare un possibile cliente, ma anche di effettuare la trattiva ed infine di concludere la vendita a distanza.
Digital Signage e Customer Experience
L’uso intelligente della tecnologia nei negozi fisici permette di creare una shopping experience personalizzata con cui migliorare il servizio, aumentare le possibilità di interazione, oltre a permettere di collezionare dati con cui conoscere meglio i clienti ed i loro comportamenti, al fine di ottenete la loro fidelizzazione.
Le tecnologie utilizzabili sono: WiFi, beacon, NFC, RFID, telecamere, schermi touch interattivi, ecc.
Le azioni di marketing che possono essere implementate sono le più svariate, che possono essere studiate in base alle esigenze ed al risultato che si vuole ottenere.
Compila il form per essere contattato da un nostro consulente.
La Legge sui Mercati Digitali dell'UE e la Legge sui Servizi Digitali, spiegate in dettaglio.
La Legge sui Mercati Digitali dell'UE e la Legge sui Servizi Digitali, spiegate in dettaglio.
La Legge sui Mercati Digitali dell'UE e la Legge sui Servizi Digitali, spiegate in dettaglio.
Aggiornato dal Parlamento europeo il 4.04.2022 - Il panorama digitale sta per essere cambiato da due importanti leggi dell'UE. Scopri in dettaglio di cosa trattano la legge sui mercati digitali e la legge sui servizi digitali.
Il potere delle piattaforme digitali
Nel corso degli ultimi due decenni, le piattaforme digitali sono diventate parte integrante delle nostre vite, al punto che al giorno d'oggi è difficile immaginare di fare qualcosa online senza Amazon, Google o Facebook.
Al netto degli evidenti vantaggi di questa trasformazione, alcune di queste piattaforme hanno assunto una posizione dominante. Questo, conferisce loro dei vantaggi significativi rispetto ai concorrenti e al tempo stesso esercita un'influenza sulla democrazia, sui diritti fondamentali, sulla società e sull'economia. Tali imprese, talvolta finiscono per giocare un ruolo determinante sulle innovazioni future o sulla scelta dei consumatori, esercitando di fatto una funzione di controllo su imprese ed utenti su Internet (c.d. 'gatekeeper').
Per affrontare questo squilibrio, l'UE è al lavoro sull'aggiornamento delle attuali regole che disciplinano i servizi digitali. Attraverso l'introduzione della
Legge sui mercati digitali e della Legge sui servizi digitali verrà creato un unico quadro normativo, applicabile su tutto il territorio dell'Unione europea.
> 10,000 Il numero delle piattaforme online attive nell'UE. Che per oltre il 90% dei casi, sono piccole e medie imprese.
Condividi la citazione:
Scoprite cosa sta facendo l'UE per plasmare la trasformazione digitale.
Regolamentare le pratiche delle grandi aziende tecnologiche (Big tech): Legge sui Mercati Digitali
L'obiettivo della Legge sui mercati digitali, è quello di garantire condizioni di parità tra le aziende digitali, indipendentemente dalle loro dimensioni. Il nuovo regolamento fisserà regole chiare per le grandi piattaforme - introducendo un elenco di "cosa da fare" e "da non fare" - che puntano a evitare l'imposizione di condizioni inique per imprese e consumatori. Fra tali pratiche è compreso il posizionamento più in alto nelle liste di ricerca, dei servizi e prodotti offerti dal gatekeeper stesso, rispetto a servizi o prodotti offerti da terzi sulla piattaforma del gatekeeper o ancora la pratica che non permette agli utenti la possibilità di disinstallare un software o una app preinstallata su un dispositivo nuovo.
L’interoperabilità tra le piattaforme di messaggistica migliorerà: gli utenti di piccole e grandi piattaforme potranno scambiare messaggi, inviare documenti o effettuare videochiamate attraverso le app di messaggistica.
Tali regole dovrebbero dare una spinta all'innovazione, alla crescita, alla competitività e aiutare piccole imprese e start-up a competere con concorrenti molto più grandi di loro.
"Oggi appare chiaro a tutti che le regole per la concorrenza, da sole, non siano sufficienti a risolvere i problemi determinati i giganti della tecnologia e a fronteggiare le pratiche commerciali sleali messe in atto. La Legge per i mercati digitali metterà al bando tali pratiche, inviando un segnale forte a tutti i consumatori e alle imprese sul mercato unico: le regole vengono stabilite dai colegislatori e non dalle aziende private!"
Andreas Schwab (EPP, Germany)
Leading MEP on the Digital Markets Act
La Legge sui mercati digitali, definirà anche i criteri per qualificare una grande piattaforma online come gatekeeper e fornirà alla Commissione Europea il potere di svolgere indagini di mercato. All'occorrenza, questo consentirà altresì la revisione degli obblighi di aggiornamento per i gatekeeper e la possibilità di sanzionare i comportamenti scorretti.
La Legge sui servizi digitali: per uno spazio digitale più sicuro:
La Legge sui servizi digitali, si concentra sulla creazione di uno spazio digitale più sicuro per utenti e aziende digitali, proteggendo i diritti fondamentali online. Fra le principali preoccupazioni affrontate da questa legge, vi sono il commercio e lo scambio online di beni, servizi e contenuti illegali, così come i sistemi algoritmici che amplificano la diffusione della disinformazione.
La Legge sui servizi digitali fornirà un maggior controllo alle persone su ciò che apparirà loro online: gli utenti saranno in grado di decidere se prestare o meno il proprio consenso a una pubblicità mirata e avranno informazioni chiare sul motivo per cui è consigliato loro uno specifico contenuto .
Le nuove regole aumenteranno la protezione degli utenti da contenuti dannosi e illegali. Miglioreranno in modo significativo la rimozione dei contenuti illegali, assicurando che venga effettuata nel modo più rapido possibile. La normativa aiuterà anche ad affrontare il tema dei contenuti dannosi, come la disinformazione politica o quella relativa alla salute e ad introdurre regole migliori per la moderazione dei contenuti e per la protezione della libertà di espressione. Gli utenti verranno informati nel caso di rimozione dei propri contenuti da parte delle piattaforme e avrenno la possibilità di contestare questa decisione.
La Legge sui servizi digitali, consentirà anche l'introduzione di regole per garantire che i prodotti venduti online siano sicuri e seguano i più elevati standard fissati dall'UE. Gli utenti avranno la possibilità di conoscere meglio i reali venditori dei prodotti acquistati online.
Passi successivi
Il 24 marzo, i negoziatori del Parlamento e del Consiglio hanno raggiunto un accordo preliminare sulla Legge sui servizi digitali, che ora deve essere approvata dalle due istituzioni. I negoziati relativi alla Legge sui servizi digitali sono attualmente in corso.
Scoprite di più su come l'UE sta plasmando il mondo digitale
Il 14 dicembre il Parlamento ha discusso la sua posizione sulla legge sui mercati digitali e l'ha approvata il 15 dicembre. I negoziati con i governi dell'UE dovrebbero iniziare nella prima metà del 2022.
Scopri di più su come l'UE plasma il mondo digitale
Comunicati stampa
Scoprite di più
La sicurezza informatica dei nuovi servizi digitali: un nuovo approccio architetturale
Abstract
Le più recenti architetture per la realizzazione di servizi in rete, basate sui paradigmi del cloud computing, della Network Function Virtualization e dell’Internet of Things, prevedono l’interazione di processi software distribuiti su una complessa infrastruttura ICT, a sua volta composta da molteplici dispositivi eterogenei che operano nativamente in più domini amministrativi. In questo contesto gli approcci alla sicurezza informatica tradizionali – basati sul concetto di “perimetro di sicurezza” – si rivelano di scarsa efficacia, quando non completamente inadeguati. Nasce quindi l’esigenza di sviluppare nuove soluzioni di cyber security, che siano adatte ai mutati contesti tecnologici e applicativi.
Il presente articolo riassume le innovative soluzioni architetturali per la sicurezza dei nuovi servizi digitali proposte e in via di sviluppo e validazione nell’ambito di due progetti europei finanziati dal programma Horizon 2020 : ASTRID e GUARD.
Nuovi paradigmi per i servizi digitali
La stretta integrazione tra le più recenti tecnologie software (cloud/edge/fog computing) e di rete (5G, Software-Defined Networking, Network Function Virtualization e Internet of Things) rappresenta l’elemento cardine per lo sviluppo di infrastrutture ICT innovative in grado di supportare i servizi applicativi prefigurati dai noti e popolari paradigmi che vanno sotto il nome – tra gli altri – di Smart City, Smart Factory e Smart Grid.
Come schematizzato in Fig.1, le nuove tecnologie disponibili permettono, infatti, di implementare tali servizi come una composizione di processi software supportati da una complessa infrastruttura ICT distribuita, composta da molteplici ed eterogenei dispositivi fisici (dai semplici sensori ai potenti server di elaborazione presenti nei cloud data centre) i quali operano, tipicamente, in diversi domini amministrativi.
La sicurezza dei servizi digitali innovativi: la debolezze delle soluzioni tradizionali
Analizzando la Fig. 1 appare immediatamente evidente la difficoltà di garantire la sicurezza di un ambiente distribuito come quello rappresentato, semplicemente applicando le soluzioni più tradizionali [1].
Un sicuro elemento di criticità risiede nell’utilizzo di soluzioni di cloud computing, principalmente a causa della loro intrinseca natura multy-tenancy (più applicazioni diverse condividono le stesse risorse computazionali e di memoria) e dell’elevato numero di componenti (macchine virtuali, sistemi operativi host, hypervisor, interfacce di gestione, elementi di data storage ed infrastrutture di rete condivisi) che danno luogo a un consistente ampliamento della “superficie” potenzialmente vulnerabile a eventuali attacchi. Infatti, sono ormai noti minacce e modelli di attacco efficaci che sfruttano la condivisione dell’infrastruttura da parte di più tenant.
A quanto sopra va ad aggiungersi la proliferazione di dispositivi intelligenti connessi a Internet (le “cose” dello Internet of Things) che hanno permesso la nascita di nuove strategie di attacco su vasta scala, comunemente conosciute come Distributed Denial of Service (DDoS).
Un ulteriore elemento di rischio risiede nella modalità di dispiegamento dei servizi, che, come precedentemente accennato, sono istanziati combinando, in modo dinamico e flessibile, dispositivi hardware e processi software, fra loro interoperabili ma (almeno potenzialmente) sviluppati e manutenuti da organizzazioni diverse. La possibilità di reperire sul mercato i blocchi elementari più opportuni e di combinarli dinamicamente per realizzare un servizio fa di questo approccio la modalità ad oggi più efficace per soddisfare le richieste, in continua evoluzione, degli utenti del mondo digitale. Questa modalità, però, comporta nuovi problemi di sicurezza, in quanto un elemento compromesso in una catena di servizi può rappresentare un vettore di attacco privilegiato.
Gli elementi di vulnerabilità sopra descritti possono essere sfruttati dai sempre più sofisticati metodi di attacco, che si sono evoluti nel tempo per:
combinare più tipologie di azioni (multi-vector attack) per stressare i sistemi di sicurezza e sfruttarne le possibili pecche;
essere altamente personalizzati e variabili nel tempo, così da eludere le strategie di rilevamento basate sull’analisi della loro “impronta digitale”;
utilizzare protocolli di comunicazione di alto livello (livello applicativo) in modo da sfruttare le vulnerabilità del software ed errori di configurazione dei sistemi;
utilizzare la crittografia per proteggersi dalle ispezioni dei dispositivi di sicurezza intermedi;
prediligere domini applicativi dove le architetture ICT non hanno raggiunto ancora pratiche consolidate per la protezione da attacchi di diversa natura, ovvero dove ci sono dispositivi con capacità limitate (ad esempio Internet of Things – IoT); rapporti recenti evidenziano un aumento del 600% degli attacchi contro i dispositivi intelligenti, causati da nuove botnet come Mirai, Brickerbot e Hajime, e un aumento del 29% delle vulnerabilità del sistema di controllo industriale [2].
Gli approcci “legacy” per la cyber security, principalmente legati al modello del “perimetro di sicurezza”, sono certamente non ottimali per proteggere i nuovi servizi digitali da attacchi sempre più sofisticati.
Il modello del “perimetro di sicurezza” consiste nell’utilizzare dispositivi quali firewall, antivirus, sistemi di rilevamento delle intrusioni e sistemi di protezione dalle intrusioni, per segregare e proteggere segmenti di rete, applicando regole di filtro e rilevamento per lo più statiche e predefinite.
A causa di tale rigidità, il modello male si adatta alla flessibilità di implementazione e manutenzione dei nuovi servizi e alla natura sempre più mutevole degli attacchi [1].
Un altro fattore di rigidità degli attuali dispositivi di sicurezza risiede nella specializzazione delle rispettive funzionalità. Tali dispositivi sono, infatti, progettati per rilevare solo attacchi ed eventi specifici (DoS di rete o applicativi, rilevamento/prevenzione delle intrusioni, rilevamento di malware). Di fronte a un complesso attacco multi-vettore, questa caratteristica può rendere il singolo dispositivo del tutto inefficace o, nella migliore dell’ipotesi, può aumentare significativamente i tempi necessari per la rilevazione dell’attacco.
Infine, anche i dispositivi di sicurezza possono essere sorgenti di rischi, in quanto essi stessi vulnerabili agli attacchi e frequentemente soggetti a guasti o malfunzionamenti: la Fig. 2 mostra il numero di vulnerabilità segnalate a NIST per le applicazioni di sicurezza dei principali fornitori dal 2016.
Oltre che alla revisione delle soluzioni tecniche, la necessità di proteggere i nuovi servizi digitali dovrà necessariamente portare a una riconsiderazione dei processi di sicurezza. Attualmente, infatti, la gestione delle minacce e degli attacchi informatici è ancora basata in modo consistente sulla presenza e sull’intervento di personale umano: si tratta tipicamente di esperti altamente qualificati che sono direttamente coinvolti nella messa in opera, configurazione e gestione degli apparati di sicurezza (ad es. selezionano i prodotti, identificano la loro posizione, li configurano, correlano avvisi e indicazioni da essi generate, eseguono azioni in risposta agli attacchi). Un tale processo, che richiede in modo massivo e sistematico l’intervento di personale, pone evidenti problemi di costo ed efficacia e appare incompatibile con la prevista pervasività del processo di digitalizzazione in tutti i settori sociali ed economici.
Infine, una questione importante è rappresentata anche dalla garanzia d’affidabilità dei componenti del servizio. Le attuali soluzioni di protezione – che sfruttano, ad esempio, le reti private virtuali, il firewalling, il controllo degli accessi basato sull’identità e altri approcci correlati – richiedono configurazioni quasi statiche, tradizionalmente eseguite da operatori umani e non sono adatte a garantire la dinamicità richiesta ai nuovi servizi digitali.
Un nuovo approccio architetturale
La protezione dei nuovi servizi digitali richiede, quindi, una profonda revisione degli attuali paradigmi della sicurezza informatica. In tale contesto, si può identificare un insieme di sfide tecnologiche che è necessario affrontare per rendere l’approccio alla sicurezza informatica adeguato alle nuove soluzioni di dispiegamento dei servizi. In sintesi tali sfide consistono nell’individuare soluzioni in grado di:
I) produrre strumenti automatici, basati su metodi formali, utilizzabili per attestare l’affidabilità dei componenti hardware e software che compongono il servizio e del servizio nel suo complesso;
II) permettere l’incremento delle capacità di identificazione e analisi degli attacchi, nel rispetto dei vincoli legali imposti per il rispetto della privacy (degli utenti) e della riservatezza dei dati (degli amministratori dei diversi domini che cooperano al supporto del servizio);
III) mettere in correlazione i dati tra diversi sistemi di individuazione degli attacchi per incrementare l’efficacia complessiva;
IV) permettere l’automazione della risposta agli attacchi, per minimizzare la necessità di intervento umano;
V) migliorare la situational awareness degli operatori dei nuovi servizi e facilitare la propagazione delle informazioni a tutte le organizzazioni coinvolte (sia interne agli operatori che esterne come, ad esempio, Computer Emergency Response Team nazionali).
Per rispondere alle sfide sopra elencate, è necessario che le nuove soluzioni per la sicurezza siano basate non più su dispositivi fisici o strumenti software locali ma, piuttosto, su sistemi pervasivi che prevedano l’interazione di elementi distribuiti di monitoraggio e di elementi (logicamente) centralizzati di elaborazione, responsabili dell’individuazione degli attacchi, dell’implementazione (largamente automatica, sulla base di politiche predefinite) delle azioni conseguenti e del consolidamento e presentazione della situazione agli operatori umani (Fig. 4).
Il nuovo approccio prevede, quindi, un profondo mutamento di paradigma relativamente ai dispositivi di sicurezza, assecondando l’evoluzione, già in atto, illustrata in Fig. 5.
I dispositivi di sicurezza più tradizionali oggi in uso (come antivirus e firewall) sono concepiti per proteggere parti dell’infrastruttura fisica, e sono rigidamente associati a tali parti (Fig. 5-a).
Il primo passo dell’evoluzione consiste nel passare da un approccio finalizzato alla protezione dell’infrastruttura ad un nuovo approccio finalizzato alla protezione del servizio. Per esempio, come mostrato in Fig. 5-b, nello scenario in cui un servizio è supportato da un’infrastruttura cloud secondo il paradigma IaaS (Infrastructure as a Service[1]), delle istanze virtuali di dispositivi per la sicurezza sono inserite nella catena di processi software che realizzano il servizio stesso e dedicate alla protezione di tale servizio. In questo modo, ogni utente dell’infrastruttura mantiene la piena gestione della sicurezza del servizio che questi gestisce.
Il successivo passo evolutivo (Fig. 5-c) necessario per il pieno supporto dei nuovi servizi digitali sarà basato sull’integrazione, nei diversi elementi software che compongono il sistema, di funzionalità di monitoraggio che comunicheranno con un processo (logicamente) centralizzato responsabile delle operazioni di rilevazione e gestione degli attacchi. In altri termini, così come un sistema operativo espone verso le applicazioni le risorse computazionali, di rete e di memorizzazione dei dati attraverso specifiche API (Application Programming Interfaces), così i futuri servizi digitali esporranno a sistemi centralizzati di rilevazione e gestione degli attacchi le funzionalità per la sicurezza in essi integrate.
Le Figg. 6 e 7 forniscono una rappresentazione di più alto livello e più completa del Sistema complessivo. Questo sistema è composto da processi (logicamente) centralizzati che raccolgono, attraverso interfacce standardizzate, un’ampia mole di dati eterogenei (log applicativi, statistiche di rete, eccezioni software, etc.) dai componenti software del servizio, identificano attacchi o situazioni di rischio, applicano autonomamente contromisure e forniscono agli operatori del servizio – e ad altri soggetti interessati – le relative informazioni.
Conclusioni
I nuovi approcci per la fornitura di servizi, basati sulle tecnologie più recenti sia di rete (5G), sia informatiche (cloud, fog, edge computing…) rendono gli approcci tradizionali alla sicurezza poco efficaci. La creazione dei servizi attraverso composizione dinamica di moduli software offerti liberamente sul mercato da parte di fornitori differenti e supportati dinamicamente da dispositivi fisici posti in infrastrutture remote non può più essere resa sicura con l’utilizzo di apparati specializzati pensati per la protezione di perimetri fisici ben determinati.
Si ha quindi la necessità di sviluppare nuovi approcci architetturali in cui i componenti del servizio integrino nativamente funzionalità di base di sicurezza e in cui le azioni di prevenzione e protezione siano demandate a sistemi centralizzati e caratterizzati sulla base delle specificità di ciascun servizio.
Lo studio e la sperimentazione di tali approcci sono parte degli obiettivi di due progetti Europei H2020, di cui CNIT (Consorzio Nazionale Interuniversitario per le Telecomunicazioni, è coordinatore tecnico: ASTRID (“AddreSing ThReats for virtualIseD services”) e GUARD (“A cybersecurity framework to GUArantee Reliability and trust for Digital service chains”).
Note
[1] Si tratta di una modalità di fornitura dei servizi cloud in cui il fornitore di servizi partiziona le risorse di elaborazione, memorizzazione e interconnessione presenti nella propria infrastruttura fisica e mette a disposizione di ciascuno dei suoi utenti una parte di tali risorse. Ogni utente è in grado di distribuire ed eseguire software arbitrario, che può includere sistemi operativi e applicazioni, utilizzando le risorse di elaborazione e memorizzazione rese disponibili dal fornitore di servizi.
Acknowledgement
Questo articolo è stato realizzato sulla base delle attività svolte dagli autori nell’ambito dei progetti ASTRID e GUARD, finanziati dal programma di ricerca ed innovazione dell’Unione Europea Horizon 2020 (grant agreement num. 833456 e num. 786922).
Riferimenti bibliografici
[1] R. Rapuzzi, M. Repetto, Building situational awareness for network threats in fog/edge computing: Emerging paradigms beyond the security perimeter model, Future Generation Computer Systems 85 (2018) 235–249.
[2] Symantec, Internet security threat report, Whitepaper, volume 23 (April 2018) [cited January 23rd, 2019]. URL
Articolo a cura di Raffaele Bolla, Maurizio Giribaldi, Giuseppe Piro e Matteo Repetto
Profilo Autore Raffaele Bolla Raffaele Bolla ricopre il ruolo di professore ordinario in Reti di Telecomunicazioni presso il Dipartimento di ingegneria navale, elettrica, elettronica e delle telecomunicazioni (DITEN) dell'Università di Genova ed è anche vicedirettore e membro del Consiglio di Amministrazione del Consorzio Nazionale Interuniversitario per le Telecomunicazioni (CNIT). Il Prof. Bolla è il fondatore e il leader del laboratorio di ricerca chiamato Telecommunications Networks and Telematics (TNT, supportato congiuntamente da DITEN e CNIT. Il prof. Bolla è stato ed è responsabile di numerosi e importanti progetti e contratti di ricerca, finanziati sia dalla Comunità Europea (FP7, H2020) che da industrie ed operatori del settore delle telecomunicazioni. È coinvolto in numerose attività di standardizzazione in ambito ETSI e ITU-T dove agisce anche come referente per l’intero consorzio CNIT. È coautore di oltre 200 pubblicazioni scientifiche su riviste, libri e congressi internazionali e i suoi attuali interessi e attività di ricerca si concentrano principalmente su: i) soluzione per la sicurezza degli ambienti virstualizzati, ii) meccanismi e tecniche per la riduzione del consumo di energia nelle reti di telecomunicazione utilizzando paradigmi virtualizzati (Network Function Virtualization), iii) approcci per la "Softwarization" delle reti attraverso NFV e Software Defined Networking (SDN), con particolare attenzione al contesto 5G, iv) integrazione tra le reti e i paradigmi di Fog ed Edge Computing. Profilo Autore Maurizio Giribaldi Maurizio Giribaldi è Technical Director di Infocom e in tale ruolo è responsabile delle attività di Ricerca e Sviluppo della Società. Maurizio è stato ed è coinvolto, come referente di Infocom in diversi progetti di ricerca finanziata, nazionali ed europei, tra cui ECONET (FP7, contract number INFSO-ICT-258454), INPUT (H2020, grant num. 644672), ASTRID (H2020, grant num. 786922) e SPIDER (H2020, grant num. 833685). Laureato in Ingegneria nel 1988 presso l’Università degli Studi di Genova, dal 1989 al 2011 Maurizio ha ricoperto diversi ruoli nelle organizzazioni di ricerca e sviluppo prodotti di Marconi (ora Ericsson) e, quindi, di Alcatel-Lucent. Profilo Autore Giuseppe Piro Il Dott. Ing. Giuseppe Piro ha conseguito (con il massimo dei voti e con la concessione della lode) la laurea di primo e secondo livello in Ingegneria delle Telecomunicazioni presso il Politecnico di Bari, rispettivamente nel 2006 e nel 2008. Ha inoltre conseguito il titolo di dottore di ricerca in Ingegneria Elettronica nel marzo 2012, sempre presso il Politecnico di Bari. Oggi, egli ricopre il ruolo di ricercatore RTD-B presso il Politecnico di Bari, nel settore scientifico disciplinare ING-INF/03 (Telecomunicazioni). Nel Marzo 2018 ha altresì ottenuto l’abilitazione di “Professore Associato”, in accordo con la procedura nazionale ASN 2016-2018. I suoi principali interessi scientifici riguardano cyber security, Internet of Things ed industria 4.0, sistemi 5G, Internet del Futuro e comunicazioni su scala nanometrica. La sua attività di ricerca è documentata da oltre 80 contributi pubblicati su riviste e conferenze internazionali, oltre 3000 citazioni e un H-index pari a 23 (fonte: Scholar Google). Al momento, egli è coinvolto in numerosi progetti europei e nazionali, tra cui H2020 GUARD, sperimentazione 5G coordinata da Vodafone (bando MISE), PRIN 2017NS9FEY, PON PICOePRO e PON FURTHER (finanziati dal MIUR). Il Dott. Piro svolge regolarmente attività di revisione e coordinamento tecnico di conferenze internazionali e ricopre il ruolo di Associate Editor per le riviste Sensors (MDPI), Internet Technology Letter (Wiley) e Wireless Communications and Mobile Computing (Hindawi). Profilo Autore Matteo Repetto Matteo Repetto è ricercatore presso Consorzio Nazionale Interuniversitario per le Telecomunicazioni (CNIT), ed opera a Genova presso il National Lab of Smart, Sustainable e Secure Internet Technologies and Infrastructures (S3ITI) dello stesso ente. E’ stato parte di diversi progetti di diversi progetti di ricerca con ruoli rilevanti, ad oggi opera come coordinatore tecnico dei due progetti Europei ASTRID e GUARD, finanziati dalla Comunità Europea nell’ambito del programma H2020. I sui principali interessi di ricerca recenti comprendono le tematiche relative all’efficienza energetica del settore ICT, alla virtualizzazione e alle infrastrutture legate alla rete 5G, alla programmabilità della rete e alla sicurezza. Altri Articoli Matteo Repetto La sicurezza informatica dei nuovi servizi digitali: un nuovo approccio architetturale