Prevision

Intelligenza artificiale, che cyber security sarà nel 2024

II futuro prossimo vede crescenti minacce da mitigare connesse all’AI. Ma esistono anche opportunità da cogliere per rafforzare la difesa. Ne abbiamo parlato con gli esperti per fare il punto su cosa aspettarsi nell’anno che verrà

Pubblicato il 11 Dic 2023

Mirella Castigli

Giornalista

Intelligenza artificiale generativa: rischi per la cyber security e nuove opportunità per proteggersi meglio

Fine anno è il tempo delle previsioni per individuare le tendenze che potrebbero caratterizzare il 2024. Una su tutte: l’intelligenza artificiale generativa (IAG) che si fa largo in ambito cyber security, sia sul fronte offensivo che su quello difensivo.

“L’intelligenza artificiale non rappresenta solo uno strumento di difesa per la sicurezza informatica”, commenta Federica Maria Rita Livelli, Business Continuity & Risk Management Consultant, BCI Cyber Resilience Committee  e membro del Comitato scientifico Clusit, “ma può anche essere utilizzata come arma dai criminali informatici. È un rischio emergente che richiede monitoraggio costante e che indubbiamente caratterizzerà il 2024 e gli anni a venire. Pertanto,  dobbiamo prepararci un trend in crescita di Ai cyber attack nel panorama delle minacce informatiche, con l’avvento di sofisticate tattiche di ingegneria sociale e strumenti di intelligenza artificiale generativa basati sul furto di identità che comporterà da parte di tutti noi  una maggiore attenzione e preparazione per affrontare questo trend in crescita dei cyber attacchi basati sull’intelligenza artificiale”.

Intelligenza artificiale, è sfida aperta tra chi attacca e chi si difende

“L’AI sta diventando uno strumento concretamente utilizzato nell’ambito delle attività di cybercrime”, conferma Claudio Telmon, Senior Partner – Information & Cyber Security presso P4I – Partners4Innovation, “per esempio con l’utilizzo di deep fake per aumentare la credibilità delle comunicazioni fraudolente nell’ambito di attacchi anche sofisticati“.

Se si intensificano le minacce connesse all’AI da mitigare, al tempo stesso aumentano le opportunità da cogliere per rafforzare la difesa. “Nei prossimi mesi “, avverte Pierluigi Paganini, analista di cyber security e CEO Cybhorus, “continueremo ad osservate una rapida evoluzione dell’intelligenza artificiale che inevitabilmente condizionerà il panorama delle minacce”.

Ecco come mitigare i rischi, sapendo che “l’AI è una sfida, ma anche un’opportunità”, avverte Fabrizio Saviano, CISO in ambito bancario: “Se usata bene, può migliorare la protezione dei sistemi e la qualità della vita delle persone. Se usata male, può compromettere la privacy, la sicurezza e il funzionamento dei servizi essenziali alla sopravvivenza del genere umano. Per questo motivo, ognuno di noi deve mettere nel proprio calendario del 2024 l’uso responsabile dell’AI e deve cominciare a salvare la propria fetta di mondo”.

Intelligenza artificiale generativa: le sfide del 2024 nella cyber security

ChatGPT di OpenAI compie un anno ed è tempo di bilanci per capire l’impatto dell’intelligenza artificiale generativa nella sicurezza informatica, a partire dai rischi da mitigare. “L’AI non è materia nuova”, spiega Fabrizio Saviano, “ma negli ultimi anni è diventata sempre più sofisticata, economica e pervasiva in tutti i campi, dalla medicina all’industria, dall’istruzione all’intrattenimento. Nel campo della sicurezza l’AI permette di risparmiare tempo e denaro, ma “ancora è difficile stabilire ‘chi ne goda, se ‘il difensore o il criminale'”.

Qualche dato. Dal report di Deep Instict, dal titolo “Voice of SecOps Report” emerge che il 75% dei professionisti della security ha registrato un incremento degli attacchi nell’ultimo anno. Di questi l’85% va attribuito ad attori malevoli che sfruttano l’intelligenza artificiale generativa. La maggior preoccupazione riguarda la privacy (39%), la difficoltà a rilevare gli attacchi di phishing (37%), e un aumento del volume e della rapidità degli attacchi (33%).

“L’AI può automatizzare l’identificazione e la risposta alle minacce, individuando la causa principale dell’attacco o dell’infezione”, continua Saviano: “Allo stesso modo, può essere usata dagli hacker per cercare automaticamente e velocemente le vulnerabilità comuni come, per esempio, software progettati in modo non sicuro, errori di configurazione, scarsa igiene nella gestione degli utenti o delle password”.

Poiché l’intelligenza artificiale generativa permette la generazione di nuovi contenuti, come testo, immagini, musica e video, spalanca scenari in cui cyber criminali possono sfruttarla per sferrare cyber attacchi sempre più complessi e sofisticati.

“È una realtà con la quale dobbiamo fare i conti”, conferma Claudio Telmon, “adottando con ancora maggior rigore le pratiche di verifica che sono comunque la migliore protezione contro attacchi come la CEO fraud. Vuole dire che in caso di richieste di operazioni anomale, che siano per telefono o via mail, è importante verificare direttamente con il richiedente, su canali affidabili, se la richiesta sia stata effettivamente fatta. Questo tipo di controlli è molto più importante che cercare di capire ‘a orecchio’ se la chiamata sia autentica o meno”.

Attori malevoli potranno lanciare campagne di phishing, disinformazione e molteplici tipologie di attacchi cyber e di social engineering per carpire informazioni sensibili, credenziali comprese, sfruttando l’intelligenza artificiale generativa e i large language model (LLM). “Oltre a campagne di phishing e spear-phishing sempre più insidiose”, conferma Paganini, “preoccupa l’impiego dell’intelligenza artificiale in campagne di disinformazione da parte di attori nation-state”.

“Gli attacchi basati su AI sono in grado di adattarsi in tempo reale al contesto e persino alle contromisure adottate dalle vittime. Ma non serve un hacker per generare contenuti falsi o ingannevoli: chiunque può generare email personalizzate, deepfake e deepvoice praticamente perfetti usando semplicemente un chatbot o un cocktail di portali gratuiti e pronti all’uso. Ecco perché le Big Tech, normalmente in competizione tra loro, si sono unite nella lotta all’identificazione dei contenuti falsi”, avverte Saviano.

AI Act approvato, quali impatti sui diritti: tutti i punti chiave

I molteplici attacchi cyber via AI

Tra i vari scenari c’è quello in cui le applicazioni di intelligenza artificiale generativa, in seguito ad addestramento adeguato, permetteranno la realizzazione di contenuti testuali, vocali e video che all’apparenza sembrano legittimi, dunque risultano sfruttabili in schemi fraudolenti o in campagne di disinformazione.

“Attori malevoli di varia natura utilizzeranno l’intelligenza artificiale, nelle sue numerose accezioni, per condurre attacchi sempre più sofisticati”, spiega Paganini: “Google stessa, nel suo rapporto Google Cloud Cybersecurity Forecast 2024 asserisce che la crescita dell’intelligenza artificiale diventerà inevitabilmente fonte di nuove minacce”.

Ad avvantaggiarsi dell’AI generativa non saranno soltanto i contenuti, ma anche la capacità dei cyber criminali di sferrare campagne su larga scala. “L’intelligenza artificiale generativa, i modelli LLM e le reti GAN (Generative Adversarial Networks) diventeranno parte integrante delle catene di attacco che osserveremo nei prossimi anni”, mette in guardia Paganini.

“Le opportunità offerte dall’AI sono sotto gli occhi di tutti nei prodotti offerti dalle aziende e alle fiere di settore. Al contrario, le sfide serpeggiano nel silenzio del dark web”, stigmatizza Fabrizio Saviano: “Sperare che se ne occupi la Politica, la Polizia o il Team di Sicurezza non rallenterà gli automatismi che ci prendono di mira proprio in questo momento”.

I principali rischi legati all’uso dell’intelligenza artificiale in ambito cyber security

“Nel 2024, sicuramente, terrà ancora banco il tema dell’intelligenza artificiale”, conferma Pierguido Iezzi, Ceo di Swascan: “In particolare, la sua applicazione concreta nel campo della cyber security rappresenterà molto probabilmente un punto di svolta sia a livello privato sia a livello statale”.

Operazioni di phishing, smishing (via Sms) ed altre forme di ingegneria sociale rendono contenuti e materiali legittimi. Infatti saranno meno diffusi errori ortografici, errori grammaticali e la mancanza di contesto culturale in email e messaggi di phishing.

“I LLM saranno in grado di tradurre e migliorare le traduzioni, rendendo ancora più difficile per gli utenti individuare il phishing basato solo sulla formulazione del testo. Ad esempio consentiranno a un aggressore di inserire contenuti legittimi e generare una versione modificata che appare, scorre e si legge come l’originale, ma si adatta agli obiettivi dell’attaccante”, spiega Google Forecast, il rapporto del motore di ricerca di cui Alphabet è capofila.

I LLM potranno effettuare traduzioni e migliorarle, rendendo ancora più difficile riconoscere i casi di sospetto phishing sulla base esclusiva della formulazione del testo.

Consentiranno a un attaccante l’inserimento di contenuti legittimi per generare una versione modificata che sembra identica all’originale, ma solo in apparenza, perché in realtà aderisce agli obiettivi dell’aggressore.

Gli attaccanti sono in grado di addestrare i sistemi per trovare informazioni sui principali componenti di intere organizzazioni. In questo modo preparano contenuti da utilizzare in attacchi mirati di ingegneria sociale contro ciascun singolo membro.

Inoltre sistemi legittimi, fondati su LLM, possono agevolare gli attaccanti nell’implementazione dei loro attacchi in modo più efficace e con sforzi inferiori. I sistemi basati su intelligenza artificiale generativa, infatti, sono in grado di rendere le operazioni scalabili.

Ma ciò desta forte preoccupazione, perché questo fattore mette gli attaccanti in condizione di creare e quindi diffondere notizie fasulle. A partire da telefonate false e dall’abilitare interazioni con le potenziali vittime raggirati da testi, voci, video creati ad arte con l’AI generativa.

AI e cyber security, ecco che cosa possono fare l’una per l’altra

Le dinamiche geopolitiche e geoeconomiche globali

“L’IA in ambito cyber non si limiterà a salvaguardare gli interessi commerciali, ma si estenderà a influenzare le dinamiche geopolitiche e geoeconomiche globali”, mette in guardia Iezzi.

Preoccupa infatti la veloce diffusione di piattaforme in grado di erogare servizi che adoperano l’intelligenza artificiale generativa.  “Nell’ecosistema criminale si moltiplicheranno servizi e prodotti basati su questa tecnologia che porteranno il livello di complessità degli attacchi e la loro scalabilità a livelli impensabili fino a qualche anno fa”, aggiunge Paganini.

“In questo scenario”, continua Iezzi, “prevediamo un incremento nell’uso strategico dell’IA per condurre operazioni di guerra informatica sofisticate, dove gli attacchi cyber serviranno a destabilizzare economie, influenzare le politiche estere e manipolare l’opinione pubblica. A livello tattico, l’IA potrà essere impiegata per sviluppare attacchi mirati su larga scala, colpendo infrastrutture critiche e sistemi di comunicazione e trasformando il tradizionale campo di battaglia in uno sempre più digitale“. 

Secondo la divisione Security di Google, “è previsto il proseguimento delle attività di spionaggio, cybercrime e disinformazione da parte delle “big four” (Cina, Russia, Corea del Nord e Iran)”, avverte  Enrico Morisi, ICT Security Manager. Che aggiunge: “Un incremento nello sfruttamento delle vulnerabilità zero-day, l’ascesa delle attività riconducibili al cosiddetto hacktivism, quali DDoS, data leak e defacement, l’introduzione dei wiper negli arsenali degli attori state-sponsored, un particolare interesse ai sistemi elettorali, alle infrastrutture ‘space-based’ e agli ambienti multicloud, il ricorso a tecnologie cloud serverless che garantiscono maggiore scalabilità e flessibilità, un consolidamento e una possibile crescita delle attività di estorsione (e.g. ransomware) e di spionaggio, il riemergere di tecniche ormai desuete al fine di evadere la detection dei sistemi di difesa, e così via”.

“A livello tattico”, spiega Iezzi, “l’IA potrà essere impiegata per sviluppare attacchi mirati su larga scala, colpendo infrastrutture critiche e sistemi di comunicazione e trasformando il tradizionale campo di battaglia in uno sempre più digitale“.

La modalità as-a-service

LLMs e altri strumenti di Gen AI adotteranno un modello as-a-service per aiutare, sempre più, gli attaccanti a svolgere attacchi mirati. “Questi servizi”, secondo Paganini, “saranno infatti disponibili con modello as-a-service e quindi fruibili anche da attaccanti privi di specifiche capacità”.

Nell’underground criminale, servizi in modalità as-a-service sono già WormGPT e FraudGPT. Per esempio WormGPT sui forum criminali spopola, pubblicizzato come strumento ideale per condurre raffinate campagne di phishing e attacchi BEC (Business Email Compromise). Questi ultimi attacchi BEC sfoggiano una grammatica corretta, tanto da ridurre la soglia d’attenzione nel rilevare le campagne. WormGPT può automatizzare la realizzazione di email malevole in grado di convincere il destinatario a cadere in trappola.

I consigli per mitigare i rischi relativi all’AI

Per mitigare i rischi legati all’intelligenza artificiale, “sia gli individui che le organizzazioni dovrebbero adottare un approccio olistico e proattivo”, suggerisce Federica Maria Rita Livelli, che è anche BeDisruptive Training Center Director: “Ecco alcuni utili raccomandazioni:

  1. effettuare controlli regolari sui sistemi di intelligenza artificiale utilizzati: monitorare periodicamente i sistemi per individuare e correggere eventuali vulnerabilità, coinvolgendo esperti di sicurezza informatica e intelligenza artificiale per test di penetrazione, valutazioni delle vulnerabilità e revisioni del sistema;
  2. limitare le informazioni personali condivise tramite l’automazione: prestare attenzione alle informazioni riservate condivise con l’intelligenza artificiale e comprendere i rischi per la privacy: evitare di inserire dati aziendali sensibili in strumenti di intelligenza artificiale come CHATGPT senza valutare i rischi in termini di sicurezza e violazione delle normative sulla privacy;
  3. garantire la sicurezza dei dati: proteggere i dati di addestramento dell’intelligenza artificiale da modifiche o avvelenamento, investendo in crittografia, controllo degli accessi e tecnologie di backup avanzate (proteggere le reti con firewall, sistemi di rilevamento delle intrusioni e password robuste);
  4. ottimizzare il software: mantenere il software e i framework di intelligenza artificiale aggiornati, insieme a sistemi operativi e applicazioni, per ridurre il rischio di sfruttamento e attacchi malware (utilizzare tecnologie antivirus avanzate per bloccare minacce dannose e implementare misure di sicurezza della rete e delle applicazioni per rafforzare le difese);
  5. adottare la formazione contraddittoria: utilizzare la formazione contraddittoria come misura di sicurezza specifica per rendere l’intelligenza artificiale più resiliente agli attacchi, esponendola a diversi scenari, dati e tecniche;
  6. formare il personale: fornire formazione al personale sulle pratiche di gestione del rischio legato all’intelligenza artificiale, come la verifica delle e-mail per individuare potenziali attacchi di phishing e l’evitare di aprire software non richiesto che potrebbe essere malware creato dall’intelligenza artificiale;
  7. gestire le vulnerabilità: investire nella gestione delle vulnerabilità dell’intelligenza artificiale per identificare, analizzare e valutare le vulnerabilità, riducendo la superficie di attacco legata alle caratteristiche uniche dei sistemi di intelligenza artificiale;
  8. avere un piano di risposta agli incidenti dell’intelligenza artificiale: prepararsi a un potenziale attacco alla sicurezza informatica legato all’intelligenza artificiale, sviluppando un piano di risposta agli incidenti che copra il contenimento, l’indagine e la riparazione per affrontare l’evento”.

L’AI nel mirino degli attacchi cyber

Ma l’intelligenza artificiale non è solo in grado di generare cyber attacchi di varia natura, ma è anche, a sua volta, nel mirino degli attacchi cyber. Attori malevoli provano a trarre in inganno i sistemi come ChatGPT allo scopo di far loro rivelare informazioni sensibili impiegate in fase di addestramento.

Questa tecnica si chiama attacco di inferenza: sottopone il modello di IA a una serie di interrogazioni specifiche per ottenere in risposta informazioni sensibili. Infatti scoprire il training-set, in particolari applicazioni, significa per l’azienda, che ha compiuto l’addestramento, esporre il patrimonio informativo della propria organizzazione.

Dalle domande fatte è infatti possibile risalire al dataset di origine di un’azienda. Ma un altro attacco consiste nel manipolare i dati di addestramento o modificare i criteri del modello per produrre un’interferenza nel comportamento di un sistema basato su AI. Cambiando i parametri dell’intelligenza artificiale generativa, se ne possono influenzare le scelte.

“Secondo l’ENISA Foresight 2030 Report“, illustra Morisi, “la top 10 delle minacce emergenti è rappresentata dalla compromissione della supply chain del software, dalle campagne di disinformazione, dall’ascesa dell’autoritarismo della sorveglianza digitale e di una conseguente perdita di privacy, dai rischi connessi con l’Operational Technology unitamente alla presenza di sistemi legacy e al cosiddetto ‘skill shortage’, da attacchi mirati e sofisticati grazie all’applicazione delle tecnologie di Intelligenza Artificiale all’ingente mole di dati disponibili attraverso l’uso degli ‘smart device’, e così via fino alla manipolazione degli algoritmi di IA e dei dati usati per l’addestramento, con l’obiettivo, per esempio, di creare disinformazione o esfiltrare dati sensibili”.

“Certamente i decision maker devono sviluppare standard tecnici e normativi per garantire l’uso etico e responsabile dell’AI, incluse le relative sanzioni”, continua Saviano: “Ma non è solamente una questione politica o tecnologica, perché nessuno può smarcarsi dalla propria responsabilità: istituzioni pubbliche, imprese private, organizzazioni della società civile, ricercatori e cittadini”.

Quando l’intelligenza artificiale diventa un prezioso alleato della cyber security

Secondo la ricerca di VirusTotal, presentata all’apertura del Google Safety Engineering Center, l’intelligenza artificiale può agevolare l’analisi e la mitigazione delle minacce informatiche.

“Sicuramente l’AI migliorerà e agevolerà le strategie di difesa e attacco nel mondo aziendale”, continua Iezzi, “ottimizzando la protezione dei dati e delle infrastrutture digitali. Ma è pur sempre cruciale osservare anche il suo possibile impiego – in particolare a livello governativo – all’interno della ‘quinta dimensione’ della guerra informatica; in particolare come questa stia diventando sempre più rilevante in un contesto più ampio”. 

Secondo VirusTotal, l’AI può contribuire a rilevare e prevenire le vulnerabilità ed exploit comuni, anche con una precisione maggiore del 300% rispetto ai metodi tradizionali, in alcuni casi.

“Strategicamente”, mette in evidenza Iezzi, “l’IA diventerà fondamentale per analizzare e prevedere le mosse degli avversari a livello internazionale, offrendo la capacità di anticipare e neutralizzare minacce prima che diventino reali. Questo implica che l’IA non solo proteggerà le risorse digitali, ma diventerà uno strumento cruciale per comprendere e influenzare le dinamiche globali”.

Per proteggersi in questo contesto globale e complesso, “nazioni e organizzazioni dovranno sviluppare strategie cyber che integrino a pieno l’IA”, evidenzia Iezzi: “Questo non solo per difendersi da attacchi sofisticati, ma anche per comprendere e rispondere alle interazioni tra sicurezza digitale e politiche geopolitiche e geoeconomiche. Sarà necessario un approccio multidisciplinare che unisca competenze tecniche, politiche e strategiche, accompagnato da un forte investimento nella ricerca e sviluppo di nuove tecnologie IA“.

Tuttavia nessuno si salva da solo. Infatti “l’aumento della cooperazione internazionale nella condivisione di intelligence e migliori pratiche”, conclude Iezzi, “diventerà cruciale per combattere le minacce cyber in un contesto globale, riconoscendo che la sicurezza cyber è un elemento fondamentale per la stabilità e la sicurezza mondiale”.

L’uso incorporato negli strumenti: potenzialità e rischi

“Per quanto riguarda la difesa”, sottolinea Claudio Telmon, “l’utilizzo di strumenti di machine learning è in uso da tempo sia negli strumenti di rilevazione, che negli strumenti di analisi ad uso dei SOC. Si tratta di un utilizzo incorporato negli strumenti stessi, del quale l’utente ha poca visibilità. È un utilizzo che andrà ampliandosi, ma probabilmente più a supporto delle attività dei SOC che altro”.

Tuttavia “il rischio, diciamo così, di questi strumenti è quello che si è già visto in passato in strumenti con logiche simili, ovvero quello di un numero elevato di falsi positivi, vedi ad esempio le ‘euristiche’ degli antimalware“, avverte Telmon: “Falsi positivi che si traducono in alert indesiderati o addirittura blocco di strumenti o messaggi legittimi. Mentre questo non rappresenta un problema nelle attività di analisi di un SOC, lo sarebbe di più in strumenti che operino direttamente sul sistema informativo”.

“Un altro ambito di utilizzo”, conclude Telmon, “è quello dei meccanismi di autenticazione adattivi, che rilevino situazioni anomale per richiedere un’autenticazione più forte. Nel complesso l’utilizzo di AI potrebbe aumentare in modo significativo la capacità di rilevazione e risposta delle organizzazioni, ma probabilmente sarà all’interno degli strumenti e gli utenti ne avranno poca visibilità diretta, ne vedranno principalmente gli effetti”.

Conclusioni

Il modello di difesa, alla luce dell’evoluzione dell’intelligenza artificiale, dovrà necessariamente subire un’evoluzione. Infatti “sistemi basati su IA sono già oggi realtà e continueranno ad evolvere”, spiega Paganini: “Gruppi di ricerca sono all’opera per definire nuovi strumenti in grado di individuare e mitigare minacce apportate da sistemi basati su intelligenza artificiale”.

Minacce che, come sottolinea il Google Cloud Cybersecurity Forecast 2024, provocano “un incremento su vasta scala del social engineering, basato su testo, voce e video, sempre più difficile da intercettare e mitigare grazie all’IA generativa e ai Large Language Model, offerti anche ‘as a service, e alla proliferazione di tattiche orientate all’inganno e alla manipolazione facendo ricorso, ad esempio, a diverse forme di disinformazione, come le fake news”, mette in guardia Enrico Morisi.

Ma, per fortuna, “l’Intelligenza Artificiale è ovviamente a disposizione anche della ‘linea’ di difesa”, aggiunge Morisi, “per esempio per il rafforzamento delle attività di ‘detection & response’ o a supporto delle attività di threat intelligence e reverse engineering”.

“Le tecnologie evolvono molto rapidamente”, continua Morisi, “supportando l’Information Security da un lato ma estendendo la ‘superficie d’attacco’ dall’altro, le minacce sono sempre più sofisticate e gli attaccanti cambiano continuamente le loro TTP (Tactics, Techniques and Procedures) costringendo i professionisti della sicurezza delle informazioni ad adattarsi altrettanto velocemente ai nuovi scenari, adeguando opportunamente i framework di cybersecurity”.

“A giocare il ruolo più critico, come sempre, sarà l’essere umano che, da un lato, può apparire come l’anello debole della catena di difesa mentre dall’altro racchiude in sé il potenziale per fare la differenza“, conclude Morisi: “se adeguatamente formato e consapevole, l’essere umano rappresenta senza alcun dubbio il ‘baluardo’ più efficace, qualsivoglia soluzione tecnologica può fare ben poco se non ‘corroborata’ dal tanto sottovalutato ‘fattore umano'”.

Tuttavia, “preoccupa la deriva dell’utilizzo di IA che inevitabilmente porterà i conflitti cyber futuri ad un livello in cui la componente umana potrebbe assumere un ruolo marginale”, conclude Paganini: “Nei prossimi anni potremo diventare spettatori inermi di confronti tra sistemi AI-based attaccanti e difensori, e le conseguenze potrebbero essere imprevedibili“.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale PNRR

Tutti
Incentivi
Salute digitale
Formazione
Analisi
Sostenibilità
PA
Sostemibilità
Sicurezza
Digital Economy
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articoli correlati

Articolo 1 di 4