I bot – sia i crawler che i bot dannosi – generano il 64% di tutto il traffico Internet. Ma un report di Barracuda Networks denuncia che bot malevoli, realizzati per trafugare dati, determinare le performance di un sito internet, alterare la concorrenza nell’e-commerce o addirittura indurre a un data breach, dominano il 40% di tutto il traffico Internet. “Questo dato non deve sorprenderci”, evidenzia Pierluigi Paganini, analista di cyber security e Ceo Cybhorus.
Indice degli argomenti
Bot malevoli e dinamiche di una giornata lavorativa
“I bot rappresentano uno strumento potentissimo nell’arsenale di attori malevoli che li utilizzano per molteplici finalità. L’analisi di questi bot è fondamentale per comprendere come le organizzazioni li utilizzano e con quali finalità, ma soprattutto affinché si possano adottare misure in grado di mitigarne gli effetti sulle strutture che esponiamo online”, mette in guardia Paganini.
“Un dato interessante è quello che i bot malevoli seguono le dinamiche di una giornata lavorativa standard con l’intento di confondere il traffico malevolo con quello che normalmente si osserva online per attività legali. Questa informazione è essenziale per individuare la minaccia ed implementare le necessarie misure di sicurezza”, sottolinea l’analista di cyber security.
E conclude: “Qualunque infrastruttura online è potenzialmente esposta a questa minaccia, sempre più insidiosa perché difficile da discernere dal traffico legittimo”.
I rischi legati agli agenti software dannosi
Non tutti i bot sono dannosi, infatti esistono i crawler dei motori di ricerca che scandagliano il Web a caccia di informazioni per rendere più performanti i search engine e aiutare gli utenti a reperire informazioni sempre più precise e puntuali. Ma non tutti gli agenti software che surfano la rete sono realizzati per aiutare gli utenti, purtroppo, il 40% di tutto il traffico Internet è generato dai bot malevoli.
Attaccanti sfruttano questi agenti software dannosi per eseguire web scraping, acquisizioni di account, attacchi Distributed Denial of Service (DDoS). Ma, come sottolinea Paganini, Barracuda Networks ha scoperto che i cyber criminali configurano i loro bot per sferrare attacchi automatici durante le ore di ufficio, proprio per mascherare il traffico dannoso con quello consueto.
Attacchi con invio di header HTTP modificati
Alcuni bot malevoli fingono di essere scanner di vulnerabilità, dunque agenti software legittimi. Sfruttano attacchi base, usando un comune browser standard, capace però di inviare header HTTP personalizzati, in grado di eseguire spoofing degli header degli scanner utilizzati dalle organizzazioni sotto attacco.
Attacchi di forza bruta contro pagine di login
Barracuda Networks ha rivelato che bot hanno avuto accesso alla pagina di login di un service provider in ambito sanitario. Mascherandosi sotto le mentite spoglie di Internet Explorer su Windows 10, questo bot stava aggiungendo parametri UTM casuali all’URL della pagina di login e ricevendo intervalli IP, per sferrare un attacco di forza bruta, usando credenziali rubate.
Bot dediti a web scraping
Barracuda Networks ha scoperto un caso di web scraping su un sito e-commerce in UK, in cui il bot si comportava da browser standard con tutti gli header in ordine e con indirizzi IP residenziali. A sollevare sospetti era però il fatto che il sito web registrasse raramente accessi da parte di questa tipologia di utenza. Inoltre, usava un Web SDK kit, generalmente automatizzato, usato per rilevare e bloccare i bot.
Il web scraping, noto anche come web harvesting o web data extraction, è una tecnica di estrazione di dati da un sito internet tramite programmi software.
Il web data scraping, sfruttato negli ultimi mesi per portare a termine enormi data leak su Facebook, LinkedIn e Clubhouse, permette l’estrazione di dati dai siti web mediante strumenti automatizzati.
La tecnica sfrutta software ad hoc per analizzare il codice sorgente delle pagine, raccogliendo i dati di interesse e, talvolta, l’intera struttura del sito.
Alcuni agenti software riescono a scandagliare servizi ospitati nella rete Tor, invece, altri scraper sono capaci di estrarre le informazioni da API messe a disposizione dai servizi web.
Il price scraping minaccia l’e-commerce
Uno dei bot tracciati da Barracuda era destinato al price scraping su un negozio di e-commerce, un discount di prodotti Apple dell’Europa dell’Est. Lo scraping dei prezzi è illegale, perché altera la competizione e danneggia la concorrenza.
Il bot, fingendosi un utente reale che naviga per fare shopping in rete, estrae informazioni, a partire dai prezzi, dal catalogo web di ogni concorrente, monitorando quando i listini dei competitor salgono e scendono. Con il price scraping, il bot modifica in maniera dinamica i propri prezzi, ogni volta che lo fanno i player rivali, alterando la concorrenza.
Come proteggersi dai bot malevoli
Gli agenti software malevoli attaccano gli account degli utenti, influenzano i data analytics, estraggono dati e danneggiano la customer experience. E, ultimamente, possono portare anche a data breach.
Secondo The State of Application Security in 2021, negli ultimi dodici mesi, gli attacchi basati su bot contribuiscono soprattutto a security breach, derivanti dalle vulnerabilità nelle applicazioni.
Per proteggersi, gli utenti business e le imprese possono adottare soluzioni WAF/WAF-as-a-Service, anche note come servizi di Web Application e API Protection (WAAP), per difendersi da gli agenti software malevoli, in grado di eludere il monitoraggio.
La tecnologia WAAP identifica e bloccai bot malevoli, migliorando l’esperienza utente e la sicurezza generale.