L’utilizzo di sistemi automatizzati per raccogliere dati da internet, per addestrare modelli di intelligenza artificiale, sta creando nuove sfide per la stabilità della rete mondiale. Un’indagine dell’azienda di sicurezza informatica BarracudaNetworks ha evidenziato il proliferare di una nuova tipologia di bot, chiamati “grigi”, programmati per esplorare i contenuti online da integrare nei modelli di IA.
Questi strumenti, spesso sviluppati utilizzando tecnologie basate su intelligenza artificiale, risultano particolarmente veloci e capaci. Gli analisti segnalano che riescono a raccogliere un’enorme quantità di dati, generando picchi di traffico che possono ostacolare il corretto funzionamento di numerose piattaforme digitali.
In un episodio documentato, uno di questi programmi ha effettuato oltre 500.000 richieste in meno di un giorno verso un’applicazione mobile. Sebbene non costituiscano una minaccia immediata per gli utenti, attività simili sono sufficienti a causare rallentamenti considerevoli dei servizi coinvolti.
Tra la fine del 2024 e l’inizio del 2025, alcuni bot noti come ClaudeBot e Bytespider hanno generato un numero elevato di accessi, con picchi che hanno superato i nove milioni di richieste in un mese. Le analisi mostrano che il traffico è rimasto costante, con una media di circa 17.000 interazioni all’ora su ciascun servizio monitorato.
Queste attività di raccolta automatica, conosciute come scraping, si collocano in una fascia intermedia: non del tutto legali, ma nemmeno apertamente illecite. Si differenziano dai bot benigni impiegati per indicizzazione o assistenza, e da quelli dannosi usati per attacchi o frodi informatiche.










