Il 51% del traffico di Internet non e’ ‘umano’ e viene generato da programmi automatizzati, molti dei quali dannosi. Lo afferma uno studio dell’azienda statunitense Incapsula, specializzata in sicurezza sul web nel cloud computing.

Secondo i dati, basati su un campione significativo di mille siti, il 5% del traffico e’ generato da software ‘maligni’ che cercano vulnerabilita’ nei siti da sfruttare, un altro 5% viene dagli scrapers, programmi che estraggono informazioni dai siti, mentre il 2% e’ causato da programmi che commentano automaticamente blog e siti, di solito rimandando a qualche pagina web commerciale. Il grosso del traffico invece si divide tra programmi ‘spia’, a caccia di informazioni su rivali industriali, con una quota del 19%, i programmi indicizzatori dei motori di ricerca, che generano senza intervento umano una fetta del 20% – l’unica da considerarsi ‘benigna’ -, mentre il restante 49% e’ dovuto al traffico ‘umano’: ”Poche persone realizzano quanto del traffico sul proprio sito e’ non umano, e quanto e’ potenzialmente pericoloso – spiega al sito Zdnet il cofondatore di Incapsula Marc Gaffan – oltretutto queste applicazioni sottraggono una parte consistente della banda”.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui