Viren, Spyware, Datenschutz 11.213 Themen, 94.155 Beiträge

News: Viren, Spyware, Datenschutz

Non-Human Traffic - die Bots gehen um...

Olaf19 / 16 Antworten / Flachansicht Nickles

Das kalifornische Unternehmen Incapsula kommt in einer Studie zu dem Ergebnis, dass satte 61,5% des Traffics im Internet nicht von Anwendern herrührt, sondern von Bots - dies entspricht einem Anstieg von rund 21% im letzten Jahr. Mehr noch: etwa 31% der Bots sind schädlich.

Angenehmer Nebeneffekt für Betreiber werbefinanzierter Webseiten: Es scheint technisch (noch?) nicht möglich zu sein zu unterscheiden, ob ein Mensch oder ein Bot eine Werbung geladen hat. Für den Werbetreibenden ist das natürlich ein Problem - wenn von 5 Besuchern, die die Werbung geladen haben, nur 3 in der Lage gewesen sind, diese zu "konsumieren", eben weil sie Menschen sind, bezahlt er viel zu viel.

 
 
Olaf19 meint:

Wenn man einmal unterstellt, dass der Anteil der schädlichen Bots - 31% - in etwa dem Anteil des durch sie verursachten Traffics entspricht, dann würde das bedeuten, dass 20% des Internettraffic-Aufkommen bösartigen Charakters ist, sofern die Zahlen aus der Studie zutreffen. Ich finde, das ist ganz schön viel.

"Wir sind die Bots - Widerstand ist zwecklos" :-/

Hinweis: Vielen Dank an Olaf19 für das Verfassen der News. Diese News stammt von einem Nickles.de-Teilnehmer. Die Nickles.de Redaktion übernimmt keine Verantwortung für den Inhalt und die Richtigkeit dieser News.

Bei Nickles.de kann übrigens jeder mitmachen und News schreiben. Dazu wird einfach in einem Forum ein neues Thema begonnen und im Editor die Option "News" gewählt.

"Das sind Leute, die von Tuten und Ahnung keine Blasen haben" (ein Reporter auf die Frage nach der politischen Bildung des typischen Anhangs von Donald Trump)
bei Antwort benachrichtigen
angelpage Olaf19 „Non-Human Traffic - die Bots gehen um...“
Optionen

Jeder Webmaster, der seine eigenen Seiten analysiert, kennt diese Relation - seit Jahren. Deshalb blockt er ja gezielt in seiner "robots.txt" (wird leider durch unseriöse Bots nicht beachtet) und -garantiert sicher- mittels ".htaccess" Besuche bestimmter Bots und Crawler.

https://de.wikipedia.org/wiki/Robots_Exclusion_Standard

https://de.wikipedia.org/wiki/Htaccess

In der Statistik für gestern habe ich trotz vorgegebener Restriktionen noch 81,1% Besuche mit einer Zeitdauer von 0...30 s, was immer noch einige Bots/ Crawler enthält.

Die zweite große Gruppe beim Traffic sind die Tracking- und Analysetools, insbesondere in Javascript und als Mini- Grafiken. Diese bringt der Webmaster selbst auf seinen Seiten unter und läßt seine oder beauftragte Bots analysieren (beim F*C*S Online sind das zig! Javascripts und Tracking- Bilder - nicht nur, um Besuche qualifiziert zu registrieren, sondern um Besucher, d.h. den User selbst zu identifizieren. Oft belegen diese Spitzel- ähm Analysestrings mehr Ressourcen als der gewünschte Content in den Netzen und auf dem Rechner sowieso. Zusätzlich führt das natürlich zu zusätzlichen Wartezeiten, da Scripte und Bildchen von völlig unterschiedlichen Servern -weltweit- geholt werden müssen ...

Diese Gruppe erkennst du selbst in Adblock Plus (zum Firefox) unter "Blockierbare Elemente", noch komfortabler und schneller mit dem Add-on "Ghostery".

Die dritte große Gruppe wird nicht, wie die ersten beiden, durch die Webmaster selbst, sondern durch eine ganze kriminelle Industrie -Verbund der Geheimdienste, Regierungen (Diktaturen! Schurkenstaaten, klar!), Verfaschungsschützer usw. usf.- für ihre Sammel-, Speicher- und Analysewut gebraucht.

Ja, die Welt ist sehr schlecht - wissen wir aber nicht erst seit Snowden.

Und nicht zuletzt: Natürlich ist es auch möglich, Bots und Menschen zu unterscheiden. Bots haben eine Psyche (und sind nicht so auf Pornos, Schnäppchen, kostenlos ...) aus Cool. Schädlich als Begriff ist manchem bereits die Zeit, Geld und Nerven raubende Ablenkung.

 

Schönes Wochenende (ich gehe noch mal über die Weihnachtsmärkte).

bei Antwort benachrichtigen