Impressum Startseite Grund Installation Grundlagen Hilfreiches Projekte Querschläger Meckerecke

18.12.2015: Vorratsdaten Generator, oder auch "Surf" Simulator - ein nicht ganz ernst gemeintes Posting...

Sorry, ich konnte nicht widerstehen...8-) Die Idee hatte ich schon mal vor langer Zeit und DIE musste ich jetzt einfach mal "umsetzen".

Es geht um die sehr beliebte "Vorratsdaten Speicherung". Keiner will sie, aber sie kommt - irgendwann. Frei nach dem Motto "Es werden keine Inhalte gespeichert, sondern nur die "IPs"... soso..., warum kommt einem diese Aussage nur so Vertraut vor ? -> Niemand hat die Absicht eine Mauer zu errichten ; Die Rente ist sicher; Eine PKW Maut wird es nicht geben, etc pp... - Ein Schelm der böses denkt !

OK, also nennen wir das folgende Script mal "Surfsimulator" oder einfach nur Traffic Generator.

Es existiert eine Textdatei wo man viele interessante Webseiten reinschreiben kann, Zeile um Zeile(Die Arbeit müsst ihr euch selber machen, z.b. ebay Auktionen, google Suchanfragen, etc...). Das PHP Script liest diese Datei ein, wählt eine zufällige Zeile aus und Lädt die Webseite in eine Variable, löscht diese Variable, wartet einige (einstellbare) Sekunden und beendet sich wieder.

Wenn man das PHP Script jetzt durch ein Bash Script im Interrupt durch einen Raspberry Pi in einer Schleife aufrufen lässt, dann wird immer wieder eine zufällige Zeile aus der Surfliste rausgesucht und angesurft - rund um die Uhr, 24 Stunden am Tag, 7 Tage die Woche..., was da für Datenvolumen produziert wird ist schon enorm ! 8-)

Hier das PHP Script welches z.b. bei "/var/www/Daten.php" liegt:

<?php
//Surf Simulator aka Vorratsdaten Generator
// Liste der Webseiten die aufgerufen werden soll
$Surfliste='Surfliste.txt';

//Maxmiale Wartezeit zwischen den Surfvorgängen.
$Max_Wartezeit="1";

//Lädt die Webseiten Liste in ein Array
$lines = file($Surfliste); 
shuffle($lines); //Durcheinander würfeln

//Anzahl der Webseiten in der Liste
$anzahl=count($lines);
//Wähle einen zufälligen Eintrag
$zufall=rand(0,$anzahl);
$inh=file_get_contents(trim($lines[$zufall]));
unset($inh);

//Wartezeit bis zum nächsten Aufruf
$zufall=rand(0,$Max_Wartezeit);
sleep($zufall);

?>

Hier eine beispiel "Surfliste.txt", die Datei sollte im gleichen Pfad wie die PHP Datei liegen, kann man aber anpassen:

http://www.groogle.de
http://www.yrahoo.de
http://www.rebay.de
http://www.rAmazon.de
http://www.rAmazon.fr

Damit das ganze rund um die Uhr jede Minute einmal aufgerufen wird, legt man einen Cronjob im Terminal an: sudo crontab -e

* * * * * /usr/bin/curl 192.168.0.2/Daten.php >/dev/null 2>&1

OK, einmal pro Minute eine Webseite aufrufen ist schon nicht schlecht, aber alle paar Sekunden wäre doch besser, oder ?

Dafür brauchen wir noch ein Bash Script, nennen wir es mal "/var/www/loop.sh":


#!/bin/bash

while true
do

curl 192.168.0.2/Daten.php

sleep 0.5
done

Jetzt rufen wir unseren Cronjob auf: sudo crontab -e und fügen folgendes ein:

@reboot bash /var/www/loop.sh &

nach dem nächsten reboot des RPis wird rund um die Uhr ein irrer sinnloser Traffic erzeugt - So etwas nennt man auch Vorratsdaten die ja angeblich nicht gesammelt werden (Noch nicht)!

Vorsicht wer Volumentarife nutzt - das Volumen hält nicht lange - ausserdem verstopft das ganze total sinnlos das Netz. Auch die Webseiten Betreiber finden das bestimmt nicht witzig und werden über kurz oder lang wohl eure IP in der htaccess sperren wenn ihr zu Penetrant werdet - zumindest Ich verfahre so...


 

Das ganze noch mal "rein" in Bash... - ohne Umweg über PHP..., eigentlich was es mal eine Fingerübung

Datei /var/www/index.sh

#!/bin/sh

while true
do

#Maximale Wartezeit
Max_Wartezeit=5;

#Erzeugt eine zufällige Zahl zwischen 0 und der max Wartezeit
zahl="$( seq $Max_Wartezeit | shuf )"
zahl="$( cut -d" " -f2 <<< $zahl )"
zahl=$(( $zahl-1 ))
Max_Wartezeit=$zahl

#Lädt die Webseiten Liste in ein Array
filecontent=( `cat "Surfliste.txt" `)

#Zufällige Zahl erzeugen anhand der Anzahl der Zeilen der Webseitenliste
anzahl=${#filecontent[@]}
zahl="$( seq $anzahl | shuf )"
zahl="$( cut -d" " -f2 <<< $zahl )"
zahl=$(( $zahl-1 ))

#Wähle einen zufälligen Eintrag aus der Webseitenliste
inhalt="${filecontent[$zahl]}"

echo $inhalt # Kann bei bedarf entfernt werden.

#Webseite aufrufen und inhalt "vergessen"
curl $inhalt >/dev/null 2>&1

#Wartezeit bis zum nächsten Aufruf
sleep $Max_Wartezeit

done

Nehmen wir die gleiche Surfliste.txt wie vorher..., im gleichen Verzeichnis

http://www.groogle.de
http://www.yrahoo.de
http://www.rebay.de
http://www.rAmazon.de
http://www.rAmazon.fr

Und der passende Cronjob dafür um unendlich Traffic zu erzeugen: sudo crontab -e

@reboot bash /var/www/index.sh &

Nach einem reboot geht es richtig zur Sache und eure Kupferkabel fangen an zu glühen.8-)

Wer das Bash dort oben einmal mit Terminal mittels "bash /var/www/index.sh" einmal von hand startet und die Zeile "echo $inhalt" drinnen lässt, kann verfolgen welche Webseite gerade aufgerufen wird. Alternativ kann man die Zeile auch entfernen.

Impressum Startseite Grund Installation Grundlagen Hilfreiches Projekte Querschläger Meckerecke