Wisst Ihr was mich wirklich nervt? Captchas. Im besonderen die von Google. Die finde ich über alle Maßen beleidigend. Google nutzt Captchas zum trainieren ihrer künstlichen Intelligenz. Das fand ich eine zeit lang noch irgendwie ok, weil sie einen Dienst angeboten haben, der wirklich gut funktioniert und leider nötig ist und ich fand es eigentlich nicht schlimm, dass sie nebenbei halt noch Daten auswerten. Mittlerweile sehe ich KI einfach etwas kritischer, aber das ist gar nicht mein Punkt. Was mich stört ist, dass Google so dreist ist das Arbeitspensum für diese Gratisarbeit zu erhöhen.
Zugegeben das ist reine Spekulation. Aber ich habe jetzt schon mehrfach erlebt, dass ich alles richtig ausgefüllt habe und musste trotzdem nochmal ausfüllen. Und ich rege mich hier nicht wegen 2x Captcha ausfüllen auf, sondern eher so 30x hintereinander. Dann gibt es noch die, die einfach verschwinden. Das erweckt den Eindruck, dass Google quasi den Ertrag an Daten erhöhen möchte. Das finde ich beleidigend. Ich bin doch kein Affe, den man einfach mal für sein kleines Experiment einspannen kann.
Ich habe mir also mal Gedanken gemacht, was man alternativ zu Captchas nutzen könnte. Der Punkt hinter Captchas ist ja, dass man nachweist kein Bot zu sein, weil Spam vermieden werden soll. Und das ist wirklich ein riesiges Problem. Jede*r, der/die mal versucht hat komplett ungeschützt eine Website mit Kommentarfunktion zu administrieren weiß das. Es geht aber nicht nur um Spam. Es ist auch möglich bestimmte Dienste unbrauchbar zu machen in dem man zu hohen Traffic erzeugt. Aber wie könnte man sich noch schützen?
Ein durchaus interessanter Ansatz ist die Honeypot Methode. Hierbei legt man zu den Feldern, die eigentlich nur benötigt sind zusätzlich noch ein nicht sichtbares Eingabefeld an. Bots können das in der Regel nicht erkennen und füllen erstmal alle Felder irgendwie aus. Wenn das Feld gefüllt ist kann man die Daten verwerfen statt sie zu speichern. Das ist für kleinere Seiten sicherlich brauchbar. Allerdings ist der Fallstrick definitiv, dass man das ganze umgehen kann, wenn es um Bots geht, die es nur auf explizit eine Seite abgesehen haben.
Dann gibt es noch die Möglichkeit quasi die Session zu prüfen. Das finde ich ein bisschen kacke, weil ich eigentlich keine Cookies nutzen will, aber theoretisch könnte man einen Cookie setzen, der eben nur gesetzt wird, wenn man die Website auch wirklich besucht hat. Wenn ein Bot dann nur das Versandtformular anspricht käme er nicht durch.
Eine Variante, die mir wirklich nicht gefällt wäre Blacklisting. Also ich rede gar nicht von Inhalten sondern eher von IPs. Allerdings sehe ich da mehr Nachteil als Vorteil. Zum einen kommen die Bots dann halt von einer anderen IP und sollte man gleich ganze IP Ranges sperren, schließt man im Zweifel Leute aus, die gar nichts getan haben und wirklich gerne die jeweilige Website besuchen wollen.
Ich glaube es würde Sinn machen einen Timer zu installieren. Menschen brauchen ja in der Regel eine Weile um ihren Beitrag abzutippen. Bots hingegen wollen ja schnell posten und möglichst viel.
Habt Ihr noch Ideen?