Was?
Inkohärentes Geschreibsel eines Late Adopters
Ralph
E-Mail oder kontaktiert range im IRCNet oder auf Freenode.
Bilder
Ralphs Bildergalerie
Feed Me!
Hier gibt es einen RSS-Feed. Oder folgt mir bei Twitter.
Februar 2015 | ||||||
---|---|---|---|---|---|---|
So | Mo | Di | Mi | Do | Fr | Sa |
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
Auch lesbar
Na, einfach shrek[]
Sieh die Welt mit meinen Augen
Das Schwätzbrett
Das Bildblog
D'ohne Pointe
Diese Captchas sollen mittlerweile nicht mehr nur vor Spam schützen — hier vor allem in Webforen oder auf Wikis — sondern auch Banken oder Webmailer wie Googles gmail.com setzen auf diese Methode, um automatisiertes Anlegen von Accounts zu erschweren oder um dem Kunden einen angeblichen weiteren Schutz beim Onlinebanking zu geben. Kein Wunder, dass es immer mehr Menschen gibt, die Interesse daran haben, solche Captchas generell lösen zu können — natürlich nicht immer für lautere Zwecke.
Auftritt Indien: Dort hat sich “Captcha Solving” zu einer mittelgroßen Industrie gemausert. Firmen, die versprechen, 800 Captchas pro Stunde zu lösen, Datentypisten, denen US-$ 2,- pro 1000 gelösten Captchas gezahlt — alles natürlich unter dem Anschein der Legalität: “Wir lösen Captchas für sehbehinderte Personen, ermöglichen Wissenschaftlern die GMAIL-Captchas für ihr Projekt zu lösen”, aber in Wirklichkeit wird das natürlich alles für das organisierte Verbrechen genutzt.
Dancho Danchev hat in seinem Blog bei ZDNet einen erschreckenden Artikel zu dem Thema geschrieben. Man kann mit Gewißheit sagen: Captchas sind tot. Zumindest dann, wenn damit etwas von Wert geschützt werden soll. Und das im großen Stil. Wieder ein Sieg für das Verbrechen, wieder ein Verlust für die, die das Web nutzen wollen für Diskussionsforen, Wikis, Bugtrackingsysteme usw. — also alle Systeme, die davon leben, dass Menschen “von außen” leicht Kommentare oder Texte hinterlassen können.
Geschrieben um 18:24
[/computer/internet] [permanent link] [Startseite]
Die Blogger der Securityfirma Pandasoftware haben jetzt ein Tool entdeckt, was diese Einträge automatisiert vornimmt — oder habt ihr etwa gedacht, dass Spammer “zu Fuß” von Forum zu Forum hoppeln? Das ist eine sehr beeindruckende Software, die in zwei Teilen kommt: Hrefer durchgräbt Suchmaschinen nach Webforen und sammelt diese Links. XRumer nimmt diese Links dann entgegen und verbreitet Werbedreck in den Webforen.
Und zwar vollautomatisiert: Wird ein Webforum entdeckt, legt die Software einen User an, wartet auf den “Activiation Link”, der normalerweise per Mail zugeschickt wird, aktiviert den Account und posted dann die Werbung in das Forum.
Aber dagegen kann man sich ja mit einem Captcha schützen — diesen unleserlichen Zeichenketten, mit denen man beweisen kann, dass man ein Mensch ist, da eine Maschine diese unmöglich entziffern kann, oder? Falsch. XRumer ist in der Lage eine ganze Reihe solcher Captchas zu identifizieren und auszulesen — sogar drei Versionen, an denen ich z.B. regelmäßig scheitere. Die Liste findet sich unten im Blogeintrag.
Um den Eintrag abzurunden gibt es auch ein Video, welches die Software in Aktion zeigt. Sehr beeindruckend, aber auch sehr sehr beängstigend, mit welch geringem Einsatz so ein Müll verbreitet werden kann.
Stirb Spammer, stirb
Geschrieben um 12:44
[/computer/internet] [permanent link] [Startseite]
Wer also ist dann Web-2.0, wenn schon das W3C nur 7 Punkte bekommt? Wenn Flickr nur 4 Punkte bekommt? Und auch Google Maps mit 6 Punkten nur wenig besser ist? Muss es Beta sein? Fehlen tag clouds? Sind Ruby on Rails oder Ajax oder Python notwendig? Muss man verstanden haben, was das Semantic Web ist? Runde Ecken? Nitro? MonoRail? Podcasting?
Egal, jetzt gibt es Abhilfe. Der Web-2.0 Validator hilft einem dabei, seine Seite für Web-2.0 zu rüsten. Soll ja keiner sagen können, er habe nicht gewusst, worauf es ankommt.
Update: Immerhin schon 14 von 52 möglichen Punkten. Da muss sich doch noch mehr rausholen lassen …
Geschrieben um 17:36
[/computer/internet] [permanent link] [Startseite]
Da nur die ersten 8 Fahrer berücksichtigt werden, lohnt aber ein Live-Ticker als Zusatzinformation, z.B. der der ARD
Geschrieben um 15:45
[/computer/internet] [permanent link] [Startseite]
Hier wohne ich (östlich neben dem runden Dach des lustigen Gebäudes), das Bild müsste von 2004 sein:
Geschrieben um 00:27
[/computer/internet] [permanent link] [Startseite]
Letzteres bildet man sich natürlich nur ein, wenn man zu dumm ist um sich frei im Internet bewegen zu dürfen. Und was für Vollidioten auf diese tolle Idee kamen, lässt sich am besten bei Jef Poskanzer selbst nachlesen. “these two investigative savants” beschreibt es eigentlich recht gut, wären da nicht diese indirekten Drohungen.
Manchmal fragt man sich, wie solche Leute es schaffen, gleichzeitig zu atmen und sich die Schuhe zuzubinden. Aber eventuell können sie ja selbst das nicht.
Geschrieben um 00:47
[/computer/internet] [permanent link] [Startseite]
Auch wenn es wirklich nur weniger als ein Prozent der Kunden ist, die über die Suchmaschine zu BMW kommen, so ist das doch ein bisschen frech (abgesehen davon, dass das eine Prozent absolut gesehen wohl doch eine etwas größere Zahl sein dürfte). Erstens ist Googlespam eine der nervigeren Möglichkeiten, Suchergebnisse bei Google wertlos zu machen. Zweitens: Wenn eure Seite von Google und anderen Suchmaschinen nicht erkannt wird - das erkauft man sich halt mit javascriptverseuchten Flashorgien: Sie sind angenehm für das Auge (ja, das ist Ansichtssache), sind aber leider sehr hinderlich, wenn man Informationen extrahieren will.
Und drittens: Wenn man bei etwas erwischt wird, was einem selbst unangenehm ist — Man darf auch mal sagen, dass man Mist gebaut hat. Bei den meisten Leuten die ich kenne, steigt man dadurch sogar im Ansehen, wenn man das offen zugibt. Durch Rechtfertigungen wie “Man würde ja nur im Dienste des Kunden handeln” tut man das eher nicht. Danke, aber ich bin mündig genug um selbst zu entscheiden, was Dienst an mir ist. Und was nicht.
Geschrieben um 16:54
[/computer/internet] [permanent link] [Startseite]
Sehr schön. Erstens zeigt das, dass Google tatsächlich etwas gegen den Suchmaschinenspam macht. Jeder, der schon einmal versucht hat z.B. einen Testbericht zu einem elektronischen Gerät bei Google zu finden, sieht sich schließlich nach ein paar Versuchen mit einem Suchbegriff konfrontiert, der zumindest “-ebay -auktion -amazon -preisvergleich” enthält.
Zweitens wird hier tatsächlich auch mal einem Großen an den Karren gepisst. Wenn man sich anschaut, wie sich die Hersteller von Antivirenprogrammen geziert haben, das auf den Sony-CDs vorhandene Rootkit in ihre Signaturdatenbanken aufzunehmen. Weiter so.
Dennoch hält sich meine Hoffnung, doch mal wieder eine verwendbare Suchmaschine zu bekommen, in Grenzen.
Geschrieben um 13:20
[/computer/internet] [permanent link] [Startseite]
Geschrieben um 14:30
[/computer/internet] [permanent link] [Startseite]
And in order to also still vergraulen your remaining customers, you pack on the remaining albums a copy protection drauf
Geschrieben um 14:27