20. Januar 2005

[ Internet ]

Verwunderung über Google und Weblogsoftwarehersteller ob 'rel=nofollow'.

Unter der Überschrift "Preventing comment spam" hat Google etwas Neues eingeführt: Hyperlinks, die ein rel="nofollow"-Attribut tragen, werden künftig nicht mehr für den Pagerank gewertet.

Das ist im Grunde prima, denn es löst ein Problem, das schon oft diskutiert wurde: Wenn man über etwas schreibt, dass man schlecht findet, z.B. über einen Spammer, kann man nicht auf seine Seite linken, ohne ihm damit Pagerank zu "schenken". Jetzt geht das und macht das Leben Bloggen und Navigieren einfacher. Auch für automatische Einblendungen von Referrer-Listen und ähnlichem ist die Funktion nützlich.

Wenn es mal dabei geblieben wäre.

Google hat nämlich nicht nur diese Funktion eingeführt, sondern gleichzeitig eine ganze Reihe führender Weblogsoftwarhersteller bestochen überzeugt, ein neues "Feature" in ihre Programme zu übernehmen: Die URLs von Kommentatoren bekommen alle automatisch ein "nofollow" und werden so nicht mehr für den Pagerank gezählt.

Hurra! Hä?

Angeblich soll das Kommentarspam reduzieren. Die Argumentation ist, dass Spammer keinen Nutzen mehr davon haben, wenn sie spammen, weil sie ja keinen Pagerank mehr bekommen. Das ist vollkommen lächerlich: Filter und Barrieren haben Spammer noch nie abgehalten, weiterzuspammen (wie übrigens auch jeder an seinem Blacklist-Log ablesen kann). Es reicht, wenn 0.01% aller Weblogs das "nofollow" nicht implementieren und das Spammen lohnt sich weiter. Der Kommentarspam mag dann in 99.9% aller Blogs pagerankmäßig nichts mehr nutzen, er besteht aber weiter. (Nachtrag: Mehr dazu bei Ben Hammersley.) Wie Google auf die absurde Idee kommt, damit Kommentarspam verhindern (to prevent) oder gar blockieren (to block) zu können, erschließt sich mir nicht.

Was ansonsten passiert ist, dass der Pagerank innerhalb der Blogosphere sinkt: Aus Sicht des Pagerank ist die Blogosphere dann "unzusammenhängender". Möglicherweise tauchen nach einer Weile Weblogs nicht mehr "automatisch" so hoch in Suchergebnissen auf, wie sie es heute tun - ob das gut oder schlecht ist, möge jeder selber entscheiden.

Das hier ist nicht das Verschwörungstheorie-Blog, aber ich wundere mich, warum all diese Softwarehersteller sofort und ohne Diskussion die Aktion unterstützen, die die Software kein bisschen besser macht und die den Nutzern überhaupt nichts bringt. Das ist mindestens ungewöhnlich. Bei Haiko Hebig kann man mehr dazu lesen. Weblogsoftwarehersteller, Google: Ihr seid doch nicht doof. Ihr wisst doch, dass das Ganze keinen Spam bekämpft. Warum behauptet ihr das dann? Ich habe noch nicht eine plausible Erklärung gelesen.

[Update 22:30] Helge Fahrnberger hat kommentiert, ich habe nachgefragt und er hat geantwortet. Plausibel. Verschwörungs-Modus wieder aus. ;-)

Auf dieser Seite wird es kein automatisches "nofollow" geben. Kommentatoren und ihre Links sind willkommen. Ich will, dass ihr Pagerank bekommt! Ich glaube, dass das gut für das Netz ist.

Wenn Ihr nicht Eure URLs angeben und mein Blog die automatisch verlinken würde, würde ich manuell linken. Das ganze Gerede um "die Idee von Pagerank war, dass der Seitenbetreiber die Kontrolle behält" ist deshalb Quatsch: Ich habe die Kontrolle: Ich werfe alles raus, was mir nicht passt. Und der Rest bleibt stehen und bekommt Pagerank. So einfach ist das.

Und jetzt ist wirklich Schluss. Mehr Lesestoff:

Und, zur Dokumentation, ein paar Weblogeinträge der Softwarehersteller:


[21.01.05] Nachtrag. Mark Birbeck: Meta muddle at Google

If you haven't seen this yet, you well be asking the obvious question -- why would a crawler not want to follow the link? What's the point of being a crawler that doesn't crawl (or a spider that does't spide)?
The problem with this whole proposal is that it changes the meaning of the rel attribute -- or if we were to slip into OO terminology for a moment, it overloads the attribute. The whole point of @rel is to define a relationship between two documents. The whole point of nofollow is to say that there is no relationship between two documents. It's like using a special value of the title element to say that there is no title, or a special value of the style attribute to say that there is no style -- it's just plain wrong. You cannot say that the relationship between two documents is that a search engine should ignore the relationship between those two documents!
(Hervorhebung von mir. Das ist genau das Wirre, das mir gestern beim Lesen der Spezifikation(swikiseite) aufgefallen war.)

Auch lesenswert: Meatball Wiki: NoFollow

Trackbacks sind Links von anderen Weblogs auf diesen Eintrag.

Google hat ein Problem. Ihr Index ist voller SPAM. Wer einmal eine Bedienungsanleitung zu einem x-beliebigen Produkt bei Google gesucht hat, versteht, wovon ich rede. Google hat ein weiteres Problem: Seine Algorithmen sind nicht nur unfähig, SPAM auszusor

nohn.net/blog: Follow me! (20.01.05 18:19)

Martin Röll hat recht. Er klärt nochmal kompakt auf was es mit dem neuesten Feature von Google auf sich hat: mit d

Kommentare aus der AMAZONAS-Box: No "nofollow" (20.01.05 18:21)

Google will also eine Lösung gegen Kommentar-SPAM haben und (fast) alle rufen "Hurra" und wollen diese "Lösung" gleich nutzen: MSN, Yahoo und einige Anbieter von Weblog-Services und -Software. Was ist also d...

Dobschats Weblog: Google verhindert Kommentar-SPAM? (20.01.05 20:11)

Ich halte Googles Idee mit dem rel="nofollow"-Attribut Kommentarspam bekaempfen zu wollen, fuer keinen besonders guten Einfall. Denn 1. Will ich ja durchaus, dass die "regulaeren" Links in meinen Kommentaren von Googles Spidern verfolgt und auch...

Der Schockwellenreiter: Gegen Kommentarspam (21.01.05 07:52)

Google, Yahoo & MSN erklären, sie kämpfen seit Mittwoch gemeinsam mit Six Apart und anderen Weblog-Herstellern gegen Kommentar-Spam. Endlich, super, mögen viele zuerst meinen! PR-Gag, Aktion gegen die Kommentar-Spamer oder einfach n...

einfach-persoenlich: nofollow - noLinks, noComments, noTrackbacks, noPageRank? (21.01.05 19:27)

Nachdem das Thema 'rel=nofollow' nun seit einigen Tagen von vielerlei Seiten unter vielerlei Licht beleuchtet wurde, möchte ich es hier nicht auch noch ausführlich tun. Wer sich informieren möchte, kann...

pixelgraphix: nofollow (21.01.05 20:32)

Wenige Themen bewegen den Blogger mehr, als kinderausbeutende Klingelton-Dealer. Zu diesen Themen scheint es zu zählen, wenn die Trafficmotoren des Internets plötzlich einen Standard zur Bekämpfung...

Webmaster Blog: Dieses Blog bleibt Nofollow-frei (23.01.05 14:27)

nofollow dient sicherlich nicht dazu, die Bedeutung von Weblogs zu schwaechen. Zu pruefen sind allerdings die Nebenwirkungen dieser Medizin gegen Commentspam - ob die nicht schlimmer sind als die Krankheit ...

_notizen aus der provinz: Der Untergang der Weblogs: rel="nofollow"? (23.01.05 17:31)

Google revolutioniert das Internet mit dem rel=nofollow Attribut (es ist übrigens nur ein Attribut, und kein HTML-Element, wie man vielerorts falsch erfährt), liest man derzeit in allen Blogs (siehe Alp, , Martin Röll, NoNofollow etc.). Weitere Links ersp

superBlog: Semantischer Spam (23.01.05 19:54)

Im Januar 2005 sollte ein neues HTML-Attribut das Internet revolutionieren und Spam-frei machen. Google verkündete seine strategische Allianz mit Blog-Herstellern und Suchmachinen-Konkurrenten gegen Spamer. Was hat nun »nofollow« nach...

einfach-persoenlich: nofollow – 6 Monate danach (20.07.05 12:12)

Derzeit benutze ich hier für Kommentarlinks das nofollow-Attribut. Das ist ja mittlerweile weit verbreitet und ich hab es auch nicht absichtlich eingebaut, sondern es ist bei Wordpress von vornherein so eingerichtet. Ich selber habe da derzeit noch kei...

internetmarketing-news.de: Umfrage: Link von Blog-Kommentaren mit nofollow-Attribut? (10.10.05 16:45)

rel=nofollow wurde nach aussage von google als allheilmittel gegen spammer eingeführt. dazu einige hintergrund-infos

Excessive Sound: rel=nofollow - fight spam - not blogs (16.04.06 20:35)

Opera hat die Links in Komentaren von Blogs alle auf "nofollow" gesetzt. Damit will Opera dem Ziel Blog-SPAM Bekämpfung näher kommen. Aufmerksam wurde ich in einem K...

ThoBlog: BlogSPAM und nofollow (23.05.06 20:00)

 

Genauso ist das. Musste mich zwar heute hartnäckig durch etliche Links tanken, denn eigentlich ist mir PageRank persönlich prinzipiell egal. Auf der anderen Seite ist es aber auch ein undemokratischer Akt, was die Suchmaschinen-Megalomanen sich da leisten. Und mal von technischer Warte beleuchtet, sieht es nicht besser aus. Das hat folgen für die Barrierefreiheit.

Ansgar am 20.01.05 17:31 #
 

>>ohne ihm damit Pagerank zu "schenken".

das konnte man bisher auch schon umgehen. Und zwar verlinkte man die "böse" Seite nicht direkt, sondern auf ein bestimmtes Skript auf der eigenen Seite, dem man die URL übergab - und dieses Skript kümmerte sich dann um die Weiterleitung.

Bei der Methode stritten sich zwar die Experten, ob man juristisch gesehen sich weniger distanziert (man sieht in der URL nicht sofort, daß man die Seite verläßt), ebenso auf den Aspekt der Barrierefreiheit.

Ich denke: wenn es letztendlich nur darum gegangen wäre, hätte man diese Variante in vielen Systemen schon längst eingeführt gehabt.

René Pönitz am 20.01.05 17:43 #
 

Nein, René. Die Herumskripterei ist viel zu kompliziert. "nofollow" zu setzen ist einfach.

(Noch dazu ist das Geskripte hässlich, weil die Statuszeile nicht mehr sinnvoll anzeigt. Die Diskussion hatten wir übrigens bei der Kommentar-Redirect-Funktion von Movable Type schonmal, siehe z.B. hier.)

Bei der Gelegenheit habe ich übrigens gerade noch etwas ganz Altes dazu im Archiv gefunden: Das E-Business Weblog (27. April 2003): How not to link.

Martin Röll am 20.01.05 17:52 #
 

Es ist ganz einfach: Die neue Methode hat rein gar nichts mit Kommentar-Spam zu tun. Das zu behaupten ist wie sein Auto blau anzumalen und zu hoffen, dass es nicht mehr vom Regen getroffen wird. Das Blau kann ein Signal sein - für was auch immer ("ich mag Blau", "bitte nicht meine Scheiben putzen" oder eben "bitte nicht diesem Link folgen"). Regnen wird es trotzdem.

Thiemo Mättig am 20.01.05 18:12 #
 

100%ige zustimmung. rel=nofollow ist eine begrüßenswerte ergänzung zu den entsprechenden robots-exclusion-maßnahmen (meta, robots.txt). die implementierung zum schutz vor comment-spam ist jedoch schwachsinn.

und doch macht es sinn. page rank hat google dorthin gebracht, wo es jetzt ist. nur musste big G die relevanz von PR im google-algo immer weiter zurückschrauben, da suchmaschinenoptimierer und google-bomber den algo für sich ausnutzten. (ein strategischer fehler war, PR durch die google-toolbar für webmaster sichtbar zu machen anstatt es nur zum ranking zu verwenden.) was google's vorsprung (zusammen mit der technologischen aufholjagd von yahoo und neuerdings msn) fast auf null schmelzen ließ. mittleweile haben auch die anderen großen SEs ähnlich ausgefeilte "link popularity"-algorithmen live, und damit das gleiche problem wie google.

2003 und 2004 hat google mehrmals grobe algorithmus-änderungen durchgeführt um dem spam-problem herr zu werden, zum teil mit gegenteiligen effekten und großem aufruhr in der webmaster- und powersearcher-szene. jetzt probiert man es mit einem zusätzlichen searchbot-command. soweit, so legitim. das argument, dass dieser vorschlag nicht vom W3C kommt und daher abzulehnen ist, ist lächerlich.

nur warum sofware-hersteller hier zum steigbügelhalter der suchmaschinen-qualitätssicherung werden, obwohl sie selbst nur nachteile dadurch haben, ist mir komplett schleierhaft.

helge am 20.01.05 19:00 #
 

Wenn die Effektivität einer Maßnahme um 99% reduziert wird, dann hat es natürlich einen Einfluß auf Kommentarspam. Er wird nicht verschwinden, aber der Aufwand der dem Spammen gewidmet wird, der sinkt - deutlich. Es existieren zwar heute schon Tools, aber der Reiz das Wettrüsten mitzumachen vom Spammerseite ist natürlich geringer.
Denn im Gegensatz zum E-Mail Spam, kann man andere Maßnahmen nutzen die stärkeren Effekt haben und weniger kosten um seinen Pagerank aufzubauen.

Die Verlinkung innerhalb der Blogosphäre wird auch nicht weniger. Da die vielen Links nicht mehr gerechnet werden, bekommen die übrigen Links, die der Sitebetreiber setzt (die ja ebenfalls oft auf Weblogs zeigen) mehr Gewicht.

> die die Software kein bisschen besser macht und
> die den Nutzern überhaupt nichts bringt.

Es wird gemacht, weil es zZ. keine Technik gibt, die besser funktioniert als Linkpopularität, zeigt sich auch dadurch, dass die anderen Suchmaschinenbetreiber dem zugestimmt haben. Meine ernsthafte Frage: Welchen Vorteil haben Blogger oder Softwarehersteller, wenn sie _nicht_ helfen den Mißbrauch von Linkpopularität zu verringern? Wir alle sind auch Nutzer von Suchmaschinen, oder nicht?

Ob nun "rel" automatisch oder durch manuelles umstellen, oder durch Whitelisten umgesetzt wird, da sollte man sicher drüber diskutieren. Ich bin mir sicher, es wird auch in Zukunft mehr Variabilität in der Software geben, wenn sich mehr Leute darüber Gedanken gemacht haben. Wichtig ist im ersten Ansatz aber gewesen, dass die Nachricht so laut und breit wie möglich gehört wird, denn sonst wäre Linkspammen mehr und mehr zum Mainstream geworden - das nehmen nämlich viele nicht wahr: wie stark die Nutzung des Spamming zu nimmt. Es ist keine klare Grenze zwischen Gut und Böse, wenn etwas funktioniert, und es nicht aktiv etwas gegen den Anreit getan hat, dann steigt die Zahl der Spammer sehr schnell, sehr stark - Ende oben offen. Dann ist das Problem auch nicht mehr der automatisierte Spam...

Sencer am 21.01.05 00:13 #
 

In meinem Blog findet sich der Standpunkt des S9Y Teams auch in deutscher Übersetzung. Die vorangehende Diskussion ist auf Gmane archiviert.

Isotopp am 21.01.05 08:06 #
 

Google ist nicht der liebe Gott, alle anderen SM auch nicht. Wer hindert Google (oder eine andere SM) daran, Blogs und deren sämtliche Links, erkennbar an nofollow, niedriger zu bewerten als "normale" Seiten. Bzw. dies bei allen Blogs zu machen, außer denen von Blogger (ist ja ein Hausprodukt). So bekomme ich viele Kunden, die glauben, wenn ich bei Blogger bin, werde ich von Google besser bewertet (nein, natürlich nicht den harten Kern der Szene, schon klar).
Stellt Euch vor, Google kauft Jamba oder eine andere Firma, die in Bloggistan extrem schlecht wegkommt (oder umgekehrt). Ist der Gedanke dann noch so abwegig?
Google ist eine Firma, die im Zweifelsfall einem Kunden stärker verpflichtet ist als der Öffentlichkeit. So funktioniert Wirtschaft (manchmal eben).

Kossatsch am 21.01.05 09:29 #
 

Erst denken, dann kommentieren. »Stellt Euch vor, Google kauft Jamba oder eine andere Firma, die in Bloggistan extrem schlecht wegkommt (oder umgekehrt).« soll heißen »Stellt Euch vor, Google kauft Jamba oder eine andere Firma (oder umgekehrt), die in Bloggistan extrem schlecht wegkommt.« Sorry.

Kossatsch am 21.01.05 09:32 #
 

Sencer: Der Aufwand ist genau null, deshalb wird genauso weitergespammt werden wie vorher. Willst Du mal mein blacklist-log sehen? Seit Einführen von Blacklists ist Kommentarspam kein bisschen zurückgegangen - im Gegenteil.

Zu Deiner Frage: "Welchen Vorteil haben Blogger oder Softwarehersteller, wenn sie _nicht_ helfen den Mißbrauch von Linkpopularität zu verringern?": Es gibt hier keinen "Mißbrauch von Linkpopularität". Wer seinen Kommentarspam nicht löscht oder seine Kommentare nicht moderiert, soll bitteschön gerne rel-nofollow einbauen, aber hier stehen die Links aus gutem Grund.

Kossatsch: "rel=nofollow" wird auch auf anderen Seiten eingesetzt werden. Daran "Weblogs zu erkennen" wird nur sehr kurzfristig funktionieren.

Martin Röll am 21.01.05 09:59 #
 

Ich glaube, dass in der ganzen Diskussion der wirschaftliche Aspekt etwas übersehen wird.

Spammt jemand, dann hat er die Intention durch das Hinterlassen seines Links auf irgendeine Art in Folge Geld zu machen.

Steigt durch das Spammen der Pagerank der Seite des Spammers, wandert seine Seite im Google-Ranking zu diversen Suchbegriffen weiter und weiter nach oben, im "schlimmsten" Fall bis an die Nummer Eins.

Google verdient jedoch sein Geld Werbung, folglich wird man keinem professionellen Spammer die Möglichkeit bieten wollen, gratis den besten Platz im Suchergebnis zu ergattern.

Dass Spam das Netz belastet, Blogger in den Wahnsinn treibt, ... interessiert Google da vermutlich nur sekundär. (Ich gestehe, ein gewisses Interesse kann man wegen Blogger.com nicht absprechen. Dann hätte aber ein tag genügt, dass nur für blogger.com und Google berücksichtigt wird.

Markus am 21.01.05 10:31 #
 

Das ist genau das, was Helge mit "suchmaschinen-qualitätssicherung" meint.

Martin Röll am 21.01.05 10:39 #
 

Nachtrag zum vorherigen Posting:

Ein gutes Beispiel dafür hier:
http://www.google.at/search?sourceid=navclient&hl=de&ie=UTF-8&rls=GGLC,GGLC:1970-01,GGLC:de&q=texas+poker

Texas-Hol(d)em-Poker-Spam (musste das "d" in Klammer setzen, da Martin unseren lieben Freund aus Texas offensichtlich auch schon kennt) steht besonders auf Spam in Wordpress-Weblogs und hält Nummer Eins bei Google für die Suchbegriffe "Texas" und "Poker".

Markus am 21.01.05 10:41 #
 

Vielleicht wird "rel=nofollow" auch auf anderen Seiten eingesetzt. Irgendwo bleibt der schale Nachgeschmack, dass hier demokratische Instrumente (Blogs, Foren) in einer ihrer Kräfte - den PR zu beeinflussen) ausgehebelt werden könnten. Das sage ich nicht aus Sympathie zu den Spammern, vielleicht geht mir als Quasi-Nichtbetroffener (TXP-Benutzer) die Hysterie um Commentspam auch einfach am Popo vorbei.

Kossatsch am 21.01.05 10:59 #
 

Hallo, ich vermute dass Google die Kommentare nicht im Index einschliessen möchte weil: Kommentare zu klein sind sie sinvoll semantisch zu klassifizieren, and damit keinen cues enthält for Google Ads in Sites oder im Gmail, während die Kommentare dann doch viel Raum im Hitlist einnehmen werden. Andererseits ist es interessant zu sehen das Google mehr und mehr Katalogitems enthält (Bücher, usw), und sogar immer mehr Ergebnisse von anderen Suchsites oder aggretated blogs: ich finde immer mehr links zu Seiten die links zu anderen Seiten enthalten als links zu den Inhalten selbst. Und gibt's noch die Password Hacks in Orkut und Gmail, ein nicht funktionierender Orkut, Sprachediskriminierung, Einstellung der Innovation der Sprachtechnologie in der Suchalgorythmen, nicht beachten von Privacy bedürfnisse van Desktop Searchverwender, das verhaften von Orkutverwender (Orkut Jail) ohne Grund und ohne zu reagieren auf Reklamationen (scheint mittlerweilen bon ton zu sein in gewissen Regionen der Welt..), and schon bildet sich ein interessantes Bild das Google offenbar hat von den Verwendern. Ach ja, Detail Detail, es sind nur die Verwender die's schwer haben, und nicht die Google Kunden (Advertisers und Inhaltslieferanten). Wenn's so weiter geht wird 2006 das Jaher des Google Boycots :)

Olaf am 21.01.05 13:13 #
 

Drei interessante Aspekte sind mir in der Diskussion um rel="nofollow" besonders aufgefallen:

  • "nofollow" würde vor allem Blogs entwerten, weil
    >>Aus Sicht des Pagerank ist die Blogosphere dann "unzusammenhängender".
    Auf die 5-10 Prozent (meine Schätzung) der wirklich aktiven Blogs dürfte das nicht so sehr zutreffen. Die meisten von ihnen können über den Einsatz des Attributs selbst bestimmen. Ganz anders sieht es hingegen bei der großen Masse der gehosteten Blogs (blogger.com, MSN Spaces oder 20six) aus. Die werden vermutlich rel="nofollow" schlucken müssen. Und das ist vielleicht gar nicht so schlecht, denn dort befinden sich tausende wenn nicht Millionen vernachlässigter Blogs, die eine leichte Beute für Spammer sind.

  • Google gäbe den Anspruch auf, das Web so abzubilden wie es ist. Stattdessen müssten Autoren nun ihre Inhalte nach den Erfordernissen der Suchmaschinen richten. Dieses Argument scheint mir etwas akademisch, denn das Web würde auch heute schon ganz anders aussehen, wenn es den Pagerank-Algorithmus nicht gäbe - Links sind ja nicht zufällig zur wichtigsten Währung der Aufmerksamkeitsökonomie geworden.

  • In SEO-Kreisen geht man schon lange davon aus, dass ausgehende Links den PR verringern. Man darf also damit rechnen, dass das rel="nofollow" keineswegs auf Blogs beschränkt bleibt, sondern zum Gegenstand aller möglichen Tricksereien wird.

Wolfgang Sommergut am 21.01.05 14:43 #
 

Interessant! Über den ersten Punkt hatte ich auch so nachgedacht und ich teile Deine Ansicht: Dort wo Blogs vernachlässigt werden, ist es gut, wenn ein Plattformbetreiber den Spam per nofollow entwertet. (Und Powerusern kann man ja einen Schalter bereitstellen, mit dem sie die Funktion wieder ausschalten können.)

Bei Standalone-Software sieht es anders aus: Bei den vernachlässigten Blogs ist ja niemand mehr da, der das Update einspielen kann! Die Bloghersteller können also Updates bereitstellen wie sie wollen: Die Blogs, die _eigentlich_ upgedated werden müssten, werden gar nicht erreicht.

Martin Röll am 21.01.05 14:53 #
 

"Bei Standalone-Software sieht es anders aus: Bei den vernachlässigten Blogs ist ja niemand mehr da, der das Update einspielen kann!"

Stimmt. Aber - und das ist eine rein subjektive Erfahrung - die meisten "alleinstehenden" Blogs sind eher die von Powerbloggern, die sich um das Ding kümmern. Die zehntausend angefangenden Teenie-Katzenbilder-Blogs liegen bei Bloggio.

Arne Trautmann am 21.01.05 17:06 #
 

Ist das Attribut gefährlich? Ja und nein.

Erstens muß man sich erst ein mal vor Augen führen wie weit Gästebuch- und Blogspam wirklich schon gediehen ist. Bei dem Blog vonn Herrn Röll sieht das anders aus: Er kümmert sich. Andere tun das eben (gar) nicht. Gäbe es das Attribut noch nicht, könnte ich unter Umständen und unter derer Beider Zuhilfenahme ein Keyword (sagen wir mal mit 500,000 gefundenen Seiten) in ca. 4-6 Monaten in Google auf Seite Eins der Ergebnisse puschen. Nur weil ich weiß, wie's geht (die Worte, mit denen man verlinkt sind wichtiger als PR, welcher stark in der Bewertung abgenommen hat) - und ich mache das "Hobbymäßig", mich interessieren eben Internetstrukturen. Die aktive Blog-Gemeinschaft wird m.E. an dem neuen Attribut jedoch nicht wirklich zu leiden haben.

Das rel-Attribut ist im Grundsatz doch genau für Beziehungen zwischen Webseiten definiert worden, deshalb wurde es von Google ausgesucht. Es bezeichnet die Relation zwischen Seiten - warum sollte es also nicht auch genau definieren, dass es keine Relation zwischen den Seiten gibt? Mathematisch doch korrekt... . Und genau aus dem Grunde springen die großen Blog-Anbieter an: Blog-Spam wird stark zurückgehen, man muß irgendwann keine Angst mehr haben, dass das eigene Blog so zugespammt wird, wie es im Moment eben gängig ist. Nämlich dann, wenn der letzte (Profi-)SEO gemerkt hat, dass er hier nur Zeit verschwendet (und es spricht sich jetzt schon in Windeseile in der Szene herum).

Ein wirklich wichtiger Punkt, der noch gar nicht besprochen worden und der viel bedenklicher ist: Das erste mal hat eine Suchmaschine den "Vor"Sprung gewagt, in die Semantik des Netzes einzugreifen. Und alle zogen mit. Wer sich Gedanken über Google und seine (ihre? Ist Google weiblich?) Zukunft gemacht hat, der muß wohl zugeben, dass "suchen" und "finden" in Zukunft schwerer und teilweise anders definiert werden und es stark im Interesse von Google liegen muß, eine Art Suchsemantik aufzubauen. Sei es über Formate (HTML, XML o.ä.) oder durch das Diktieren dieser Formate (mein Lieblingszitat in dem Zusammenhang: "Die faktische Kraft des Normativen"). Hier hat ein marktbeherrschender global-player betriebswirtschaftlich gesprochen einen "Need" erzeugt, denn auch andere Suchmaschinen und Softwareanbieter sind sofort auf den fahrenden Zug aufgesprungen. Das sollte eigentlich das Thema hier sein, oder täusche ich mich? ;-)

Interessant wird also, so sehe ich das, das Verhalten von Google in, sagen wir, einem halben oder ganzen Jahr sein, wenn das "rel-Attribut" Zustimmeung gefunden und die KRitiker lange vergessen haben... - wir werden sehen.

Georgi am 22.01.05 22:09 #
 

"Bei Standalone-Software sieht es anders aus: Bei den vernachlässigten Blogs ist ja niemand mehr da, der das Update einspielen kann!"

Klar, aber irgendwann muss man ja damit anfangen. Wenn alle vernachlässigten _neuen_ Weblogs dieses und des nächsten Jahres erwischt werden, ist das auch schon mal positiv.

Florian Munz am 22.01.05 23:04 #
 

@Georgi:

>Blog-Spam wird stark zurückgehen, man muß irgendwann keine Angst mehr haben, dass das eigene Blog so zugespammt wird, wie es im Moment eben gängig ist.

siehe Antwort von Thiemo. Welcher Spammer wird sich die Mühe machen, vorher zu prüfen?

René Pönitz am 22.01.05 23:36 #
 

Das scheint eine Glaubensfrage zu sein: Manche glauben, dass die Spammer das Spammen einstellen/reduzieren werden, wenn Barrieren im Weg stehen, manche (darunter ich) glauben es (aus gutem Grund, siehe z.B. den Artikel von Ben Hammersley) nicht. Lass uns den Punkt nicht weiterdiskutieren, dazu ist alles gesagt.

Martin Röll am 23.01.05 00:20 #
 

Prognosen funktionieren bekanntlich nur dann, wenn sie in die Vergangenheit gerichtet sind. Ich traue mir daher keine Vorhersage zu, ob ein "folgmirnicht" in Hyperlinks zu einem Abschwellen des Comment-Spam-Tsunamis beitragen könnte. Ich gebe aber zu bedenken: Der massive Einsatz von server- und clientseitigen Filtern hat bislang nicht zu einem Rückgang des Email-Spams geführt. Im Gegenteil. Spammer kalkulieren anders. Dort wird nicht in 100er- oder 10.000er-Kategorien gedacht. Die kleinste Einheit ist die Million (hier wahlweise Email-Adressen, Foren, Gästebücher, oder Blogs eintragen).

Spammer sind keine Wesen von einem anderen Stern. Im Gegenteil: Sie wenden altbekannte Marketing-Strategien an und versuchen sie auf ein neues Medium zu transferieren. Spam ist nichts neues. Man findet solcherlei Nervigkeiten schließlich schon seit Jahr und Tag im (altmodischen) Briefkasten. Fernsehwerbung ist Spam: auch dort wird mit enormem Streuverlust und einstelleigen Reaktionsquoten kalkuliert. X Studien haben mittlerweile herausgefunden, dass TV-Werbung heutzutage nur noch den Bruchteil der Aufmerksamkeit genießt, den Marketingbrüder ihr gerne zuschreiben. Ergebnis: Es wird lauter und schneller geworben. Nicht etwa weniger.

Altes Denken trifft auf eine neue Welt. Das ist das Problem.

Mario am 23.01.05 03:06 #
 
X Studien haben mittlerweile herausgefunden, dass TV-Werbung heutzutage nur noch den Bruchteil der Aufmerksamkeit genießt, den Marketingbrüder ihr gerne zuschreiben. Ergebnis: Es wird lauter und schneller geworben.

Ja, die Pappenheimer machen solange weiter, bis es unter Höchststrafe gestellt wird, Werbung zu senden, für kein dreifaches opt-in gab. ;o)

Ein E-Mail-Spammer darf schon einmal 9 Jahre darüber nachdenken, ob es das wert ist.

Silke Schümann am 24.01.05 03:01 #