Sie befinden sich hier:

Fünf Klicks frei: Google kommt Zeitungs-Websites etwas entgegen

Obskures Objekt verlegerischer Begierde: Google News
Screenshot: Netzpresse
Obskures Objekt verlegerischer Begierde: Google News
Screenshot: Netzpresse
Google kommt Zeitungs-Websites, die ihre Inhalte im Internet nur noch gegen Registrierung und/oder Bezahlung herzeigen wollen, einen Schritt entgegen. In Zukunft dürfen Verlage nämlich die Zugriffe auf ihre Artikel via Google und Google News auf täglich fünf Abrufe begrenzen.

Loch in ihre Bezahlmauer
Bisher mussten die Verlage ein Loch in ihre Bezahlmauer bohren, wenn sie die populäre Suchmaschine nicht aussperren wollten. Durch diese Öffenung durfte sowohl der Google-Crawler (der Datensammler für den Index der Suchmaschine) schlüpfen als auch der von Google per Link geleitete Nutzer. So lassen sich als Bezahl-Content gekennzeichnete Artikel von Rupert Murdochs Wall Street Journal über einen Google-Link im Volltext betrachten. Klickt man sie direkt auf der WSJ-Website an, wird nur ein "Preview" gezeigt. Google nennt dieses Prinzip First Click Free.

Diese Freiheit reicht nun nur noch ein paar Klicks weit. "Wenn Sie ein Google-Nutzer sind, bedeutet das, Sie müssen sich auf den Anblick einer Registrierungs-Seite gefasst machen, nachdem Sie sich mittels First Click Free zu mehr als fünf Artikeln pro Tag auf einer Verlags-Website durchgeklickt haben", schreibt Google-News-Chef Josh Cohen in einem Blog-Posting.

Surfen mit Tarnkappe
Streng genommen untermininiert Google damit seine eigene Doktrin, keine Seiten in den Index aufzunehmen, die dem Crawler einen Inhalt vorgaukeln, der nicht dem entspricht, was ein normaler Surfer beim Aufruf einer Seite zu sehen bekommt. "Cloaking" werden solche Täuschungsmanöver genannt. Betrüger bedienen sich dieses Mittels beispielsweise, um Nutzer unter Vorspiegelung falscher Tatsachen auf ihre Seite zu locken und ihnen dort Schad-Software unterzuschieben.

So etwas machen Verlage natürlich nicht, nein. Wer auch immer sich des Cloakings bedient - er muss unterscheiden, ob sein Besucher ein Google-Crawler ist oder nicht, und wenn nicht, ob er wenigstens von Google kommt oder auch nicht. Das lässt sich anhand der Browser-Kennung und am Referer, also der zuvor besuchten Adresse, erkennen.

Solche Angaben lassen sich allerdings auch fälschen. Ob Normal-Surfer die Verlags-Websites austricksen können, indem sie ihrem Browser die Tarnkappe eines Google-Bots unterschieben, bleibt abzuwarten. Für das Geschäftsmodell des Paid Content wäre dies jedenfalls keine gute Nachricht.

"Subscription"-Stigma
Alternativ bietet Google den Verlegern an, nur noch Vorschau-Seiten mit Artikel-Ausschnitten zu indexieren, und die Suchtreffer dann mit "Subscription" (Abonnement) zu kennzeichnen. Solche aus Nutzersicht minderwertigen Treffer sollen grundsätzlich nicht schlechter behandelt werden als Volltexte - da Googles Ranking aber auf Popularität basiert, dürften sie sich zwangsläufig schlechter plazieren.
Sie sind: Gast | Login | Registrieren