Wann wird die robots.txt von ACAP ersetzt?

Heute bin ich von online Magazin ibusiness über ein neues Protocol informiert worden mit dem man in Zukunft den Suchmaschinen sagen könnte welche Inhalte die Suchmaschine verarbeiten darf.

Bisher hat man diese Angaben mit der robots.txt übermittelt und das war auch im Sinne der Suchmaschinen.
Jetzt wird aber im Zusammenhang mit dem Leistungsschutzrecht für Presseverlage das  neue ACAP (Automated Content Access Protocol) ins Gespräch gebracht.

Mit diesem ACAP kann man den Suchmaschinen viel genauere Anweisungen übermitteln.

Man kann ihnen z.B. sagen wie lange eine bestimmte Seite im Index bleiben darf.

Die Verlage möchten eine Entscheidung herbeiführen die den  Suchmaschinen auferlegt den im  ACAP definierten Anweisungen Folge zu leisten.

Was man alles mit dem ACAP definieren kann hat Stefan Fischerländer von suchmaschinentricks vor ein paar Tagen recht ausführlich in einem Blogbeitrag  behandelt. Mein Beitrag hier basiert auch auf den Aussagen des Beitrages von Stefan Fischerländer.

Weitere Gedanke dazu und das es sich letztendlich nur positiv für uns normalen Blogger und Publisher auswirken kann wenn man zum Ergebnis kommt das Google da nicht mitspielt und die Verlage einfach aus dem Index schmeißt hat sich der tagseoblog.de gemacht.

Es bleibt dann abzuwarten wie das noch weitergeht.

Soll ich etwas Wesentliches vergessen haben dann ergänzt oder berichtigt mich einfach per Kommentar.

Grüße
Und einen guten Start in die neue Woche.

Lothar

Eure Kommentare zum Thema Wann wird die robots.txt von ACAP ersetzt?

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht.