Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
Unternehmensnews
Google liefert robots.txt-Bericht für Search Console – robots.txt-Tester wird eingestellt

Google liefert robots.txt-Bericht für Search Console – robots.txt-Tester wird eingestellt

Niklas Lewanczik | 20.11.23

Der neue Google-Bericht zeigt über die Einstellungen die wichtigsten Informationen zu robots.txt-Inhalten auf Seiten an. Informationen aus dem Bericht zur Seitenindexierung werden ebenfalls eingefügt.

Es gibt ein wichtiges Update für alle, die robots.txt-Dateien einsetzen. Google hat einen neuen robots.txt-Bericht für die Search Console angekündigt. Dieser soll neben Input aus dem Bericht zur Seitenindexierung alle wichtigen Informationen zur Übersicht über Seiten enthalten, auf denen entsprechende Dateien integriert sind. User können über die Einstellungen auf den neuen Bericht zugreifen, sobald er für alle verfügbar gemacht wurde. Der robots.txt-Tester, der zur URL-Prüfung von Seiten mit robots.txt-Dateien dient, wird im Zuge dieses Updates eingestellt.

Mithilfe des Quasistandardprotokolls robots.txt können Seitenbetreiber:innen Vorgaben für Crawler wie jene von Google, Bing, aber auch OpenAI festschreiben und gegebenenfalls das Crawling von eigenen Inhalten untersagen. Bei Google können Publisher neuerdings über robots.txt auch Google-Extended nutzen, um zu entscheiden, ob sie das Crawling durch Bard und Vertex AI-Systeme erlauben möchten.

Schon im Juli bestätigte Google, Alternativen für den rund 30 Jahre alten Quasistandard robots.txt ausloten zu wollen.


Auch wegen AI-Aufschwung:

Google sondiert Alternativen zu robots.txt

© Christian Wiediger - Unsplash, Google-Schriftzug auf Google-Startseite auf Bildschirm

© Christian Wiediger – Unsplash

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*