Inhaltsverzeichnis
Robots.txt ist eine Textdatei, die es einer Website ermöglicht, Anweisungen für Web-Crawling-Bots bereitzustellen.
Suchmaschinen wie Google verwenden diese Web-Crawler, manchmal auch Web-Robots genannt, um Websites zu archivieren und zu kategorisieren. Die meisten Bots sind so konfiguriert, dass sie nach einer robots.txt-Datei auf dem Server suchen, bevor sie irgendeine andere Datei von der Website lesen. Sie tun dies, um festzustellen, ob der Eigentümer einer Website spezielle Anweisungen für das Crawlen und Indizieren seiner Website hat.
Die Datei robots.txt enthält eine Reihe von Anweisungen, die den Bot auffordern, bestimmte Dateien oder Verzeichnisse zu ignorieren, sei es aus Gründen des Datenschutzes oder weil der Eigentümer der Website der Meinung ist, dass der Inhalt dieser Dateien und Verzeichnisse für die Einstufung der Website in Suchmaschinen irrelevant ist.
Wenn eine Website mehr als eine Subdomain hat, muss jede Subdomain ihre eigene robots.txt-Datei haben. Es ist wichtig zu beachten, dass nicht alle Bots eine robots.txt-Datei beachten. Einige bösartige Bots lesen die robots.txt-Datei sogar, um herauszufinden, welche Dateien und Verzeichnisse sie zuerst anvisieren sollten. Auch wenn eine robots.txt-Datei Bots anweist, bestimmte Seiten auf der Website zu ignorieren, können diese Seiten immer noch inSuchergebnissen, wenn sie von anderen Seiten, die gecrawlt werden, verlinkt werden.
Weitere Lektüre
- So fügen Sie Ihre WordPress-Site zur Google Search Console hinzu
- SEO