Was Ist Eine Robots.txt Datei?
Eine robot.txt-Datei gibt Web-Crawling-Robotern Anweisungen, wie sie eine Website durchsuchen sollen. Dies kann verwendet werden, um die Indizierung bestimmter Teile Ihrer Website zu verhindern.
Mehr Über Robots.txt-Dateien
Robot.txt-Dateien sind nicht unbedingt notwendig. Ohne sie wird ein Spider einfach basierend auf seiner Standardanleitung die Website durchsuchen. Allerdings können die meisten Seiten von der Einbeziehung einer Robot.txt-Datei profitieren, um die Crawler besser zu lenken.
Eine robot.txt-Datei kann verwendet werden, um das Crawling bestimmter Seiten zu fördern oder zu verhindern. Wenn eine Website beispielsweise einen privaten Staging-Bereich hat, der daran gehindert wird, indiziert zu werden, möchtest Du nicht, dass diese Seite in Suchergebnissen erscheint. Robot.txt-Dateien können auch dazu verwendet werden, sicherzustellen, dass bestimmte Seiten gecrawlt werden, oder um schlecht optimierte Seiten vor einer Einordnung zu verbergen.