Help > Forum > Suchmaschinen > Warum werden einige Seiten in der Datei robots.txt blockiert?

Warum werden einige Seiten in der Datei robots.txt blockiert?

Die von uns angegebene robots.txt-Datei wurde optimiert, um die höchstmögliche Platzierung in Suchmaschinen sicherzustellen. Sie weist Suchmaschinen an, bestimmte Seiten nicht zu indizieren, was sich negativ auf die Platzierung in Suchmaschinen auswirken würde. Zum Beispiel Seiten mit sehr wenig Inhalt (wie die Seite Neues Thema erstellen), URLs, die etwas anders sind, als auf den gleichen Inhalt verweisen (dies würde von Suchmaschinen als doppelter Inhalt gezählt werden), und transaktionale Seiten, die nur Mitglieder sind (z. B. ein Thema folgen, Ihr Profil bearbeiten usw.). Dadurch wird sichergestellt, dass Suchmaschinen in erster Linie die hochrelevanten und inhaltsreichen Seiten Ihres Forums sehen, sodass Ihr Forum in den Suchergebnissen höher eingestuft wird.


If you still need help, please contact us.