Tote Links automatisch in einem WordPress Blog finden

Je größer und älter dein Blog wird, umso öfter findest du Verweise, die ins Leere laufen.

Die Seite auf die verwiesen hattest, existiert nicht mehr. Hier möchte ich dir zeigen, wie du tote Links in deinem Blog finden kannst.

Warum solltest du dir überhaut diese Arbeit machen?

Zum einen mögen deine Leser es nicht, wenn sie nicht das gewünscht Ziel vorfinden. Zum anderen ordnen dich Suchmaschinen schlechter ein, wenn du auf nicht existierende Webseiten verlinkt hast (SEO).

Wie mühselig es ist alle Seiten in deinem Blog selber durchzuklicken, brauche ich dir sicherlich nicht zu erklären.

Tote Links bei WordPress.com

WordPress.com bietet dir nicht die Möglichkeit, diese Links automatisch suchen zu lassen.
Ich habe dies im Forum einmal nachgefragt. Hier die Antwort. Du kannst also externe Werkzeuge nutzen. Zum Beispiel den Link Checker des W3C. ZumW3C hatte ich in einem anderen Zusammenhag  hier schon einmal was geschrieben. Nachteil ist allerdings, dass du die toten Verweise, nachdem der Checker sie dir angezeigt hat, selber bearbeiten musst.

Tote Links in einem selber installierten WordPress.org Blog

Nach ein wenig Recherche habe ich ein Plugin, also eine Zusatzfunktion, gefunden, die tote Links in WordPress-Blogs automatisch findet. In einem selber installierten WordPress.org Blog kannst du diese Zusatzfunktion installieren und deine Blog durchsuchen. Anschließend können die gefundenen toten Verweise ganz einfach mit einem Klick entfernt werden. Das Plugin nennt sich Broken Link Checker von Janis Elst und prüft erstellte Artikel, Seiten und die Blogroll auf tote Verweise.

Räumst du ab und an deinen Blog auf? Wenn ja, wie machst du das mit den toten Links? Gibt es noch bessere Möglichkeiten.

Liebe Grüße
Astrid

About these ads

3 Gedanken zu “Tote Links automatisch in einem WordPress Blog finden

  1. kriegte folgende meldung:
    the link was not checked due to robots exclusion rules.
    Check the link manually, and see also the link checker documentation on robots exclusion.

    • Hallo,
      du meinst unter anderem diese Meldung:

      Line: 74 http://www.flickr.com/photos/frizztext/5297614260/
      Status: 302 -> (N/A) Forbidden by robots.txt
      The link was not checked due to robots exclusion rules. Check the link manually.

      Hier ist es so, dass flickr.com es nicht zulässt, dass Suchmaschinen den Link in ihren Indes aufnehmen. Der Ausschluss erfolgt über eine Datei, die im Stammverzeichnis von flickr.com liegt und robots.txt heißt.
      Manchmal ist es sinnvoll, bestimmte Seiten oder Bereiche einer Site vor der Indexierung zu schützen. Zum Beispiel dann, wenn es sich um Seiten handelt, die sich täglich ändern oder an denen noch gearbeitet wird. Auch Programmdateien, Bilder oder Logfiles will man vielleicht vor der Aufnahme in Suchmaschinen schützen.
      Aber wegen der robots.txt kann der Link Prüfer des W3C den Link auch nicht überprüfen. Das war mir bisher auch nicht klar. Zugreifen kann man ja auf die Seite.
      Mehr Infos zur robots.txt findest du hier:
      http://de.selfhtml.org/diverses/robots.htm
      http://de.wikipedia.org/wiki/Robots_Exclusion_Standard
      Liebe Grüße
      Astrid

  2. Ich ärger mich auch immer wieder, wenn ich auf einen Verweis klicke und auf einer toten Seite lande. Schon wahnsinn wie schnell Seiten “veralten”. Auch bei der Googel Suche passiert mir das oft ..
    LG Peter

Die Kommentarfunktion ist geschlossen.