robots.txt blockiert Googlebot

Es wurden schwerwiegende Probleme bezüglich des Status Ihrer Webseite gefunden. Diese Meldung in den Google Webmaster-Tools kann in nicht wenigen Fällen einen ernsthaften Schock unter Bloggern und Betreibern von Webseiten auslösen. Die Ursache dieser Meldung liegt meist an einem Problem der Indexierung durch den Googlebot. Dieser wird durch die Datei robots.txt ausgesperrt, wodurch die Seiten nicht im Google-Index erscheinen, bzw. im schlimmsten Fall aus dem Index entfernt werden.