robots.txt
Erstellen Sie mit einem Editor (z.B. notepad++) eine Textdatei mit diesem Titel.
Eine entsprechende robots.txt verhindert, dass Bots, die sich daran halten (dürften alle namhaften Suchmaschinenbetreiber so handhaben), die Dateien indexiert.
Schreiben Sie dies hinein:
User-agent: *
Disallow: /*.pdf$
Disallow: /*.doc$
Disallow: /*.xls$
Sie können für jede beliebigen Datei-Extension diesen Text entsprechend dem Muster erweitern.
Anschließend laden Sie die Datei "robots.txt" per FTP-Upload in das Hauptverzeichnis auf ihrem Server.