robots.txt

Erstellen Sie mit einem Editor (z.B. notepad++) eine Textdatei mit diesem Titel.

Eine entsprechende robots.txt verhindert, dass Bots, die sich daran halten (dürften alle namhaften Suchmaschinenbetreiber so handhaben), die Dateien indexiert.

Schreiben Sie dies hinein:

User-agent: *
Disallow: /*.pdf$
Disallow: /*.doc$
Disallow: /*.xls$

Sie können für jede beliebigen Datei-Extension diesen Text entsprechend dem Muster erweitern.

Anschließend laden Sie die Datei "robots.txt" per FTP-Upload in das Hauptverzeichnis auf ihrem Server.