robots.txt
Acest fisier are o sintaxa speciala continand inregistrari. Fiecare inregistrare are 2 campuri de forma: Field : value.
Prima linie mentioneaza User-agent iar alta linie sau mai multe Disallow.
Fisierul nu poate fi facut cu un simplu editor in mod text, ci cu unul care poate lucra in mod UNIX sau folosind clientul FTP pentru a face transformarea.
User-agent este numele robotului. De exemplu:
Pentru a specifica toti robotii se poate folosi caracterul *. De exemplu:
Disallow exclude de la cautare fisiere sau directoare. De exemplu este exclus de la cautare fisierul proba.html:
Pot fi excluse de la cautare si directoare. De exemplu directorul test aflat in radacina domeniului:
Daca Disallow nu are nici o metiune inseamna ca nu sunt fisiere sau directoare excluse de la cautare.
Fiecare User-agent are cel putin o linie Disallow.
Un fisier robots.txt gol este echivalent cu lipsa acestuia.
Exemplul 1: este permis accesul oricarui robot si nici-un fisier exclus de la cautare
Disallow:
Exemplul 2: acces interzis robotilor (sunt excluse toate fisierele)
Disallow: /
Exemplul 3: acces interzis unui anume robot
Disallow: /
Exemplul 4: pentru un anume robot este exclus de la cautare fisierul test.html
Disallow: test.html
Verificarea existentei si continutului fisierului robots.txt poate fi facuta online la adresa:
robots.txt Validator
Link-ul autorului:
www.drogoreanu.ro/tutorials/robots.php
Comentarii
Voteaza acest articol!
Trimite un comentariu!