Blogia
La Felipedia

Parsero, la utilidad perfecta para analizar robots.txt

 

El fichero robots.txt es muy útil para indicar a los buscadores qué deben indexar y que no, pero puede ser un agujero importante que dé demasiadas pistas de algo que no queremos que se vea a ojos indiscretos.

Con esta utilidad se automatiza su cheque de una forma muy sencilla...

Podéis encontrarla aquí...

https://github.com/behindthefirewalls/Parsero

0 comentarios