Facebook Twitter Google +1     Admin
Weblog de un Geek, sobre tecnología y temas varios.

Dedicado a mi mujer Ana y a mi hijo Rubén

Temas

Enlaces

Archivos

FEDDJIT

Registrado en Safe Creative

La ECO-Posada

La Felipedia

Parsero, la utilidad perfecta para analizar robots.txt

 

El fichero robots.txt es muy útil para indicar a los buscadores qué deben indexar y que no, pero puede ser un agujero importante que dé demasiadas pistas de algo que no queremos que se vea a ojos indiscretos.

Con esta utilidad se automatiza su cheque de una forma muy sencilla...

Podéis encontrarla aquí...

https://github.com/behindthefirewalls/Parsero

Viernes, 06 de Marzo de 2015 07:46 Feliciano #. Internet

Comentarios » Ir a formulario



No hay comentarios

Añadir un comentario



No será mostrado.





Blog creado con Blogia. Esta web utiliza cookies para adaptarse a tus preferencias y analítica web.
Blogia apoya a la Fundación Josep Carreras.

Contrato Coloriuris