Estrategia Global
Herramientas TIC

Robots.txt

Es un método para evitar que ciertos bots que analizan los sitios Web u otros robots que investigan todo o una parte del acceso de un sitio Web, público o privado, agreguen información innecesaria a los resultados de búsqueda. Los robots son de uso frecuente por los motores de búsqueda para categorizar archivos de los sitios Webs, o por los webmasters para corregir o filtrar el código fuente.

Si te resultó útil...Share on FacebookTweet about this on TwitterShare on LinkedInEmail this to someone

Deja un comentario