Robots.txt

    99

    Es un método para evitar que ciertos bots que analizan los sitios Web u otros robots que investigan todo o una parte del acceso de un sitio Web, público o privado, agreguen información innecesaria a los resultados de búsqueda. Los robots son de uso frecuente por los motores de búsqueda para categorizar archivos de los sitios Webs, o por los webmasters para corregir o filtrar el código fuente.

    Si te resultó útil...Share on Facebook
    Facebook
    Tweet about this on Twitter
    Twitter
    Share on LinkedIn
    Linkedin
    Email this to someone
    email