En digitalDot hemos querido tratar este punto del posicionamiento y factor de seguridad porque recientemente todas las auditorías de SEO que nos han llegado, tenían el fichero robots.txt, sin atribuir.
En nuestra agencia siempre intervenían, por un lado, nuestro consultor SEO que detectaba el fallo mediante una auditoría del tipo de contenido de la web y nuestro técnico de sistemas que lo implementaba y aportaba, de paso, las mejoras en seguridad web.
Por ello nos hemos embarcado en explicar la potencia que nos puede brindar el robots.txt en, por ejemplo, un WordPress.
¿Qué es el fichero Robots.txt?
Es un fichero txt que informa a arañas y buscadores si está permitida la rastreabilidad de una web, sobre que contenido, que velocidad y en que URLs puede navegar.
Este simple ficherito en txt tiene bastante potencia para nuestra página web.
Si nos sirve para restringir la parte de seguridad la tenemos clara, podemos bloquear aquellos robots que hagan uso de este fichero evitando rastreos o consumo de tráfico innecesarios para nuestro servidor Web y especificar el factor de la velocidad que queremos otorgarle.
¿Qué podría mejorar en seo el fichero Robot.txt?
Un punto importante para cualquier web es el sitemap, uno o varios ficheros que muestran la estructura jerárquica que posteriormente enviaremos a los buscadores.
¿Qué permite incluir el sitemap de una web? Sencillo, toda la información relevante de indexar para que los buscadores la encuentren, como las fotografías y la fecha de modificación, el contenido, rutas html de páginas, blogs, categorías que queramos indexar, etc.
Como consultores SEO debemos saber que las arañas, el primer fichero que rastrean, es el robots.txt por ello es tan importante prestarle atención, porque a través de él marcaremos la hoja de ruta para nuestra web.
Imaginad una tienda online con miles de páginas, con fichas de producto sin completar. Nuestra redacción de contenido puede tardar en completar toda esa información, por ello, podemos bloquear el rastreo o indexación y activar solo aquellas fichas de producto y categorías completamente trabajadas en factores SEO.
Desde digitalDot tenemos dos predilecciones. La primera es generarlo con Yoast SEO o Rank Math PLugin SEO WordPress, no conoces este último plugin, empieza ya a disfrutar de sus grandes ventajas, el plugin de SEO que desbancó a Yoast desde 2019.
Estos dos Plugins para WordPress son de los mejores en cuanto a factores de SEO aparte de poder generar nuestro fichero txt con editor de texto.
¿Errores de SEO que podemos evitar con el fichero Robots.txt?
Si estamos en desarrollo o con la redacción de contenidos, o hemos instalado una demo a nuestro cliente, lo primero que querremos es que esos Lorem Ipsum o textos de prueba que no son definitivos, no lleguen a los buscadores.
En alguna ocasión se han montado web de demostración y aunque tenían el acceso limitado por el htaccess hemos visto como Google ha indexado una URL de preproducción por lo que no está de más bloquearlos desde este punto para evitar errores de textos duplicados.
User-agent: *
Disallow: /
*Recordad que, si esto os ocurre, desde la herramienta de Webmaster de Google podremos solicitar la desindexación de dominios o de páginas concretas, recientemente lo tuvimos que hacer para una página web y se solucionó en menos de 24 Horas.
¿Qué variables admite el fichero robot.txt?
User-agent: Aquí indicamos el motor sobre el que aplicamos las reglas de permitir o denegar (Disallow y allow). Un listado actualizado para usar en este parámetro lo tenéis en el siguiente enlace: Robotstxt.org
Disallow: Es el permiso más restrictivo, evita que la araña rastree todas las indicaciones posteriores.
Allow: Actúa como un "cortafuegos". Las reglas deben ser siempre restrictivas, por eso denegamos y luego podemos ir añadiendo nuestras excepciones mediante el comando allow(permitir).
Crawl-delay: Podemos indicar en segundos el tiempo de rastreo de las arañas entre paginas ideal si tenemos un hosting o servidor compartido y no queremos que google nos encuentre algún error 500 por sobrecarga.
¿Puede el robots.txt mejorar la seguridad de nuestra web?
Podemos evitar que nos rastreen ciertas zonas como el wp-admin o URLs que queremos proteger que se filtren contenido. Debemos tener en cuenta que es una falsa sensación de seguridad, ya que no rastrear no quiere decir que no se pueda acceder.
Un error muy común de los administradores de sistemas o de los gestores es dejar copias en la carpeta raíz de nuestro sitio web, si permitimos el rastreo de cierto tipo de contenidos las arañas podrían localizar y mostrar nuestra base de datos y contraseñas o nuestros clientes suscriptos. Un fallo muy grave de seguridad.
DigitalDot Servicios Informáticos, S.L. utiliza cookies propias y de terceros para mejorar nuestros servicios y mostrarte publicidad relacionada con sus preferencias mediante el análisis de tus hábitos de navegación. Puedes aceptarlas con el botón "Aceptar", rechazarlas en el botón "Rechazar" o configurarlas con el botón "Gestionar preferencias". Puedes consultar más información detallada sobre las cookies utilizadas en este sitio web desde nuestra política de cookies.
Funcional
Siempre activo
Las cookies funcionales son absolutamente imprescindibles para que el sitio web funcione correctamente. Estas cookies garantizan las funcionalidades básicas y las características de seguridad del sitio web, de forma anónima.
Preferencias
El almacenamiento o acceso técnico es necesario para la finalidad legítima de almacenar preferencias no solicitadas por el abonado o usuario.
Estadísticas
El almacenamiento o acceso técnico que es utilizado exclusivamente con fines estadísticos.Las cookies estadísticas se utilizan para entender cómo interactúan los visitantes con el sitio web. Estas cookies ayudan a proporcionar información sobre las métricas del número de visitantes, la tasa de rebote, la fuente de tráfico, etc.
Marketing
Las cookies de marketing son necesarias para crear perfiles de usuario para enviar y personalizar publicidad, o para rastrear al usuario en una web o en varias web con fines de marketing similares.