En SEO, se denomina cloaking a un conjunto de técnicas de encubrimiento por el que se configura el servidor o la programación de un sitio web para que presente un contenido a los usuarios distinto del que presentaría para a los robots de las buscadores, con el objetivo de lograr posicionarse mejor para ciertas palabras clave.

El cloaking o encubrimiento es una técnica de las denominadas black-hat porque incumple las directrices de calidad para webmasters de Google en las que especifica que su robot o araña siempre debería acceder exactamente al mismo contenido que pueden ver los usuarios cuando visitan el sitio web.

Cloaking o encubrimiento con Javascript

Técnicas empleadas para cloaking

Algunas de las técnicas empleadas tradicionalmente para encubrir contenido consistían en configurar el servidor de modo que, en función del navegador que hiciera la petición de la página, se devolviera el contenido real o el específicamente creado para tratar de engañar al buscador. Esta configuración detectaba cuándo era el robot de Google –Googlebot– el que solicitaba la página a través del user-agent empleando esta especificación para discriminar entre las visitas de humanos y las de los buscadores.

Otras técnicas para encubrir contenido optimizado implicaban el uso de redireccionamientos JavaScript que podían desplegar un contenido distinto en el navegador del usuario que para los buscadores (que hasta hace poco no ejecutaban ese código), la entrega de contenido distinto en función de la IP origen de la petición o el uso de una Meta Refresh apuntando a una URL distinta de la original con un tiempo de actuación (atributo content) cercano a 0 segundos.

El uso de algunas de estas técnicas es fácilmente detectable comprobando qué contenido obtenemos si navegamos por el sitio Web con Javascript desactivado o sin aceptar cookies usando extensiones de navegador como Web Developer.

El cloaking en el SEO actual

Actualmente, las técnicas empleadas para el cloaking o encubrimiento están en desuso en SEO debido a la facilidad con que los buscadores son capaces de detectar el uso de las técnicas empleadas para realizarlo, así como que el contenido sobreoptimizado –contenido con una gran concentración de palabras clave– es también cada vez más fácilmente identificado y penalizado.

Los robots empleados por los buscadores son ahora, además, capaces de ejecutar el código Javascript y realizar comparaciones entre cómo perciben las páginas los usuarios humanos y cómo las interpretan los buscadores. Con la funcionalidad >Rastrear como Google de la Google Search Console podemos comprobar si nuestro servidor o aplicación web realiza algún tipo de técnica de encubrimiento.

Rastrear como Googlebot para detectar cloaking

Cuando se emplea HTML dinámico como solución para servir contenido optimizado para terminales móviles, Google indica que se debe incluir una cabecera HTTP que explicite que se va a variar el código servidor por el servidor en función del navegador (user-agent) con el fin de que el buscador sepa que no estamos tratando de hacer cloaking.

Más referencias sobre cloaking

Sobre técnicas de encubrimiento y cloaking en Google (vídeo de Matt Cutts)

¿Te ha gustado el artículo? ¡Compártelo!