Indexación cuando tu Web es enorme – Alfonso Moure en Congreso SEO Profesional

Fernando Maciá

Escrito por Fernando Maciá

Indexación cuando tu Web es enormeAlfonso Moure habla de indexación para sites enormes. El SEO es mucho menos de los que la gente dice y más de lo que la gente cuenta.

Todo lo que hacemos en SEO tiene una base matemática porque Google es una máquina, es determinista y por tanto podemos manipularlo. Esto es lo que yo creo que se puede hacer.
El SEO no es una disciplina académica.
SEO es experimentar e investigar: hay que mantenerse al día y trabajar. Es hacer algo un poco mejor que los demás.
SEO es una colección de métodos y acciones que en una determinado orden dará un buen resultado.
El RT es el amo y es bueno que el link se extienda por toda la red. Recomienda –como nosotros– bit.ly por hacer una redirección 301, dejar personalizar la URL, y es muy rápido. Además, ofrece unas estadísticas muy útiles.
No hay dos proyectos SEO iguales. Hay ciertos sectores muy competidos y tampoco éstos son iguales.

  • Fase de investigación
  • Estructura y arquitectura de la información
  • On page optimización
  • Off page: popularidad, link building y social media
  • Mejoras: experimentar y adaptarse a los cambios en los buscadores
  • Análisis: ver resultados y volver a empezar

Indexación

Es ordenar información de forma que sea fácil recuperarla, filtrarla, acceder a ella. El objetivo es reducir tiempos y costes del acceso a toda esa información.

Para los buscadores, se trata de identificar un site, llegar a ella, rastrear todas las URLs como identificadores únicos que se relacionan con un contenido, análisis de estructura y contenidos del site y ordenación de la información.

Niveles de indexación

Primer nivel: dominio. En segundo lugar, subdominio. Tercer nivel, URL y cuarto nivel, contenido en sí.
El nivel de indexación es la relación entre las rutas indexadas y las rutas indexables. < En HLC lo llamamos «saturación».

Es difícil determinar total y fiablemente la indexación. A través de la relación entre URLs en sitemaps en GWT e indexadas, por niveles en Google Search con comando site: (dominio, subdirectorio, etc.). También como landing pages en Google Analytics (URL únicas landing pages SEO).

Googlebot es el robot que recorre las Webs rastreando los contenidos y las URLSs que funciona en cuatro niveles: servidor de URLs; el siguiente sistema visita cada URL y rastrea el contenido; comprueba la disponibilidad de esa URL, recoge ese contenido y lo almacena. A continuación comprime las páginas devueltas por el crawler, almacena datos en el repositorio temporal y finalmente parsea la información, asigna IDs únicos a cada contenido, crea grafo de URLs y crea tablas de hits por keywords.

¿Cómo podemos aprovecharnos de todo esto? Internet es un pseudografo dirigido, sin límite de aristas por nodo, bidireccional, reflexivo, sus aristas pueden tener un coste. Se trata de páginas que se enlazan entre sí por links.

Google imprime un coste al rastreo. Cuanto más bajo es el coste más oportunidad de ser indexados. Cuando vemos una web tendemos a verla a nivel estructurado y jerárquico, pero en realidad su estructura es más caótica, descontrolada y poco ordenada. Cuando la página crece y se hace grande, se te va de las manos. Aparecen islas, zonas condensadas, puentes…

Todos los links tienen un coste: tiempo de solicitud, más tiempo de búsqueda más tiempo de respuesta. No se trata de análisis del tiempo, sino del «coste de paso» de Google, de saltar de una ruta a otra. No sólo lo paga Google sino también el usuario.

Los enlaces transfieren relevancia: un valor imaginario que puntúa cada página dentro de un buscador. El origen lo pierde, el destino lo gana. Se trata de la aplicación de la propiedad transitiva. La relevancia se acumula en el nodo que acumula enlaces entrantes y se transfiere al destino final.

Nuestro objetivo es reducir el coste de indexación, de paso.

Googlebot: cómo hacer llegar el mayor número de URL a Google. Forma explícita a través de archivos sitemap (máximo de 50.000 URLs por fichero) así que mejor crear un sitemap por sección, subdirectorio, etc. También se pueden lanzar por niveles, por niveles secundarios, nivel final de productos, etc. Esto ayuda a gestionar las URLs enviadas.

Es importante respetar una nomenclatura en el nombre de los sitemaps y mantenerlos ordenados en la raíz del dominio, y hacer lanzamientos progresivos.

La forma implícita de enviar URLs es simplemente las URLs que aparecen en nuestra Web siguiendo los enlaces publicados.

Crawler

Podemos influir con linkbuilding y con interlinking. Podemos trabajar facilitando el trabajo para saltar de una URL a otra, dándole toda la información posible y, además, si podemos nos aprovechamos. Según Alfonso Moure, Googlebot es vago. Un input adicional aquí a tener en cuenta es la velocidad de descarga del servidor.

Cuanto más relevante es nuestro contenido, mejor, y eso se consigue con enlaces. Todo eso conduce a una mayor indexación, porque hay una relación proporcional entre la relevancia y cuánto nos va a indexar.

¿Podemos acortar el número de pasos hasta llegar a una determinada ruta? Cuanto menos pasos haya para llegar a un ruta, tanto más se indexará y mejor se posicionará la URL final. Páginas de etiquetas, destacados, etc. sirven para acortar el proceso de indexación. < En nuestro caso hablamos de crear atajos para favorecer el posicionamiento de una URL hacia ciertas categorías.

El linkbuilding es un cierto nivel de caos ordenado. Con interlinking podemos estructurar el enlazado entre nodos y puedo crear categorías intermedias. Se pueden crear enlaces entre nodos homólogos de contenidos relacionados que pueden interesar también al usuario, y creamos grafos horizontales con los que acortamos los pasos.

En linkbulding podemos atacar la estructura por niveles. Podemos atacar en un cierto orden empezando por las páginas superiores, y después ir descendiendo hacia el contenido menos importante. Simplemente por conveniencia metodológica, aunque para evitar patrones mejor hacerlo caótico.

Creamos nodos intermedios, contenidos extra, etiquetas o colecciones especiales (destacados, relacionados, etc.) < Es muy críptico visto así, es más sencillo con ejemplos de páginas Web reales.

El noindex,follow comenta que NO reduce los pasos. También recomienda reciclar las landing pages caducadas.Recomienda entre 3 y 5 tags por elemento (para no seguir demasiadas rutas). Aconseja utilizar redes y marcadores sociales, porque acelera la indexación. Él es muy fan de los marcadores sociales para trabajar el long-tail.

Servidor de almacenamiento

Poco podemos intervenir en esta fase: contenido ligero, comprimir HTML, comprimir recursos JS, CSS, imágenes y controlar el contenido duplicado.

Indexador

Usa las herramientas de GWT para detectar contenidos duplicados en la sección de titles y descriptions duplicadas. Usa anchor text correctos, estructura bien y semánticamente los Hx y los textos alt de las imágenes para términos extra como las marcas.

Nos encantan los formuladores dentro de las Webs, que es crear distintas combinaciones de un mismo texto. Por ejemplo, crear alternativas de patrones para los titles, de forma que no se repitan los mismos patrones. De esa manera el contenido parece más natural. Introduce tokens de sustitución y turna cada fórmula en diferentes nodos. Por ejemplo:
Hoteles en destino – Encuentra hoteles en destino – Descubre hoteles en destino – Localiza hoteles en destino, de forma que no funcione siempre la misma fórmula. Además, se usan verbos de llamada a la acción para animar al click.

SEO estacional: sirve para reciclar las landing pages sin darlas de baja para aprovecharlas para el año que viene. < Son los esquemas de aprovechamiento de esas páginas que nosotros hacemos para hoteles y viajes, por ejemplo.

Propone redirecciones temporales 302 hacia otra URL para después recuperarla (me parece que a mí no me gusta tanto esta fórmula). O bien redirección 301 para apuntar a la siguiente página.

SEO + SMO afectan a tu indexación. Twitter, blogs, marcadores sociales ayudan a la indexación. Twitter es perfecto para indexar rutas profundas. A mayor relevancia, mayor impacto y el Klout no vale para nada.

Podemos comprar links en posts patrocinados en ciertos blogs y redes de blogs. También podemos intercambiar posts y podemos incluir a rutas profundas para animar a la indexación a niveles profundos, que es donde más cuesta. Piensa en el pobre long tail para generar enlaces que favorezcan a este long tail.

Marcadores sociales: son buenos para rutas profundas, por ejemplo delicious. Permite que Google acceda desde rutas profundas a al Web. Mezclar los links de temáticas diferentes, hacia webs distintas, etc. Hay que ser selectivos con la red de marcadores. Delicious funciona muy bien.

Experimenta: sin indexado no hay posiciones. Así que hay que hacer pruebas. Pero con cuidado. Documenta tu experimento, escríbelo y documéntalo. Ejecútalo para poder extraer conclusiones. Comparte con la comunidad y, finalmente, márcate un objetivo claro.

 

Google es una máquina: engáñala. Juega con diferentes términos, estudia su impacto. La máquina reacciona de una manera concreta. Estúdiala. Analiza y extrae conclusiones.

Fernando Maciá
Autor: Fernando Maciá
Director de la agencia de marketing online Human Level Communications, es experto en SEO, planes de marketing online y de internacionalización web. Docente de marketing online y autor de varios libros de posicionamiento en buscadores, marketing en redes sociales y estrategias para ganar clientes en Internet.

Únete a la conversación

1 comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *