Habitualmente estudiamos, analizamos y describimos una página web para entender qué factores de posicionamiento SEO están fallando, para que no aparezca en los resultados de buscadores.
Normalmente “deshebramos” la página en un listado de variables de diversa naturaleza (programación, redacción, densidad de palabras, urls, anchor, alt de las imágenes, etc.).
Al hacer esto, me pregunto:
¿Cuál es el entorno de búsqueda? ¿Y qué influencia puede tener sobre la misma página?
Cuando me refiero al entorno no estoy aludiendo al backlink del site, estoy hablando de los resultados de la búsqueda, las empresas asociadas y los portales especializados en esa temática.
¿No les ha pasado que estudiando un sector se encuentran que las páginas principales del buscador no tienen una labor de posicionamiento?
¿Que en muchos casos se trata de páginas con un diseño poco atractivo? ¿y en algunas ocasiones páginas que en realidad no son una autoridad del tema?
Vamos! que no parecen merecer (siguiendo criterios objetivos) estar en esas posiciones.
Muchas veces hay un aprovechamiento simple y duro de las URLs con las palabras clave, y es en esos casos donde reconoces que los buscadores no son “imbatibles” y pueden contener todavía errores; por tanto su evolución, es un proceso paulatino hacia la mejora de los resultados en función y beneficio del usuario final.
Hay un refrán popular que dice: “En el reino de los ciegos, el tuerto es el rey”. Entonces, ¿Será el entorno de búsqueda el que puede definir esa posición?
He tenido la oportunidad de estudiar alguna página, ubicada en ciertas búsquedas, en los primeros lugares, y muchas de las variables que se definen teóricamente para mejorar el posicionamiento están totalmente ausentes; desde aspectos básicos como los atributos alt de las imágenes, la redacción, palabras claves, meta-etiquetas, title, etc.
Después reflexiono si será el backlink detrás de las mismas y analizándolo, me doy cuenta de que nada más lejos de la realidad: pocos backlinks y en muchos de los casos de simples directorios o blogs con poco tráfico.
Considero que existen muchos sectores empresariales más “conservadores” que no se dirigen a un público final, sino a otras empresas vinculadas (B2B) donde la necesidad de actualizar sus webs y contenidos, redes sociales, etc, no ha sido una prioridad.
Pareciera que las empresas dirigidas al público general o consumidor final han tenido que implementar estrategias de actualización y modernización de sus webs hace años (en parte por la demanda de sus propios usuarios), y que ese proceso de evolución de los sites tendrá que continuar a lo largo del tiempo expandiéndose a otros sectores más conservadores que se han mantenido al margen… hasta ahora.
Finalmente, se convierte en un verdadero rompecabezas al no conocer muchas de las variables estudiadas por los algoritmos de búsquedas.
Aunque de forma contradictoria, éste escenario termina siendo más favorable, ya que nos permite basar nuestra estrategia en un código de buenas prácticas, más que en una operación de “aprovechamiento”.

Al respecto de los algoritmos, recientemente El País publicó un artículo del New York Times titulado: ¿Los algoritmos lo saben todo o deben ayudarles los humanos? de Steve Lohr.
Aunque el artículo está enfocado en el papel del ser humano dentro de las filtraciones aportadas por los algoritmos en distintos campos (medicina, economía, marketing), su reflexión es muy válida para muchos aspectos de la vida contemporánea, donde los resultados aportados por un algoritmo pueden tener una influencia decisiva, como puede ser el campo de la medicina (por ejemplo un diagnostico) o en el sector financiero para la concesión de un crédito.
«En cierto sentido, un modelo matemático equivale a una metáfora, una simplificación descriptiva. Filtra, pero también distorsiona un poco. Por eso, a veces, un ayudante humano puede aportar esa dosis de datos matizados que se le escapa al autómata algorítmico»
Steve Lohr, El País, 13/04/2015
Es evidente que en el campo del marketing, como señala el artículo, es un campo de prueba, donde las “fallas” del algoritmo no tienen un efecto preocupante ni generan un problema.
Por ejemplo, aparición de publicidad personalizada (remarketing) no coincidente exactamente con el público objetivo.
No obstante, la variabilidad que pudiese existir en los algoritmos de los buscadores (localización, búsquedas personalizadas, etc.) son positivas, de hecho, estoy cada vez más convencido que en realidad ya no deberíamos de plantearnos hacer SEO por una cuestión simple de mejorar el ranking.
Deberíamos de hacerlo por seguir un manual de buenas prácticas de calidad, donde haya coherencia entre el contenido y la configuración del site, como ya he planteado desde otra perspectiva en un post anterior (El SEO entre la pereza y la limpieza).
Fernando Escribano en su interesante blog: Clayvic, escribió un post en el mes de febrero (2015) titulado: “El origen de la estrategia de posicionamiento” que tiene unas excelentes reflexiones sobre el objetivo de una estrategia de posicionamiento, y cuáles deben ser las directrices de la misma.
Podemos resumir su post en una frase sencilla que utiliza pero está cargada de grandes realidades:
“No buscaremos estar en la primera posición de las SERP… buscaremos merecerlo”
Creo que esa afirmación de Escribano, debería de ser la base de cualquier estrategia de optimización (y en parte de la analítica digital actual), sin importar el entorno de búsqueda o el algoritmo de filtración de resultados.
Gracias a Brett Jordan / Foter / CC BY por la imagen destacada que acompaña este post.