El porque del SEO
Desde la aparición de internet y los buscadores, nació un interés por situarse en la cúspide de los resultados de los mismos. A medida que se fueron descubriendo los «trucos» para obtener el beneplácito de cada buscador, estos han cambiado sus patrones de valoración para ofrecer una mejor experiencia al usuario.
Los buscadores como google, al principio, no eran capaces de leer exactamente el contenido de cada página web, de manera que utilizaban «bots» que agrupan patrones, otorgando a un dominio o una determinada página un valor para cada búsqueda.
Por ello, al principio los planteamientos SEO eran burdos, poco elegantes, e incluso abusivos, y que a día de hoy son conocidos como «Black Hat SEO» (Posicionamiento web de sombrero negro).
Historia de Internet
En 1991 nacen las primeras webs, y en poco tiempo, el ciberespacio se llena de estas, con una imperiosa necesidad de organizar y clasificar tantísimo contenido digital.
Inicialmente la «World Wide Web» (www) se indexaba de forma manual, hasta que en Junio de 1993, un joven de Massachusetts, Matthew Gray estudiante del MIT, desarrolló el primer robot de búqueda conocido como World Wide Web Wonderer o más familiarmente como Wandex, se trataba de un algoritmo que iba recorriendo los diferentes enlaces o links de la WWW y clasificándo su contenido. Poco después, Gray también crearía uno de los primeros servidores de la historia, www.mit.edu .
No tardaron, siquiera un año, en aparecer otros sistemas parecidos como Aliweb (aún en funcionamiento), o más tarde Webcrawler, que resultó ser el primer buscador de texto completo.
Fue también en 1993 cuando seis estudiantes de la universidad de Stanford, desarrollaron Architext, con la intención de recopilar la gran cantidad de información en la web. Poco después, consiguieron una mayor financiación para el proyecto, y en octubre de 1995 oficialmente nace Excite, que revolucionaría la categorización de información, lanzando su portal en el que seleccionaba y ofrecía acceso a diferentes posts de información en funció de su temática. Prácicamente al mismo tiempo, otros proveedores de este tipo de servicio, como Alta Vista o Yahoo replicaron con su propia versión.
No obstante si hay un año en el que se considere que nace el SEO es en 1996, cuando Sergey Brin y Larry Page crearon el algoritmo y buscador: BackRub. Fue sólo un año después cuando apareció el dominio «Google» utilizando el mismo algoritmo y que en poco tiempo acabó copando el mercado, considerándose el motor de búsqueda más usado del mundo en 2004.
Las actualizaciones de Google
Desde la aparición del buscador por excelencia, siempre ha habido informáticos tratando de descifrar los secretos de su algoritmo, y desarrollando técnicas (a veces poco éticas) para potenciar hasta lo más alto de su clasificación un dominio u otro. Y por este motivo los técnicos de Google se han esforzado en mejorar el algoritmo, para ofrecer las mejores páginas webs a sus usuarios, sin la interferencia de estas técnicas de posicionamiento web o SEO.
Durante los primeros años del siglo XXI, Google haría diferentes actualizaciones en el algoritmo, pero no sería hasta el 2011, hasta que introduciría su primera gran actualización integral del algoritmo, que cambiaría las reglas del SEO por completo, penalizando webs con granjas de enlaces y de muy baja calidad. Esta actualización recibió el nombre de Panda.
Desde entonces Google ha realizado varias actualizaciones cada pocos meses, y como referencia, te detallamos en diferentes artículos las más significativas, junto a los nombres que se les asignaron (a veces de manera oficial, y a veces de manera extra-oficial):
- Caffeine (2010)
- Panda (2011)
- Penguin (2012)
- Venice (2012)
- Pirate (2012)
- Hummingbird (2013)
- Pigeon (2013)
- HTTPS/SSL (2014)
- Mobilegeddon (2015)
- RankBrain (2015)
- Possum (2016)
- Intrusive Interstitials Update (2017)
- Mobile Page Speed Update (2018)
- Medic (2018)
- BERT (2019)
- Carnage (2020)
- Core Web Vitals (2021)
El SEO contra las actualizaciones
Las técnicas SEO deben evolucionar a la par que el algoritmo de los buscadores. Inicialmente los buscadores se limitaban a leer y contar palabras. De esa maneraun documento que mencionaba 30 veces «recetas de pollo» lógicamente iría indexado en la librería de cocina, y en el apartado de pollo.
Pero… ¿como elegir que página es mejor para el usuario de toda esa librería?
Los buscadores emplean varios métodos para elegir una página sobre otra, pero uno de los criterios más importantes, al menos en los orígenes de los buscadores, es el de Palabras clave o Keywords,
Las palabras clave o «Keywords»
Cuando un usuario realiza una consulta en un motor de búsqueda, las palabras que escribe serán consideradas «palabras clave», y los resultados se mostraran en función de estas palabras descritas. Es muy probable que si buscamos la palabra «plátano» los resultados que nos muestren sea diferentes a si buscamos «banana». Esto es porque unas páginas han sido clasificadas mejor para una palabra, que para otra, aun ambas refiriendose a al mismo elemento.
Cantidad de palabras clave
Inicialmente los buscadores valoraban que, siguiendo con el ejemplo anterior, una página que mentaba 30 veces «recetas de pollo», era mas relevante (y por tanto estaría más alta en los buscadores), que otra página similar que sólo menciona 15 veces «recetas de pollo». Pero por el mismo motivo una página que mencione «recetas de pollo» 60 veces estaría aún mas arriba.
La densidad de palabras
Por otro lado está el concepto de densidad de palabras clave. Es lógico pensar que un texto sobre la historia de América pueda mencionar a Cristobal Colón cientos de veces en sus múltiples páginas, por otro lado una breve biografía sobre Colón es posible que sólo contenga la palabra «Cristobal Colón» x13 veces. Sin embargo al ser un documento más corto, y cláramente enfocado a esta persona, será de mayor interés para el usuario que busque dichas palabras clave, y por tanto estará situado más arriba en la página de resultados de los buscadores.
La densidad de palabras clave se puede calcular con una sencilla fórmula:
Densidad de palabras = Cantidad de palabras clave ÷ Total de palabras
Técnicas «black hat» con las Keywords
Todo esto comenzó con las primeras técnicas SEO para «engañar» a google, denominadas «black hat»(sombrero negro).
Los webmasters se dedicaron a hacer infinitas páginas con muchísimo texto que incluía las palabras clave múltiples veces aunque no enriqueciese el artículo, y que el usuario jamás llegaría a leer. Es una técnica conocida como «Keyword stuffing» que traducido del inglés significa rellenar de palabras clave.
Ejemplo de «Keyword stuffing»:
Cuando uno quiere preparar recetas de pollo, debe saber que unas recetas de pollo, no son como otras recetas de pollo, porque hay recetas de pollo muy buenas, y otras recetas de pollo regulares así como recetas de pollo malas. Nuestras recetas de pollo son las mejores de todas las recetas de pollo, y por eso nos consideramos la mejor web de recetas de pollo a la que nadie que quiera preparar recetas de pollo pueda acceder al buscar recetas de pollo.
Este galimatías con 82 palabras en las cuales «recetas de pollo» aparece 11 veces(3 palabras x 11=33), resulta tener una densidad de palabras clave de 33÷88= 37’5%.
Es decir el más del 37% del contenido son las palabras clave.
Supongamos que nuestra página intenta ofrecer una buena experiencia al usuario, y comienza con una buena receta de unas 400 palabras en las que utiliza de manera natural «recetas de pollo» 3 ó 4 veces (sería una densidad del 3%, pero luego tras ella, añade el anterior párrafo para subir dicha densidad (Serían unas 45 «keywords» ÷ 500 palabras) de aproximadamente 10% superando a cualquier otra receta que no hubiese empleado esta técnica.
Actualización del algoritmo: «Keyword Stuffing»
Antes de que comenzarán las diferentes evoluciones de los buscadores, este párrafo, muy dificil de entender, y dando al usuario muy poca información real, hubiese estado entre los primeros resultados de Google.
Afortunadamente para los usuarios, desde 2018, google implementa un factor de «Keyword stuffing«, para evitar este abuso de algunos SEO’s, penalizando este tipo de acciones, e incentivando a los desarrolladores de webs a hacer contenido mejor para el usuario, en lugar de «trucos» de poca utilidad para el consumidor.
Normalmente las técnicas «black hat» buscan aprovecharse de los fallos del algoritmo de los buscadores. Y la labor de google con cada una de sus actualizaciones es evitar este engaño e intentar dar a los usuarios la mejor página posible para sus búsquedas.
1 Comment