GoogleLeaks:
Secretos del algoritmo de búsqueda de Google revelados
Durante años, los algoritmos detrás del buscador de Google han sido
un enigma que los expertos en optimización en motores de búsqueda (SEO,
por sus siglas en inglés) han intentado descifrar. Sin embargo, una
reciente filtración de documentos ha puesto al descubierto varios
secretos sobre el funcionamiento de este sistema, revelando una
falta de transparencia por parte de la gigante tecnológica en los
últimos años.
Hace algunos días, Rand Fishkin, un reconocido experto en SEO,
publicó en el blog SparkToro una revelación impactante: una fuente
anónima le había proporcionado documentos del Content API Warehouse
de Google Search, un total de 2,500 páginas. Estos documentos
contradicen diversas declaraciones que Google ha hecho en el pasado,
como la negación de que los subdominios se consideren por separado
en los resultados de búsqueda, la existencia de un sandbox para
sitios nuevos, o el uso de la antigüedad del dominio para clasificar
páginas web.
Descifrando el algoritmo de Google
La información compartida por Fishkin es extensa y técnica, dirigida
principalmente a expertos en SEO. No obstante, lo que queda claro es
que estos documentos ofrecen una visión detallada sobre cómo Google
recopila datos de las páginas web, maneja sitios más pequeños, y
decide qué páginas clasificar mejor en búsquedas delicadas como las
relacionadas con elecciones.
Uno de los aspectos más controvertidos de esta filtración es que
contradice varias
afirmaciones previas de Google. Por ejemplo, Google ha asegurado que
no utiliza datos del navegador Chrome para posicionar páginas en los
resultados de búsqueda. Sin embargo, los documentos filtrados
demuestran lo contrario, mencionando explícitamente el uso de datos
de Chrome en la forma en que se muestran los resultados de búsqueda.
Mike King, otro experto en SEO, expresó su frustración en el blog
iPULLRANK, afirmando: "Mentir es un término severo, pero es la única
palabra precisa que se puede usar en este caso. Aunque no culpo
necesariamente a los
|
|
representantes públicos de Google por
proteger su información privada, no comparto sus esfuerzos por desacreditar
activamente a personas del mundo del
marketing, la tecnología y el periodismo que han compartido
hallazgos más que fundamentados".
El origen de la filtración
El 28 de mayo, SparkToro actualizó su publicación con un video que revelaba la
identidad de la fuente: Erfan Azimi, especialista en SEO y fundador de la
agencia EA Eagle Digital. Azimi compartió con Fishkin y King los documentos que
obtuvo de "más de 14,000 funcionalidades de la API de Google Search publicadas
por error en el repositorio de código GitHub".
Después de recibir la información, Fishkin y King analizaron los documentos y
destacaron varios puntos clave que se encuentran explicados en SparkToro. El
portal de noticias RedDePeriodistas resumió estos puntos en una lista que todo
experto en SEO debería conocer:
1. “NavBoost”: Un sistema que utiliza datos de clics y patrones de navegación
para mejorar la calidad de los resultados de búsqueda.
2. Uso de Chrome y cookies: Google emplea datos recopilados de Chrome y cookies
para detectar y combatir el spam de clics de forma manual o algorítmica.
3. Detección de la intención del usuario: Los datos de clics y niveles de
interacción se analizan para ajustar resultados de búsqueda según la intención
del usuario.
4. Listas
blancas (whitelists): Durante acontecimientos críticos como la pandemia por
COVID-19 y las elecciones, Google utiliza listas blancas para mostrar
información verificada.
5. Clasificación de enlaces: Los datos de clics también se usan para evaluar la
calidad de los enlaces, determinando su relevancia en los resultados de
búsqueda.
6. Estructura del algoritmo: Compuesto por 14,014 atributos organizados en 2,596
módulos que afectan múltiples servicios de Google, incluyendo YouTube y Google
Assistant.
7. Evaluación de la autoridad del sitio: Google emplea métricas como
“siteAuthority” y datos de clics para clasificar y evaluar la autoridad de los
sitios web.
8. Gestión de spam: Usa datos de
múltiples fuentes, incluyendo Chrome, para identificar y luchar contra el spam
de manera efectiva.
9. “Twiddlers”: Funciones específicas que ajustan los resultados de
|
|
búsqueda antes de mostrarlos al usuario, optimizando su relevancia y precisión.
Implicaciones para el SEO y el contenido en línea
Durante años, los expertos en SEO han estudiado el algoritmo de Google con la
esperanza de mejorar el posicionamiento de sus sitios web. Esta búsqueda
constante ha llevado a una saturación de contenidos optimizados técnicamente,
pero no necesariamente de alta calidad. La revelación de estos documentos podría
cambiar esta dinámica, permitiendo que las páginas que verdaderamente responden
a las necesidades de los usuarios vuelvan a ocupar los primeros lugares en los
resultados de búsqueda.
La filtración también pone en evidencia la opacidad con la que Google ha
manejado la información sobre su algoritmo. Esta falta de transparencia no solo
afecta a los expertos en SEO, sino también a los usuarios que dependen de Google
para obtener información relevante y confiable. Saber que Google emplea datos de
navegación y otros métodos no divulgados públicamente para determinar el
posicionamiento de las páginas web genera desconfianza en sus prácticas.
La reacción de la comunidad y de Google
La comunidad SEO ha recibido estas revelaciones con una mezcla de sorpresa y
escepticismo. Mientras algunos agradecen la luz arrojada sobre el funcionamiento
interno de Google, otros temen que esta información pueda llevar a una mayor
manipulación de los resultados de búsqueda.
Google, por su parte, ha mantenido silencio respecto a la filtración, lo que
solo aumenta la especulación sobre la veracidad y las implicaciones de los
documentos revelados. Hasta ahora, no ha habido declaraciones oficiales que
confirmen o desmientan los puntos expuestos por Fishkin y Azimi.
En conclusión, la filtración de GoogleLeaks ha desatado una tormenta en el mundo
del SEO, ofreciendo una visión sin precedentes del algoritmo de búsqueda más
influyente del mundo. A medida que la comunidad asimila esta información, es
probable que veamos cambios significativos en las estrategias de optimización y
en la manera en que Google maneja la transparencia de su algoritmo. Lo que queda
claro es que el panorama del SEO ha cambiado irrevocablemente, y tanto expertos
como usuarios tendrán que adaptarse a esta nueva realidad.
|