GoogleLeaks: Secretos del
algoritmo de búsqueda de Google revelados
Durante años, los algoritmos detrás del buscador de Google han sido un enigma
que los expertos en optimización en motores de búsqueda (SEO, por sus siglas en
inglés) han intentado descifrar. Sin embargo, una reciente filtración de
documentos ha puesto al descubierto varios secretos sobre el funcionamiento de
este sistema, revelando una falta de transparencia por parte de la gigante
tecnológica en los últimos años.
Hace algunos días, Rand Fishkin, un reconocido experto en SEO, publicó en el
blog SparkToro una revelación impactante: una fuente anónima le había
proporcionado documentos del Content API Warehouse de Google Search, un total de
2,500 páginas. Estos documentos contradicen diversas declaraciones que Google ha
hecho en el pasado, como la negación de que los subdominios se consideren por
separado en los resultados de búsqueda, la existencia de un sandbox para sitios
nuevos, o el uso de la antigüedad del dominio para clasificar páginas web.
Descifrando el algoritmo de
Google
La información compartida por Fishkin es extensa y técnica, dirigida
principalmente a expertos en SEO. No obstante, lo que queda claro es que estos
documentos ofrecen una visión detallada sobre cómo Google recopila datos de las
páginas web, maneja sitios más pequeños, y decide qué páginas clasificar mejor
en búsquedas delicadas como las relacionadas con elecciones.
Uno de los aspectos más controvertidos de esta filtración es que contradice
varias afirmaciones
previas de Google. Por ejemplo, Google ha asegurado que no utiliza datos del
navegador Chrome para posicionar páginas en los resultados de búsqueda. Sin
embargo, los documentos filtrados demuestran lo contrario, mencionando
explícitamente el uso de datos de Chrome en la forma en que se muestran los
resultados de búsqueda.
Mike King, otro experto en SEO, expresó su frustración en el blog iPULLRANK,
afirmando: "Mentir es un término severo, pero es la única palabra precisa que se
puede usar en este caso. Aunque no culpo necesariamente a los
|
|
representantes
públicos de Google por proteger su información privada, no comparto sus
esfuerzos por desacreditar activamente a personas del mundo del marketing,
la tecnología y el periodismo que han compartido hallazgos más que
fundamentados".
El origen de la filtración
El 28 de mayo, SparkToro actualizó su publicación con un video que revelaba la
identidad de la fuente: Erfan Azimi, especialista en SEO y fundador de la
agencia EA Eagle Digital. Azimi compartió con Fishkin y King los documentos que
obtuvo de "más de 14,000 funcionalidades de la API de Google Search publicadas
por error en el repositorio de código GitHub".
Después de recibir la información, Fishkin y King analizaron los documentos y
destacaron varios puntos clave que se encuentran explicados en SparkToro. El
portal de noticias RedDePeriodistas resumió estos puntos en una lista que todo
experto en SEO debería conocer:
1. “NavBoost”: Un sistema que utiliza datos de clics y patrones de navegación
para mejorar la calidad de los resultados de búsqueda.
2. Uso de Chrome y cookies: Google emplea datos recopilados de Chrome y cookies
para detectar y combatir el spam de clics de forma manual o algorítmica.
3. Detección de la intención del usuario: Los datos de clics y niveles de
interacción se analizan para ajustar resultados de búsqueda según la intención
del usuario.
4. Listas blancas (whitelists):
Durante acontecimientos críticos como la pandemia por COVID-19 y las elecciones,
Google utiliza listas blancas para mostrar información verificada.
5. Clasificación de enlaces: Los datos de clics también se usan para evaluar la
calidad de los enlaces, determinando su relevancia en los resultados de
búsqueda.
6. Estructura del algoritmo: Compuesto por 14,014 atributos organizados en 2,596
módulos que afectan múltiples servicios de Google, incluyendo YouTube y Google
Assistant.
7. Evaluación de la autoridad del sitio: Google emplea métricas como
“siteAuthority” y datos de clics para clasificar y evaluar la autoridad de los
sitios web.
8. Gestión de
spam: Usa datos de múltiples fuentes, incluyendo Chrome, para identificar y
luchar contra el spam de manera efectiva.
9. “Twiddlers”: Funciones específicas que ajustan los resultados de
|
|
búsqueda antes de
mostrarlos al usuario, optimizando su relevancia y precisión.
Implicaciones para el SEO y
el contenido en línea
Durante años, los expertos en SEO han estudiado el algoritmo de Google con la
esperanza de mejorar el posicionamiento de sus sitios web. Esta búsqueda
constante ha llevado a una saturación de contenidos optimizados técnicamente,
pero no necesariamente de alta calidad. La revelación de estos documentos podría
cambiar esta dinámica, permitiendo que las páginas que verdaderamente responden
a las necesidades de los usuarios vuelvan a ocupar los primeros lugares en los
resultados de búsqueda.
La filtración también pone en evidencia la opacidad con la que Google ha
manejado la información sobre su algoritmo. Esta falta de transparencia no solo
afecta a los expertos en SEO, sino también a los usuarios que dependen de Google
para obtener información relevante y confiable. Saber que Google emplea datos de
navegación y otros métodos no divulgados públicamente para determinar el
posicionamiento de las páginas web genera desconfianza en sus prácticas.
La reacción de la comunidad
y de Google
La comunidad SEO ha recibido estas revelaciones con una mezcla de sorpresa y
escepticismo. Mientras algunos agradecen la luz arrojada sobre el funcionamiento
interno de Google, otros temen que esta información pueda llevar a una mayor
manipulación de los resultados de búsqueda.
Google, por su parte, ha mantenido silencio respecto a la filtración, lo que
solo aumenta la especulación sobre la veracidad y las implicaciones de los
documentos revelados. Hasta ahora, no ha habido declaraciones oficiales que
confirmen o desmientan los puntos expuestos por Fishkin y Azimi.
En conclusión, la filtración de GoogleLeaks ha desatado una tormenta en el mundo
del SEO, ofreciendo una visión sin precedentes del algoritmo de búsqueda más
influyente del mundo. A medida que la comunidad asimila esta información, es
probable que veamos cambios significativos en las estrategias de optimización y
en la manera en que Google maneja la transparencia de su algoritmo. Lo que queda
claro es que el panorama del SEO ha cambiado irrevocablemente, y tanto expertos
como usuarios tendrán que adaptarse a esta nueva realidad.
|