Pereira, Colombia - Edición: 13.269-849

Fecha: Jueves 30-05-202

 

 TECNOLOGÍA

 

-14

 

GoogleLeaks: Secretos del algoritmo de búsqueda de Google revelados




Durante años, los algoritmos detrás del buscador de Google han sido un enigma que los expertos en optimización en motores de búsqueda (SEO, por sus siglas en inglés) han intentado descifrar. Sin embargo, una reciente filtración de documentos ha puesto al descubierto varios secretos sobre el funcionamiento de este sistema, revelando una falta de transparencia por parte de la gigante tecnológica en los últimos años.

Hace algunos días, Rand Fishkin, un reconocido experto en SEO, publicó en el blog SparkToro una revelación impactante: una fuente anónima le había proporcionado documentos del Content API Warehouse de Google Search, un total de 2,500 páginas. Estos documentos contradicen diversas declaraciones que Google ha hecho en el pasado, como la negación de que los subdominios se consideren por separado en los resultados de búsqueda, la existencia de un sandbox para sitios nuevos, o el uso de la antigüedad del dominio para clasificar páginas web.

Descifrando el algoritmo de Google

La información compartida por Fishkin es extensa y técnica, dirigida principalmente a expertos en SEO. No obstante, lo que queda claro es que estos documentos ofrecen una visión detallada sobre cómo Google recopila datos de las páginas web, maneja sitios más pequeños, y decide qué páginas clasificar mejor en búsquedas delicadas como las relacionadas con elecciones.



Uno de los aspectos más controvertidos de esta filtración es que contradice varias
afirmaciones previas de Google. Por ejemplo, Google ha asegurado que no utiliza datos del navegador Chrome para posicionar páginas en los resultados de búsqueda. Sin embargo, los documentos filtrados demuestran lo contrario, mencionando explícitamente el uso de datos de Chrome en la forma en que se muestran los resultados de búsqueda.

Mike King, otro experto en SEO, expresó su frustración en el blog iPULLRANK, afirmando: "Mentir es un término severo, pero es la única palabra precisa que se puede usar en este caso. Aunque no culpo necesariamente a los

 

 

 

representantes públicos de Google por proteger su información privada, no comparto sus esfuerzos por desacreditar activamente a personas del mundo del marketing, la tecnología y el periodismo que han compartido hallazgos más que fundamentados".

El origen de la filtración

El 28 de mayo, SparkToro actualizó su publicación con un video que revelaba la identidad de la fuente: Erfan Azimi, especialista en SEO y fundador de la agencia EA Eagle Digital. Azimi compartió con Fishkin y King los documentos que obtuvo de "más de 14,000 funcionalidades de la API de Google Search publicadas por error en el repositorio de código GitHub".

Después de recibir la información, Fishkin y King analizaron los documentos y destacaron varios puntos clave que se encuentran explicados en SparkToro. El portal de noticias RedDePeriodistas resumió estos puntos en una lista que todo experto en SEO debería conocer:



1. “NavBoost”: Un sistema que utiliza datos de clics y patrones de navegación para mejorar la calidad de los resultados de búsqueda.

2. Uso de Chrome y cookies: Google emplea datos recopilados de Chrome y cookies para detectar y combatir el spam de clics de forma manual o algorítmica.

3. Detección de la intención del usuario: Los datos de clics y niveles de interacción se analizan para ajustar resultados de búsqueda según la intención del usuario.

 

4. Listas blancas (whitelists): Durante acontecimientos críticos como la pandemia por COVID-19 y las elecciones, Google utiliza listas blancas para mostrar información verificada.

5. Clasificación de enlaces: Los datos de clics también se usan para evaluar la calidad de los enlaces, determinando su relevancia en los resultados de búsqueda.

6. Estructura del algoritmo: Compuesto por 14,014 atributos organizados en 2,596 módulos que afectan múltiples servicios de Google, incluyendo YouTube y Google Assistant.

7. Evaluación de la autoridad del sitio: Google emplea métricas como “siteAuthority” y datos de clics para clasificar y evaluar la autoridad de los sitios web.


8. Gestión de spam: Usa datos de múltiples fuentes, incluyendo Chrome, para identificar y luchar contra el spam de manera efectiva.

9. “Twiddlers”: Funciones específicas que ajustan los resultados de

 

 

 


búsqueda antes de mostrarlos al usuario, optimizando su relevancia y precisión.

Implicaciones para el SEO y el contenido en línea



Durante años, los expertos en SEO han estudiado el algoritmo de Google con la esperanza de mejorar el posicionamiento de sus sitios web. Esta búsqueda constante ha llevado a una saturación de contenidos optimizados técnicamente, pero no necesariamente de alta calidad. La revelación de estos documentos podría cambiar esta dinámica, permitiendo que las páginas que verdaderamente responden a las necesidades de los usuarios vuelvan a ocupar los primeros lugares en los resultados de búsqueda.

La filtración también pone en evidencia la opacidad con la que Google ha manejado la información sobre su algoritmo. Esta falta de transparencia no solo afecta a los expertos en SEO, sino también a los usuarios que dependen de Google para obtener información relevante y confiable. Saber que Google emplea datos de navegación y otros métodos no divulgados públicamente para determinar el posicionamiento de las páginas web genera desconfianza en sus prácticas.

La reacción de la comunidad y de Google


La comunidad SEO ha recibido estas revelaciones con una mezcla de sorpresa y escepticismo. Mientras algunos agradecen la luz arrojada sobre el funcionamiento interno de Google, otros temen que esta información pueda llevar a una mayor manipulación de los resultados de búsqueda.

Google, por su parte, ha mantenido silencio respecto a la filtración, lo que solo aumenta la especulación sobre la veracidad y las implicaciones de los documentos revelados. Hasta ahora, no ha habido declaraciones oficiales que confirmen o desmientan los puntos expuestos por Fishkin y Azimi.



En conclusión, la filtración de GoogleLeaks ha desatado una tormenta en el mundo del SEO, ofreciendo una visión sin precedentes del algoritmo de búsqueda más influyente del mundo. A medida que la comunidad asimila esta información, es probable que veamos cambios significativos en las estrategias de optimización y en la manera en que Google maneja la transparencia de su algoritmo. Lo que queda claro es que el panorama del SEO ha cambiado irrevocablemente, y tanto expertos como usuarios tendrán que adaptarse a esta nueva realidad.
 

 

  

 

 

EL IMPARCIAL

Submit

 

 

© El Imparcial Editores S.A.S  |   Contacto 57 606 348 6207  

 

    © 1948-2009 - 2024 - El Imparcial - La idea y concepto de este periódico fue hecho en Online Periodical Format (OPF) que es un Copyright de ZahurK.

    Queda prohibido el uso de este formato e idea (OPF) sin previa autorización escrita de ZahurK