Pereira, Colombia - Edición: 13.472-1052

Fecha: Viernes 25-04-2025

 

 TECNOLOGÍA

 

-14

 

Meta AI en WhatsApp: ¿Opcional o inevitable? El dilema de la privacidad y el control en la era de la inteligencia artificial

 

 

país donde la empresa tiene su sede europea. La desconfianza no ha desaparecido, y las nuevas medidas propuestas por Meta serán escrutadas con lupa.

El debate sobre privacidad y transparencia ha adquirido aún más relevancia esta semana, luego de que la Comisión Europea anunciara las primeras sanciones amparadas por el nuevo Reglamento de Mercados Digitales (DMA, por sus siglas en inglés). Meta fue multada con 200 millones de euros por su política de "aceptar o pagar", que obligaba a los usuarios a ceder sus datos o pagar una suscripción si no querían ser rastreados. La Comisión concluyó que este modelo es ilegal y, aunque Meta ha introducido cambios, las autoridades siguen evaluando si cumple las nuevas normas.

En palabras de Teresa Ribera, vicepresidenta de la Comisión Europea y responsable de Competencia, "Apple y Meta han incumplido la DMA al aplicar medidas que refuerzan la dependencia de los usuarios empresariales y los consumidores de sus plataformas". En su comunicado, insistió en que todas las empresas deben respetar las leyes comunitarias y los valores europeos, especialmente en lo que respecta a la protección de datos personales.

En medio de todo este panorama, el caso del botón de Meta AI en WhatsApp ilustra un dilema creciente: el del consentimiento implícito en la era digital. La posibilidad de conversar con una IA integrada puede ser útil para muchos, pero también representa una puerta de entrada a nuevas formas de monitoreo, uso de datos y, sobre todo, a una pérdida progresiva del control sobre la propia experiencia digital.

A pesar de los esfuerzos de Meta por tranquilizar a los usuarios, la sensación de que la tecnología avanza más rápido que la regulación —y que muchas decisiones se toman sin un consentimiento claro— sigue siendo motivo de preocupación para millones de personas. Que algo sea técnicamente "opcional" no significa que sea fácil de evitar. Y cuando se trata de privacidad, esa diferencia importa más que nunca.

 

 
Desde hace algunas semanas, millones de usuarios de WhatsApp en diferentes países han notado un nuevo y llamativo botón flotante en la esquina inferior derecha de sus pantallas. Se trata del acceso directo a Meta AI, la inteligencia artificial de la empresa matriz de WhatsApp, Facebook e Instagram. El botón, un círculo de tonos azul y rosa, abre una conversación con un chatbot integrado que promete asistencia rápida al estilo de ChatGPT. Hasta ahí, podría parecer una nueva función útil para quienes buscan respuestas rápidas o compañía digital. Pero la polémica no ha tardado en estallar.

La controversia no gira en torno a lo que puede hacer la IA, sino a su mera presencia constante en la interfaz de WhatsApp. Aunque desde Meta se insiste en que el uso del asistente es "completamente opcional", no hay manera de quitar el botón de la pantalla. Como mucho, puede eliminarse el chat, como con cualquier contacto, pero el acceso directo a la IA sigue ahí, silencioso pero persistente. Para muchos, esto plantea una contradicción evidente: ¿hasta qué punto es algo opcional si no se puede quitar?

La compañía ha desplegado esta función de manera escalonada y aún no está disponible para todos los usuarios, incluso dentro de un mismo país. Sin embargo, una vez aparece, no hay vuelta atrás. El botón también se ha incorporado a las aplicaciones móviles de Instagram y Messenger, en una estrategia que revela el claro objetivo de Meta: integrar profundamente su inteligencia artificial en todo su ecosistema de productos.
 


El mensaje que aparece al abrir por primera vez el chat con Meta AI intenta tranquilizar al usuario. Asegura que el servicio no accede a conversaciones privadas y solo procesa lo
que se le envía directamente. Además, advierte de que sus respuestas pueden ser inexactas o inapropiadas. Aun así, invita a los usuarios a no compartir información delicada o personal. Esta serie de advertencias es ya común en la mayoría de asistentes conversacionales, pero cobra un matiz distinto cuando se integra en una aplicación de mensajería personal y privada.
 

 

 
A esto se suma una nueva capa de preocupación: el entrenamiento de los modelos de IA. Meta anunció que a partir de junio empezará a utilizar el contenido público que comparten los adultos en sus plataformas dentro de la Unión Europea para alimentar su IA. Esto incluye publicaciones y comentarios, pero no conversaciones privadas ni datos de menores. No obstante, los procesos para oponerse a esta recolección de datos no son tan sencillos como cabría esperar. De ahí que grupos como Citizen 8 hayan desarrollado scripts automatizados para facilitar a los usuarios el envío de notificaciones de oposición.
 


Esta no es la primera vez que Meta intenta usar los datos de sus plataformas para entrenar sus modelos de IA. En 2023, un intento similar fue bloqueado por la autoridad de protección de datos de Irlanda,

 

 

 

 

Submit

 

 © El Imparcial Editores S.A.S  |   Contacto 57 606 347 7079 

    © 1948-2009 - 2025 - El Imparcial - La idea y concepto de este periódico fue hecho en Online Periodical Format (OPF) que es un Copyright de ZahurK.

    Queda prohibido el uso de este formato e idea (OPF) sin previa autorización escrita de ZahurK