 |
|
país donde la
empresa tiene su sede europea. La desconfianza no ha desaparecido, y las nuevas
medidas propuestas por Meta serán escrutadas con lupa.
El debate sobre privacidad y transparencia ha adquirido aún más relevancia esta
semana, luego de que la Comisión Europea anunciara las primeras sanciones
amparadas por el nuevo Reglamento de Mercados Digitales (DMA, por sus siglas en
inglés). Meta fue multada con 200 millones de euros por su política de "aceptar
o pagar", que obligaba a los usuarios a ceder sus datos o pagar una suscripción
si no querían ser rastreados. La Comisión concluyó que este modelo es ilegal y,
aunque Meta ha introducido cambios, las autoridades siguen evaluando si cumple
las nuevas normas.
En palabras de Teresa Ribera, vicepresidenta de la Comisión Europea y
responsable de Competencia, "Apple y Meta han incumplido la DMA al aplicar
medidas que refuerzan la dependencia de los usuarios empresariales y los
consumidores de sus plataformas". En su comunicado, insistió en que todas las
empresas deben respetar las leyes comunitarias y los valores europeos,
especialmente en lo que respecta a la protección de datos personales.
En medio de todo este panorama, el caso del botón de Meta AI en WhatsApp ilustra
un dilema creciente: el del consentimiento implícito en la era digital. La
posibilidad de conversar con una IA integrada puede ser útil para muchos, pero
también representa una puerta de entrada a nuevas formas de monitoreo, uso de
datos y, sobre todo, a una pérdida progresiva del control sobre la propia
experiencia digital.
A pesar de los esfuerzos de Meta por tranquilizar a los usuarios, la sensación
de que la tecnología avanza más rápido que la regulación —y que muchas
decisiones se toman sin un consentimiento claro— sigue siendo motivo de
preocupación para millones de personas. Que algo sea técnicamente "opcional" no
significa que sea fácil de evitar. Y cuando se trata de privacidad, esa
diferencia importa más que nunca.
|
Desde hace algunas semanas, millones de usuarios de WhatsApp en
diferentes países han notado un nuevo y llamativo botón flotante en
la esquina inferior derecha de sus pantallas. Se trata del acceso
directo a Meta AI, la inteligencia artificial de la empresa matriz
de WhatsApp, Facebook e Instagram. El botón, un círculo de tonos
azul y rosa, abre una conversación con un chatbot integrado que
promete asistencia rápida al estilo de ChatGPT. Hasta ahí, podría
parecer una nueva función útil para quienes buscan respuestas
rápidas o compañía digital. Pero la polémica no ha tardado en
estallar.
La controversia no gira en torno a lo que puede hacer la IA, sino a
su mera presencia constante en la interfaz de WhatsApp. Aunque desde
Meta se insiste en que el uso del asistente es "completamente
opcional", no hay manera de quitar el botón de la pantalla. Como
mucho, puede eliminarse el chat, como con cualquier contacto, pero
el acceso directo a la IA sigue ahí, silencioso pero persistente.
Para muchos, esto plantea una contradicción evidente: ¿hasta qué
punto es algo opcional si no se puede quitar?
La compañía ha desplegado esta función de manera escalonada y aún no
está disponible para todos los usuarios, incluso dentro de un mismo
país. Sin embargo, una vez aparece, no hay vuelta atrás. El botón
también se ha incorporado a las aplicaciones móviles de Instagram y
Messenger, en una estrategia que revela el claro objetivo de Meta:
integrar profundamente su inteligencia artificial en todo su
ecosistema de productos.

El mensaje que aparece al abrir por primera vez el chat con Meta AI
intenta tranquilizar al usuario. Asegura que el servicio no accede a
conversaciones privadas y solo procesa lo que
se le envía directamente. Además, advierte de que sus respuestas
pueden ser inexactas o inapropiadas. Aun así, invita a los usuarios
a no compartir información delicada o personal. Esta serie de
advertencias es ya común en la mayoría de asistentes
conversacionales, pero cobra un matiz distinto
cuando se integra en una aplicación de mensajería personal y
privada.
|
|
A esto se suma una nueva capa de preocupación: el entrenamiento de los modelos
de IA. Meta anunció que a partir de junio empezará a utilizar el contenido
público que comparten los adultos en sus plataformas dentro de la Unión Europea
para alimentar su IA. Esto incluye publicaciones y comentarios, pero no
conversaciones privadas ni datos de menores. No obstante, los procesos para
oponerse a esta recolección de datos no son tan sencillos como cabría esperar.
De ahí que grupos como Citizen 8 hayan desarrollado scripts automatizados para
facilitar a los usuarios el envío de notificaciones de oposición.

Esta no es la primera vez que Meta intenta usar los datos de sus plataformas
para entrenar sus modelos de IA. En 2023, un intento similar fue bloqueado por
la autoridad de protección de datos de Irlanda,
|