Recopilar datos neuronales: la
nueva ambición de las Big Tech
Fue en 2017 cuando Meta (entonces Facebook) presentó el proyecto de
un dispositivo capaz de leer nuestra mente. En concreto, se trataba
de una interfaz cerebro-computadora que escaneaba nuestros
pensamientos cientos de veces por segundo, traduciéndolos a texto
escrito.
Aunque este proyecto concreto se abandonó en 2021, en los últimos
meses Meta introdujo nuevos sistemas que utilizan la inteligencia
artificial (IA) y la magnetoencefalografía (MEG) para descodificar
nuestras pensamientos y convertirlos en texto o incluso en imágenes.
El negocio de la información de las ondas cerebrales
En el campo de las llamadas neurotecnologías e interfaces
cerebro-computadora, la más conocida es Neuralink: la compañía
fundada por Elon Musk que implantó recientemente un chip en el
cerebro de un ser humano con el objetivo de leer su actividad
cerebral, posibilitando que incluso quienes han sufrido parálisis
severas empleen una computadora, por ejemplo, moviendo el mouse con
el pensamiento, y logren así comunicarse.
En pocas palabras, los dispositivos neurotecnológicos diseñados por
las gigantes de Silicon Valley, y muchos otros menos avanzados pero
que ya están a la venta actualmente, interpretan nuestra actividad
cerebral y la traducen en acciones o la aprovechan para
proporcionarnos algún tipo de retroalimentación, por ejemplo, para
ayudarnos a mejorar la meditación.
Mientras sean dispositivos médicos, como es el caso de Neuralink,
estos sistemas están sujetos a una normativa estricta. Sin embargo,
otros equipos menos invasivos que, por tanto, no requieren su
implantación mediante cirugía y que tienen fines distintos de los
sanitarios no están sujetos a una reglamentación específica, lo que
les permite recopilar y revender los datos de nuestro cerebro.
La nueva frontera del capitalismo de la vigilancia cerebral
¿Nos dirigimos de verdad hacia un futuro en el que el capitalismo de
la vigilancia llegue a comercializar los datos obtenidos
directamente de nuestros cerebros? ¿Nuestros propios pensamientos se
convertirán en parte de las bases de datos de Meta, Apple, Amazon,
Neuralink y todos los demás actores potencialmente interesados en
este tipo de recopilación de información?
De hecho, este escenario futurista se está haciendo realidad mucho
más rápido de lo esperado, tanto con fines comerciales como de
vigilancia. Una investigación del South
China Morning Post,
por ejemplo, informó sobre cómo los trabajadores de Hangzhou
Zhongheng Electric, una empresa de productos de alta tecnología
situada en Hangzhou (al este de China, no muy lejos de Shanghai),
llevan puesto un casco que contiene sensores inalámbricos que
monitorizan continuamente sus ondas cerebrales, transfiriendo estos
datos a computadoras que, gracias a la IA, detectan picos
emocionales relacionados con la ansiedad, la depresión o la ira. El
mismo periódico había reportado también cómo, en algunas escuelas de
China, se estaban empleando instrumentos similares para controlar el
nivel de atención y concentración de los alumnos.
Si en China los temores tiene que ver principalmente con lo que se
ha denominado “vigilancia cerebral” (nunca hubo un término más
inquietante), en el resto del mundo lo que nos preocupa es que
nuestros pensamientos se conviertan en un negocio. Como señala un
informe de la organización
|
|
sin fines de lucro The Neurorights Foundation, que trabaja
para defender la privacidad de nuestros datos cerebrales, ya hay varias
compañías del sector de la neurotecnología que recopilan y potencialmente venden
la información obtenida del cerebro de sus clientes. “Examinando las políticas
de privacidad y los acuerdos de usuario de 30 de estas empresas, el análisis
descubrió que la mayoría de ellas podrían compartir datos neuronales con
empresas externas”, escribe Vox, por ejemplo.
Es algo parecido a lo que ocurre con las plataformas de redes sociales, que
ofrecen información sobre nuestros intereses con fines comerciales, pero recaban
esta directamente de nuestros cerebros. Como explica la revista Spectrum, “las
compañías que venden dispositivos directamente a los clientes y están reguladas
como empresas de electrónica de consumo podrían descifrar los datos cerebrales,
revenderlos y hacer lo que quisieran con ellos”. Si compañías como Meta o Google
ya saben tanto sobre nosotros y lo explotan para sus propios fines, incluso
abusando de ello en varias ocasiones, ¿qué pasaría si también tuvieran a su
disposición nuestra información más privada y oculta?
De Chile a Colorado: protegiendo la “privacidad mental”
Precisamente para defenderse de este tipo de escenarios, Colorado se convirtió
en el primer territorio de Estados Unidos en aprobar una enmienda que incluye
también los datos neuronales entre los que protege la Ley de Privacidad, que ya
contempla las imágenes faciales y las huellas dactilares. California y Minnesota
también podrían legislar pronto al respecto, amparando la “privacidad mental” y
multando a las empresas que la infrinjan.
Aunque Colorado es el primer estado de EE UU que toma cartas en el asunto, el
verdadero pionero de la privacidad mental es una nación sudamericana: Chile, que
en 2021 aprobó una ley sobre los llamados derechos neuronales que equipara todos
los sistemas capaces de analizar la actividad cerebral a dispositivos médicos,
reconociendo también que la información neuronal es equivalente a órganos
humanos y prohibiendo, en consecuencia, su compra o venta.
Otras naciones que están considerando medidas similares son España, Francia y
Argentina, mientras que la ONU también ha empezado a interesarse por el tema. De
hecho, en una declaración publicada en septiembre de 2022, el Secretario General
de la ONU, Antonio Guterres, manifestó que había llegado el momento de
“actualizar nuestro concepto de los derechos humanos” e
incluir la neurotecnología en la lista de
“cuestiones en común” que deben tenerse en cuenta.
En general, todos los países que han aprobado leyes sobre datos neuronales o
están considerando hacerlo han escuchado al investigador que planteó por primera
vez la cuestión: Rafael Yuste, profesor de Biología de la Universidad de
Columbia. Las preocupaciones de Yuste se remontan a una docena de años atrás,
cuando descubrió en su laboratorio que era capaz de influir en la percepción
visual de los ratones. Utilizando un láser, Yuste conseguía activar determinadas
neuronas y hacer aparecer las imágenes que deseaba en el cerebro de los
animales, manipulándolos como si fueran marionetas. En ese momento, Yuste se
hizo una sencilla pregunta: ¿cuánto tiempo pasaría hasta que fuera posible hacer
algo similar con los humanos?
Datos neuronales y cuestiones
éticas
En 2017, Yuste y sus colegas publicaron un artículo en Nature, destacando los
riesgos de estas tecnologías y las medidas que deben adoptarse. En general, las
recomendaciones de Yuste son cinco:
- Prohibir el almacenamiento y la venta de nuestros datos cerebrales.
|
|
- Garantizar la protección frente a alteraciones no autorizadas de nuestro
sentido del yo.
- Asegurar que tengamos un control total sobre nuestro libre albedrío y nuestras
decisiones.
- Velar por un acceso equitativo a la llamada “mejora humana” mediante la
tecnología, de modo que no favorezca solo a los más ricos (incrementando la
desigualdad).
- Exigir que los algoritmos que sirven de base a los sistemas neurotecnológicos
no estén sesgados hacia ningún grupo o minoría en particular.
Aunque Yuste, que también es fundador de la mencionada The NeuroRights
Foundation, tiene sin duda buenas intenciones, pero sus cinco sugerencias se
enfrentan a varios problemas y plantean cuestiones filosóficas y psicológicas
delicadas. Por ejemplo, ¿cómo aseguramos el “derecho al libre albedrío” cuando
ni siquiera tenemos certeza de que exista tal?. Y, además, ¿cómo garantizamos la
protección frente a las alteraciones del yo, cuando las drogas psicotrópicas son
capaces de generar estas de formas incluso impredecibles?
Muchos críticos de la ley chilena han destacado precisamente este último
aspecto, señalando cómo la legislación complicaría el tratamiento de los
pacientes psiquiátricos y destacando, de forma más amplia, lo complejo que es
traducir los principios generales de Yuste en normas claramente definidas.
Más allá de las limitaciones y ambigüedades de las leyes pioneras, una cuestión
es cierta: la regulación de los derechos neuronales es urgente. Y no solo por
los riesgos asociados a la vigilancia y al comercio de datos privados e íntimos.
Como explica Fast Company, estas tecnologías podrían usarse potencialmente para
deducir lo que pensamos o sentimos, independientemente de nuestra voluntad de
hacer públicos estos pensamientos o sentimientos. Peor aún, como demuestra el
estudio de Yuste en ratones, los dispositivos neurotecnológicos también
servirían para incitar en nosotros acciones deseadas por otros.
Imagina, por ejemplo, un sistema que analice nuestras ondas cerebrales para
mostrarnos el momento del día en que somos más productivos, pero que al mismo
tiempo introduzca estímulos en nuestra mente para hacernos comprar algún
producto concreto.
Por el momento, se trata de escenarios distópicos y de ciencia ficción, pero
teniendo en cuenta el punto al que ya hemos llegado, en el que algunas empresas
revisan nuestros datos cerebrales e incluso podrían estarlos vendiendo, además
de los posibles riesgos para el futuro, es mejor anticiparse.
Sin embargo, no todos están de acuerdo: Laura Cabrera, profesora de Neuroética
de la Universidad Estatal de Pensilvania, por ejemplo, criticó la ley chilena y
el planteamiento de Yuste por centrarse exclusivamente en la información
neuronal, lo que obstaculiza una legislación más amplia que nos protegería de
cualquier análisis de nuestros datos privados, independientemente de su origen.
Cabrera subraya que las redes sociales o los motores de búsqueda ya nos conocen
en profundidad y aprovechan este conocimiento para manipular nuestras acciones:
“Desde este punto de vista, centrarse en los datos neuronales es una oportunidad
perdida para combatir otros riesgos para la privacidad”, explicó Cabrera a Fast
Company. “Si pensamos en cómo las redes sociales manipulan nuestras acciones,
nos damos cuenta de que el control mental ya es una realidad”.
|