Pereira, Colombia - Edición: 13.256-836

Fecha: Martes 07-05-202

 

 TECNOLOGÍA

 

-14

 

Recopilar datos neuronales: la nueva ambición de las Big Tech




Fue en 2017 cuando Meta (entonces Facebook) presentó el proyecto de un dispositivo capaz de leer nuestra mente. En concreto, se trataba de una interfaz cerebro-computadora que escaneaba nuestros pensamientos cientos de veces por segundo, traduciéndolos a texto escrito.

Aunque este proyecto concreto se abandonó en 2021, en los últimos meses Meta introdujo nuevos sistemas que utilizan la inteligencia artificial (IA) y la magnetoencefalografía (MEG) para descodificar nuestras pensamientos y convertirlos en texto o incluso en imágenes.

El negocio de la información de las ondas cerebrales

En el campo de las llamadas neurotecnologías e interfaces cerebro-computadora, la más conocida es Neuralink: la compañía fundada por Elon Musk que implantó recientemente un chip en el cerebro de un ser humano con el objetivo de leer su actividad cerebral, posibilitando que incluso quienes han sufrido parálisis severas empleen una computadora, por ejemplo, moviendo el mouse con el pensamiento, y logren así comunicarse.

En pocas palabras, los dispositivos neurotecnológicos diseñados por las gigantes de Silicon Valley, y muchos otros menos avanzados pero que ya están a la venta actualmente, interpretan nuestra actividad cerebral y la traducen en acciones o la aprovechan para proporcionarnos algún tipo de retroalimentación, por ejemplo, para ayudarnos a mejorar la meditación.



Mientras sean dispositivos médicos, como es el caso de Neuralink, estos sistemas están sujetos a una normativa estricta. Sin embargo, otros equipos menos invasivos que, por tanto, no requieren su implantación mediante cirugía y que tienen fines distintos de los sanitarios no están sujetos a una reglamentación específica, lo que les permite recopilar y revender los datos de nuestro cerebro.

La nueva frontera del capitalismo de la vigilancia cerebral

¿Nos dirigimos de verdad hacia un futuro en el que el capitalismo de la vigilancia llegue a comercializar los datos obtenidos directamente de nuestros cerebros? ¿Nuestros propios pensamientos se convertirán en parte de las bases de datos de Meta, Apple, Amazon, Neuralink y todos los demás actores potencialmente interesados en este tipo de recopilación de información?

De hecho, este escenario futurista se está haciendo realidad mucho más rápido de lo esperado, tanto con fines comerciales como de vigilancia. Una investigación del South      
China Morning Post, por ejemplo, informó sobre cómo los trabajadores de Hangzhou Zhongheng Electric, una empresa de productos de alta tecnología situada en Hangzhou (al este de China, no muy lejos de Shanghai), llevan puesto un casco que contiene sensores inalámbricos que monitorizan continuamente sus ondas cerebrales, transfiriendo estos datos a computadoras que, gracias a la IA, detectan picos emocionales relacionados con la ansiedad, la depresión o la ira. El mismo periódico había reportado también cómo, en algunas escuelas de China, se estaban empleando instrumentos similares para controlar el nivel de atención y concentración de los alumnos.

Si en China los temores tiene que ver principalmente con lo que se ha denominado “vigilancia cerebral” (nunca hubo un término más inquietante), en el resto del mundo lo que nos preocupa es que nuestros pensamientos se conviertan en un negocio. Como señala un informe de la organización

 

 

 

sin fines de lucro The Neurorights Foundation, que trabaja para defender la privacidad de nuestros datos cerebrales, ya hay varias compañías del sector de la neurotecnología que recopilan y potencialmente venden la información obtenida del cerebro de sus clientes. “Examinando las políticas de privacidad y los acuerdos de usuario de 30 de estas empresas, el análisis descubrió que la mayoría de ellas podrían compartir datos neuronales con empresas externas”, escribe Vox, por ejemplo.



Es algo parecido a lo que ocurre con las plataformas de redes sociales, que ofrecen información sobre nuestros intereses con fines comerciales, pero recaban esta directamente de nuestros cerebros. Como explica la revista Spectrum, “las compañías que venden dispositivos directamente a los clientes y están reguladas como empresas de electrónica de consumo podrían descifrar los datos cerebrales, revenderlos y hacer lo que quisieran con ellos”. Si compañías como Meta o Google ya saben tanto sobre nosotros y lo explotan para sus propios fines, incluso abusando de ello en varias ocasiones, ¿qué pasaría si también tuvieran a su disposición nuestra información más privada y oculta?

De Chile a Colorado: protegiendo la “privacidad mental”

Precisamente para defenderse de este tipo de escenarios, Colorado se convirtió en el primer territorio de Estados Unidos en aprobar una enmienda que incluye también los datos neuronales entre los que protege la Ley de Privacidad, que ya contempla las imágenes faciales y las huellas dactilares. California y Minnesota también podrían legislar pronto al respecto, amparando la “privacidad mental” y multando a las empresas que la infrinjan.

Aunque Colorado es el primer estado de EE UU que toma cartas en el asunto, el verdadero pionero de la privacidad mental es una nación sudamericana: Chile, que en 2021 aprobó una ley sobre los llamados derechos neuronales que equipara todos los sistemas capaces de analizar la actividad cerebral a dispositivos médicos, reconociendo también que la información neuronal es equivalente a órganos humanos y prohibiendo, en consecuencia, su compra o venta.

Otras naciones que están considerando medidas similares son España, Francia y Argentina, mientras que la ONU también ha empezado a interesarse por el tema. De hecho, en una declaración publicada en septiembre de 2022, el Secretario General de la ONU, Antonio Guterres, manifestó que había llegado el momento de “actualizar nuestro concepto de los derechos humanos” e
incluir la neurotecnología en la lista de “cuestiones en común” que deben tenerse en cuenta.



En general, todos los países que han aprobado leyes sobre datos neuronales o están considerando hacerlo han escuchado al investigador que planteó por primera vez la cuestión: Rafael Yuste, profesor de Biología de la Universidad de Columbia. Las preocupaciones de Yuste se remontan a una docena de años atrás, cuando descubrió en su laboratorio que era capaz de influir en la percepción visual de los ratones. Utilizando un láser, Yuste conseguía activar determinadas neuronas y hacer aparecer las imágenes que deseaba en el cerebro de los animales, manipulándolos como si fueran marionetas. En ese momento, Yuste se hizo una sencilla pregunta: ¿cuánto tiempo pasaría hasta que fuera posible hacer algo similar con los humanos?

Datos neuronales y cuestiones éticas

En 2017, Yuste y sus colegas publicaron un artículo en Nature, destacando los riesgos de estas tecnologías y las medidas que deben adoptarse. En general, las recomendaciones de Yuste son cinco:

- Prohibir el almacenamiento y la venta de nuestros datos cerebrales.

 

 

 


- Garantizar la protección frente a alteraciones no autorizadas de nuestro sentido del yo.

- Asegurar que tengamos un control total sobre nuestro libre albedrío y nuestras decisiones.

- Velar por un acceso equitativo a la llamada “mejora humana” mediante la tecnología, de modo que no favorezca solo a los más ricos (incrementando la desigualdad).

- Exigir que los algoritmos que sirven de base a los sistemas neurotecnológicos no estén sesgados hacia ningún grupo o minoría en particular.

Aunque Yuste, que también es fundador de la mencionada The NeuroRights Foundation, tiene sin duda buenas intenciones, pero sus cinco sugerencias se enfrentan a varios problemas y plantean cuestiones filosóficas y psicológicas delicadas. Por ejemplo, ¿cómo aseguramos el “derecho al libre albedrío” cuando ni siquiera tenemos certeza de que exista tal?. Y, además, ¿cómo garantizamos la protección frente a las alteraciones del yo, cuando las drogas psicotrópicas son capaces de generar estas de formas incluso impredecibles?



Muchos críticos de la ley chilena han destacado precisamente este último aspecto, señalando cómo la legislación complicaría el tratamiento de los pacientes psiquiátricos y destacando, de forma más amplia, lo complejo que es traducir los principios generales de Yuste en normas claramente definidas.

Más allá de las limitaciones y ambigüedades de las leyes pioneras, una cuestión es cierta: la regulación de los derechos neuronales es urgente. Y no solo por los riesgos asociados a la vigilancia y al comercio de datos privados e íntimos. Como explica Fast Company, estas tecnologías podrían usarse potencialmente para deducir lo que pensamos o sentimos, independientemente de nuestra voluntad de hacer públicos estos pensamientos o sentimientos. Peor aún, como demuestra el estudio de Yuste en ratones, los dispositivos neurotecnológicos también servirían para incitar en nosotros acciones deseadas por otros.

Imagina, por ejemplo, un sistema que analice nuestras ondas cerebrales para mostrarnos el momento del día en que somos más productivos, pero que al mismo tiempo introduzca estímulos en nuestra mente para hacernos comprar algún producto concreto.

Por el momento, se trata de escenarios distópicos y de ciencia ficción, pero teniendo en cuenta el punto al que ya hemos llegado, en el que algunas empresas revisan nuestros datos cerebrales e incluso podrían estarlos vendiendo, además de los posibles riesgos para el futuro, es mejor anticiparse.

Sin embargo, no todos están de acuerdo: Laura Cabrera, profesora de Neuroética de la Universidad Estatal de Pensilvania, por ejemplo, criticó la ley chilena y el planteamiento de Yuste por centrarse exclusivamente en la información neuronal, lo que obstaculiza una legislación más amplia que nos protegería de cualquier análisis de nuestros datos privados, independientemente de su origen.



Cabrera subraya que las redes sociales o los motores de búsqueda ya nos conocen en profundidad y aprovechan este conocimiento para manipular nuestras acciones: “Desde este punto de vista, centrarse en los datos neuronales es una oportunidad perdida para combatir otros riesgos para la privacidad”, explicó Cabrera a Fast Company. “Si pensamos en cómo las redes sociales manipulan nuestras acciones, nos damos cuenta de que el control mental ya es una realidad”.

 

 

  

 

 

EL IMPARCIAL

Submit

 

 

© El Imparcial Editores S.A.S  |   Contacto 57 606 348 6207  

 

    © 1948-2009 - 2024 - El Imparcial - La idea y concepto de este periódico fue hecho en Online Periodical Format (OPF) que es un Copyright de ZahurK.

    Queda prohibido el uso de este formato e idea (OPF) sin previa autorización escrita de ZahurK