Hace unos años, la idea de una “amenaza a la privacidad del pensamiento” parecía ciencia ficción distópica, como la novela 1984 de George Orwell.
MIRA: Escritores demandan a OpenAI por usar sus obras para entrenar el modelo de lenguaje GPT sin permiso
Pero para Nita Farahany, profesora de la Universidad de Duke (EE.UU.) especializada en investigar las consecuencias de las nuevas tecnologías y sus implicaciones éticas, esta amenaza ya existe y y debe ser tomada en serio.
Este año, la catedrática iraní-estadounidense publicó el libro The Battle for your Brain: Defending the Right to Think Freely in the Age of Neurotechnology (“La batalla por tu cerebro: defendiendo el derecho a pensar libremente en la era de la neurotecnología”).
Pero ¿cómo es posible leer nuestro cerebro? Bueno, todavía no existe una súper máquina que entre en la cabeza de una persona y proporcione una lista completa de ideas y conceptos, como las hay en la ciencia ficción.
MIRA: ¿Oportunidad o amenaza? Cómo ven los periodistas a la inteligencia artificial según un estudio
Pero, de hecho, Farahany explica que las defensas de nuestra privacidad de pensamiento han comenzado a derribarse sin necesidad de examinar directamente el cerebro.
Esto es posible gracias a la gran cantidad de datos personales que compartimos en redes sociales y otras aplicaciones, y que después son analizados a través de algoritmos y luego monetizados.
Hoy en día, las empresas de tecnología poseen información importante sobre nosotros: quiénes son nuestros amigos, qué contenido nos genera emoción (y, lo que es más importante, qué tipo de emoción), preferencias políticas, en qué productos hacemos clic, dónde nos movemos a lo largo del día y algunas de nuestras transacciones financieras.
“Todo esto está siendo utilizado por las empresas para crear perfiles muy precisos sobre quiénes somos y así comprender nuestras preferencias y deseos”, dice Farahany en una entrevista con BBC News Brasil.
“Es importante que la gente comprenda que ya se encuentran en un mundo donde se leen las mentes”, señala.
MIRA: TikTok implementa etiquetas para que los usuarios señalen el contenido creado con IA
Con la creciente popularidad de los relojes inteligentes -que recopilan datos sobre la frecuencia cardíaca, los niveles de estrés, la calidad del sueño y mucho más, se está empezando a explorar otra frontera, la de nuestro funcionamiento interno.
Pero el avance de la neurotecnología y de equipos que entran en contacto directo con la cabeza, lleva todo esto a un nuevo nivel, uno con más datos y mayor precisión.
La profesora explica que los sensores cerebrales son precisamente similares a los sensores de frecuencia cardíaca que se encuentran en los relojes inteligentes o anillos que miden la temperatura corporal cuando capturan la actividad eléctrica en el cerebro.
“Y cada vez que piensas, o cada vez que sientes algo, las neuronas se activan en tu cerebro, emitiendo pequeñas descargas eléctricas. Se pueden utilizar patrones característicos para sacar conclusiones”, dice.
“Por ejemplo, si ves un anuncio y sientes alegría, estrés, ira, aburrimiento, compromiso... todas estas reacciones pueden captarse a través de la actividad eléctrica de tu cerebro y decodificarse con la inteligencia artificial más avanzada”, agrega.
Es decir, estas señales cerebrales transmiten lo que sentimos, observamos, imaginamos o pensamos.
Farahany dice que la gente necesita comprender y aceptar que sus cerebros “no son enteramente suyos”.
Algo que lleva a cuestionar el concepto de libre albedrío, es decir, el poder de un individuo para elegir sus acciones.
“Imagínate que al principio de la semana te propones no pasar más de una hora al día en las redes sociales. Al final descubres que pasaste cuatro horas al día. ¿Qué pasó?”, reflexiona la catedrática.
“Si existen algoritmos diseñados para capturarte cuando quieres desconectarte, si recibes notificaciones cuando pasas demasiado tiempo lejos del celular, si quieres ver solo un episodio de la serie y el siguiente comienza automáticamente, ¿realmente pudiste usar tu libre albedrío? Son herramientas y técnicas diseñadas para socavar aquello a lo que te has comprometido”.
Farahany, al contrario de lo que podría pensarse, es una gran entusiasta de los avances de la neurotecnología.
A lo largo de su libro, enumera una larga lista de contextos en los que el monitoreo cerebral podría mejorar la humanidad y salvar vidas.
“Lo que propongo es un equilibrio. Es a la vez una manera de que la gente vea los aspectos positivos de la tecnología, pero también de protegerse contra los riesgos más importantes”, afirma.
“Para llegar allí, es necesario cambiar la forma en que pensamos sobre nuestra relación con la tecnología. La tecnología rara vez es el problema. Casi siempre es un mal uso”.
MIRA: Alexa será más inteligente: Amazon refuerza a su asistente con IA generativa
“No se trata de adoptar posiciones absolutas como 'todo esto es malo' o 'todo esto es genial', sino de intentar definir cuáles son las funcionalidades de esta tecnología para el bien común y cuáles son los riesgos de su mal uso”, añade.
La lista está llena de casos complejos y de espadas de doble filo.
La neurotecnología podría reducir el número de accidentes mortales monitoreando los niveles de falta de atención y, principalmente, de fatiga que afectan a los camioneros y a los conductores de trenes y metros, por ejemplo.
Esta misma funcionalidad puede ser abusada por una empresa o escuela en busca de productividad total, en la que los momentos de distracción de un empleado o estudiante son monitoreados, registrados y eventualmente castigados.
Una pulsera que capture ondas electromagnéticas enviadas por el cerebro para mover brazos y manos podría transformar estos impulsos en señales electrónicas y hacer que las experiencias de realidad digital o virtual sean mucho más intuitivas e integradas.
Y hay un potencial aún más importante en este dispositivo: detectar las primeras etapas de una enfermedad neurodegenerativa. Analizar la actividad cerebral en su conjunto podría representar un gran avance para la medicina y la longevidad.
Por otro lado, escribe Farahany en el libro, la misma pulsera también detectará “si estás realizando una actividad íntima usando las manos en tu dormitorio”.
Pero para Farahany, la mayor preocupación con respecto a la privacidad individual reside en que los gobiernos poseen una gama cada vez más amplia de datos personales.
Ella informa que el Departamento de Defensa de EE.UU. financió una empresa que desarrolló un sistema biométrico que combina datos de ondas cerebrales, estados cognitivos, reconocimiento facial, análisis de pupilas y cambios en la cantidad de sudor producido.
En China, un reporte publicado en 2018 en el South China Morning Post informó que trabajadores de diversas ramas y miembros de las fuerzas militares del país ya estaban utilizando monitores de ondas cerebrales para detectar picos emocionales como depresión, ansiedad o ira.
Además de su uso para mejorar el rendimiento y, por tanto, los resultados financieros de las empresas, el informe afirma que el proyecto también buscaba “mantener la estabilidad social china”.
Farahany afirma que, en la mayoría de los países, las leyes de privacidad no abordan explícitamente el derecho a la privacidad mental.
“Creo que las Naciones Unidas deben avanzar hacia el reconocimiento de lo que yo llamo el 'derecho a la libertad cognitiva'. Un derecho universal que nos dirigiría hacia una actualización de la privacidad, uno que diga explícitamente que hay un derecho a la privacidad mental, un derecho a estar protegidos contra interferencias en la forma en que pensamos y sentimos”.
Ella dice que hoy en día se aplica y se entiende que la “libertad de pensamiento” se refiere estrictamente a la libertad de religión y de creencias.
“Creo que necesitamos ampliar este entendimiento para tener protección contra la interferencia, la manipulación y el castigo del pensamiento”.
El problema es que la tecnología siempre avanza más rápido que el debate y la aprobación de la legislación, y empresas y gobiernos se aprovechan de los vacíos legales.
“Se trata realmente de tratar de determinar lo antes posible y, también a medida que la tecnología evoluciona, cuáles son los beneficios y riesgos. Y luego aclarar lo que está en juego y desarrollar un régimen regulatorio que aborde eso. Eso no siempre es fácil de hacer”, reconoce Farahany.
El proyecto de neurotecnología más reconocido tiene varios elementos controversiales: implica la implantación de un chip en el cerebro y está liderado por Elon Musk, un personaje que frecuentemente se lleva los titulares, a menudo por polémicas.
Una de sus empresas, Neuralink, quiere implantar en el futuro este tipo de dispositivos en el órgano humano más complejo para curar enfermedades como el Alzheimer y permitir a personas con enfermedades neurológicas controlar teléfonos móviles o ordenadores con la mente.
Algunos expertos en la materia expresan preocupación por el proyecto, generando dudas sobre las implicaciones de este tipo de tecnología desarrollada por una empresa con fines de lucro.
El pasado mes de mayo, la FDA, la agencia estadounidense que controla alimentos y medicamentos, autorizó la primera prueba en humanos.
“No estoy tan preocupada por el proyecto de Musk. De hecho, soy algo optimista al respecto”, dice Farahany.
“Neuralink promete dos innovaciones. La primera, es hacer cirugías a través de robots, que realizarían las partes más delicadas y difíciles de la operación [implante de neurotecnología]. La segunda, el el desarrollo de electrodos del tamaño de un cabello que podrían implantarse con mucho menos riesgo para el cerebro humano”.
Hoy en día, pocos cirujanos en el mundo tienen las habilidades para realizar un procedimiento como este.
“Si quedara gravemente discapacitada hasta el punto de que ya no pudiera comunicarme ni moverme, probablemente buscaría la oportunidad de que me implantaran algún tipo de tecnología neuronal”, concluye la experta.
-
TE PUEDE INTERESAR
- ¿Oportunidad o amenaza? Cómo ven los periodistas a la inteligencia artificial según un estudio
- Noonoouri, la primera cantante creada con inteligencia artificial que firmó un contrato con Warner Music
- Escritores demandan a OpenAI por usar sus obras para entrenar el modelo de lenguaje GPT sin permiso
- TikTok implementa etiquetas para que los usuarios señalen el contenido creado con IA
Contenido Sugerido
Contenido GEC