
La última cumbre de inteligencia artificial (IA) en París dejó varios temas abiertos sobre el uso de esta tecnología, en medio de la irrupción de DeepSeek y la negativa de Estados Unidos por concretar un acuerdo. Uno de los principales asuntos gira en torno a la protección de datos personales.
Por varios años la primera potencia del mundo ha liderado el desarrollo de la IA, casi en solitario y ahora es seguido por China y Francia. En este nuevo escenario la disyuntiva está en regular o no regular la inteligencia artificial.
MIRA: Grok 3: Elon Musk califica a la nueva IA de “aterradoramente inteligente”
Y es que hay varios miles de millones de dólares en juego. OpenAI, la empresa creadora de ChatGPT, informó que está buscando reunir hasta 40.000 millones de dólares en una ronda de inversión; Meta estima invertir 65.000 millones de dólares este año; Amazon destina 5 mil millones de dólares en centros de datos; el presidente Donald Trump reveló el proyecto Stargate con un costo de 500 mil millones de dólares para Estados Unidos; y la Unión Europea anunció la inversión de 206.000 millones de dólares en IA.
En esta carrera los datos tienen un papel clave. Wester Zela, especialista en inteligencia artificial, indicó que el uso de datos viene desde hace 20 o 30 años, cuando se entrenaban modelos de machine learning tradicionales. Eran usados por las empresas para entender el comportamiento de los usuarios, clientes, consumidores, y se mantenía dentro de ese círculo.
“La diferencia es que, ya con la irrupción de estos modelos largos de lenguaje, estos LLMs, de hace unos 4 o 5 años que se empezaron a popularizar, ya no solamente se buscan datos dentro de la empresa, sino que también se buscan datos fuera de la empresa. Es decir, se acceden a diferentes fuentes de datos que están en Internet, principalmente”, indicó el especialista en conversación con El Comercio.

El problema con el uso de datos personales es la falta de transparencia y, según explica Zela, “es un secreto de las grandes compañías de tecnología, qué datos usan para poder entrenar sus modelos de IA”.

Así también lo entiende Yamilet Serrano, directora académica de UTEC Posgrado. “La diferencia es la escala. Los sistema de IA están ávidos de la recolección de datos y su inferencia es tan poco transparente que tenemos poco control sobre qué información recopila sobre nosotros, para qué la utilizan y cómo podríamos modificarla o eliminarla”, explicó a este Diario.
MIRA: Chile tendrá su propia inteligencia artificial: ¿LatamGPT le hará competencia a ChatGPT y DeepSeek?
Más de un peligro
La falta de transparencia viene generando varios riesgos, en especial para los usuarios.
El informe de Kaspersky Security Bulletin señaló que para este 2025 se espera una mayor sofisticación de los ciberataques usando la inteligencia artificial, a través de mensajes fraudulentos en varios idiomas y deepfakes, incluso usando el phishing, sitios web falsos o la ingeniería social. Y una vez más, la información toma importancia.
Los datos personales tienen un valor. Zela explicó que al usar una red social, aplicación o plataforma en Internet, estamos dejando nuestra información, aun si el producto se promocione como gratuito, y “no sabemos realmente qué se hace con esta información”. Pueden ser usadas para el entrenamiento de modelos de IA, vendidas a otras empresas o parar en algún mercado negro. Comparó la situación a lo que ocurre en Lima, cuando los datos de ciudadanos son luego vendidos en locales de dudosa reputación, como en la avenida Wilson.
“Claro, no lo venden en Wilson, pero se lo venden seguramente a otras empresas que pagan millones por eso, y estas empresas valen lo que valen por la cantidad de usuarios, es decir, por la cantidad de datos personales que tienen. Una vez que estén en el mercado negro, pues uno está a merced de cualquiera, gente que quiera hacer negocio y gente que quiera extorsionar y hacer daño. Ya eso no lo sabemos”, indicó el especialista.
MIRA: MWC 2025: ¿en qué consiste el “plan alfa” de inteligencia artificial de los smartphones Honor?
Otro cuestionamiento es la concentración de esta información. Hoy en día, las principales empresas que trabajan con inteligencia artificial son OpenAI, Anthropic, Meta, Google, xAI, por parte de Estados Unidos; DeepSeek y Alibaba, en China; y Mistral, por parte de Francia.
Al ser consultada sobre si esta concentración puede ser un peligro, Serrano consideró que “se podría prestar para la monopolización de la información, lo que proporciona un poder desproporcionado”.
La aparición de DeepSeek, la IA de origen chino, sorprendió el mercado, liderando las descargas en App Store y Google Play Store. Pero especialistas han advertido riesgos de seguridad para los usuarios, en especial si son de otro país. En informe de Europapress se señala que al proceder de China, hay riesgos en la recopilación, el almacenamiento y el uso indebido de datos. Y una de las razones para sospechar está en las diferencias de regulación.

En tanto, detalló que hay otros riesgos desde la vulnerabilidad ante brechas de seguridad (un ciberataque puede comprometer datos de millones de personas), “hasta la poca transparencia y control, ya que es difícil para el usuario final entender cómo se utilizan sus datos y con quiénes lo comparten”.
MIRA: La forma del núcleo interno de la Tierra está cambiando, según investigación científica
¿Regular o no regular la IA?
Este es el nuevo debate, y que quedó pendiente en la cumbre de París. Por un lado, no regular el desarrollo de la IA podría poner en riesgo la seguridad de las personas, y por otra parte, se ha señalado que la regulación podría comprometer la innovación.

Para Serrano, “hoy todos ya interactuamos de un modo u otro con productos que usan IA, no regularla sería dar la espalda”, y para esto se debe garantizar la equidad, transparencia y seguridad. Consideró importante fomentar auditorías, establecer organismos de supervisión independientes y promover estándares internacionales para regulaciones efectivas.
MIRA: San Valentín: cibercriminales aprovechan la IA para crear identidades falsas y reclutar información privada en apps de citas
Pero, ¿se puede detener o retrasar la innovación? Zela explicó que no es nuevo este debate en el desarrollo tecnológico, y por lo general hay dos tendencias. Mientras que en Europa se opta por la regulación, en Estados Unidos la regulación es posterior. Esto ha llevado que empresas europeas migren a suelo estadounidense.
“Muchas de las empresas que conoces ahora, y que son muy grandes, uno piensa que son de Estados Unidos, pero no. Hay empresas que nacieron en Europa, pero que han tenido que irse a Estados Unidos porque existe un entorno más favorable para el crecimiento”, indicó, desde su experiencia en ambas zonas geográficas.
En ese sentido, indicó que se debe llegar a un punto medio, tiene que haber un balance. Si no hay datos, no hay innovación, no hay entrenamiento de modelos de IA, no hubiera existido ChatGPT. Es así que el reto está en “impulsar la innovación y, por otro lado, también evitar que los datos de los ciudadanos sean comprometidos”.
Un tema que seguirá pendiente, mientras la inteligencia artificial sigue avanzando. Recordemos que hay miles de millones de dólares en juego.
TE PUEDE INTERESAR
- Inteligencia artificial para detectar las emociones en los rostros de los animales
- Spotify planea lanzar Music Pro, su nuevo plan de suscripción con audio de mayor calidad
- Se cumplen 95 años del descubrimiento de Plutón, considerado como el noveno planeta hasta el 2006
- Chile tendrá su propia inteligencia artificial: ¿LatamGPT le hará competencia a ChatGPT y DeepSeek?