Skynet es el nombre de la inteligencia artificial (IA) desarrollada por la empresa Cyberdyne Systems Corporation a mediados de los 90, según la saga de películas de “Terminator”. Se trata de una tecnología tan avanzada que el 29 de agosto de 1997 logra lo increíble: tomar consciencia. Al menos esto es lo que se cuenta en la cinta, que abrió un debate que hoy está más vigente que nunca.
¿Puede la IA generativa tener consciencia? ¿Puede llegar a ser como los humanos?
MIRA: ¡Más que guau! Estudio revela que los perros entienden palabras de los paneles de botones con sonido
Para muchos seguidores de la saga se trata de una fecha importante y más aun con la llegada de la nueva serie Terminator Zero que se lanza en Netflix. Pero, el debate va más allá.
Según la película, Skynet es una inteligencia artificial de tecnología militar que se desarrolla a partir de la creación de un revolucionario microprocesador de un ‘terminator’. Cyberdyne era el mayor proveedor de computadoras militares y, cuando Skynet toma consciencia, trata de acabar con la humanidad, iniciándose una guerra entre las máquinas y los sobrevivientes.
En la vida real, en el 2022 la empresa OpenAI lanzó ChatGPT. Su chatbot, que trabaja con un modelo de lenguaje que hace más fluido el diálogo gracias a la inteligencia artificial generativa, ha marcado un hito al popularizar una tecnología que debe tener al menos unos 70 años de antigüedad. Además, nos dejó una gran duda sobre lo que puede ocurrir en el futuro.
MIRA: Día del Gamer: ¿Cuáles son los preferidos por los peruanos?
Por un lado, es innegable que significa una oportunidad para resolver problemas en tiempo real, la investigación científica, los tratamientos médicos, mejorar la producción y la economía, aunque no faltan las advertencias de expertos como Elon Musk. Fue en la 27ª Conferencia Global, organizada por el Milken Insitute, que el multimillonario advirtió que para el 2025 la inteligencia artificial superará a cualquier humano.
“La inteligencia biológica puede servir de respaldo, de amortiguador de la inteligencia. Pero, en porcentaje, casi toda la inteligencia será digital”, dijo el innovador en tecnología, dueño de Tesla, X, SpaceX, xAI y otras empresas. Además, un mes antes, en abril de este año dijo a Business Insider que hay una probabilidad del 20% de que la inteligencia artificial “acabe con la humanidad”, tal como lo recoge el diario El Clarín.
La IA tradicional es un conjunto de técnicas de algoritmos que permiten que las máquinas trabajen de forma automática mediante el uso de datos. La IA generativa significa un paso más en el que se busca crear algo nuevo: conversaciones naturales, imágenes, videos, música, etc. Puede ser entrenada y mejorada mediante el aprendizaje.
“Es casi como criar a un niño, pero uno que es como un súper genio, como un niño con inteligencia divina, y es importante cómo se cría al niño. Una de las cosas que creo que es increíblemente importante para la seguridad de la inteligencia artificial es tener un tipo máximo de búsqueda de la verdad y de IA curiosa”, dijo Musk.
¿Puede tener consciencia?
La gran duda para muchos es si la inteligencia artificial podrá ser consciente de lo que hace, como sucede con los humanos.
El neurocientífico Anil Seth indicó a la cadena BBC que “la conciencia es cualquier tipo de experiencia subjetiva”, como cuando se identifica al color rojo con el atardecer, se siente dolor al golpearse un pie o algo afecta nuestra emoción. Es decir, para el especialista se trata de un proceso más biológico que digital.
“Creo que no hay ninguna razón para pensar que los sistema de IA, solo por el hecho de que se estén volviendo más inteligentes, se volverán conscientes. La conciencia no lo es lo mismo que la inteligencia”, dijo Seth en la entrevista.
En esa misma línea, el investigador peruano Omar Florez indicó a este Diario que la posibilidad de una consciencia de la IA genera un miedo innecesario, al menos hoy en día.
MIRA: Descubre los peligros de los deepfakes y cómo protegerte de ellos: Experta en ciberseguridad responde
“Lo más cercano que tenemos son agentes o grandes modelos de lenguaje que aprenden a usar herramientas para buscar información y ejecutar programas, tomando decisiones en cada paso de su funcionamiento. Sin embargo, estos sistemas todavía dependen de un entrenamiento limitado y están lejos de modelar conciencia o tener metas propias”, indicó el especialista en IA a El Comercio. Aunque también dijo que el caso de Skynet siempre nos recuerda que debemos crear tecnología que sea útil y segura.
¿Y qué tan confiable o segura puede ser la IA?
Pues se trata de una tecnología que aun tiene errores. Según la empresa de transformación digital N5, los chatbots pueden tener entre un 3% hasta un 27% de ‘alucinaciones’ (errores). Es decir, cuando se pregunta algo a la IA y su respuesta carece de lógica o información verdadera. Esto se puede deber a fallas en el hardware, software, al origen de sus datos o mala comunicación.
Algo en lo que coinciden los especialistas es que apenas estamos comenzando. Aun hay mucho por descubrir en esta tecnología.
TE PUEDE INTERESAR
- ¿Mala costumbre o buen hábito? El secreto que llevó a Steve Jobs al éxito desde los 12 años
- Monje Hare Krishna abandona el templo para revivir su juego de infancia y fusionarlo con enseñanzas espirituales
- ¿Los imanes en la refrigeradora aumentan el gasto eléctrico y afectan la conservación de los alimentos?
- ¡Más que guau! Estudio revela que los perros entienden palabras de los paneles de botones con sonido
Contenido Sugerido
Contenido GEC