GPT-4 superó el test de Turing: ¿una inteligencia artificial verdaderamente inteligente o solo una buena imitadora?
GPT-4 superó el test de Turing: ¿una inteligencia artificial verdaderamente inteligente o solo una buena imitadora?
/ Freepik
Lizeth Yarasca Perez

El modelo de lenguaje GPT-4 de OpenAI ha superado el test de Turing, una prueba que evalúa si una máquina puede imitar el comportamiento humano de manera indistinguible. Este logro no solo refleja la capacidad avanzada de los actuales modelos de , sino que también plantea la pregunta de si GPT-4 representa una verdadera inteligencia o simplemente una imitación sofisticada.

En concreto, un de la Universidad de California en San Diego pidió a 500 personas conversar con tres modelos: GPT-3.5, GPT-4 y ELIZA. Tras cinco minutos de chat, los participantes debían determinar si estaban hablando con una persona o una IA. El 54% de los participantes identificó a GPT-4 como una persona real.

MIRA: Exempleado de OpenAI alerta sobre los peligros de una IA más inteligente que los humanos

Los científicos se sorprendieron al descubrir que más de la mitad de los participantes no distinguieron entre una IA y un humano. El 54% pensó que GPT-4 era una persona real, el 50% identificó a GPT-3.5 como una IA y el 22% creyó que ELIZA tenía cualidades humanas. Asimismo, los investigadores advirtieron que las IAs que parecen humanas podrían afectar la economía y la sociedad, causando desconfianza en las interacciones reales.

Ahora bien, aunque GPT-4 ha pasado la prueba de Turing, demostrando sus grandes capacidades, ¿significa esto que es verdaderamente inteligente? Para responder a esta pregunta, El Comercio conversó con Giovanni Geraldo Gomes, director de AI en Stefanini Latam, y con Deisy Acosta Ticse, docente de la carrera de Ingeniería de Sistemas de Información de la Universidad San Ignacio de Loyola.

Interfaz del juego de prueba de Turing. (Foto: captura de pantalla)
Interfaz del juego de prueba de Turing. (Foto: captura de pantalla)
MIRA: McDonald’s suspende su sistema de pedidos con IA tras una serie de errores

¿Verdadera inteligencia o buena actuación de comportamiento inteligente?

Giovanni Gomes describe que la superación del test de Turing por el último modelo de OpenAI es “muy importante y deja claro el gran potencial de la IA y la rapidez con que los LLMs están evolucionando”. El experto tiene una visión positiva sobre este logro y está convencido de que “es justo considerarla como una verdadera inteligencia”.

Por su lado, Deisy Acosta señala que la actuación de GPT-4 no representa “una verdadera inteligencia, sino que es un buen comportamiento inteligente”. Ella aclara que aún queda un largo camino para alcanzar la Inteligencia Artificial General (AGI), la cual tendría la capacidad de entender, aprender, aplicar conocimientos creativamente y adaptarse a nuevas situaciones de manera similar a un ser humano.

En este sentido, el desarrollo del GPT-4 representa un paso importante, dentro de un camino más largo hacia el desarrollo de una IA verdaderamente inteligente”, añade.

Limitaciones del test de Turing

Deisy Acosta señala que el test creado por Alan Turing en 1950 “presenta limitaciones como herramienta para evaluar la inteligencia en general”. Ella especifica que GPT-4 puede pasar el test de Turing con sus habilidades para conversar, pero este no evalúa aspectos esenciales de la inteligencia como el pensamiento lógico, la creatividad o la conciencia.

Además, revela que se ha criticado esta metodología desde la creación de los Premios Loebner en 1991. Esta competencia anual se enfocaba en evaluar si las inteligencias artificiales pueden imitar conversaciones humanas de manera convincente. Inspirada en el Test de Turing, fue establecida por Hugh Loebner con el propósito de determinar qué programa de IA puede parecer humano durante una conversación textual. Sin embargo, a lo largo de los años, ha habido críticas debido a que algunos participantes se centran más en replicar superficialmente el comportamiento humano que en desarrollar inteligencia cognitiva real y creativa.

Asimismo, el vocero de Stefanini explica que el test “no toma en cuenta el estilo conversacional, los factores emocionales ni la creatividad, que son aspectos clave para afirmar que las máquinas poseen nociones tradicionales de la inteligencia humana”. Cuando se inventó el test de Turing, la inteligencia artificial no era tan desarrollada como lo es ahora con los los modelos de lenguaje de gran tamaño (LLMs), sostiene.

MIRA: Volkswagen equipa con Chat GPT el sistema de información y entretenimiento de varios de sus modelos

En este sentido, ambos expertos coinciden en la necesidad de desarrollar nuevas metodologías para evaluar la inteligencia artificial de manera más precisa y completa.

Se requieren métricas que abarquen un espectro más amplio de habilidades cognitivas. Métricas del procesamiento del lenguaje natural (NLP), reconocimiento de patrones y speech processing son esenciales para medir la capacidad de inferencia, raciocinio y comprensión del lenguaje de un chatbot”, detalla Acosta.

De este modo, las métricas específicas son fundamentales para evaluar la IA en su campo específico, pero para una evaluación completa, especialmente en relación con la Inteligencia Artificial General (AGI), se requiere un enfoque más amplio. También, entra en juego la evaluación respecto la ética y responsabilidad.

Si miramos por el lado positivo, estos avances muestran que la IA está cada vez más cerca de conseguir reproducir las capacidades de la inteligencia humana, lo que seguramente generaría muchos beneficios”, reconoce Giovanni Gomes. Sin embargo, agrega que ello plantea inquietudes en la sociedad porque existe el riesgo de que esta inteligencia pueda ser empleada de manera indebida, engañando a la población y socavando la confianza en las interacciones auténticas.

Mientras tanto, Deisy Acosta enfatiza la necesidad de gestionar de manera prudente y responsable el desarrollo de la AGI, evaluando cuidadosamente tanto sus beneficios como sus riesgos potenciales. El destino de la AGI y su impacto en la humanidad dependerá de las decisiones que se tomen: debemos aprovechar sus ventajas para mejorar la calidad de vida, pero al mismo tiempo estar preparados para los desafíos que puedan surgir.

La ética de la IA exige que esta tecnología no solo sea efectiva, sino también responsable y beneficiosa para la sociedad”, señala.

La docente hace hincapié en que debe existir una complementariedad entre la ética deontológica, que se basa en deberes y derechos, y la ética teleológica, centrada en las consecuencias. Ambas son fundamentales para orientar el desarrollo de la IA. La intervención humana debe asegurar que la IA se desarrolle bajo estos principios éticos, estableciendo marcos claros que regulen su diseño, entrenamiento y uso en beneficio del bienestar humano.


Contenido sugerido

Contenido GEC