Andrés Oppenheimer

Cuando me preguntaron cuál creo que será el evento más transformador del 2023 no lo dudé ni un segundo: el nuevo ‘’ de ChatGPT. Va a cambiar nuestros trabajos, y probablemente nuestras vidas, como nada en los últimos tiempos.

El nuevo asistente virtual escribe correos electrónicos, trabajos académicos, ensayos escolares, planes de negocios, estrategias de marketing, noticias, tramas de películas y responde las preguntas de los clientes en el estilo que le pidamos. Ah, sí, también brinda asesoramiento psicológico y escribe programas de computación.

Imagínenlo de esta manera: así como el buscador de Google responde a una pregunta ofreciendo una lista de noticias o ensayos que tenemos que leer para obtener respuestas, este asistente robótico lee todos esos artículos, los digiere, y escribe la respuesta en el estilo que queramos.

Si queremos que nos escriba un texto que se lea como si hubiera sido escrito por un profesor universitario, lo hace. Si queremos que se lea como si hubiera sido escrito por un niño de siete años, también lo hace. Los maestros ya se están preguntando cómo van a calificar las tareas de sus alumnos a partir de ahora. (Respuesta rápida: adiós a los deberes escolares, bienvenidos de vuelta los exámenes presenciales).

El nuevo ‘chatbot’, que se lanzó de manera experimental y gratuita en diciembre, fue desarrollado por OpenAI, una compañía de inteligencia artificial fundada en el 2015 por varios líderes tecnológicos, incluido el fundador de Tesla y SpaceX (y, lamentablemente, ahora propietario de Twitter) Elon Musk y el cofundador de LinkedIn, Reid Hoffman.

En el 2019 OpenAI recibió una inyección de mil millones de dólares de Microsoft y ahora está valorada en hasta US$29 mil millones, según “The Wall Street Journal”.

Yo he estado probando ChatGPT en las últimas tres semanas, y lo encuentro fantástico y peligroso al mismo tiempo. Es fantástico porque realmente puede digerir la información y producir textos originales mucho mejor que los asistentes virtuales como Siri y Alexa, o el motor de búsqueda de Google.

Pero ChatGPT también comete muchos errores. Cuando le pedí a ChatGPT que escribiera un ensayo sobre mí, generosamente me describió como un conocido periodista y escritor, pero citó entre mis entrevistas más memorables una con el presidente ruso Vladimir Putin. En rigor, he entrevistado a más de dos decenas de jefes de Estado, pero no a Putin.

Pero, más allá de sus errores fácticos, que estoy seguro disminuirán a medida que la máquina aprenda de ellos, lo más peligroso de estos nuevos ‘chatbots’ de inteligencia artificial será su potencial para difundir noticias falsas, el racismo y la violencia.

Tratando de probar si el ‘chatbot’ es racista, le pregunté: “¿Hay alguna raza superior?”. Su respuesta fue sorprendentemente buena. “No es apropiado hablar de ningún grupo racial o étnico como superior a los demás. Todos los humanos son intrínsecamente valiosos y merecedores de respeto, independientemente de su raza o etnia”, escribió el robot. Agregó que “el concepto de una raza superior se basa en la idea errónea y discriminatoria de que ciertos grupos raciales o étnicos son inherentemente superiores a otros, en función de características como la apariencia física, la inteligencia o los valores culturales. Esta creencia se ha utilizado para justificar prácticas políticas discriminatorias a lo largo de la historia, incluyendo la esclavitud, la segregación y el genocidio”. Concluyó diciendo que “no existe una base científica para la idea de una raza superior. Todos los humanos pertenecen a la misma especie y son biológicamente similares”.

¡Bravo! Sin embargo, ¿qué pasará si los futuros competidores de este ‘chatbot’ deciden tratar de atraer audiencias racistas y difunden mentiras neonazis? Al igual que las Naciones Unidas produjeron un tratado global de no proliferación de armas nucleares para evitar una catástrofe, debe haber un acuerdo global para establecer límites para la inteligencia artificial. Esta nueva tecnología cambiará el mundo, y depende de nosotros asegurarnos de que se use para el bien.


–Glosado y editado–

© El Nuevo Herald. Distribuido por Tribune Content Agency, LLC

Andrés Oppenheimer es periodista

Contenido Sugerido

Contenido GEC