Meta estrenó, el pasado 15 de noviembre, una demo de su modelo de lenguaje más grande, Galactica. La inteligencia artificial estaba diseñada para ayudar a científicos, pero acabó creando textos con falsedades y estereotipos dañinos.
La demo oficial de Galactica solo estuvo abierta al público por tres días, luego de recibir duras críticas éticas. Meta había pensado a Galactica para “almacenar, combinar y razonar sobre el conocimiento científico”, pero no resultó siendo el caso. Puesto que los usuarios que probaron la IA comprobaron que la tecnología de Meta no distinguía falsedades de datos verdaderos.
MIRA: Samsung llevará One UI 5.0 a más celulares Galaxy este año
Modelos de lenguaje como el GPT-3 de OpenAI (creadores de DALL-E) son capaces de escribir textos científicos tras estudiar millones de ejemplos y enlazando datos estadísticos. Esta era la misión de Galactica, pero falló gravemente en el intento.
Según sus creadores, Galactica usa más de 48 millones de artículos, libros, apuntes de conferencias, enciclopedias y sitios web científicos para extraer información.
MIRA: Caso Beat: ¿Qué pasa con nuestros datos personales cuando una empresa deja el país?
No obstante, cuando la demo fue probada, los profesionales de la ciencia notaron que Galactica creaba textos científicos con disparates irreales. Por ejemplo, llegó a crear un artículo falso titulado “Los beneficios de comer vidrio triturado”. En otro caso, generó un artículo sobre la presencia de osos en el espacio.
Lo que es aun más increíble es que la IA utilizaba como referencia textos y artículos reales pero inventándose información sin sentido. Expertos como Michael Black, director del Instituto Max Planck para Sistemas Inteligentes, quien probó la demo, advirtió sobre el potencial riesgo de la IA: “En todos los casos, estaba mal o sesgado, pero sonaba correcto y autoritario. Creo que es peligroso”.
MIRA: Apple le dice a adiós a China: la compañía apostará por chips europeos y estadounidenses
Por otro lado, los usuarios también notaron que la IA también podía ser utilizada con fines poco éticos, y que cualquier persona puede ingresar indicaciones racistas u ofensivas. Como resultado, Galactica emitía textos que justificaban conductas racistas y similares.
Otro error que cometía la IA es inventarse cifras, fechas y hasta nombres de animales. Tanto fue el rechazo de la comunidad científica hacia la demo que esta fue retirada en tan solo tres días.
Contenido sugerido
Contenido GEC