El Dr. Geoffrey Hinton, reconocido por su labor en el desarrollo de la tecnología de inteligencia artificial (IA), renunció recientemente a su trabajo en Google, donde laboró por más de una década, para poder expresar sus preocupaciones sobre los riesgos que representa la IA, según informó The ‘New York Times’. Él, junto con dos de sus estudiantes de posgrado en la Universidad de Toronto, creó en 2012 una tecnología que se ha convertido en la base intelectual para los sistemas de IA que las empresas más grandes de la industria tecnológica consideran clave para su futuro.
Un número creciente de críticos, incluyendo a Hinton, sostienen que las empresas de tecnología están dirigiéndose hacia el peligro con su campaña agresiva para crear productos basados en la inteligencia artificial generativa. La IA generativa ya puede ser una herramienta para la desinformación y, pronto, podría ser un riesgo para los trabajos.
MIRA: ¿Cómo se verían Elon Musk, Mark Zuckerberg o Bill Gates si no tuvieran sus fortunas, según una IA?
A principios de este año, más de 1,000 líderes e investigadores de la tecnología firmaron una carta abierta pidiendo una moratoria de seis meses en el desarrollo de nuevos sistemas porque las tecnologías de IA plantean “riesgos profundos para la sociedad y la humanidad”. Un grupo de 19 líderes de la Asociación para el Avance de la Inteligencia Artificial publicaron su propia carta días después, advirtiendo sobre los riesgos de la IA.
Aunque Hinton, conocido como “el Padrino de la IA”, no firmó ninguna de las cartas, notificó a Google el mes pasado que renunciaba, y habló con Sundar Pichai, el director ejecutivo de Alphabet, el jueves. El científico jefe de Google, Jeff Dean, afirmó en un comunicado que están comprometidos con un enfoque responsable de la IA y siguen aprendiendo para comprender los riesgos emergentes.
Hinton, un académico de toda la vida, adoptó la idea de una red neuronal en 1972 como estudiante de posgrado en la Universidad de Edimburgo. En 2012, él y sus dos estudiantes, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotos y enseñarse a sí misma a identificar objetos comunes. Google adquirió su empresa por $44 millones y su sistema llevó a la creación de tecnologías cada vez más poderosas, como ChatGPT y Google Bard.
Sin embargo, el experto ha cambiado de opinión respecto a los sistemas de IA, ya que teme que la capacidad de la IA pueda ser utilizada para crear y propagar información falsa en la red, lo que dificultaría la capacidad de la gente para discernir la verdad. Además, teme que la IA reemplace a los trabajadores humanos en tareas repetitivas, y que versiones futuras de la IA puedan representar una amenaza para la humanidad, incluso en forma de robots asesinos autónomos.
Hinton opina que la competencia entre empresas de tecnología como Google y Microsoft para desarrollar tecnologías de IA podría convertirse en una carrera que solo se detendrá con regulaciones globales. Sin embargo, también cree que regular la tecnología de IA puede ser imposible debido a que no se puede saber si las empresas o los países están trabajando en ella en secreto. La mejor esperanza, según el académico, es que los principales científicos del mundo colaboren en formas de controlar la tecnología.
VIDEO RECOMENDADO
TE PUEDE INTERESAR
- Cómo la luz azul arruina tus noches de sueño y afecta el crecimiento de tus hijos
- En la nueva carrera espacial, la clave es la prueba y el error: el impacto real de la explosión del cohete Starship
- ¿Una extremidad extra? Científicos están desarrollando un tercer brazo robótico para ayudar con las tareas diarias
- Sigue estos consejos para cuidar tu privacidad en Internet
Contenido sugerido
Contenido GEC