Google ha aconsejado a sus trabajadores de no utilizar chatbots como ChatGPT o su propio Bard. La compañía habría dado este aviso debido a que en la mayoría de casos se utiliza material confidencial que podría ser expuesto por estas inteligencias artificiales cuando conversan con terceros o son revisados por sus desarrolladores.
“Alphabet Inc. (Google) está advirtiendo a los empleados sobre cómo usan los chatbots, incluido su propio Bard, al mismo tiempo que comercializa el programa en todo el mundo, dijeron cuatro personas familiarizadas con el asunto”, señala Reuters.
MIRA: ChatGPT hotelero: a falta de personal, Suiza apuesta por la IA para atender huéspedes
La compañía busca evitar que información reservada sea expuesta. “La matriz de Google aconsejó a los empleados que no ingresen sus materiales confidenciales en los chatbots de IA, dijeron las personas y la compañía confirmó, citando una política de larga data sobre la protección de la información”, agrega.
Debido a que la información otorgada a la IA queda almacenada para su aprendizaje, otros usuarios podrían acceder a esta. “Los chatbots, entre ellos Bard y ChatGPT, son programas con apariencia humana que utilizan la llamada inteligencia artificial generativa para mantener conversaciones con los usuarios y responder a innumerables indicaciones. Los revisores humanos pueden leer los chats, y los investigadores descubrieron que una IA similar podría reproducir los datos que absorbió durante el entrenamiento, creando un riesgo de fuga”, añade.
MIRA: Así se verían los personajes de Los Simpsons en la vida real, según una IA | FOTOS
Además, la matriz de Google también advirtió sobre programar utilizando alguna de estas inteligencias artificiales. “Alphabet también alertó a sus ingenieros para evitar el uso directo del código de computadora que pueden generar los chatbots, dijeron algunas de las personas”, concluye.
Este no es el primer caso donde una compañía prácticamente prohíbe utilizar chatbots para trabajar. El caso más sonado fue el de Samsung, donde algunos trabajadores usaron estos modelos de IA e ingresaron información confidencial, la cual terminó expuesta a terceros. Incluso, ahora la empresa coreana estaría desarrollando su propia inteligencia artificial con estas características.
TE PUEDE INTERESAR
Contenido sugerido
Contenido GEC