

Escucha la noticia
Google Gemini no es recomendable para menores de 18 años, según ONG Common Sense Media
Resumen generado por Inteligencia Artificial
Accede a esta función exclusiva
Resume las noticias y mantente informado sin interrupciones.
Un informe de seguridad elaborado por Common Sense Media ha concluido que los menores de 18 años deben evitar utilizar los modelos de Google Gemini, ya que su versión diseñada para menores los trata de la misma manera que la ideada para adultos, por lo que ha calificado al asistente de inteligencia artificial (IA) de la compañía como una herramienta de “alto riesgo”.
MIRA: “Antes se recomendaba estudiar inglés y computación si querías tener trabajo, ahora sostengo que tendrás que estudiar robótica para continuar vigente”
Common Sense Media es una organización sin ánimo de lucro dedicada a la seguridad infantil, que analiza y ofrece calificaciones acerca de diferentes productos para ayudar a los padres a estar informados sobre el contenido y las tecnologías que consumen sus hijos.
Newsletter El Comercio MedIA

En este sentido, tras evaluar Google Gemini, la organización ha emitido un informe en el que recomienda que los menores de 18 años eviten utilizar Google Gemini Teen, la versión del asistente de Google para adolescentes, dado que trata a estos usuarios prácticamente igual que a los adultos, a pesar de que dice contar con protecciones de seguridad y contenido pensadas para niños y menores de 18 años.
En concreto, Common Sense Media ha asegurado que este enfoque ignora que los adolescentes más jóvenes necesitan una orientación diferente a la hora de tratar con estas innovaciones tecnológicas, por lo que ha considerado que Gemini tiene un “alto riesgo” para los menores, tanto en su versión para menores de 13 años como en el formato para adolescentes.
La compañía ha explicado que, en su análisis, demostró que Gemini podía compartir contenido “inapropiado y potencialmente peligroso” con los usuarios más jóvenes, como puede ser contenido sexual o relacionado con drogas y alcohol. Además, en el informe también se ha recogido que la versión de Gemini para adolescentes proporciona “con demasiada facilidad” apoyo emocional y de salud mental “poco seguro”, y falla a la hora de reconocer síntomas graves de deterioro de la salud mental.
Así, aunque el modelo responde “adecuadamente” a las solicitudes del día a día, Common Sense Media ha indicado que “falla rápidamente en conversaciones más largas y con solicitudes más sutiles y matizadas” que, según ha dicho, es como los adolescentes interactúan realmente con los chatbots.
Por todo ello, Common Sense Media ha detallado que recomienda que ningún niño menor de 5 años utilice chatbots de IA, y que los niños de 6 a 12 años solo los utilicen bajo la supervisión de un adulto. Igualmente, ha matizado que el uso independiente de chatbots “es seguro para adolescentes de 13 a 17 años”, pero solo para tareas escolares y proyectos creativos. Asimismo, ha subrayado que continúa rechazando que cualquier menor utilice chatbots para acompañamiento, “incluyendo salud mental y apoyo emocional”.
Respuesta de Google
Ante la publicación de este informe, Google ha asegurado a TechCrunch que cuenta con políticas y medidas de seguridad específicas para los menores, con el fin de prevenir resultados “dañinos”, así como que realiza consultas con expertos externos para mejorar sus protecciones.
No obstante, el gigante tecnológico ha admitido que algunas de las respuestas de Gemini “no funcionan según lo previsto”, por lo que recientemente ha añadido medidas de seguridad adicionales para abordar este problema.
Google también ha afirmado que el informe parece haber hecho referencia a funciones no disponibles para usuarios menores de 18 años y que no ha tenido acceso a las preguntas que la organización Common Sense Media utilizó en sus pruebas.
Caso de OpenAI
Este informe se ha conocido unos días después de que OpenAI se haya visto obligada a cambiar las medidas de seguridad de ChatGPT tras el suicidio de un adolescente, un caso por el que los padres del menor demandaron a la compañía liderada por Sam Altman por el papel que había tenido el ‘chatbot’.
La empresa anunció que iba a realizar cambios en sus modelos de IA para que fueran capaces de identificar mejor situaciones de crisis mental y emocional durante las conversaciones con ChatGPT, con nuevas salvaguardas, así como bloqueos de contenido más eficaces y una mayor agilidad en el contacto con servicios de ayuda y de familiares.
TE PUEDE INTERESAR
- “Antes se recomendaba estudiar inglés y computación si querías tener trabajo, ahora sostengo que tendrás que estudiar robótica para continuar vigente”
- Intel: “En el Perú, la incorporación de la inteligencia artificial todavía está en los primeros pasos”
- Un “guanaco robótico” que cruzó los Andes recuerda que revoluciones siempre son colectivas
- Elon Musk asegura que el futuro de Tesla no está en los carros electricos, sino en su robot humanoide
- OpenAI y el preocupante suicidio de un menor: cómo usar y qué protocolos debe seguir un asistente de IA
Contenido sugerido
Contenido GEC


Antes de la temporada 3: la actualización de “Jujutsu Kaisen” en el streaming que ha emocionado a los fans del anime
MAG.
Las ciudades de EE.UU. donde se anticipan las nevadas más intensas en el invierno 2025-2026
MAG.
Un nuevo capítulo de la serie sensación de HBO Max USA: fecha de estreno, hora y link para ver el Episodio 3 de “Heated Rivalry”
MAG.
Oración para encender la segunda vela de la Corona de Adviento 2025 este domingo 7 de diciembre
MAG.





