En Facebook, los contenidos vinculados con el suicidio asistido, el final de la vida o la automutilación, están sometidos a una serie de normas para conciliar seguridad de los usuarios y libertad de expresión, como refleja el caso del francés Alain Cocq.
MIRA: Alain Cocq, el francés que lleva 34 años en fase terminal, se deja morir; Facebook corta su transmisión en vivo
Este hombre de 57 años, aquejado de una enfermedad incurable, y que reclama un final de vida “digno”, anunció en la noche del viernes al sábado que cesaba cualquier tratamiento y se dejaba morir en directo en Facebook.
- Fallece por eutanasia la campeona paralímpica belga Marieke Vervoort
- Muere Vincent Lambert: Francés estuvo en estado vegetativo por más de 10 años
- Daniel Prude: el caso del afroestadounidense con problemas mentales que murió asfixiado por la policía de Nueva York
Pero la plataforma anunció el sábado que bloqueaba la difusión del video de Cocq.
“Aunque respetamos su decisión de querer atraer la atención sobre esta compleja cuestión, en base a los consejos de expertos hemos tomado medidas para impedir la difusión en directo en la cuenta de Alain, pues nuestras normas no permiten la representación de intentos de suicidio”, declaró a la AFP un portavoz de Facebook.
El equilibrio es delicado para la red social que cuenta con 1.800 millones de usuarios, y es a veces acusada de no poner los medios suficientes para evitar la difusión de contenidos violentos o chocantes.
Estas normas se han reforzado con el tiempo, tras una serie de casos que generaron escándalo, como el fallecimiento en 2017 en Reino Unido de Molly Russell, una adolescente de 14 años que se suicidó tras haber visionado contenidos relativos a la automutilación y al suicidio en Instagram, filial de Facebook.
Facebook cuenta con reglas muy precisas: si bien no prevén disposiciones específicas sobre el final de la vida, son en cambio muy estrictos en cuanto a los contenidos que pueden parecerse a una promoción del suicidio o de la automutilación.
“Con el objetivo de promover el entorno de seguridad en Facebook, suprimimos cualquier contenido que aliente el suicidio o la automutilación, incluyendo algunas imágenes explícitas (...) que según los expertos podrían incitar a ciertas personas a adoptar un comportamiento similar”, advierte la red en sus normas. (https://www.facebook.com/communitystandards/).
No obstante, estas mismas regulaciones autorizan “las fotos o los videos representando a una persona que ha cometido un suicido en un contexto de actualidades”, así como “fotos o videos que representan a una persona que ha sido objeto de suicidio asistido o de eutanasia en un contexto médico”.
En estos casos se limita el acceso a los más de 18 años, y se incluye un mensaje de advertencia.
Además la red puede flexibilizar sus propias normas si considera que los contenidos no autorizados son de interés público.
Además, la red deja a veces en línea contenidos controvertidos, el tiempo necesario para prestar asistencia a quienes los publican, si ello permite salvar vidas.
“Se nos ha informado por parte de expertos que no deberíamos suprimir videos de automutilización en directo mientras los familiares o afines a la víctima puedan aún intervenir”, indica Facebook, a modo de ejemplo.
Fuente: AFP
_____________________
VIDEO RECOMENDADO
TE PUEDE INTERESAR
- “Tienen la mortalidad más alta”: Gobernador de Florida pone como ejemplo al Perú para no imponer una cuarentena
- ¿Con qué países Perú retomaría los vuelos internacionales desde octubre?
- Coronavirus EN VIVO | Últimas noticias, casos y muertes por COVID-19 en el mundo, hoy jueves 03 de setiembre
- Terror en Alemania: hallan cinco niños muertos y la policía sospecha de la madre, quien intentó suicidarse | FOTOS
- Inmigración en el Perú: cuando 626 europeos llegaron al Callao huyendo del horror de la guerra