+8801744383834

24/7 Customer Support

WhatsApp +8801744383834

Moderación: ¿por qué siempre estamos expuestos a contenidos violentos en las redes sociales?

Content

Moderación: ¿por qué siempre estamos expuestos a contenidos violentos en las redes sociales?

El ataque en Christchurch, Nueva Zelanda, es otra tragedia transmitida y retransmitida en las redes sociales. De hecho, se transmitió un Facebook Live durante más de 17 minutos antes de ser cortado. Luego se vieron muchas copias del directo, ya sea en Facebook o Twitter. Facebook eliminó más de 1.5 millones de copias del video, y 300,000 de ellas pasaron por moderación y se publicaron. El contenido todavía es ampliamente visible en Facebook, Twitter u otras plataformas. ¿Cuál es la responsabilidad de estas plataformas en esta difusión?¿Cómo reccionaron los usuarios de Internet?Para profundizar en el tema, los equipos de Netino By Webhelp (una empresa especializada en moderación de comentarios) han revisado decenas de artículos y cientos de comentarios sobre este espinoso tema. Especialista en la moderación, Netino ofrece un resumen de las opiniones expresadas con frecuencia:Primera observación, los comentarios más numerosos son, afortunadamente, comentarios compasivos:

“Acabo de leer la mayoría de los comentarios y finalmente recuperé la esperanza, muy pocos discursos de odio y mucha compasión hacia las personas asesinadas. En el día del fin del mundo todos estaremos en primera fila, musulmanes, cristianos y todas las demás creencias, todos unidos antes del fin. “Sin embargo, muy rápidamente nos encontramos con este tipo de comentarios:”Enlace de búsqueda para ver el video COMPLETO del ataque ‘terrorista'”Aquí está el video del ataque terrorista (seguido de un enlace). “”Todavía puedes encontrarla en Yandex con rutube”. Tengo un amigo que me mostró el segundo video. Difícil, difícil. El video todavía se puede ver en países democráticos como Estados Unidos, Rusia, etc. “Lo que no deja de crear tensiones iniciales:”Es genial ver cómo disparan a la gente … hay que consultarlo en esta etapa”Como a menudo después de la emoción, llega el momento de la polémica, y las primeras críticas se dirigen a las grandes plataformas …“Porque Facebook, como todas las redes sociales, es una mierda. Reactividad cero ”“Porque las redes sociales públicas son simplemente la peor plaga de la sociedad. ”

“Sí, y tan pronto como vemos un pecho o una polla, la foto es bloqueada directamente por un video de una masacre en vivo …”Este último argumento ha surgido muy a menudo y muestra que la diferencia en la moderación de un video en comparación con una foto no se comprende bien. Algunos todavía intentaron contribuir con su parte a los debates:“Ningún robot podrá jamás evitar este tipo de vida. ¿Cómo diferencia una masacre real de un tipo que haría un live para comentar una película en la que habría disparos? Imposible ““Informar en Facebook es tedioso y, a veces, francamente innecesario. Se pueden denunciar este tipo de videos, imágenes de horrores, accidentes, y además, entre otros, anuncios cuestionables, estafas, su respuesta “no va ms allá del marco de la ética de Facebook, etc. “Por lo tanto, existe una gran brecha entre la postura, muy factual de la GAFA por un lado (que explica las acciones tomadas para bloquear el video), y las reacciones de incredulidad de una gran mayoría de internautas por el otro.¿Qué hizo Facebook realmente?
Hay dos razones principales por las que el video se subió a Facebook. El primero de ellos es que Facebook AI está capacitado para detectar ciertos tipos de contenido. Sobresale, por ejemplo, en la detección de desnudez o actos suicidas y violentos. Tan pronto como se identifica el contenido, se reenvía a un moderador humano. En el caso de la masacre de Christchurch, AI no identificó el ataque como contenido a moderado. La razón es bastante simple: el contenido podría ser contenido de película o videojuego, y Facebook podría generar demasiados falsos positivos.Otra palanca de moderación que no ha funcionado: los informes de usuario. Nadie reportó el video mientras se estaba transmitiendo, sin embargo, los videos en vivo reportados se revisan muy rápidamente. Este procedimiento permite a los moderadores pedir ayuda muy rápidamente, especialmente en caso de suicidio. Como el video del asesinato no fue marcado como suicida, no se le dio prioridad. Como señala Lista de números de teléfono de Chile 
, a pesar de los contratiempos recurrentes, Facebook tiene una tremenda fuerza de moderación de casi 15.000 empleados.Ojo del experto con Netino de Webhelp
Como señala Cyril Bladier, profesor, autor y especialista digital, esta no es la primera vez que el público en general se ve sometido a este tipo de imagen:Derivas y abusos en las redes sociales, lamentablemente esta no es la primera vez y probablemente no sea la última. En Francia, una joven se suicidó en vivo en Facebook Live arrojándose bajo el RER. En 2017, en Cleveland, los asesinatos se transmitieron en vivo en Facebook. Ese mismo año, en 2017, Le Figaro ya tituló “la preocupante proliferación de delitos retransmitidos en directo por Facebook”. Así, la realidad se va uniendo paulatinamente a las series de ficción y detectives, con abusos filmados y retransmitidos en directo por Internet.

Chile Phone Number List
 

En cuanto a los hechos ocurridos en Nueva Zelanda, el Primer Ministro lamenta la dificultad de eliminar este tipo de videos de diferentes plataformas.Personalmente, protegerse de estar expuesto a tales imágenes (o saber que sus hijos van a estar expuestos a ellas) no es muy Betting Email List (aún hay que saber cómo hacerlo). En particular, se debe evitar la reproducción automática (videos que se inician automáticamente) y se debe bloquear cierto contenido o tipos de contenido en su configuración. Esto es mínimo, pero ciertamente no es una garantía del 100%.El problema no viene de ahí. El problema viene de quienes quieren difundir estas imágenes (el arsenal legal es complejo de implementar) y de quienes quieren verlas.Por el lado de las redes sociales, al leer las declaraciones posteriores a estos eventos, carecen de una voluntad real para bloquear estas imágenes. El problema técnico se destaca poco.Uno podría tener la tentación de pedir más a estas plataformas, en términos de control. La solución parece sencilla. ¡Ella no lo es! ¿Dónde trazamos la línea? ¿Cómo pueden las empresas hiperpoderosas que escapan a muchas regulaciones decidir qué es bueno y qué no? ¿Realmente podemos dejar que un puñado de personas (los ejecutivos de Google / Youtube, Facebook / Instagram y Twitter) decidan qué ver y qué no ver?No parece surgir ninguna solución y hay motivos para temer que, por desgracia, ninguna medida eficaz puede garantizar que “no volveremos a ver esto nunca más …”Este artículo fue escrito en colaboración con Netino por Webhelp
Publicar un comentario

Leave a comment

Your email address will not be published.