Youtube borró 8.3 millones de videos en el último trimestre de 2017

Youtube borró 8.3 millones de videos en el último trimestre de 2017

Entre octubre y diciembre del 2017, Youtube eliminó 8.3 millones de videos de su plataforma.  Esto según el primer reporte de aplicación de reglas de comunidad de Youtube.

Después de encontrarse bajo la crítica de diversos informes el año pasado acerca de su mal control de videos perturbadores que de alguna manera se estaban encontrando en las secciones específicas para niños(supuestamente administradas a profundidad por la compañía), Youtube decidió comenzar a publicar un reporte cada 3 meses acerca del progreso que han tenido en el monitoreo y comisariado del contenido que llega a la página.

El reporte está hecho con la intención de informar como es que la compañía trata con las advertencias que reciben por medio del “flagging” hecho por usuarios y su propio sistema automatizado. De los 8.3 millones de videos eliminados, 6.7 millones fueron reportados por el algoritmo de youtube y ni siquiera fueron reproducidos.. Youtube explica que no ve el uso de este algoritmo como algo malo, ya que aun cuando puede borrar algunos videos por su cuenta, su principal función es informar a los monitores humanos para que ellos pueden revisar el contenido que está en violación del reglamento de la plataforma.

La guerra de Youtube contra el contenido inapropiado

La compañía ya había anunciado que se encontraba en proceso de contratación de 10 mil nuevos empleados para el monitoreo de los videos reportados. Necesitan alcanzar esa meta para poder tener una mejor excusa para los miles de youtubers que están constantemente alzando la voz contra las reglamentaciones que Youtube utiliza para agradar a las compañías que ponen sus anuncios en la página. Estos youtubers dicen que la plataforma les hace cada vez más difícil monetizar sus producciones, con las reglas haciéndose más restrictivas sin aviso previo.

Como un pequeño extra, Youtube decidió lanzar un video acerca del funcionamiento de estos “flags”, los reportes que le permiten hacer las revisiones de contenido “peligroso” en su plataforma.


Source: fayerwayer

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *