🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
Neal Mohan, jefe de producto de Youtube, ha reconocido que la compañía está reasignando el trabajo de moderación de contenidos a humanos reales.
Al inicio de la pandemia, YouTube tuvo que reducir la carga de trabajo de los 10.000 moderadores humanos que revisan continuamente los vídeos que se suben a la plataforma en busca de contenido dañino.
En su lugar, dio un mayor poder de moderación de contenido a los robots moderadores que son capaces de reconocer vídeos con contenido no permitido y eliminarlos inmediatamente.
Este cambio llevó a la eliminación de 11 millones de videos entre abril y junio, un número mayor que el habitual.
Sin embargo, los robots de YouTube pecaron de ser demasiado cautos, ya que retiraron muchos más videos de lo habitual que no incumplían ninguna regla, para frustración de sus creadores.
YouTube revocó en ese período las decisiones de moderación de contenido en 160.000 videos. Normalmente, YouTube revierte sus decisiones en menos del 25 por ciento de las apelaciones, pero bajo la moderación de la IA de los robots, un 50 por ciento de las apelaciones tuvieron éxito.
Una de las decisiones que tomamos [al principio de la pandemia] cuando se trataba de máquinas que no podían ser tan precisas como los humanos, era que íbamos a errar en el lado de asegurarnos de que nuestros usuarios estuvieran protegidos, aunque eso podría resultar en un número ligeramente más alto de videos que se rechazasen.
Ahora, la compañía puede reasignar parte de ese trabajo a humanos que pueden tomar decisiones más justas y prescindir de muchos de esos robots.