[go: up one dir, main page]

Acceder al menú principal

Acerca del desarrollo de políticas en YouTube.

Respuestas a preguntas frecuentes sobre la manera en que desarrollamos nuestras Normas de la Comunidad.

Desde los inicios de YouTube, hemos contado con Normas de la Comunidad para definir qué se permite hacer en nuestra plataforma. Esas reglas han dado alas a los usuarios para desplegar su creatividad y, al mismo tiempo, han servido para proteger a la comunidad de YouTube frente al contenido dañino. Este equilibrio es un factor crucial para que puedan emerger nuevos creadores y para fomentar que los usuarios compartan sus ideas. Sin embargo, también tenemos que asegurarnos de que YouTube sea un negocio exitoso a largo plazo, ya que nuestros anunciantes tienen claro que no quieren que se les asocie con contenido dañino.

Hay una serie de dudas que suelen plantearnos con respecto a nuestros criterios a la hora de definir qué se permite y qué no. También nos preguntan por qué tardamos tanto tiempo en desarrollar e implementar nuevas políticas. Si quieres ver en detalle cómo abordamos nuestras medidas de responsabilidad, consulta esta página. En esta entrada de blog, vamos a describir nuestros procedimientos para elaborar políticas, así como las medidas que tomamos para que se respeten.

¿Cómo determinamos qué cambios debemos hacer en las políticas?

El mundo evoluciona muy deprisa y nuestras políticas tienen que seguirle el ritmo. Por eso, revisamos las políticas frecuentemente para asegurarnos de que, igual que pasa con las leyes que rigen la sociedad en la que vivimos, se ajustan a los cambios que se producen tanto dentro como fuera de nuestra plataforma. Para que quede claro: la mayor parte del contenido de YouTube no infringe nuestras normas. No obstante, no paramos de buscar vacíos legales que puedan surgir y nuevos riesgos que pongan a prueba nuestras políticas.

Mientras seguimos trabajando para adaptar las políticas al panorama actual, no perdemos de vista uno de nuestros objetivos principales: evitar que se causen daños graves a personas reales. Esto no significa que eliminemos todo el contenido ofensivo de YouTube. De hecho, por lo general, opinamos que los debates abiertos y la libertad de expresión son en el camino hacia mejores cambios sociales. Sin embargo, sí que analizamos cuidadosamente dónde fijamos los límites respecto al contenido que pueda provocar daños graves a los usuarios de nuestra plataforma.

En esos daños se incluyen los físicos. Por ejemplo: cuando, a raíz de la difusión de afirmaciones de que la tecnología 5G estaba relacionada con la propagación del COVID-19, se dañaron torres de telefonía móvil en el Reino Unido, tomamos medidas rápidamente para prohibir ese tipo de opiniones. También prohibimos las afirmaciones que puedan dañar significativamente a las instituciones democráticas, como los casos en que se intenta confundir a las personas con respecto a los procesos electorales (por ejemplo, cuando se divulga información falsa sobre los plazos, los lugares o los requisitos para votar).

También colaboramos mano a mano con ONGs, académicos y expertos en el tema de todo tipo de ideologías y procedentes de distintos países a la hora de revisar las políticas. Nos ayudan a detectar aspectos que deben analizarse o nos aportan sus conocimientos sobre temas complejos que son propensos a cambios constantes. Por ejemplo, confeccionamos nuestra política sobre la desinformación médica acerca del COVID19 cuando comenzó la pandemia con la ayuda de autoridades sanitarias como el Centro para el Control y la Prevención de Enfermedades de Estados Unidos y la Organización Mundial de la Salud. Más adelante, cuando se redujeron las restricciones con respecto al uso de mascarillas y el distanciamiento social, rápidamente ajustamos en consecuencia nuestras políticas relativas al contenido donde se cuestiona la eficacia de las mascarillas y del distanciamiento social.

¿Cómo decidimos dónde fijar los límites de lo que debe permitirse?

Una vez que detectamos un ámbito donde se necesita una nueva política, entra en juego el equipo de Confianza y Seguridad, que se encarga de crear una solución personalizada. Para empezar, evaluamos ciertos aspectos. ¿Con qué frecuencia se encuentra este tipo concreto de contenido dañino en YouTube? ¿En qué medida puede aumentar su volumen? ¿Cómo abordan este contenido nuestras Normas de la Comunidad?

Llegados a este punto, vemos entre docenas y cientos de vídeos para analizar las posibles repercusiones de distintas políticas. Las políticas no se elaboran para un vídeo en concreto: tenemos que pensar cómo afectan a todos los vídeos para saber cuáles se retirarían y cuáles podrían seguir publicados si entrara en vigor la nueva directriz. Tras concluir esta extensa investigación, el equipo presenta diferentes opciones sobre los límites de las políticas y detalla qué vídeos se retirarían o aprobarían en cada caso (así como las diferentes medidas por incumplimiento de políticas, como las retiradas o la aplicación de restricciones de edad).

Luego, se elige uno de esos borradores, que se sigue evaluando por rondas posteriormente. En esta fase, intentamos averiguar si la propuesta puede cumplir de forma significativa una serie de objetivos clave:

● Mitigar los daños en el mundo real y, al mismo tiempo, preservar la libertad de expresión.

● Permitir que los moderadores de contenido de todo el mundo puedan aplicar medidas coherentes cuando se incumplan las políticas.

Si conseguimos resultados satisfactorios con respecto a esos objetivos, un grupo compuesto por líderes ejecutivos de la empresa revisa la propuesta. La aprobación definitiva corresponde a los cargos más importantes, incluidos el director de Producto y la CEO de YouTube. Si se producen discrepancias constantes entre los equipos con respecto a los límites definidos, la política se devuelve al equipo que se encarga de elaborarlas.

¿Qué entidades colaboran en el desarrollo de las políticas y la aplicación de medidas cuando se incumplen?

A lo largo del proceso de desarrollo de políticas, trabajamos codo con codo con distintos terceros consolidados que están especializados en temas como la incitación al odio o el acoso. También colaboramos con diferentes autoridades gubernamentales sobre otras cuestiones importantes, como el extremismo violento o la seguridad infantil.

Gracias a los expertos, podemos prever la forma en que los eventos internacionales pueden acarrear la difusión contenido dañino en nuestra plataforma. Entre otras labores, nos ayudan a descubrir puntos ciegos en nuestros sistemas que pueden aprovechar los agentes perniciosos y nos ofrecen recomendaciones sobre actualizaciones. Como ocurrió con el COVID-19, nos proporcionan información para adaptar nuestras políticas a las situaciones donde las directrices pueden cambiar rápidamente.

Estas colaboraciones son especialmente cruciales a la hora de aplicar medidas de cumplimiento de políticas para afrontar problemas a nivel regional, en los que suelen necesitarse conocimientos sobre el idioma o la cultura locales para contextualizar el contenido. Por ejemplo, en el 2021 trabajamos conjuntamente con expertos durante el golpe de Estado en Birmania para identificar casos en los que los usuarios hubieran incitado al odio o a la violencia en discursos con tintes etnorreligiosos. De esta forma, pudimos retirar rápidamente el contenido infractor de nuestra plataforma.

¿Intentamos anticiparnos a los problemas que surgen?

La gente suele pensar que la moderación de contenido es una labor a posteriori por naturaleza: es decir, que solo retiramos contenido cuando lo denuncian nuestros sistemas o los usuarios. La realidad es que la mayor parte de nuestro trabajo es preventivo. Contamos con un largo proceso diseñado para proporcionar visibilidad a nuestros equipos sobre temas que puedan surgir antes de que lo hagan o de que se propaguen en nuestra plataforma.

Esa valiosa visibilidad es posible gracias a Intelligence Desk, un equipo que forma parte de la organización de Confianza y Seguridad de YouTube. Se trata de analistas especializados que identifican tendencias que pueden infringir nuestras políticas, ya sean nuevas vertientes de desinformación o retos de Internet que resulten peligrosos, así como los riesgos que implican. También monitorizan regularmente las amenazas continuas, como las teorías conspirativas de ideologías extremistas, para lo que se analizan tanto su relevancia en los medios de comunicación cómo la forma en que evolucionan con el tiempo.

Después, tenemos en cuenta esa información para reflexionar sobre cómo podrían afrontarse esas nuevas amenazas con las políticas que ya tenemos o que creemos más adelante. Por ejemplo, a partir de los datos recogidos por Intelligence Desk, actualizamos nuestras políticas sobre la incitación al odio y el acoso para atajar de manera más eficaz las teorías conspirativas dañinas en nuestra plataforma.

¿Cómo nos aseguramos de que las medidas de cumplimiento de políticas se aplican de forma coherente?

Para implementar una política nueva, es necesario combinar el trabajo de las personas con la tecnología de aprendizaje automático. Es decir, para que una política se lance y aplique correctamente, tanto los agentes humanos como los sistemas informáticos deben colaborar para lograr que las revisiones de contenido tengan un alto nivel de precisión.

Para empezar, proporcionamos directrices de acción (una explicación detallada de qué se considera contenido que infringe las políticas) a nuestro equipo de moderadores de contenido más experimentado y le pedimos que distinga qué materiales incumplen nuestras políticas y cuáles no. Si con esas directrices logran un nivel de precisión alto, ampliamos ese grupo de pruebas: incluimos a cientos de moderadores con diferentes orígenes, idiomas y niveles de experiencia.

Llegados a este punto, comenzamos a revisar las directrices para que un conjunto más amplio y diverso de moderadores pueda interpretarlas correctamente sin problemas. Este proceso puede durar meses y solo se completa cuando el grupo alcanza un grado de precisión similar. Los resultados de estos análisis nos ayudan a entrenar nuestra tecnología de aprendizaje automático para detectar a gran escala el contenido que pueda infringir nuestras políticas. Tal como lo hacemos con los moderadores de contenido, ponemos a prueba nuestros modelos de aprendizaje automático para comprobar si les hemos facilitado suficiente contexto para determinar con precisión qué contenidos deben someterse a una revisión humana.

Una vez que concluye este periodo de pruebas, la política puede entrar en vigor. No obstante, seguimos puliéndola durante los meses siguientes. Cada semana, los líderes del equipo de Confianza y Seguridad se reúnen con los dirigentes de los controles de calidad de todo el mundo (quienes se encargan de supervisar a los equipos de moderación de contenido) para tratar los temas más peliagudos y revisar la calidad de las medidas de cumplimiento que aplicamos. Si es necesario, se redactan modificaciones de las directrices para abordar vacíos legales o aclarar los casos menos evidentes.

¿Cómo colaboran las personas y los sistemas informáticos a la hora de aplicar medidas de cumplimiento de las políticas?

Aun cuando los modelos ya se han entrenado para identificar contenidos que puedan infringir las políticas, el papel de los moderadores de contenido sigue siendo fundamental para aplicar medidas de cumplimiento. El aprendizaje automático identifica a gran escala los contenidos que pueden incumplir las políticas y propone que se revisen aquellos que pueden infringir las Normas de la Comunidad. En ese momento, los moderadores de contenido confirman si el contenido debe retirarse o no.

Gracias a este esfuerzo colaborativo, podemos optimizar la precisión de nuestros modelos con el tiempo, ya que se entrenan y adaptan continuamente en función de las evaluaciones de los moderadores de contenido. Esto también se traduce en que nuestros sistemas de medidas de cumplimiento pueden gestionar todo el volumen de contenido que se sube a YouTube (más de 500 horas de contenido por minuto) y, al mismo tiempo, analizar matices en detalle para determinar si los materiales incumplen nuestras políticas.

Por ejemplo, si se sube un discurso de Hitler en los congresos de Núremberg sin ningún contexto, ese contenido puede infringir nuestra política sobre incitación al odio. No obstante, si ese mismo discurso se enmarca en un documental que condena las acciones de los nazis, probablemente consideremos que cumple nuestras directrices de contenido con fines educativos, documentales, científicos o artísticos (EDSA). Se entiende que el contenido tiene esos fines cuando se trata de material que, si no incluyera suficiente contexto, infringiría nuestras políticas (por ejemplo, un vídeo educativo o un documental histórico).

Hacer esta distinción puede resultar más difícil a un modelo de aprendizaje que a los moderadores de contenido, quienes pueden identificar el contexto adicional con mayor facilidad. Este es uno de los motivos por los que aplicar medidas de cumplimiento es fundamentalmente una responsabilidad compartida. Además, deja claro por qué el razonamiento humano siempre será un factor importante de nuestro proceso. En el caso de la mayoría de los contenidos que pueden infringir las políticas de YouTube, los modelos únicamente marcan el contenido para que los moderadores lo revisen antes de que se tome ninguna medida.

¿Cómo medimos los resultados?

Todos nuestros esfuerzos se centran en procurar que se cumplan nuestras Normas de la Comunidad y conseguir que más personas y comunidades se sientan y expresen en YouTube como en casa. Medir nuestros resultados en este sentido no es una tarea sencilla, pero tomamos en consideración constantemente los comentarios que nos hacen nuestros colaboradores y los miembros de nuestra comunidad sobre cómo podemos mejorar. Además, no paramos de buscar formas de lograr que nuestros sistemas y procedimientos sean más transparentes con iniciativas como, por ejemplo, este blog.

Para evaluar la eficacia de nuestras medidas de cumplimiento, lanzamos una métrica llamada "tasa de visualización de vídeos infractores", que indica cuántas visualizaciones consiguen en YouTube los materiales que incumplen nuestras políticas. Desde julio hasta septiembre de este año, la cifra osciló entre un 0,10 % y un 0,11 %; es decir, por cada 10.000 visualizaciones, entre 10 y 11 correspondieron a contenido que infringía nuestras Normas de la Comunidad.

Del mismo modo, llevamos un registro del número de apelaciones que nos envían los creadores relativas a vídeos que se han retirado (una opción disponible para todos los creadores de YouTube), ya que este dato nos ayuda a conocer más claramente la precisión de nuestros sistemas. Por ejemplo, durante el mismo periodo de antes, retiramos 5,6 millones de vídeos por infringir nuestras Normas de la Comunidad y se apelaron unas 271.000 retiradas. Tras revisar esas apelaciones, restauramos aproximadamente 29.000 vídeos.

Aunque que las métricas como las apelaciones, las restauraciones o la tasa de visualización de vídeos infractores no son una solución perfecta para conocer nuestro grado de precisión o coherencia, sí que nos permiten establecer valores de referencia a largo plazo.

Las Normas de la Comunidad están estrictamente relacionadas con el uso del lenguaje y las formas de expresarse, dos cuestiones que, por naturaleza, evolucionan a lo largo del tiempo. Dado que se trata de un panorama que cambia constantemente, seguiremos revisando con frecuencia los límites de nuestras políticas para asegurarnos de que se fijan en los puntos adecuados. Y, para que nuestra comunidad esté al tanto de esos avances, seguiremos comunicando cómo nos vamos adaptando en los próximos meses.