Como CEO de YouTube, he visto cómo nuestra plataforma abierta ha sido una fuerza para la creatividad, el aprendizaje y el acceso a la información. He visto cómo los activistas la han usado para abogar por el cambio social, movilizar protestas y documentar crímenes de guerra. He visto cómo sirve tanto como un destino de entretenimiento como una biblioteca de videos para el mundo. He visto cómo se ha expandido la oportunidad económica, permitiendo a las pequeñas empresas comercializar y vender sus productos a través de las fronteras. Y he visto cómo ha ayudado a inspirar a mis hijos, dándoles una comprensión más amplia de nuestro mundo y de los miles de millones que lo habitan.
Pero también he visto de cerca que la apertura de YouTube puede tener otro lado más inquietante. He visto cómo algunas personas malintencionadas explotan nuestra apertura para engañar, manipular, hostigar e incluso dañar.
En el último año tomamos medidas para proteger a nuestra comunidad contra contenido violento o extremista, probando nuevos sistemas para combatir amenazas emergentes y en evolución. Hemos reforzado nuestras políticas sobre qué contenido puede aparecer en nuestra plataforma o generar ingresos para los creadores. Aumentamos nuestros equipos de aplicación de políticas. También invertimos en una poderosa y nueva tecnología de aprendizaje automático para escalar los esfuerzos de nuestros moderadores humanos para eliminar videos y comentarios que violan nuestras políticas.
Ahora estamos aplicando las lecciones que hemos aprendido de nuestro trabajo contra el contenido de extremismo violento en el último año para abordar otro contenido problemático. Nuestro objetivo es estar un paso adelante de las malas personas, dificultando que los contenidos que infrinjan las políticas aparezcan o permanezcan en YouTube.
Más personas revisando más contenidoLos revisores humanos siguen siendo esenciales tanto para eliminar el contenido como para entrenar sistemas de aprendizaje automático ya que el juicio humano es fundamental para tomar decisiones contextualizadas sobre el contenido. Desde junio, nuestros equipos de confianza y seguridad han revisado manualmente cerca de 2 millones de videos en búsqueda de contenido extremista violento, ayudando a entrenar a nuestra tecnología de aprendizaje automático para identificar videos similares en el futuro. También estamos tomando medidas extremas sobre los comentarios, lanzando nuevas herramientas de moderación de comentarios y, en algunos casos, bloqueando los comentarios por completo. En las últimas semanas, hemos utilizado el aprendizaje automático para ayudar a los moderadores humanos a encontrar y dar de baja cientos de cuentas y bloquear cientos de miles de comentarios. Nuestros equipos también colaboran estrechamente con NCMEC, la IWF y otras organizaciones de seguridad infantil en todo el mundo para informar comportamientos y cuentas predatorias a las autoridades correspondientes.
Continuaremos el crecimiento significativo de nuestros equipos hasta el próximo año, con el objetivo de lograr que el número total de personas trabajando en Google para abordar el contenido que pudiera violar nuestras políticas ascienda a más de 10,000 en 2018.
Al mismo tiempo, estamos expandiendo la red de académicos, grupos industriales y expertos en la materia de quienes podemos aprender y apoyarnos para comprender mejor los problemas emergentes.
Enfrentando problemas a escalaUtilizaremos nuestro avanzado aprendizaje automático de manera más amplia para poder eliminar de forma rápida y eficiente el contenido que infringe nuestros lineamientos. En junio implementamos esta tecnología para marcar el contenido extremista violento para su revisión humana y hemos visto un progreso tremendo.
- Desde junio hemos eliminado más de 150,000 videos con contenido extremista violento.
- El aprendizaje automático está ayudando a nuestros revisores humanos a eliminar casi cinco veces más videos que antes.
- Hoy, 98% de los videos que eliminamos por extremismo violento están marcados por nuestros algoritmos de aprendizaje automático.
- Nuestros avances en el aprendizaje automático nos permiten ahora bajar casi el 70% del contenido extremista violento dentro de las 8 horas posteriores a la carga y casi la mitad en 2 horas y seguimos aumentando la velocidad.
- Desde que comenzamos a usar el aprendizaje automático en junio para marcar contenido violento y extremista, esta tecnología ha revisado y marcado contenido que habría requerido a 180,000 personas trabajando 40 horas a la semana.
Debido a que hemos visto estos resultados positivos, hemos comenzado a entrenar a la tecnología de aprendizaje automático en otras áreas de contenido desafiantes, que incluyen
seguridad infantil y discursos de incitación al odio.
Mayor transparenciaEntendemos que las personas desean tener una visión más clara sobre la manera en que abordamos el contenido problemático. Nuestros
Lineamientos de la Comunidad ofrecen a los usuarios información sobre lo que no permitimos en nuestras plataformas y queremos compartir más información sobre cómo se aplican. Es por eso que en 2018 crearemos un informe regular en el que proporcionaremos más datos agregados sobre el contenido marcado que recibimos y las medidas que tomamos para eliminar videos y comentarios que infringen nuestras políticas de contenido. Estamos buscando desarrollar herramientas adicionales para ayudar a brindar aún más transparencia en torno al contenido marcado.
Un nuevo enfoque para la publicidad en YouTubeTambién estamos tomando medidas para proteger a los anunciantes y creadores del contenido inapropiado. Queremos que los anunciantes tengan la tranquilidad de que sus anuncios se publican junto con contenido que refleja los valores de su marca. Del mismo modo, queremos dar a los creadores la confianza de que sus ingresos no se verán afectados por las acciones de personas malintencionadas.
Creemos que esto requiere un nuevo enfoque para la publicidad en YouTube, considerando cuidadosamente qué canales y videos son elegibles para mostrar publicidad. Estamos planificando aplicar criterios más estrictos, llevar a cabo una curaduría más manual, y al mismo tiempo, aumentar significativamente nuestro equipo de revisores de anuncios para garantizar que los anuncios solo se publiquen donde deben. Esto también ayudará a los creadores evaluados a ver más estabilidad en torno a sus ingresos. Es importante que lo hagamos bien tanto para los anunciantes como para los creadores, y durante las próximas semanas hablaremos con ambos para perfeccionar este enfoque.
Estamos tomando estas acciones porque es lo correcto. Los creadores generan contenidos increíbles que construyen audiencias globales. Los seguidores vienen a YouTube a ver, compartir e interactuar con este contenido. Los anunciantes que desean llegar a esas personas financian esta economía de creadores. Cada uno de estos grupos es esencial para el ecosistema creativo de YouTube, ninguno puede prosperar en YouTube sin el otro y los tres merecen nuestros mejores esfuerzos.
A medida que las amenazas a nuestra plataforma evolucionen y cambien, nuestros métodos de aplicación de políticas deben evolucionar para responder a ellas. Pero sin importar qué desafíos surjan, nuestro compromiso de combatirlos será sostenido e inquebrantable. Tomaremos los pasos necesarios para proteger a nuestra comunidad y garantizar que YouTube siga siendo un lugar donde los creadores, anunciantes y espectadores puedan prosperar.
Susan Wojcicki, CEO de YouTube