Anuncio

Veta YouTube a preadolescentes, pero los niños pequeños siguen expuestos a contenido inapropiado

Share

El vídeo de YouTube comienza con un popular personaje de dibujos animados para niños británicos, Peppa Pig, que se presenta a sí misma y a su familia, sin embargo, casi de inmediato aparece el contenido inapropiado. Durante el noveno segundo, la madre de Peppa grita: “¡Fuma marihuana!”.

El video, una versión modificada de un episodio real de Peppa, se complica a partir de ahí. Durante cinco minutos, hay explosiones e insultos racistas y homofóbicos, que culminan con Peppa y sus padres con gafas de sol oscuras fumando marihuana mientras el rapero Snoop Dogg baila cerca de ellos.

Desde que se subió en 2015, el video manipulado, que no tiene restricciones de edad, ha sido visto más de 1.5 millones de veces.

Anuncio

Después de años de prometer controlar el contenido inapropiado, YouTube continúa transmitiendo imágenes violentas, referencias a las drogas, secuencias sexualmente sugestivas, lenguaje vulgar y racialmente ofensivo, en videos que llegan a los niños a un ritmo preocupante, dicen los investigadores, los padres y los grupos de consumidores.

El algoritmo de recomendación de YouTube, dicen, no logra segmentar de forma fiable el contenido según los niveles de edad adecuados, y su función de reproducción automática predeterminada ofrece secuencias de videos casi infinitas que confunden, molestan y excitan a las mentes jóvenes. Aunque muchos padres intentan controlar lo que ven sus hijos, el gran volumen de contenido de YouTube que muchos consumen hace que sea poco práctico, especialmente cuando un sólo video corto puede transmitir una serie de mensajes fuera de tono.

“YouTube es el mayor problema para los padres de hoy en día”, dijo James Steyer, director ejecutivo de Common Sense Media, un grupo sin fines de lucro con sede en San Francisco que aboga por las familias y las escuelas de todo el mundo. “Los niños se encuentran con contenido completamente inapropiado constantemente porque está basado en algoritmos”.

Steyer y otros dicen que YouTube ejemplifica un cambio abismal en la programación infantil sobre la generación pasada, lejos del mundo de la televisión regulada federalmente y con limitaciones de tiempo. El mundo en línea, cada vez más dominante, ofrece contenidos que pueden ser subidos por prácticamente cualquier persona, casi en cualquier parte del mundo y que pueden llegar a los niños en cualquier momento, dependiendo de la vigilancia de los padres.

YouTube ha dicho constantemente que su plataforma no está destinada a los niños, y creó la aplicación YouTube Kids en 2015 para satisfacer la demanda de contenidos dirigidos a un público más joven.

“Proteger a los niños y las familias es una prioridad máxima para nosotros”, dijo YouTube en respuesta a las preguntas sobre el contenido inapropiado que llega a los niños. “Como YouTube no es para niños, hemos invertido mucho en la creación de la aplicación YouTube Kids, un destino hecho específicamente para ellos. No permitimos a los usuarios menores de 13 años crear o poseer cuentas en YouTube y cuando identificamos una cuenta de alguien que es menor de edad, la cancelamos: cancelamos miles de cuentas cada semana como parte de ese proceso”.

Pero los padres, grupos de consumidores y pediatras informan que YouTube es muy popular entre los niños, más que la aplicación para niños. Los niños ven YouTube en dispositivos móviles, los suyos y los de sus padres, así como en televisores con conexión a Internet y a través de navegadores en ordenadores portátiles.

A través de los navegadores, YouTube no requiere que los usuarios inicien sesión, excepto en los casos en que un vídeo tenga una restricción de edad, lo que significa que no hay ninguna barrera práctica para que los niños vean la mayoría de los videos en el servicio.

Los videos con restricciones de edad requieren que los usuarios inicien sesión en una cuenta antes de verlos, de modo que se pueda establecer que tienen al menos 18 años. Este paso puede disuadir a los niños, aunque los expertos dicen que muchos niños mienten sobre sus edades para crear cuentas en YouTube y otros servicios. YouTube dijo que su “equipo de revisión” pone restricciones de edad en el contenido que contiene lenguaje vulgar, desnudos, violencia o actividades peligrosas, cuando tales videos los dirigen a la atención de YouTube. El contenido con restricciones de edad no puede llevar anuncios o ser activado por sus creadores.

Interior de las oficinas de YouTube Space LA en Los Ángeles.

Interior de las oficinas de YouTube Space LA en Los Ángeles.

(Danny Moloshok / AP)

Los investigadores dicen que los algoritmos de YouTube para recomendar contenido, causan problemas particulares a los niños porque a menudo se sientan frente a una pantalla durante largos periodos de tiempo, viendo lo que se reproduce automáticamente. El contenido, aunque sea inapropiado a juicio de los padres, puede hipnotizar a los niños que carecen de la madurez necesaria para apartarse de palabras o imágenes que pueden ser nocivas.

Los problemas pueden ser especialmente graves cuando los niños buscan términos tan populares y aparentemente inocentes como “Spiderman”, “superhéroe” y “Elsa”. La princesa rubia de caricaturas que protagonizó “Frozen” en 2013 ha engendrado tanto contenido manipulado e inapropiado en YouTube que los críticos agrupan estos videos bajo la abreviatura “Elsagate”. Disney no respondió a las solicitudes de comentarios.

Los críticos también dicen que el problema no ha mejorando visiblemente. Escribir “Peppa” en el motor de búsqueda de YouTube, por ejemplo, generó al menos un video recomendado que los investigadores clasificaron como “perturbador” el 70% del tiempo, según una investigación publicada en enero basada en revisiones de 2.500 videos de YouTube.

Los investigadores que cuestionaban estas palabras clave encontraron videos que mostraban a una Elsa con poca ropa a horcajadas sobre otro personaje de dibujos animados parcialmente desnudo, Spider-Man bajo las sábanas con una muñeca Rapunzel de tamaño natural y Peppa encontrándose con un monstruo con cuchillos por manos que, en medio de un diálogo irreverente, abre las cabezas de varios personajes en ataques sangrientos. (YouTube dijo que ninguno de esos videos violaba sus políticas y que ninguno aparecía en la aplicación YouTube Kids; el video que mostraba al monstruo violento tenía restricciones de edad).

Los investigadores también encontraron que los niños tienen un 45% de probabilidades de ver al menos un video “perturbador” o inapropiado dentro de 10 reproducciones, un segmento que a menudo equivale a una hora más o menos de visualización. Algunos videos eran simples animaciones, otros mostraban a actores disfrazados, y otros, incluyendo el video de Peppa, con el tema de la marihuana, eran videos infantiles que habían sido manipulados con nuevas palabras e imágenes empalmadas en el original.

Los estudiantes de posgrado del Instituto de Tecnológía de Chipre que revisaron los videos que presentaban varios personajes populares entre los niños pequeños descubrieron que los videos falsos a menudo contenían violencia, blasfemias y conductas con carga sexual.

“Soy un padre de familia y definitivamente esto sucede con más frecuencia de la que podría sentirme cómodo”, señaló Jeremy Blackburn, profesor de ciencias de la computación de la Universidad de Alabama en Birmingham, que es coautor del estudio y tiene tres hijos. “El problema es que se les puede transmitir y recomendar cosas que no sólo son basura, sino cosas inapropiadas, cosas nocivas”.

Una promesa de limpieza que ha fracasado

La bióloga Leonore Reiser, que vive en Oakland, dijo que su hijo de 9 años reportó recientemente haber visto videos en YouTube que le preocupaban. Cuando revisó su historial, Reiser encontró uno que decía: “Dos chicas quieren (improperio) a un hombre”.

Mostraba a dos mujeres jóvenes en traje de baño compitiendo por la atención de un hombre en una piscina pública y en otra parte del video, al mismo hombre acariciando los pechos de una de las mujeres. Reiser determinó más tarde que su hijo, durante un período en el que estaba viendo YouTube desatendido, había buscado videos inapropiados, haciendo que el video saliera a la superficie como una opción recomendada.

Cuando el Washington Post revisó la grabación, el siguiente conjunto de videos que el algoritmo de YouTube recomendaba, en un panel que corría por el lado derecho de la pantalla, bajo el título “Up next” (Siguiente), incluía numerosas escenas de intimidad sexual que no llegaban a la desnudez. La mayoría no estaban restringidos por edad.

YouTube ha prometido durante mucho tiempo eliminar el contenido inapropiado de su plataforma en medio de una sucesión de controversias relacionadas con el extremismo violento, las odiosas conspiraciones en línea y el contenido infantil preocupante. La empresa ha contratado a miles de moderadores humanos y ha tratado de perfeccionar sus sistemas de inteligencia artificial para identificar y eliminar eficazmente los videos que violan las directrices de su comunidad.

Pero los esfuerzos han fracasado cuando se trata de una cantidad grande de tipos de contenido objetable, dicen los investigadores, padres de familia y defensores. En las últimas semanas, un video bloguero ha documentado cómo los pedófilos rastrean videos de niños y comparten, entre las marcas de tiempo, momentos sexualmente sugestivos, en lo que el bloguero comparó con una “red de pedofilia pornográfica”, y un pediatra de Florida encontró que un video que explicaba cómo suicidarse había sido empalmado en videos infantiles en YouTube y YouTube Kids.

Tales controversias han llevado a algunos anunciantes a abandonar YouTube, como lo hicieron recientemente Disney, Nestlé y otros. Pero la persistencia de los problemas ha hecho que algunos de los que estudian la plataforma concluyan que la escala inimaginable de YouTube, con 500 horas de grabaciones en video nuevas, subidas a la plataforma cada minuto, ha dificultado tanto la vigilancia que los padres deberían impedir que sus hijos lo vieran.

El algoritmo de recomendación de YouTube utiliza el aprendizaje automático y la inteligencia artificial para estudiar lo que los usuarios están viendo y para sugerirles otros videos. Con la función de reproducción automática activada, como está predeterminado en YouTube, el servicio seguirá transmitiendo vídeos con temas y características similares de forma indefinida.

El ex ingeniero de YouTube Guillaume Chaslot, que dejó la compañía en 2013 y ahora dirige el grupo de vigilancia AlgoTransparency, dijo que YouTube batallará para frenar el flujo de contenido inapropiado mientras su inteligencia artificial esté entrenada para maximizar el “tiempo de visualización”, una medida que alimenta el modelo de negocio impulsado por la publicidad de la compañía.

El resultado, dijo, es un sistema de recomendaciones que prioriza la estimulación de los usuarios por encima de todo. En el reciente escándalo en el que aparentes pedófilos listaron las marcas de tiempo de imágenes provocativas en las secciones de comentarios de video, Chaslot dijo que el algoritmo de recomendación ayudó a difundir dicho contenido.

“La mejor acción para el (algoritmo) es encontrar los videos para los pedófilos y transmitirlos a las personas que tienen más probabilidades de convertirse en pedófilos”, dijo. “Así que la mejor inteligencia artificial del mundo es quien está haciendo eso”.

La ley federal de privacidad también complica la situación. Los sitios dirigidos a niños menores de 13 años tienen prohibido recopilar la mayoría de los tipos de datos personales de los usuarios sin el permiso de los padres. YouTube, que se basa en la publicidad basada en datos, para sus ganancias, evita esa restricción manteniendo que el servicio no debe ser utilizado por los niños en absoluto. Si YouTube recomendara explícitamente cierto contenido para los niños, esa posición se volvería insostenible, dijo Chaslot.

El año pasado, varios grupos de consumidores presentaron una queja ante los reguladores federales alegando que YouTube sabe que los niños usan el sitio regularmente, a pesar de sus políticas, y como resultado viola rutinariamente la ley de privacidad.

Chaslot argumentó que para que YouTube sea más seguro para los niños, la compañía necesita priorizar algo más que el “tiempo de visualización”, idealmente un sistema en el que los padres califican los videos en función del valor educativo o de su adecuación, en lugar de simplemente a lo que los niños dan un clic o ven automáticamente en el modo de reproducción automática. YouTube dice que ha reducido el énfasis en el “tiempo de visualización” en su algoritmo de recomendación.

La pediatra, Jenny Radesky, investigadora de la Universidad de Michigan que examina los efectos de la tecnología avanzada en los niños y las familias, dijo que los niños luchan por entender algunos de los videos, sobre todo cuando los personajes que admiran actúan de manera inapropiada. Esto desafía su incipiente sentido del bien y del mal y causa confusión. También podría causar que algunos niños imiten los comportamientos que ven, señaló Radesky.

La presión sobre los padres es grave, ya que tratan de proteger a sus hijos de imágenes y mensajes preocupantes que siempre están muy accesibles como el dispositivo móvil más cercano. Muchos padres dicen que encuentran que el monitoreo constante es poco práctico y que los controles de contenido son limitados y difíciles de usar.

“Esto es difícil. Es una gran carga para los padres vigilar y observar el contenido con los niños”, aseguró Radesky. “Necesitan una solución de diseño”.

Si quiere leer este artículo en inglés, haga clic aquí

Anuncio