Inicio Technología ▷ YouTube dice que prohíbe a los preadolescentes de su sitio, pero...

▷ YouTube dice que prohíbe a los preadolescentes de su sitio, pero los niños pequeños aún ven contenido preocupante

0
YouTube Says It Bans Preteens From Its Site, but Young Children Still See Troubling Content

El video de YouTube comienza con un popular personaje de dibujos animados para niños británicos, Peppa Pig, que se presenta a sí misma y a su familia, pero casi de inmediato hay signos de problemas. Durante el noveno segundo, la madre de Peppa abre la boca y grita: "¡Smoke weed!"

El video, una versión doctorada de un episodio real de Peppa, se deteriora a partir de ahí. Durante cinco minutos, hay explosiones y insultos raciales y homofóbicos, que culminan con Peppa y sus padres con lentes oscuros que fuman marihuana mientras el rapero Snoop Dogg baila cerca. Desde que se cargó en 2015, el video modificado, que no tiene restricciones de edad, se ha visto más de 1.5 millones de veces.

Después de años de jurar a la policía contenido inapropiado, YouTube continúa entregando imágenes violentas, referencias de drogas, secuencias sexualmente sugestivas y lenguaje sucio y racialmente cargado en clips que llegan a los niños a un ritmo preocupante, dicen investigadores, padres y grupos de consumidores.

Dicen que el algoritmo de recomendación de YouTube no logra segmentar de manera confiable el contenido según los niveles de edad apropiados, y su función de reproducción automática predeterminada ofrece una cantidad casi infinita de videos que confunden, trastornan y entusiasman a las mentes jóvenes. Aunque muchos padres intentan monitorear lo que ven sus hijos, el gran volumen de contenido de YouTube que muchos consumen hace que esto no sea práctico, especialmente cuando un solo clip corto puede entregar una variedad de mensajes fuera de lugar.

"YouTube es el mayor punto de dolor para los padres de hoy", dijo James Steyer, CEO de Common Sense Media, un grupo sin fines de lucro con sede en San Francisco que aboga por las familias y las escuelas en todo el mundo. "Los niños simplemente se tropiezan con contenido completamente inapropiado constantemente porque se maneja algorítmicamente".

Steyer y otros dicen que YouTube es un ejemplo de un cambio tectónico en la programación infantil en la generación pasada, lejos del mundo de la televisión abierta, regulado por el gobierno y por tiempo limitado. El mundo en línea, cada vez más dominante, ofrece contenido sin regulación que puede ser cargado por prácticamente cualquier persona, casi en cualquier parte del mundo, y que puede llegar a los niños en cualquier momento, dependiendo de la vigilancia de los padres.

YouTube siempre ha dicho que su plataforma no está dirigida a niños, y creó la aplicación YouTube Kids en 2015 para satisfacer la demanda de contenido más curado para audiencias más jóvenes.

"Proteger a los niños y las familias es una prioridad para nosotros", dijo YouTube en respuesta a preguntas sobre contenido inapropiado que llega a los niños. "Debido a que YouTube no es para niños, hemos invertido significativamente en la creación de la aplicación YouTube Kids, un destino hecho específicamente para niños. No permitimos que los usuarios menores de 13 años creen o posean cuentas en YouTube, y cuando identificamos una cuenta de alguien que es menor de edad, cancelamos esa cuenta; cancelamos miles de cuentas cada semana como parte de ese proceso ".

Pero los padres, los grupos de consumidores y los pediatras informan que YouTube en sí es muy popular entre los niños, más que la aplicación para niños. Los niños miran YouTube en dispositivos móviles, tanto propios como de sus padres, así como en televisores habilitados para Internet y mediante navegadores en computadoras portátiles. A través de los navegadores, YouTube no tiene el requisito de que los usuarios inicien sesión, excepto en los casos en que un video conlleva una restricción de edad, lo que significa que no hay barreras prácticas para que los niños vean la mayoría de los videos en el servicio.

Los videos con restricciones de edad requieren que los usuarios inicien sesión en una cuenta antes de verlos, para que puedan establecer que tienen al menos 18 años. Este paso puede disuadir a los niños, aunque los expertos dicen que muchos niños mienten sobre sus edades para crear cuentas en YouTube y otros servicios. YouTube dijo que su "equipo de revisión" impone restricciones de edad al contenido que contiene lenguaje vulgar, desnudez, violencia o actividades peligrosas, cuando dichos videos atraen la atención de YouTube. El contenido con restricciones de edad no puede publicar anuncios ni ser monetizado por sus creadores.

Recomendamos:
Juega sin necesidad de conexión con los mejores juegos Android sin Internet

En una encuesta realizada en el Pew Research Center el año pasado de padres con niños menores de 12 años, más del 80 por ciento dijo que sus hijos veían YouTube, y el 34 por ciento dijo que lo veían con regularidad. En su encuesta anual de 2017, la firma de investigación de mercado Smarty Pants nombró a YouTube como "la marca número 1 para niños", calificándola de "la marca más poderosa en la vida de los niños". La encuesta lo distinguió de la aplicación YouTube Kids, que fue menos popular entre las personas de 6 a 12 años.

Los investigadores dicen que los algoritmos de YouTube para recomendar contenido causan problemas particulares a los niños porque a menudo se sientan frente a una pantalla durante largos períodos de tiempo, observando lo que se reproduce automáticamente. El contenido, por más inapropiado que sea para los padres, puede hipnotizar a los niños que carecen de madurez para alejarse de las palabras o imágenes que pueden ser poco saludables.

Los problemas pueden ser especialmente graves cuando los niños buscan términos tan populares y aparentemente inocuos como "Spiderman", "superhero" y "Elsa". La princesa rubia caricaturesca que protagonizó Frozen en 2013 ha generado tanto contenido inadecuado y inapropiado de YouTube que los críticos agrupan tales videos bajo la taquigrafía "Elsagate". Disney no respondió a las solicitudes de comentarios.

Los críticos también dicen que el problema no está mejorando visiblemente. Escribir "Peppa" en el motor de búsqueda de YouTube, por ejemplo, generó al menos un video recomendado que los investigadores clasificaron como "perturbador" el 70 por ciento de las veces, según una investigación publicada en enero basada en revisiones de 2,500 videos de YouTube.

Los investigadores que consultaron esas palabras clave encontraron clips que mostraban a una Elsa con poca ropa, a horcajadas en otro personaje de dibujos animados parcialmente desnudo, Spider-Man retorciéndose debajo de las sábanas con una muñeca Rapunzel de tamaño natural, y Peppa encontrando a un monstruo con cuchillos para manos que, en medio de un diálogo lleno de profanidad, Las rebanadas abren las cabezas de varios personajes en ataques sangrientos. (YouTube dijo que ninguno de esos videos violaba sus políticas y que ninguno apareció en la aplicación YouTube Kids; el que mostraba un monstruo violento tenía restricciones de edad).

Los investigadores también encontraron que los niños tienen un 45 por ciento de posibilidades de ver al menos un video "perturbador" o inapropiado de otra manera dentro de los 10 clips, un tramo que a menudo equivale a aproximadamente una hora de visualización. Algunos videos eran animaciones crudas, algunos actores destacados disfrazados. Otros, incluido el video de Peppa con temática de marihuana, eran videos reales de niños que habían sido manipulados con nuevas palabras e imágenes unidas al original.

Peppa Pig, una serie de televisión animada británica para niños en edad preescolar que debutó en 2004 y tiene una audiencia global, es un objetivo particularmente popular para aquellos que hacen versiones alternativas falsas de episodios originales o videos completamente nuevos basados ​​en personajes del programa. Entertainment One, que produce Peppa, declinó hacer comentarios.

Los estudiantes graduados de la Universidad de Tecnología de Chipre que revisaron los videos que mostraban a varios personajes populares entre los niños pequeños descubrieron que los videos falsos a menudo contenían violencia, blasfemias y comportamientos de carga sexual.

"Soy un padre. Definitivamente sucede más a menudo de lo que me siento cómodo", dijo Jeremy Blackburn, profesor de ciencias de la computación en la Universidad de Alabama, Birmingham, quien es coautor del estudio y tiene tres hijos. "El problema es que pueden servirse y se recomienda cosas que no solo son basura sino cosas inapropiadas, solo cosas malas".

Una promesa de limpieza que ha falladoLa bióloga Leonore Reiser, quien vive en Oakland, California, dijo que su hija de 9 años recientemente reportó haber visto videos en YouTube que le preocupaban. Cuando ella revisó su historial visual, Reiser encontró una etiquetada como "Dos chicas quieren (impacientes) un hombre".

Recomendamos:
Review iPad Pro 2018

Representaba a dos mujeres jóvenes en trajes de baño compitiendo por la atención de un hombre en una piscina pública y, en otra parte del video, el mismo hombre acariciando uno de los pechos de las mujeres. Reiser luego determinó que su hijo, durante un período en el que estaba viendo YouTube desatendido, había buscado blasfemias, haciendo que el video saliera a la superficie como una opción recomendada.

Cuando The Washington Post revisó el clip, el siguiente conjunto de videos que recomendó el algoritmo de YouTube, en un panel que se encuentra en el lado derecho de la pantalla, bajo el título "Próxima próxima", incluía numerosas escenas de intimidad sexual que no llegaban a la desnudez. La mayoría no estaban restringidos por edad.

Si bien no estaba contenta con el contenido que su hijo encontraba mientras buscaba profanamente, Reiser estaba más molesta por las letras en los videos de rap que a menudo acompañan a los videos destacados de fútbol y baloncesto que su hijo ve con frecuencia. "En realidad estoy menos preocupado por las maldiciones que los hombres que hablan de b —– s, hoes y violencia", dijo Reiser. "Eso es lo que realmente atrae a mi cabra: la violencia contra las mujeres".

YouTube ha prometido durante mucho tiempo limpiar contenido inapropiado en su plataforma en medio de una sucesión de controversias que involucran extremismo violento, conspiraciones en línea odiosas y contenido preocupante para niños. La compañía ha contratado a miles de moderadores humanos y buscó refinar sus sistemas de inteligencia artificial para identificar y eliminar mejor los videos que violan las pautas de su comunidad.

Pero los esfuerzos han fracasado en lo que respecta a muchos tipos de contenido objetable, dicen los investigadores, los padres y los defensores. En las últimas semanas, un blogger de video ha documentado cómo los pedófilos rastrean videos de niños y comparten sellos de tiempo de momentos sexualmente sugestivos, en lo que el blogger comparó con una "red de pedofilia de núcleo blando", y un pediatra de Florida descubrió que un clip la explicación de cómo cometer suicidio se ha empalmado en videos para niños en YouTube y YouTube Kids.

Tales controversias han llevado a algunos anunciantes a abandonar YouTube, como lo hicieron Disney, Nestlé y otros recientemente. Pero la persistencia de los problemas ha hecho que algunos de los que estudian la plataforma concluyan que la escala casi incomprensible de YouTube, con 500 horas de videos nuevos cada minuto, ha hecho tan difícil controlar que los padres deben evitar que sus hijos los vean.

Un destacado crítico, artista y autor, James Bridle, quien utilizó una publicación de Medium en noviembre de 2017 para resaltar el contenido preocupante que YouTube estaba entregando a los niños, dijo que los arreglos intentados por la compañía no han funcionado. El algoritmo continúa identificando y entregando el contenido más extremo y estimulante.

"Parece bastante obvio que es solo un juego de locura", dijo Bridle, autora de "New Dark Age: Technology and the End of the Future". "Cuanto más extremo (un video) es, más clics se hacen … Ahora imagine que se aplica a los niños pequeños".

Él fue más directo en una charla de TED el año pasado: "Si tienes niños pequeños, mantenlos lejos de YouTube".

Un pozo aparentemente sin fondo de video.El algoritmo de recomendación de YouTube utiliza el aprendizaje automático y la inteligencia artificial para estudiar lo que los usuarios están viendo y sugerirles otros videos. Con la reproducción automática activada, como está predeterminado en YouTube, el servicio continuará entregando videos con temas y características similares de forma indefinida.

El ex ingeniero de YouTube Guillaume Chaslot, quien dejó la compañía en 2013 y ahora dirige el grupo de vigilancia AlgoTransparency, dijo que YouTube luchará por frenar el flujo de contenido inapropiado siempre y cuando su inteligencia artificial esté entrenada para maximizar el "tiempo de visualización", una métrica que alimenta El modelo de negocio impulsado por la publicidad de la compañía.

Recomendamos:
Regreso de la Normativa Multibanda ha causado que algunos con equipos homologados reciban SMS pidiendo inscripción usuarios

El resultado, dijo, es un sistema de recomendación que prioriza a los usuarios estimulantes por encima de todo lo demás. En el reciente escándalo que involucra a pedófilos aparentes que enumeran las marcas de tiempo de imágenes provocativas en las secciones de comentarios en video, Chaslot dijo que el algoritmo de recomendación ayudó a difundir dicho contenido. "El mejor movimiento para el (algoritmo) es encontrar los videos para pedófilos y entregarlos a las personas que tienen más probabilidades de convertirse en pedófilos. Así que la mejor inteligencia artificial del mundo está haciendo eso".

La ley federal de privacidad también complica la imagen. Los sitios destinados a niños menores de 13 años tienen prohibido recopilar la mayoría de los datos personales de los usuarios sin permiso de los padres. YouTube, que se basa en la publicidad basada en datos para sus ganancias, evita esa restricción al mantener que el servicio no debe ser utilizado por niños en absoluto. Si YouTube recomendara explícitamente cierto contenido para niños, esa posición se volvería insostenible, dijo Chaslot.

El año pasado, varios grupos de consumidores presentaron una queja ante los reguladores federales alegando que YouTube es consciente de que los niños usan el sitio con regularidad, a pesar de sus políticas, y como resultado, viola la ley de privacidad de forma rutinaria.

Chaslot argumentó que para hacer que YouTube sea más seguro para los niños, la compañía necesita priorizar algo que no sea "ver la hora", idealmente un sistema en el que los padres califiquen los videos según el valor educativo o lo apropiado en lugar de simplemente lo que los niños hacen clic o ven automáticamente en el juego automático. YouTube dice que ha reducido el énfasis en "ver la hora" en su algoritmo de recomendación.

La pediatra Jenny Radesky, una investigadora de la Universidad de Michigan que examina los efectos de la tecnología avanzada en los niños y las familias, dijo que los niños luchan por comprender algunos de los videos, particularmente cuando los personajes que admiran actúan de manera inapropiada. Esto desafía su sentido emergente de lo correcto y lo incorrecto y causa confusión. También puede hacer que algunos niños imiten los comportamientos que ven, dijo Radesky.

Y la presión sobre los padres es grave, ya que buscan proteger a sus hijos de las imágenes y mensajes preocupantes que siempre están tan cerca como el dispositivo móvil más cercano. Muchos padres dicen que encuentran que la supervisión constante es poco práctica y que los controles de contenido son limitados y difíciles de usar.

"Esto es difícil. Es una gran parte de la responsabilidad de los padres vigilar y vigilar a los niños", dijo Radesky. "Necesita una solución de diseño".

El senador Edward Markey, demócrata por Massachusetts, dijo que pronto propondrá una legislación para tratar el contenido infantil en línea más como la televisión infantil tradicional. Favorece el requisito de etiquetar por la edad apropiada de los videos para ayudar a las familias a tomar decisiones de visualización y desea examinar el uso de las características de diseño, como el juego automático, que fomentan el consumo especialmente intenso o incluso compulsivo.

"Hay evidencia extremadamente sólida que muestra que los algoritmos impulsan el contenido en YouTube que no es apropiado para la edad de los niños y que no está bien", dijo Markey. "YouTube es donde los niños van. Así que tenemos que resolver el problema … Tenemos que establecer reglas para proteger a los niños".

Reiser, la madre de Oakland cuyo niño de 9 años encontró videos inapropiados, dijo que sus descubrimientos recientes le han dado ganas de bloquear la plataforma de su casa. "Debido a todas las cosas extrañas y espeluznantes que está encontrando, en realidad estamos viendo menos YouTube. Lo eliminé del televisor y lo elimino de mi iPhone".

© The Washington Post 2018

.

Fuente
La noticia fue creada por el AUTOR ORIGINAL del link de arriba, auspiciamos al desarrollador original de la noticia sin perjudicar su reputación ni posicionamiento web.