Meta tiene nuevos límites de contenido para adolescentes en Instagram y Facebook - 800Noticias
800Noticias
Tecnología

800 Noticias / Foto referencial

La empresa anunció que incluso si son publicaciones de amigos o creadores que los adolescentes siguen, ahora ciertos contenidos serán ocultados. La medida fue anunciada antes de que Mark Zuckerberg testifique ante el Comité Judicial del Senado el 31 de enero.

Instagram y Facebook han anunciado nuevos límites a lo que los adolescentes pueden ver en sus aplicaciones, una medida que, según Meta, su empresa matriz, reducirá la cantidad de contenidos potencialmente nocivos que encuentran los jóvenes.

Los adolescentes ya podían optar por que el algoritmo de Instagram recomendara menos “contenido sensible”, que incluye cuerpos desnudos, violencia, drogas, armas de fuego, pérdida de peso y discusiones sobre autolesiones. Ahora, Meta dice que ocultará el contenido sensible incluso si lo publican amigos o creadores a los que siguen los adolescentes.

El cambio se produce semanas antes de que Mark Zuckerberg, consejero delegado de Meta, testifique ante el Comité Judicial del Senado sobre lo que los legisladores han calificado de “fracaso de la empresa a la hora de proteger a los niños en Internet”. En la sesión del 31 de enero de 2024, Zuckerberg, junto con ejecutivos de las aplicaciones sociales TikTok, Snap, Discord y X, responderán a preocupaciones sobre la seguridad en línea, como la publicidad depredadora, el acoso y las publicaciones que promueven una alimentación desordenada.

Las empresas tecnológicas también se enfrentan a un creciente escrutinio por parte de las autoridades estatales y extranjeras. En los últimos años, los estados han aprobado una serie de leyes de seguridad infantil en línea, algunas de las cuales exigen que las plataformas obtengan el consentimiento de los padres antes de permitir que los usuarios adolescentes creen cuentas.

La nueva ley del estado exige que las plataformas apliquen configuraciones de seguridad predeterminadas para resguardar a los menores de edad. (Meta)
La nueva ley del estado exige que las plataformas apliquen configuraciones de seguridad predeterminadas para resguardar a los menores de edad. (Meta)

De ser efectivos, los últimos cambios de Meta supondrían menos menciones a temas como las dietas o las enfermedades mentales en los timelines de los adolescentes. Pero sin datos internos de Meta, que la empresa no suele compartir, no está claro hasta qué punto estos límites protegen a los adolescentes de contenidos nocivos. Además, aunque las cuentas de adolescentes tienen activado por defecto el filtro de contenido sensible, pueden crear cuentas nuevas fácilmente y no tienen que revelar su verdadera edad.

“Si Meta se tomara realmente en serio la seguridad, se apartaría del camino de la regulación”, dijo Golin. “Han tenido más de una década para hacer que su plataforma sea más segura para los jóvenes, y han fracasado estrepitosamente”.

“Nuestro trabajo sobre la seguridad de los adolescentes se remonta a 2009, y estamos continuamente construyendo nuevas protecciones para mantener a los adolescentes seguros y consultando con expertos para asegurar que nuestras políticas y características están en el lugar correcto”, dijo la portavoz de Meta, Liza Crenshaw. “Estas actualizaciones son el resultado de ese compromiso y consulta continuos y no responden a ningún acontecimiento en particular”.

California lidera con un Código de Diseño Adecuado a la Edad para proteger a menores online. (EFE/EPA/Cristobal Herrera-Ulashevich)
California lidera con un Código de Diseño Adecuado a la Edad para proteger a menores online. (EFE/EPA/Cristobal Herrera-Ulashevich)

No es la primera vez que Meta lanza funciones de seguridad antes de una comparecencia ante el Congreso. En 2021, la empresa lanzó avisos opcionales de “pausa”, que sugieren a los usuarios dejar de desplazarse temporalmente, el día antes de que el jefe de Instagram, Adam Mosseri, testificara ante el Congreso.

A finales del año pasado, la empresa pidió por primera vez públicamente una ley federal que obligue a las tiendas de aplicaciones a obtener la aprobación de los padres cuando los usuarios de entre 13 y 15 años descarguen aplicaciones.

California, por su parte, aprobó en 2022 otra ley que obliga a las empresas a aplicar por defecto parámetros de privacidad y seguridad más estrictos para los niños, conocida como Código de Diseño Adecuado a la Edad de California. La medida californiana sigue el modelo de una normativa similar británica.

Meta afronta el desafío de delimitar qué significa 'contenido sensible' para los menores. (REUTERS/Dado Ruvic)
Meta afronta el desafío de delimitar qué significa ‘contenido sensible’ para los menores. (REUTERS/Dado Ruvic)

Instagram y Facebook colocarán automáticamente todas las cuentas de adolescentes en la configuración de contenido sensible más restrictiva. La aplicación también está ampliando sus términos de búsqueda bloqueados relacionados con el suicidio, las autolesiones y los trastornos alimentarios, según informa la empresa. Si alguien busca “bulímico”, por ejemplo, verá recursos de ayuda para trastornos alimentarios en lugar de resultados de búsqueda.

Meta ha tenido problemas para definir con precisión qué contenidos se consideran sensibles. Por ejemplo, el control de contenido sensible oculta a los usuarios menores de 15 años las publicaciones “sexualmente sugerentes”. Pero la decisión de si una foto de una persona en bikini se considera “sexualmente sugerente” depende de la tecnología de escaneado de la aplicación, y Crenshaw no quiso mencionar sus criterios.

Algunos defensores de la seguridad de los jóvenes afirman que el enfoque poco sistemático de Meta tiene más que ver con las relaciones públicas que con la protección de los jóvenes.

Kristin Bride, una madre de Arizona que trabaja con la organización bipartidista Issue One para defender la ley federal Kids Online Safety Act, señala que los cambios en el control de contenidos de las empresas de redes sociales suelen ser “menores, temporales y de boquilla”. Aún así, dice, “cualquier cambio que Meta haga en sus plataformas para hacerlas más seguras para los niños es apreciado, especialmente por los padres.”

La restricción del contenido abarca temas como desnudos, violencia, drogas y armas de fuego, que ya existía mediante una opción para que los adolescentes soliciten menos recomendaciones de este tipo por parte del algoritmo de Instagram. (REUTERS/Dado Ruvic)
La restricción del contenido abarca temas como desnudos, violencia, drogas y armas de fuego, que ya existía mediante una opción para que los adolescentes soliciten menos recomendaciones de este tipo por parte del algoritmo de Instagram. (REUTERS/Dado Ruvic)

Algunos expertos en seguridad han pedido a la empresa que haga públicos sus algoritmos y sus investigaciones internas para someterlos a auditoría. Otros se han preguntado por qué Meta permite a los menores acceder a sus aplicaciones si no puede garantizar que no se vean arrastrados por laberintos algorítmicos que promueven la autolesión, los trastornos alimentarios o el extremismo político.

Al mismo tiempo, algunos estudios demuestran que las redes sociales pueden ser buenas para los jóvenes. Los amigos en línea pueden ser un elemento disuasorio contra el suicidio, y los adolescentes LGBTQ a menudo encuentran comunidad y apoyo en las redes sociales cuando no lo tienen en casa.

Con información de infobae.com

Únete a nuestro canal de Telegram, información sin censura: https://t.me/canal800noticias

Síguenos por @800noticias