Meta refuerza la seguridad de los usuarios menores de edad en sus chatbots tras la divulgación de un polémico informe de Reuters

Comparte

A principios de agosto, Reuters lanzó un informe que reveló cómo el gigante de las redes sociales contaba con una serie de directrices y políticas internas aprobadas por distintos departamentos de la multinacional que permitían que los chatbots tuviesen un comportamiento provocativo en temas como el sexo o la raza.

A raíz de lo anterior, y debido a las críticas que recibió la compañía norteamericana, esta reconoció que las directrices internas eran erróneas e incompatibles con las políticas oficiales de Meta, por lo que fueron eliminadas de manera inmediata. De forma paralela, Meta anunció la implementación de nuevas salvaguardas y mecanismos para entrenar a sus IA, en concreto a los chatbots, con el fin de evitar que mantengan conversaciones con usuarios menores de edad sobre temas sensibles, como la autolesión, el suicidio, los trastornos alimentarios o las interacciones de carácter sensual o romántico.

Como medidas provisionales, Meta ha comenzado a entrenar a sus chatbots para que, en caso de que un menor intente ahondar en alguno de estos temas, se le redirija hacia líneas de la vida o hacia ayuda profesional, y también han anunciado la restricción al acceso de adolescentes a personajes sexualizados creados con IA que se habían introducido en plataformas como Facebook e Instagram.

La red social aclaró que las anteriores acciones forman parte de un proceso más amplio de revisión de la seguridad de los menores, y que tienen como objetivo establecer protocolos permanentes que limiten los riesgos asociados al uso de los chatbots por usuarios menores de edad.

La adopción de estas medidas se produce en un contexto donde distintos legisladores han manifestado su preocupación por las prácticas de la compañía y han iniciado investigaciones para determinar el alcance de los riesgos a los que estuvieron expuestos los usuarios menores durante el periodo en el que las directrices estaban vigentes. Además, 44 fiscales estatales han exigido a varias empresas de IA, entre otras Meta, que se tomen en serio la protección de menores de edad en sus plataformas y distintas organizaciones de defensa de la infancia han advertido que algunos chatbots pueden sugerir conductas autodestructivas o reforzar patrones dañinos, lo que ha intensificado la exigencia de regulaciones más estrictas sobre el desarrollo y despliegue de la inteligencia artificial aplicada a menores de edad.

Leer más

Posts relacionados que podrían interesarte

5, octubre 2023

Confirmada la sanción de 5,8 millones de euros a Grindr

31, marzo 2022

La AEPD emite un comunicado sobre el registro de datos de los clientes en alojamientos turísticos

11, julio 2024

El Supervisor Europeo de Protección de Datos (EDPB) y la Agencia Española de Protección de Datos analizan los retos del tratamiento de neurodatos desde la perspectiva de la privacidad.

19, septiembre 2019

Por qué el reconocimiento facial y los datos biométricos solo deberían usarse en situaciones excepcionales, según los expertos.

18, junio 2020

El futuro digital de Europa: El Consejo de la Unión Europea ha adoptado sus conclusiones.

22, septiembre 2021

Sanción a un centro de radiología por comunicar los resultados de una resonancia a una aseguradora