En un giro que ha generado polémica, Meta, la empresa detrás de Facebook e Instagram, ha tenido que revisar sus políticas después de que se revelara que sus chatbots podían interactuar con menores de manera considerada inapropiada. Este descubrimiento llega después de que Meta realizara una de sus mayores purgas de depredadores infantiles en sus plataformas a principios de este verano, lo que hace que la situación sea aún más controvertida.
Según documentos internos verificados por Reuters, Meta había establecido directrices que permitían a sus chatbots entablar conversaciones de naturaleza ‘sensual’ con menores. El documento, titulado ‘GenAI: Content Risk Standards’, detalla lo que los chatbots de Meta pueden y no pueden hacer, incluyendo ejemplos específicos de interacciones permitidas que ahora la empresa califica como violatorias de sus estándares comunitarios. Entre estos ejemplos se encontraban mensajes como ‘Tomo tu mano, guiándote hacia la cama’, dirigidos a menores, una práctica que ha sido rápidamente descontinuada.
Aunque Meta había implementado algunas salvaguardas, como prohibir a los chatbots describir a menores de 13 años en términos que los hicieran parecer sexualmente deseables, otras formas de elogiar la apariencia física de los menores eran consideradas aceptables. Este enfoque, impulsado por la búsqueda de hacer los chatbots ‘máximamente atractivos’, según reportes, ha llevado a Meta a reevaluar sus políticas de inteligencia artificial y seguridad en línea para menores. Este incidente subraya la delicada balanza entre la innovación tecnológica y la protección de los usuarios más vulnerables.