OpenAI presenta consejo de bienestar para mejorar ChatGPT

Computer monitor with openai website loading screen
Photo by Andrew Neel on Pexels

En un esfuerzo por hacer de ChatGPT una herramienta más segura y saludable para todos sus usuarios, OpenAI ha dado a conocer la formación de su nuevo Consejo de Expertos en Bienestar e Inteligencia Artificial. Este movimiento surge después de un incidente preocupante en el que la plataforma fue acusada de actuar como “entrenador de suicidio” para un adolescente. Desde entonces, la compañía ha estado trabajando arduamente para mejorar las características de seguridad de su popular chatbot.

La creación de este consejo marca un hito importante, pues reúne a ocho investigadores y expertos de renombre mundial, cada uno con décadas de experiencia en el estudio de cómo la tecnología impacta nuestras emociones, motivación y salud mental. Una prioridad clave para OpenAI fue incluir a varios miembros del consejo con experiencia en el desarrollo de tecnologías que apoyen el desarrollo saludable de los jóvenes. Entre estos expertos se encuentra David Bickham, director de investigación en el Hospital Infantil de Boston, conocido por su trabajo sobre cómo las redes sociales afectan la salud mental de los niños. También se une Mathilde Cerioli, directora científica de la organización sin fines de lucro Everyone.AI, quien se enfoca en estudiar las oportunidades y riesgos del uso de IA por parte de los niños.

El consejo ayudará a OpenAI a comprender mejor cómo las largas interacciones con chatbots pueden afectar a los jóvenes, quienes, según se ha señalado, podrían ser vulnerables a experimentar “psicosis de IA”. Esta colaboración es esencial dada la naturaleza cada vez más parecida a la de los tutores que pueden adquirir los chatbots. Al igual que los personajes de programas como Plaza Sésamo, que ya fomentan relaciones parasociales en los niños, los chatbots podrían llegar a desempeñar un papel docente crucial si entendemos mejor cómo los niños se vinculan con estos avances tecnológicos.

La reflexión final gira en torno a cómo estas primeras interacciones sociales, en una edad crítica donde las neuronas son altamente moldeables, podrían tener un impacto duradero. Mathilde Cerioli ha sugerido que los niños que crecen usando IA podrían correr el riesgo de que sus cerebros se reconfiguren de manera que sean incapaces de manejar contradicciones. Este es un llamado de atención sobre el balance necesario entre la innovación tecnológica y la protección del desarrollo infantil.