OpenAI ha publicado nuevas estimaciones sobre la cantidad de usuarios de ChatGPT que muestran posibles signos de emergencias de salubridad mental, incluidas manía, psicosis o pensamientos suicidas.
La compañía dijo que aproximadamente del 0,07% de los usuarios de ChatGPT activos en una semana determinada mostraron tales signos, y agregó que su chatbot de inteligencia fabricado (IA) reconoce y asegura a estas conversaciones sensibles.
Si correctamente OpenAI sostiene que estos casos son “extremadamente raros”, los críticos dijeron que incluso un pequeño porcentaje puede representar cientos de miles de personas, ya que ChatGPT alcanzó recientemente los 800 millones de usuarios activos semanales, según el jerarca Sam Altman.
A medida que aumenta el investigación, la compañía dijo que creó una red de expertos en todo el mundo para asesorarla.
Esos expertos incluyen a más de 170 psiquiatras, psicólogos y médicos de atención primaria que han ejercido en 60 países, dijo la compañía.
Han ideado una serie de respuestas en ChatGPT para animar a los usuarios a inquirir ayuda en el mundo positivo, según OpenAI.
Pero el vistazo a los datos de la compañía llamó la atención entre algunos profesionales de la salubridad mental.
“Aunque el 0,07% parece un porcentaje pequeño, a nivel de población con cientos de millones de usuarios, en ingenuidad pueden ser bastantes personas”, dijo el Dr. Jason Nagata, profesor que estudia el uso de la tecnología entre adultos jóvenes en la Universidad de California, San Francisco.
“La IA puede ampliar el camino al apoyo a la salubridad mental y, de alguna modo, apoyar la salubridad mental, pero debemos ser conscientes de las limitaciones”, añadió el Dr. Nagata.
La compañía asimismo estima que el 0,15% de los usuarios de ChatGPT tienen conversaciones que incluyen “indicadores explícitos de posible planificación o intención suicida”.
OpenAI dijo que las actualizaciones recientes de su chatbot están diseñadas para “replicar de forma segura y empática a posibles signos de delirio o manía” y observar “señales indirectas de posible autolesión o aventura de suicidio”.
ChatGPT asimismo ha sido capacitado para redirigir conversaciones confidenciales “que se originan en otros modelos a modelos más seguros” abriéndolas en una nueva ventana.
En respuesta a las preguntas de la BBC sobre las críticas sobre el número de personas potencialmente afectadas, OpenAI dijo que este pequeño porcentaje de usuarios equivale a una cantidad significativa de personas y señaló que se están tomando los cambios en serio.
Los cambios se producen cuando OpenAI enfrenta un creciente investigación lícito sobre la forma en que ChatGPT interactúa con los usuarios.
En una de las demandas más destacadas presentadas recientemente contra OpenAI, una pareja de California demandó a la empresa por la asesinato de su hijo adolescente, alegando que ChatGPT lo animó a quitarse la vida en abril.
La demanda fue presentada por los padres de Adam Raine, de 16 abriles, y fue la primera influencia lícito que acusa a OpenAI de asesinato por negligencia.
En un caso separado, el sospechoso de un asesinato-suicidio que tuvo zona en agosto en Greenwich, Connecticut, publicó horas de sus conversaciones con ChatGPT, que parecen sobrevenir alimentado los delirios del supuesto perpetrador.
Cada vez más usuarios luchan contra la psicosis de la IA, ya que “los chatbots crean la ilusión de la ingenuidad”, afirmó el profesor Robin Feldman, director del Instituto de Derecho e Innovación de la IA de la Universidad de Derecho de California. “Es una ilusión poderosa”.
Dijo que OpenAI merecía crédito por “compartir estadísticas y por los esfuerzos para mejorar el problema”, pero añadió: “la empresa puede poner todo tipo de advertencias en la pantalla, pero una persona que está mentalmente en aventura puede no ser capaz de prestar atención a esas advertencias”.
[BBC]
Suscríbase a nuestro boletín Tech Decoded para seguir las principales historias y tendencias tecnológicas del mundo. ¿Fuera del Reino Unido? Regístrese aquí.