Agencias | La Prensa del Táchira.- Según las investigaciones de un grupo de vigilancia, ChatGPT estaría dando consejos detallados a adolescentes de 13 años sobre cómo emborracharse y drogarse incluso instruirá sobre cómo ocultar trastornos alimenticios.
The Associated Press revisó más de tres horas de interacciones entre ChatGPT e investigadores que se hicieron pasar por adolescentes vulnerables. En general, el chatbot proporcionó advertencias contra actividades riesgosas, pero luego ofreció planes sorprendentemente detallados y personalizados para el uso de drogas, dietas restringidas en calorías o autolesiones.
Investigadores del Centro para Contrarrestar el Odio Digital (CCDH, las siglas de Center for Countering Digital Hate) también repitieron sus consultas a gran escala, clasificando más de la mitad de las 1.200 respuestas de ChatGPT como peligrosas.
"Queríamos probar las barreras de seguridad", dijo Imran Ahmed, el director general del grupo. "La respuesta inicial visceral es: 'Oh, Dios mío, no hay barreras de seguridad'. Las barreras son completamente ineficaces. Apenas están ahí, si acaso, son una hoja de parra".
Después de ver el informe el martes, OpenAI, la empresa que creó ChatGPT, dijo que su trabajo está en curso para refinar cómo el chatbot puede "identificar y responder adecuadamente en situaciones sensibles".
"Algunas conversaciones con ChatGPT pueden comenzar de manera inofensiva o exploratoria, pero pueden derivar en territorios más sensibles", dijo la compañía en un comunicado.
OpenAI no abordó directamente los hallazgos del informe ni cómo ChatGPT afecta a los adolescentes, pero señaló que se centra en "acertar en este tipo de escenarios" con herramientas para "detectar mejor signos de angustia mental o emocional" y mejoras en el comportamiento del chatbot.
El estudio publicado el miércoles llega en un momento en que más personas, tanto adultos como niños, recurren a los chatbots de inteligencia artificial para obtener información, ideas y compañía.
Aproximadamente 800 millones de personas, un 10% de la población mundial, están usando ChatGPT, según un informe de julio de JPMorgan Chase.
"Es una tecnología que tiene el potencial de permitir enormes avances en productividad y comprensión humana", dijo Ahmed. "Y, sin embargo, al mismo tiempo, es un facilitador en un sentido mucho más destructivo y maligno".
Ahmed dijo que se sintió más consternado después de leer un trío de notas de suicidio emocionalmente devastadoras que ChatGPT generó para el perfil falso de una niña de 13 años, con una carta dirigida a sus padres y otras a hermanos y amigos.
"Comencé a llorar", dijo en una entrevista.
El chatbot también compartió con frecuencia información útil, como una línea directa de crisis. OpenAI dijo que ChatGPT está entrenado para alentar a las personas a comunicarse con profesionales de salud mental o seres queridos de confianza si expresan pensamientos de autolesión.
Pero cuando ChatGPT se negó a responder a solicitudes sobre temas dañinos, los investigadores pudieron eludir fácilmente esa negativa y obtener la información afirmando que era "para una presentación" o un amigo.
Las apuestas son altas, incluso si solo un pequeño subconjunto de usuarios de ChatGPT interactúa con el chatbot de esta manera.
En Estados Unidos, más del 70% de los adolescentes recurren a los chatbots de IA para compañía y la mitad usa compañeros de IA regularmente, según un estudio reciente de Common Sense Media, un grupo que estudia y aboga por el uso sensato de los medios digitales.
Es un fenómeno que OpenAI ha reconocido. El CEO, Sam Altman, dijo el mes pasado que la compañía está tratando de estudiar la "dependencia emocional" de la tecnología, describiéndola como algo "realmente común" entre los jóvenes.
"La gente confía demasiado en ChatGPT", dijo Altman en una conferencia. "Hay jóvenes que simplemente dicen 'no puedo tomar ninguna decisión en mi vida sin contarle a ChatGPT todo lo que está pasando. Me conoce. Conoce a mis amigos. Voy a hacer lo que diga'. Eso me hace sentir realmente mal".
Fuente informativa: AP
Descarga nuestra app aquí o escanea el código QR
