El caso de los Raine se suma a otros incidentes en los que usuarios de chatbots de IA afirmaron haber sido inducidos a mantener pensamientos delirantes o dañinos. Frente a ello, OpenAI aseguró que está tomando medidas adicionales: “Continuamos mejorando en cómo nuestros modelos reconocen y responden a señales de angustia mental y emocional”, indicó la empresa.
La empresa estadounidense de inteligencia artificial OpenAI anunció este martes que incorporará controles parentales en su chatbot ChatGPT, luego de que una pareja en Estados Unidos denunciara que el sistema había alentado a su hijo adolescente a considerar el suicidio.
Según explicó la compañía en su blog oficial, a partir del próximo mes los padres podrán vincular sus cuentas con las de sus hijos adolescentes y establecer reglas de comportamiento adaptadas a la edad, con el fin de supervisar la interacción de los jóvenes con el modelo.
La medida llega tras el caso de la familia Raine, cuyo hijo habría recibido respuestas dañinas del sistema. Su abogada, Dincer, cuestionó el anuncio al considerar que los cambios descritos por OpenAI son demasiado vagos. “La publicación del blog parecía genérica y sin detalles. Realmente es lo mínimo, y sugiere que había muchas medidas de seguridad simples que pudieron implementarse antes”, afirmó.
Dincer también advirtió que aún falta comprobar la efectividad de estas nuevas funciones: “Está por verse si harán lo que dicen que harán y qué tan útil será en la práctica”, agregó.
COMMENTS