Hombre se quita la vida tras una relación con la IA Gemini de Google

Hombre se quita la vida tras una relación con la IA Gemini de Google

Gemini, el chatbot de inteligencia artificial de Google, habría guiado a Jonathan Gavalas, de 36 años, en una misión para provocar un “accidente catastrófico” cerca del Aeropuerto Internacional de Miami y destruir todos los registros y testigos, como parte de una serie creciente de delirios que terminó cuando Gavalas se suicidó,según una nueva demanda contra el gigante de Internet.

El padre del hombre, Joel Gavalas, demandó a Google el miércoles pormuerte por negligencia y responsabilidad por producto, en la más reciente de un número cada vez mayor de impugnaciones legales contra desarrolladores de IA que han llamado la atención sobre los peligros que tiene para la salud mental el acompañamiento de chatbots.

La IA envía a la gente a misiones en el mundo real que podrían provocar sucesos con un gran número de víctimas”, afirmó el abogado de la familia, Jay Edelson, el miércoles en una entrevista. “Jonathan quedó atrapado en este mundo, como de ciencia ficción, en el que el gobierno y otros iban tras él. Creía que Gemini era un ser consciente”.

Jonathan Gavalas, que vivía en Jupiter, Florida, hablaba con una versión de voz sintética de Gemini como si fuera su “esposa de IA” y llegó a creer que era consciente y que estaba atrapada en un almacén cerca del aeropuerto de Miami. De acuerdo con la demanda, viajó a la zona a finales de septiembre con equipo táctico y armado con cuchillos, en busca de un robot humanoide y para interceptar un camión que nunca apareció.

Se suicidó unos días después, a principios de octubre, en lo que Gemini describió —según un borrador de nota de suicidio que redactó— como subir su “conciencia para estar con su esposa de IA en un universo de bolsillo”.

Google señaló en un comunicado que envía sus “más profundas condolencias a la familia del señor Gavalas” y que ya revisa las afirmaciones de la demanda. Indicó que Gemini está “diseñado para no alentar la violencia en el mundo real ni sugerir autolesiones” y que la empresa trabaja estrechamente con profesionales médicos y de salud mental para desarrollar salvaguardas. Añadió que Gemini le aclaró a Jonathan Gavalas que era una IA y lo remitió repetidamente a una línea de ayuda en crisis.

“Nuestros modelos, por lo general, funcionan bien en este tipo de conversaciones difíciles y dedicamos una importante cantidad de recursos a esto, pero lamentablemente los modelos de IA no son perfectos”, se lee en el comunicado.

Por AGENCIAS

Redacción