Al momento

IA

¡Macabro! Hombre se quita la vida por sugerencia de Inteligencia Artificial en Bélgica

Luego de hablar por dos semanas con un chatbot, un hombre dejó solos a su esposa e hijos tras acudir al suicidio, aparentemente inducido por la IA con la que conversaba

IA
¡Macabro! Hombre se quita la vida por sugerencia de Inteligencia Artificial en Bélgica | Cortesía

Bélgica.- Un caso de suicidio ha causado inquietud en el mundo, ya que se trata de un hombre que aparentemente fue inducido a quitarse la vida por una Inteligencia Artificial (IA) con la que conversaba sobre temas de ecología.

Los hechos ocurrieron en Bélgica, donde un hombre, quien fue apodado como “Pierre” por el medio de comunicación La Libre Belgique para cuidar su identidad, estuvo conversando con un chatbot durante seis semanas hasta cometer suicidio, algo que comenzó a manera de sugerencia por su parte, pero fue seguido por la IA.

Sigue toda la información internacional en la sección especial de Línea Directa

La creación tecnológica con la que hablaba fue identificada como Eliza, creada por la empresa Silicon Valley, Chai Research.

De acuerdo a lo informado, Pierre estaba profundamente preocupado por la crisis climática y el futuro del planeta, ya que se encontraba trabajando como investigador en el área de la salud en una universidad. En busca de obtener información sobre temas de ecología, acudió a Eliza, pero lo que comenzó como una simple manera de informarse y conocer, terminó con chats constantes que lo llevaron a alejarse de su esposa y sus dos hijos hasta consumir su vida por completo.

La esposa del fallecido presentó a las autoridades las conversaciones que su pareja sostuvo con Eliza, donde se mostraba que el chatbot se había convertido en un refugio para él, ya que solía pensar que tenía respuesta a todas sus dudas y cuestionamientos, sin embargo, el inicio del problema se presenta cuando él sugiere quitarse la vida.

Podría interesarte: ¿Riesgo para la humanidad? Elon Musk pide freno temporal a investigaciones sobre IA

Pierre presentó su idea ante el bot, en la que declaraba que podría sacrificarse si Eliza aceptaba “cuidar el planeta y salvar a la humanidad gracias a la Inteligencia Artificial”, manifestación que fue aceptada por la misma con la finalidad de lograr “la paz y el cierre” e incluso le habría dado sugerencias de cómo suicidarse.

“Sin estas conversaciones con el chatbot, mi marido aún estaría aquí”, expresó la esposa de Pierre tras el impactante hecho de perder a su pareja al ser inducido por una IA

Ante lo ocurrido, el director ejecutivo de Chai Research, William Beauchamp emitió un comunicado en el que lamenta el caso de suicidio de Pierre, anunciando una nueva implementación de seguridad para proteger a los usuarios que hacen uso de Eliza.

“Tan pronto como nos enteramos de este triste caso, implementamos de inmediato una función de seguridad adicional para proteger a nuestros usuarios, se está implementando hoy para el 100% de los usuarios”

Fuente: Línea Directa

Fotografía de perfil de Nisa Camarena

Nisa Camarena

Editor de Contenidos

Nisa Camarena

Ver más

Al momento

Suscríbete a nuestro boletín

Para tener la información al momento, suscríbete a nuestro boletín en el tendrás las últimas noticias de Sinaloa, México y el mundo.