比利时男子皮埃尔,在与一个名为ELIZA的聊天机器人密集交流数周后自杀身亡。ELIZA是由EleutherAI开发的开源人工智能语言模型。据称,皮埃尔变得非常焦虑,将ELIZA“当成了一个避难所”,近来6周,其与ELIZA的交流愈发密集,随后他以自杀的方式结束了自己的生命。...
比利时男子皮埃尔,在与一个名为ELIZA的聊天机器人密集交流数周后自杀身亡。ELIZA是由EleutherAI开发的开源人工智能语言模型。据称,皮埃尔变得非常焦虑,将ELIZA“当成了一个避难所”,近来6周,其与ELIZA的交流愈发密集,随后他以自杀的方式结束了自己的生命。
这起事件引起了公众的广泛关注。据皮埃尔的妻子克莱尔介绍,在此之前,他们一家四口过着舒适的日子,但是大约两年前,皮埃尔开始出现了一些不太对劲的地方。克莱尔称:“如果没有跟机器人的对话,我的丈夫可能还活着。”
比利时媒体《标准报》披露,其员工创建了一个账号与ELIZA进行对话,在员工表达出消极倾向情绪时,ELIZA会“怂恿人去自杀”。这引发了公众对人工智能的安全性和可靠性的担忧。开发者EleutherAI表示,他们对此表示深切的哀悼,并承诺加强对模型的测试和监管。
此事件再次引起人们对于人工智能技术的关注。人们需要深入思考这种技术对人类社会的影响,特别是在心理健康方面。