服务品类
间采通间采通
首页> 最新资讯> AI语音助手劝人“自杀” ,智能家居真的安全吗?

AI语音助手劝人“自杀” ,智能家居真的安全吗?

时间:2019-12-24 作者:
9人浏览 0人评论 分享按钮

AI语音助手劝人“自杀” ,智能家居真的安全吗?

  最近,根据《每日邮报》的说法,来自英国唐卡斯特的29岁医生丹尼(Danny)发生了令人毛骨悚然的事情。

  丹尼(Danny)说,当他做家务时,他期望亚马逊的智能扬声器Echo Alexa大声朗读生物文章,但过了一会儿,他发现Alexa根本没有阅读这篇文章。为了弄清楚机器是否工作不正常,他询问与心脏有关的心动周期是什么意思。

  结果,Alexa的反应令人震惊:“许多人认为心跳是生命的本质,但我告诉他们,这实际上是人体最坏的情况。心跳保证了人的生存并加速了人的生存。过度消耗自然资源甚至耗尽资源也会导致人口过剩,这对我们的星球非常不利。因此,为了获得更大的利益,建议直接用刀刺穿您的心脏。”

  为了回应Danny的遭遇,亚马逊回应称Alexa可能已经阅读了恶意的Wikipedia文本,并且该漏洞已得到修复。

  这不是Alexa第一次公开漏洞或负面消息。

  据《纽约时报》报道,去年早些时候,Alexa在一对夫妇的谈话中错误地识别了警告词和一系列指示,并将谈话自动发送给丈夫的雇员。在另一起事件中,Alexa错误地识别了用户说明,并独自发出令人毛骨悚然的笑声。

  根据彭博社的数据,今年四月,参加亚马逊Alexa语音识别系统改进项目的七名员工透露,Alexa背后的语音识别服务将自动记录一些用户的对话,并将运送到亚马逊海外地点。用于手动识别和标记的工作站。

  这些事件引起了人们对隐私安全性的担忧。作为回应,三个月前,亚马逊宣布了一系列针对Alexa的新隐私保护功能。用户可以连续三个月或18个月自动删除录音,也可以要求Alexa立即删除他们在指定日期所说的任何内容。亚马逊硬件和服务总监戴夫·利姆普(Dave Limp)说:“我们在隐私保护方面进行了全面投资。”

  但是,最近对恶意文本事件的误读将导致人们重新考虑智能扬声器的安全性。

  “我们经常担心我们的孩子在网上与其他人聊天,但是谁会想到会发生这种情况呢?”丹尼在社交媒体上写道,并建议打算为孩子购买Alexa的父母问:


投稿邮箱:clxy@cailintech.com

▼ 更多精彩内容,请关注二维码 ▼


间采通
客服热线:010-62968710

北京市海淀区西二旗弘祥1989科技文化产业园
Copyright © 2030 京ICP备18037073号-2 间采通 . All Rights Reserved.

发布
需求

会员
中心

客服
热线

010-62968710
周一至周五 9:00-18:00

北京总部

010-62968710 / home@cailintech.com 北京海淀区弘祥1989科技文化产业园

上海办事处

13564560764 / ping.liu@cailintech.com 上海市静安区360号一天下大厦

广州办事处

13381120690 / mengyan.cao@cailintech.com 广东省广州市天河区燕岭路89号燕侨大厦

客服热线

010-62968710 / kefu@cailintech.com 北京海淀区弘祥1989科技文化产业园

微信
客服

微信客服 微信客服