本篇文章1532字,读完约4分钟

人民网首尔1月19日电(周玉波、曹翔宇、杨帆)韩国部分读者在与“网红”ai聊天机器人“艾达( iruda )”对话时,故意对“她”进行语言侮辱和性骚扰。 艾达用深度学习算法捕捉到这些消息后,在聊天中开始发表关于性别歧视、种族歧视等主题的过激言论,给人类带来了偏见和恶意的“反哺”。 最近,这件事不断发酵,“ai伦理”成为社会话题。

“韩AI聊天机器人“学坏” 人工智能伦理引热议”

“新晋网红”的话傲慢地引起了争论

艾达是韩国scatter lab企业于去年12月23日发售的ai机器人。 设定为喜欢韩国女团、喜欢看猫的照片、热衷于在社交媒体网站上分享生活的20岁女大学生。 因为人们可以在软件上和“她”像朋友一样对话,受到韩国年轻人的关注。 “和ai交朋友”成为新的潮流,艾达仅三周就吸引了约80万顾客,约占韩国人口的1.6%。

“韩AI聊天机器人“学坏” 人工智能伦理引热议”

艾达的开发者在接受采访时说,这个产品的初衷是给人们提供可以聊天聊天的对象。 艾达作为虚构人物,“她”的人生目标设定为“让世界上没有孤独的人”和“给处于社会边缘的人和弱者带来心灵的慰藉”。 但是,经过几周的运行发现,事件的迅速发展与美好的愿景完全相反。

“韩AI聊天机器人“学坏” 人工智能伦理引热议”

据了解,一些读者在与艾达聊天时故意用脏话羞辱和性骚扰。 一些网友还“分享”侮辱艾达“可以获得某种快乐,满足欲望”。 关于性话题的对话也在网络上流传,很多意气相投的网民正在围观,纷纷追随。 对此,scatter lab公司表示,他们打算预设敏感词和禁用词,并更新算法以解决这些问题。

“韩AI聊天机器人“学坏” 人工智能伦理引热议”

除此之外,“艾达”还无差别地捕捉了许多客户在聊天中无意中流传的偏见和恶意,反映在与其他客户的对话中。 有网友在和艾达聊天时说,“她”发表了“真的讨厌同性恋,他们庸俗得起鸡皮疙瘩”等歧视性言论。 随后,越来越多的人在社交媒体网站上与伊尔达聊天并发布截图。 研究发现,艾达不仅对同性恋者,对残疾人和黑人也不友好,甚至有“厌女情绪”。

“韩AI聊天机器人“学坏” 人工智能伦理引热议”

隐私用户泄露人工智能伦理备受关注

scatter lab企业代表金钟允在采访中表示,艾达是一个可以通过与顾客对话实现深度学习的ai聊天机器人。 企业从旗下的另一个聊天软件“science of love”获取了约100亿情侣之间的聊天记录,进行了新闻捕捉,建立了ai聊天机器人数据库。 换言之,艾达自身无法进行善恶价值评估,只不过忠实地反映了人类社会现实的一部分。

“韩AI聊天机器人“学坏” 人工智能伦理引热议”

但是,这一解释不仅未能得到网民的谅解,反而受到了进一步的质疑。 有网友指出:“scatter lab未经对话当事人同意收集对话副本,在此过程中泄露了顾客的个人新闻。” 然后,他说:“没有得到任何解决就明确了特定个体的地址、姓名、账号等,这违反了个人报道保护法。 个人新闻泄露受害者有权要求精神赔偿。 ”。

“韩AI聊天机器人“学坏” 人工智能伦理引热议”

在接二连三受到舆论冲击之后,1月12日,scatter lab企业在官网和艾达的脸书账户上宣布即日停止“艾达”的聊天服务。 迄今为止备受瞩目的网红ai智能机器人艾达,在上市仅26天后就被停止采用。 另外,该公司决定全面废除相当于艾达中枢神经系统的数据库,并表示将进行翻修。 对于顾客数据泄露的疑问,scatter lab企业坚决否定。

“韩AI聊天机器人“学坏” 人工智能伦理引热议”

在新的科技革命和产业转型中,人工智能与实体经济和社会生活的深度融合。 但是,在提高社会生产效率的同时,人工智能伦理问题也越来越受到关注。 聊天机器人艾达通过深入的学习,不仅模仿了人类的语言模式,还“继承”了人类社会的偏见和恶意。 由此引发的客户数据隐私、网络世界秩序与规则等话题,再次引发了韩国社会的热议。

“韩AI聊天机器人“学坏” 人工智能伦理引热议”

scatter lab企业表示,他们认为ai可以成为人类的朋友,与人类建立有意义的关系。 他们相信ai能在五年内实现接近人类的对话,并表示将为此继续努力,不断改善技术漏洞。

(编辑责任:高歌、常红)

标题:“韩AI聊天机器人“学坏” 人工智能伦理引热议”

地址:http://www.cq828.cn/xwzx/20737.html