313游戏网 手游攻略 新游动态 机器能直接识别并执行的语言是,机器能识别情感吗为什么

机器能直接识别并执行的语言是,机器能识别情感吗为什么

时间:2024-03-12 09:49:02 来源:头条 浏览:0

【全球视野】

文本:约翰·麦克奎德翻译:C.E.

1. 无处不在的监控社会

一场相当无聊的。。采购。。正在英国利物浦举行。 2020年2月,。。展厅里陈列着各种展品。参与者在展览中穿行,有时停下来,有时走来走去。与此同时,他们受到严密监视。地板上放置了24 个隐蔽的摄像头来追踪每个人的一举一动。人类面部表情的变化是由面部肌肉的运动引起的,因此当参与者面对不同的展品时,面部肌肉会出现不同程度的收缩。变化很小,但24 个摄像头的拍摄速度为每秒5 到10 帧。这些照片被发送到计算机网络,其中人工智能算法评估每个人的性别和年龄并分析他们的面部表情。最终,系统将找到。。“幸福”和“参与度”的信号。

《环球科学》 图片提供:杂志社

尽管距离利物浦的比赛已经过去了一段时间,帕诺斯·穆塔菲斯仍然对这场“比赛”的结果感到兴奋。穆塔菲斯是一家名为Zenus 的公司的首席执行官。这家总部位于德克萨斯州奥斯汀的公司提供人工智能技术,用于。。上的面部表情分析。 “很少有商业人工智能系统能够达到这种准确度,”他在。。通话中告诉我。他还向我们展示了一张人群的照片,其中人群中的一些面孔被框起来。为了让AI系统能够识别人类情绪,Zenus工程师对系统进行了“训练”。他们选择了一个大型的面部表情数据集,每个表情也都标记了相应的内心情绪,并使用这个数据集来训练AI系统识别情绪的能力。为了验证经过训练的AI 系统的情绪识别能力,Zenus 工程师尝试了多种方法。这包括现场测试,当人们谈论当时的心情时,摄像机会捕捉他们的脸部。穆塔菲斯说,“这种人工智能系统可以在不同环境下与人类合作,比如在室内,当人们戴着口罩且没有灯光时,或者在室外,当人们戴着帽子和墨镜时。我可以识别人们的情绪。”

2. 能够识别情绪的机器

最近,一种名为情感人工智能(emotionAI)或情感计算的新兴技术出现了。它结合使用摄像头和其他基于人工智能程序的设备来捕捉面部表情、肢体语言、语气和其他线索。 Zenus开发的AI系统就是这项技术的一个例子。情感AI的目的不仅是识别和区分面部表情,更重要的是检测照片中人物的内心情感、动机和态度,这是以前技术无法检测到的,值得一提的是,它是在揭示信息。 2019年题为《机器人监视的黎明》的报告作者Jay Stanley表示:“摄像头现在变得越来越智能。摄像头正在唤醒——,不再默默地记录人们的活动。”我们不仅可以做到这一点,而且还可以分析记录的信息。”

正如你所料,情感AI作为一种市场研究工具很受欢迎,但除此之外,情感AI也被用于高风险领域。例如,人工智能系统可以读取有关情绪、个性和意图的线索,人们正在使用这些系统来检测边境口岸的威胁、评估求职者的能力并监控学生的适合性。使用或已经使用?识别攻击性驾驶行为的迹象,例如扰乱课堂或睡着。主流汽车制造商计划在未来的车辆中使用这项技术。亚马逊、微软、谷歌等美国科技公司正在结合面部识别技术,提供基于云计算的情感AI服务。此外,数十家初创公司推出了帮助公司招聘的应用程序。在韩国,在招聘中使用人工智能的做法已经变得非常普遍,以至于职业培训师经常让客户练习如何通过人工智能面试。

《环球科学》 图片提供:杂志社

人工智能系统需要使用多种类型的数据来识别情绪和行为。除了面部表情、语气和肢体语言之外,它还可以分析口头和书面文字的内容,以捕捉情绪和态度。有些应用程序收集数据不是为了研究情绪,而是为了获取与情绪相关的信息。例如,该人具有什么样的性格,他或她是否关心应用程序的内容,以及他或她是否对社会构成潜在威胁?

但批评者警告称,情感AI的潜在危险可能无法由AI本身控制。这是因为在训练人工智能时,工程师可能会使用存在种族、民族或性别偏见的数据集,而这些偏见会影响算法的结果。

情感人工智能背后的科学也存在争议。这可以追溯到半个世纪前,当时心理学家保罗·埃克曼(Paul Ekman)和华莱士·弗里森(Wallace Friesen)的研究将一系列面部表情映射到基本情绪,并相信这些面部表情是一种通用的情绪语言。六种基本情绪包括愤怒、厌恶、恐惧、快乐、悲伤和惊讶,但后来艾克曼在研究中发现蔑视非常重要。然而,埃克曼和弗里森的观点目前备受争议。这是因为科学家发现面部表情可能存在显着的文化和个体差异。许多研究人员表示,至少目前,在分析不同个体的面部表情时,算法无法使用一套规则来准确识别面部表情的细微差异。这是因为不同个体的面部表情可能与典型的内心情绪并不对应。艾克曼对早期情绪识别技术的发展做出了重要贡献,但他指出,他认为这项技术现在对隐私构成了严重威胁,应该受到严格监管。值得。

情感人工智能其实本质上并不是坏事。专家表示,如果机器能够学会可靠地解释情绪和行为,情感人工智能可以在机器人、医疗保健和汽车等领域展现出巨大的潜力。但就目前而言,该领域基本上是免费的,未经证实的技术很可能最终会成为主流和广泛应用。但未经证实的技术可能会对社会造成我们没有准备好的伤害。

3.人工智能招聘

2018年,时任Airtame(该公司开发具有屏幕共享功能的设备)人力资源和业务运营副总裁的马克·格雷(Mark Gray)想找到改善公司招聘流程的方法,包括提高招聘效率。原因之一是,尽管Aitamel 规模不大,只有大约100 名员工,但有时它会收到数百份营销和设计职位的简历。另一方面,招聘决策涉及主观性。 “我经常觉得有些人不自觉地想,‘哦,我真的很喜欢这个人,而不是想,‘这个人很有才华’。这里面充满了看不见的东西,所以我认为我们应该考虑如何融入我们招聘时的具体考虑因素,”格雷解释道。

美国公司Etamer 与慕尼黑公司Retrio 签署协议,开发可用于。。面试的人工智能系统。。。面试过程非常快,申请人只需录制60秒的。。即可回答2-3个问题。我们使用算法来分析候选人的面部表情、声音和答案。然后根据“大五”人格模型(OCEAN,心理学中常用的人格结构模型)为每个申请人生成基于五种人格特征的个人资料。这五种人格特质是开放性、尽责性、外向性、宜人性和神经质。系统通过将应聘者的个人资料与职位描述进行比对,根据匹配程度对应聘者进行排名,最终招聘人员得到应聘者的排名名单。

事实上,类似的软件已经开始改变业务决策的方式以及组织与人们互动的方式。这重组了Aitamel 的招聘流程,以更快地选择更多合格的候选人。格雷说,这是因为生成的配置文件很有用。他分享了一张图表,显示了几位最近聘用的销售员工的工作绩效与五种人格特质得分之间的关系,并发现在责任心、宜人性和开放性方面得分较高的员工表现最好。

能够理解人类情感的机器长期以来一直是科幻小说的主题。然而,人类情感在计算机科学与工程领域长期以来一直是一个陌生的概念。麻省理工学院(MIT) 的罗莎琳德·皮卡德(Rosalind Pickard) 表示,在20 世纪90 年代,“这是一个禁忌话题,不受欢迎”。

皮卡德和其他研究人员开发了一种可以自动读取和响应生物信息的工具。生物识别信息范围从面部表情到血流,可用于指示情绪状态。然而,目前情感AI应用场景的激增可以追溯到2010年代初,当时深度学习开始广泛应用。深度学习是一种基于人工神经网络的强大机器学习形式,其原型是生物神经网络。深度学习提高了人工智能算法的能力和准确性,使以前只能由人类可靠完成的任务实现自动化,例如驾驶、面部识别和医学图像分析。

4. AI算法偏差

然而,这些人工智能系统远非完美,情感人工智能处理极其困难的任务。算法应该反映世界的。。,例如,应该将苹果识别为苹果而不是桃子。机器学习中的“学习”是反复比较原始数据和训练数据的过程。其中,原始数据通常是。。或音频等图像数据,但这些原始数据不具有独特的特征,而训练数据具有与智能任务相关的特征。通过这种方式,AI系统学习如何提取潜在的共性,例如从苹果图像中提取“苹果感觉”,使其能够从任何图像中识别出苹果。

但当人工智能系统的任务是识别性格或情感等难以定义的特征时,。。就变得更加难以掌握。例如,“快乐”或“紧张”是什么感觉?情感人工智能算法不应该通过直觉来感知情绪、个性和意图,而应该模仿人类对其他人的判断,并进行训练。在此过程中,工程师通过众包收集数据并构建数据集来训练人工智能。批评者认为,人工智能训练过程中存在太多主观变量。南加州大学的凯特·克劳福德表示,“这些算法做出的决定与人类的真实想法和情绪状态之间存在巨大差距。”“这与人工智能有关,是一个大问题。”技术飞跃也是危险的一步。 ”

人工智能系统识别情绪等特征的过程很复杂,并且每一步都存在潜在的缺陷。众所周知,深度学习需要大量数据,因此情感人工智能也需要庞大的数据集。然而,这些数据集通常附带数千甚至数十亿个个人决策。这可能会导致算法无意中“学习”所有数据收集者的系统偏差。算法整合这些系统偏差形成“算法偏差”。这可能源于训练数据集中的人口统计偏差或数据注释者的无意识态度。

即使识别微笑也不是一件容易的事。在德国GESIS-莱布尼茨社会科学研究所2020 年的一项研究中,Carsten Schwimmer 和同事使用亚马逊、微软和谷歌基于云计算的情绪识别应用程序来分析议员的情绪。通过目视检查,研究人员确定照片中86% 的男性和91% 的女性在微笑,但应用程序的结果更有可能表明女性在微笑。Ta。例如,在Google Cloud Vision 中,超过90% 的女性照片被标记为“微笑”,而男性照片的比例不到25%。研究人员推测,训练数据集中可能存在性别偏见。此外,研究人员经常判断这些图像是否“模糊”,而这往往被机器忽略。 “很多面部表情的含义并不那么明确。这真的是微笑吗?咯咯笑是微笑吗?如果照片中的人露出牙齿,但看起来并不高兴怎么办?”他们补充道。

事实上,大多数基于深度学习的面部识别系统都因存在偏见而受到广泛批评。

许多公司现在强调,他们意识到了偏见,并正在努力解决它。德国公司Retrio 联合创始人Christoph Hornberger 表示,他们已经采取措施消除各种可能影响人格判断的偏见,例如人口和文化偏见。但目前该行业缺乏监管机制。因此,虽然很难验证公司自己的数据集的稳健性和公平性,但你几乎应该相信他们的话。 HireVue 是一家。。面试公司,它使用算法来分析应聘者演讲的内容和语气,以帮助做出招聘决策。与此同时,该公司计划聘请外部审计师来检查其算法是否存在偏见,而公司仍然很少这样做。

5、科学原理的争议

美国北卡罗来纳大学的Ifeoma Ajunwa表示,情感AI不仅引发了人们对算法偏差的担忧,其背后的科学原理也开始受到科学家的强烈反对。情感AI遵循科学观点,即每个人的外在表现可以与其内在情感相匹配,并且可以被解读。而且,这种观点可以追溯到50多年前。当时,埃克曼和弗里森正在巴布亚新几内亚进行实地考察。他们发现了居住在东南部高地的原住民福尔人,并研究了福尔人如何识别和理解面部表情。研究人员选择了一组可以。。六种基本情绪的表情,并将这些图像展示给志愿者。研究发现,福尔人的反应与日本、巴西和美国等其他国家的实验志愿者的反应相似。因此,研究人员相信他们已经成功证明面部表情是一种普遍的人类情感语言。

艾克曼和弗里森还绘制了一张包含数千种面部肌肉运动的“地图”,并分析了面部肌肉运动与面部表情之间的对应关系,创建了面部动作编码系统(FACS)。值得一提的是,“MAP”和FACS共同构成了情感AI的理论基础,现已融入到许多AI应用中。

科学家们质疑艾克曼的理论有缺陷。例如,2012 年发表在《美国科学院院刊》 (PNAS) 上的一项研究表明,不同文化之间的面部表情差异很大。 2019年,东北大学心理学家丽莎·费尔德曼·巴雷特(Lisa Feldman Barrett)和她的同事分析了1000多篇有关面部表情的科学论文,发现尽管人们认为外表反映内心感受,但技术发现它已经蔓延到从法律到法律的许多领域。几乎没有确凿的证据证明这种观点是正确的。

巴雷特说,基本情绪是一种广泛而固定的分类方式。因为面部表情时时刻刻反映着我们复杂的内心生活,而微笑可以隐藏痛苦或传达同情。她指出,目前的人工智能系统仍然无法一致、可靠地区分人们的内部状态,因为他们的训练数据本质上是一个由标记的刻板印象组成的数据集,这就是我的想法。 “这是关于测量某些东西并推断它的心理意义,这是两件截然不同的事情。”Barre Special 说。

克劳福德说,造成这一问题的原因之一是科技初创公司不了解其他领域的科学论证,而公司则被FACS 等简单之美的事物所吸引。 “为什么埃克曼的理论在机器学习领域如此受欢迎?”克劳福德问道。 “Ekman 的理论非常符合机器学习的特性。如果理论中的表征数量有限,并且表征对应的情感数量也受到严格控制,那么这个理论实际上除了Ekman 的发现和OCEAN人格特质模型,开发情感AI的公司还采用了其他理论系统。其中之一是已故心理学家罗伯特·普尔奇克提出的“情绪之轮”。所有这些理论都将人类情感的复杂性转化为简单易懂的公式。

尽管如此,研究人员相信,通过了解情感应用程序的局限性,他们可以改进它们并使其更有用。艾安娜·霍华德(Ayanna Howard) 是俄亥俄州立大学工程学院。。,也是机器人技术专家。她使用微软面部识别软件的改进版本,通过机器人向自闭症儿童教授社交行为。例如,如果机器人检测到对话者的“愤怒”面部表情,它可以调整其行为以平息局势。霍华德说,典型的面部表情不一定意味着完全相同的情绪,但它们仍然有帮助。 “当然,我们都是独一无二的。但实际上,人与人之间的差异并没有那么大。所以当涉及到广义的情绪时,这些情绪人工智能的判断不一定是正确的。“但它们不仅仅是正确的……他们是对的。他们更有可能是正确的,而不是随机的,”她说。

一般来说,扫描和聚合许多人的面部反应的算法会更准确,例如用于读取人群的算法。巴雷特说,这是因为,从统计学上来说,随着群体规模的增加,“不可能”变得“可能”,并且“正确的概率变得大于机会”。然而,评估个人是有风险的,因为低于100% 的准确性可能会导致对某些个人的歧视。

如今,许多计算机视觉专业人士更喜欢对面部表情采取不可知的态度。这意味着分析面部表情不会给你准确的结果。越来越多的公司表示,他们不再直接使用面部表情来表达情绪和内心状态。南加州大学的乔纳森·古拉赫(Jonathan Gulach)表示,“随着该领域的发展,人们越来越意识到,许多表达方式与情感无关。表达方式是在对话中有意义的词语。就是这样,无论是表达方式还是词语都不能表达情感。”直接传达情感。”那一刻的感觉。 ”

6.潜在的隐私风险

随着越来越多的技术被推向市场,试图表达我们的情感、个性特征和行为,我们的生活正变得越来越受到监控。科技公司从我们的在线行为中挖掘个人数据二十年后,一个新的、更加私营的部门也准备做同样的事情。这是关于收集有关您的面部和身体部位以及它们传达的信号的信息。加拿大公司VSBLTY 主要销售智能相机和人群扫描软件,帮助零售商分析消费者人口统计数据和对产品的反应。 2020年12月,VSBLTY宣布与墨西哥啤酒制造商Modelo Group建立合作伙伴关系,计划到2027年在墨西哥和拉丁美洲其他地区出售5万家Modelo Rama便利店。安装摄像头来捕获数据。

这就提出了基本的法律和社会问题:来自您面部和身体的数据是您的吗?如果将个人身份与这些数据分开,在世界大部分地区,答案是否定的。研究这个问题的辛辛那提大学法学院教授詹妮弗·巴德表示:“如果你想了解公共场所某些人的信息,通过扫描来识别他们的情绪似乎并不是一个限制。 “ 他说。

大多数在公共场所收集数据的情感AI公司声称他们收集的信息是匿名的,因此公众无需担心。 Zenus 的Mutafis 指出,Zenus 的应用程序不会上传相机拍摄的实际面部图像,只上传有关情绪和位置的元数据。监控期间,会场内的屏幕上会显示相关标识,以通知与会者。 “通知那些信息被收集的人实际上是非常好的做法。作为一家公司,你应该在进行监控的区域张贴标牌,以表明它正在受到监控。因为确实存在,”穆塔菲斯说。这意味着没有统一的标准。而一旦成为。。和政策问题,公众和政客是否会接受这种例行监视,还远没有一个明确的答案。

Ekman 此前曾与Emotient 和苹果公司合作开发情感AI,但现在警告说,情感AI 对隐私构成威胁,并表示该公司在法律上有义务获得每个被扫描者的同意。他说确实如此。 “不幸的是,这是一种人们可以在没有意识到的情况下使用的技术。人们使用情感人工智能不仅仅是为了让他们快乐。它还帮助人们购买他们本来不会购买的产品。但这可能是最重要的善意地使用情感人工智能,”埃克曼补充道。

此外,情感人工智能还正在入侵存储更丰富行为数据的私人空间。亚马逊的情感人工智能系统Alexa 会分析你的语气,寻找沮丧的迹象,并相应地改进其算法。到2023 年,一些汽车制造商计划推出基于人工智能的车载系统,生成大量有关驾驶员和乘客的行为数据。汽车制造商计划使用匿名数据来提高系统响应能力和内饰设计。情感AI公司Eyeris首席执行官Modar Alavi表示,用户可能会选择激活系统内不同级别的功能,因此如果用户不使用某些功能,系统就会表示我们不会从位置收集数据。

Alex Martinez 是俄亥俄州立大学和亚马逊的计算机视觉科学家。 2019年,他和巴雷特发表了一篇论文,批评面部表情和情绪之间的相关性。他总是给我看一张男人的照片,他的脸看起来混合着愤怒和恐惧。随后,他展现了一个足球运动员进球后庆祝的整体形象。他指出,面部表情、手势等信号不仅与身体和大脑有关,还与事情发生的背景以及人周围的环境有关。情感人工智能面临的最大挑战是解释模棱两可的情况。 “如果你不知道足球是什么,你永远无法理解图片中发生的事情。所以这些知识是基础,但在解释情况方面,仍然没有人工智能系统可以做得像样。 不,”马丁内斯这样解释洛德。

马丁内斯说,如果情感人工智能缩小其任务范围、简化其环境并收集各种生物信息,它将变得更加有效。然而,在未来,整合多种生物信息的情感AI可能只是成为社会尚未准备好接受的更强大、更具侵入性的技术。

(本期照片及文字由《环球科学》杂志提供)

《光明日报》(截至2022 年1 月27 日版本14)

来源:光明网-《光明日报》

标题:机器能直接识别并执行的语言是,机器能识别情感吗为什么
链接:https://www.313yx.com//news/xydt/150318.html
版权:文章转载自网络,如有侵权,请联系删除!
资讯推荐
更多
杀戮传世:四大凶器VS三大魔兵

大家好,当时风靡一时的传奇世界之所以如此火爆,与它的PK机制是分不开的。由于绝大多数球员都是大个子的比赛,所

2024-03-12
问道加点:新手攻略

问道手游是一款受欢迎的游戏,许多新手在开始玩时都会有困惑,比如在加点方面。玩家在加点时,需要注意一些细节,以

2024-03-12
造梦西游3boss爆率:用造三的角色造四的法宝玩是什么体验#游戏

再续天庭八戒上次不是打了通天令牌,今天打造金戒,前提我要先去打造一个玲珑玉。按照惯例先去爬塔刷一波灵魂,爬

2024-03-12
仙境幻想隐藏任务:!

哈喽,大家好,今天给大家带来的是即将上线的全新仙境传说手游, 作为一款基于经典PC游戏《仙境传说》改编的手机

2024-03-12