本文概述了如何使人工智能(AI)更具可信度的五种方法,由科罗拉多大学博尔德分校的研究人员提出:
了解用户:信任AI的程度因人而异,受个人经历、价值观、文化信仰和大脑结构的影响。开发者需要考虑用户的社会文化规范、偏好和技术素养,例如为老年用户或技术能力较低的用户提供更简单的语言和更长的响应时间。
可靠、伦理和透明:可信的AI工具必须准确、一致地完成任务,确保安全、保护隐私、避免偏见和歧视,并在失败时不会造成伤害。透明性也很重要,例如在医疗诊断中,AI应与专家合作并透明地展示其推理过程。
考虑上下文:AI工具应针对特定问题的上下文设计。例如,在修复历史建筑的场景中,研究人员提出了一个名为“PreservAI”的概念性工具,用于平衡成本效益、节能、历史完整性和安全性等相互竞争的利益。
易于使用并征求用户反馈:AI工具应提供良好的用户体验,减少错误,并允许用户与系统互动和挑战结果。用户反馈对于改进工具和建立信任至关重要。
在信任丧失时适应并重建信任:人们对新技术的信任可能会随时间变化。例如,微软的“Tay”聊天机器人因发布不当内容而失败,但后来推出的“Zo”通过更强的内容过滤重建了信任。尽管完全消除风险是不可能的,但当人们愿意使用AI并分享数据时,系统会变得更加可靠和有用。
总之,信任不仅是技术的优势,也是人们从AI中获得更个性化和有效支持的途径。
![]()
自动驾驶出租车正在席卷全国,并且在未来几个月内可能会在科罗拉多州开始运营。会有多少人排队去乘坐呢?
这取决于我们的信任程度,阿米尔·贝赫扎丹(Amir Behzadan)说道。他是科罗拉多大学博尔德分校土木、环境与建筑工程系的教授,同时也是该校行为科学研究所(Institute of Behavioral Science, IBS)的研究员。
他和他在科罗拉多大学博尔德分校的连接信息与建成环境研究(Connected Informatics and Built Environment Research, CIBER)实验室的研究团队正在挖掘新的见解,研究我们在日常生活中可能遇到的人工智能(AI)技术如何赢得我们的信任。他们创建了一个框架,用于开发能够造福人类和社会的可信人工智能工具。
在《人工智能与伦理》(AI and Ethics)杂志的一篇新论文中,贝赫扎丹和他的博士生阿米塔·达比里(Armita Dabiri)基于该框架创建了一个概念性人工智能工具,该工具融入了可信度的要素。
“作为人类,当你让自己暴露在潜在伤害之下,假设他人有善意时,你是在信任他们。”贝赫扎丹说,“现在你可以将这一概念从人与人的关系转移到人与技术的关系中。”
信任是如何形成的
贝赫扎丹研究了人类对用于建成环境的人工智能系统的信任构建模块,这些环境包括自动驾驶汽车、智能家居安全系统、移动公共交通应用程序以及帮助人们进行团队项目合作的系统。他认为,信任对于人们是否会采用和依赖这些系统至关重要。
根据贝赫扎丹的说法,信任深深植根于人类文明之中。自古以来,信任帮助人们合作、分享知识和资源、形成社区联系以及分配劳动。早期人类开始形成社区并信任他们内圈中的人。
不信任作为一种生存本能出现,使人们在与群体外的人互动时更加谨慎。随着时间的推移,跨群体的贸易促进了不同群体之间的互动和相互依赖,但并没有消除不信任。
贝赫扎丹指出,我们可以在现代对人工智能的态度中看到这种信任与不信任动态的回响,尤其是当它是由我们可能视为“局外人”的公司、政府或其他人开发的时候。那么,可信的人工智能是什么样的呢?以下是贝赫扎丹框架的五个主要要点。
它了解其用户。
许多因素影响着我们对新人工智能技术的信任程度。我们每个人都有自己对信任的个人倾向,这受到我们的遗传、价值体系、文化信仰,甚至我们大脑连接方式的影响。
“我们对信任的理解真的因人而异,”贝赫扎丹说。“即使你有一个非常值得信赖的系统或人,我们对那个系统或人的反应也可能非常不同。你可能信任他们,而我可能不信任。”
他说,开发者需要考虑谁是人工智能工具的用户。他们遵循哪些社会或文化规范?他们的偏好可能是什么?他们的技术素养如何?
例如,贝赫扎丹说,亚马逊Alexa、谷歌助手和其他语音助手为年长者以及不太精通技术的人提供了更简单的语言、设备上的更大文本显示和更长的响应时间。
它可靠、道德且透明。
技术可信度通常指的是人工智能工具的工作效果、安全性和用户理解其工作原理及数据使用方式的难易程度。
贝赫扎丹说,一个最值得信赖的工具必须准确且一致地完成其工作。如果它失败,它不应该伤害人、财产或环境。它还必须提供对未经授权访问的安全防护,保护用户的隐私,并能够在意外变化中适应和继续工作。它还应该没有有害的偏见,并且不应该在不同用户之间进行歧视。
透明度也是关键。贝赫扎丹说,一些人工智能技术,如用于信用评分或贷款审批的复杂工具,像一个“黑箱”,不允许我们看到我们的数据是如何被使用,或者一旦数据进入系统后去了哪里。他说,如果系统可以分享它如何使用数据,用户可以看到它如何做出决策,那么更多的人可能愿意分享他们的数据。
在许多环境中,比如医疗诊断,根据贝赫扎丹的说法,最值得信赖的人工智能工具应该补充人类的专业知识,并与专家临床医生透明地分享它们的推理。
人工智能开发者不仅要努力开发可信赖、道德的工具,还要找到方法来衡量和提高其工具在为预期用户推出后的可信度。
它会考虑上下文。
人工智能工具的用途数不胜数,但特定的工具应该对其试图解决的问题的上下文保持敏感。
在最新的研究中,贝赫扎丹(Behzadan)和共同研究者达比里(Dabiri)创建了一个假设场景,其中一支由工程师、城市规划师、历史保护专家和政府官员组成的项目团队被委以重任,负责修复和维护丹佛市中心的一座历史建筑。这类工作可能很复杂,涉及相互竞争的优先事项,比如成本效益、节能、历史完整性以及安全性。
研究人员提出了一个名为“PreservAI”的概念性人工智能辅助工具,该工具可以被设计成平衡各种相互竞争的利益,纳入利益相关者的输入,分析不同的结果和权衡,并与人类合作而不是取代他们的专业知识。
理想情况下,人工智能工具应该尽可能多地纳入上下文信息,以便可靠地工作。
它易于使用,并询问用户它的表现如何。
人工智能工具不仅应该高效地完成工作,还应该提供良好的用户体验,尽量减少错误,吸引用户,并建立解决潜在挫折的方法,贝赫扎丹说道。
建立信任的另一个关键要素?实际上让人们使用人工智能系统并挑战人工智能的结果。
“即使你拥有最值得信任的系统,如果你不让人与它互动,他们也不会信任它。如果只有少数人真正测试过它,你不能期望整个社会都信任并使用它。”他说道。
最后,利益相关者应该能够就工具的工作效果提供反馈。这种反馈有助于改进工具,使其在未来用户眼中更具可信度。
当信任丧失时,它会调整以重建信任。
我们对新技术的信任可能会随着时间的推移而改变。一个人可能通常信任新技术,并且对乘坐自动驾驶出租车感到兴奋,但如果他们读到关于出租车发生事故的新闻故事,他们可能会开始失去信任。
贝赫扎丹表示,这种信任可以稍后重建,尽管用户可能会对工具保持怀疑态度。
例如,他提到,微软在2016年推出的“Tay”聊天机器人在其发布后的几小时内就失败了,因为它从社交媒体上吸收了有害语言,并开始发布冒犯性的推文。这一事件引发了公众的愤怒。但在同一年晚些时候,微软发布了一个新的聊天机器人“Zo”,它拥有更强大的内容过滤和其他防护措施。尽管一些用户批评Zo是一个“受限”的聊天机器人,但其改进的设计帮助更多人信任了它。
贝赫扎丹表示,完全消除信任人工智能所带来的风险是不可能的。人工智能系统依赖于人们愿意分享数据——系统拥有的数据越少,其可靠性就越低。但数据被滥用或人工智能未能按预期工作总是存在风险的。
然而,当我们愿意使用人工智能系统并与它们共享数据时,这些系统就会在其工作中变得更加出色,也更具可信度。尽管没有任何系统是完美的,但贝赫扎丹认为其好处大于缺点。
“当人们对人工智能系统有足够的信任,愿意分享他们的数据并与它们有意义地互动时,这些系统可以显著改进,变得更加准确、公平和有用。”他说道。
“信任不仅仅是对技术的好处;它也是人们从人工智能中获得更多个性化和有效支持的途径。”
客服热线:










