Skip to Main Content
客户服务开始吧
选择语言
代理登录
19 9 月 2024

保险公司如何从风险评估中消除无意识的偏见

无意识偏见是人脑理解复杂环境的方式之一。 这些偏差将信息分类,以便更快地做出决策。

在一个生死攸关的世界里,无意识的偏见往往帮助人类活着。 例如,无意识地对健康的绿色植物而不是枯萎、发黄的植物的亲和力提供了更多的营养,同时释放了精神能量来完成除单独评估每株植物以外的任务。

然而,今天,无意识偏见会阻碍有效的决策。 经过正确培训,人工智能 (AI) 可以帮助保险专业人士回避潜在偏见的负面影响。

AI 和偏见:我们的立场是什么?

媒体对人工智能算法的偏见行为的报道令人感兴趣,但也往往会掩盖或扭曲人工智能的状态和偏见,因为它目前存在。

AI 确实存在复制自身训练数据中存在的偏差的风险。 例如,对早期人工智能在招聘中的应用的研究发现,当一家企业主要从少数几所学校招聘员工时,人工智能更有可能报告说,就读其中一所学校是招聘成功的重要因素。 与人类不同,AI 没有可供借鉴的生活经验;它只知道其训练数据可以告诉它什么。

意识到 AI 中的偏见风险,研究人员继续解决算法偏见的来源。 Tom Bigham 和德勤的研究人员建议保险公司在权衡使用 AI 与其他技术来完成一项任务时考虑三个关键点:

意识到偏见问题是人类用户准备和解决 AI 中的偏见并使用该工具有效打击自己的无意识偏见的最佳方式之一。

人机合作减少偏见

打击人工智能中的偏见并不像创建无偏见的数据集或监控机器学习过程的创建那么简单。 相反,保险公司必须考虑 AI 工具运行的整个环境,包括这些工具如何与人类工作相交。

“如果我们要开发值得信赖的 AI 系统,我们需要考虑所有可能削弱公众对 AI 信任的因素。其中许多因素超出了技术本身,还影响了技术的影响,“美国国家标准与技术研究所的 Reva Schwartz 说。

AI 系统在上下文中运行。 在保险业中,该环境是保险专业人士和代理人的世界、客户做出的决策以及支持承保和分销决策的大量数据存储。 保险专业人士必须持续监控 AI 系统,以确保他们的分析和建议既符合良好的数据科学实践,也符合组织的商业道德。

有效使用人工智能可以通过多种方式帮助消除人类的无意识偏见:

如果使用得当,AI 可以对抗人类的无意识偏见倾向。 研究人员 Martin Mullins、Christopher P. Holland 和 Martin Cunneen 在 2021 年出版的《模式》杂志上写道,通过这样做,AI 可以帮助保险公司提供所需的保险,同时平衡成本和索赔。 随着保险变得更容易获得,保险缺口缩小,从而减少损失的灾难性影响。

所有 AI 都是由人类创造的。 因此,它可能会复制我们自己的偏见。 然而,如果经过深思熟虑地使用,AI 还可以针对我们自己的无意识行为和决策捷径提供保护。

图片来自: andreypopov/©123RF.com, milkos/©123RF.com