应用在贷款中的人工智能技术可以加快贷款流程,并实现决策的自动化。
几个月前,人工智能初创厂商Upstart公司宣布自成立以来筹集了1.6亿美元的资金,并与奥马哈第一国民银行和堪萨斯城第一联邦银行签署了协议。
Upstart公司因其创新的贷款方式而获得用户认可。其推出的平台使用所谓的“替代数据”训练的人工智能技术确定合格的贷款人。这样的替代数据包括关于申请人的购买习惯、电话记录、喜欢的游戏,以及在社交媒体的平均信用评分等信息。
然而,在贷款中使用替代数据并不会使使贷款过程更快、更公平,以及完全符合GDPR标准。并且不是一个新奇事物。
早期的信贷机构聘请专家来调查当地有关客户的评价。例如,美国在1935年就对社区的集体信誉进行了分类。在2002年的最近一个案例中,加拿大一位轮胎销售主管分析了去年的交易数据,发现购买屋顶清洁工具的客户比购买廉价机油的客户在财务上更可靠。
然而,过去和现在有着显著的区别。早些时候,人们收集并处理了替代和传统数据,包括债务收入比、贷款价值比、个人信用记录等。现在,这种算法仍在发展和进步,而许多人认为它更客观、更快。
然而令人担忧的是,人工智能可能会比人类更具偏见。需要注意的是:如果不控制算法如何自学,那么人工智能的决策可能会更加片面。
人工智能偏见的蔓延
一般来说,人工智能偏见不是偶然发生的,训练算法的人员会让它变得主观。受某些个人、文化、教育和特定位置因素的影响,即使是最佳算法训练人员也可能使用固有偏见的输入数据。
如果没有及时发现,可能会导致产生具偏见的决定,这将随着时间的推移而加剧。这是因为算法根据以前的算法做出新的决策,其自身发展最终比其操作开始时复杂得多(雪球效应)。简而言之,人工智能在不断地自学,无论训练材料是否正确。
以下了解一下人工智能在做出的贷款决策中可能会产生什么样的歧视。了解以下的例子,可以遵循关键的想法:人工智能偏见通常源于人类的偏见。
人工智能可以基于性别进行区分
传统上,男性在高收入和高职位方面的比例很高,而女性仍然面临所谓的“玻璃天花板”职业发展和薪酬差距问题。因此,尽管女性的储蓄能力和支付能力都比男性强,但与男性相比,女性企业家获得的商业贷款越来越少。
人工智能的使用可能只会加剧这种趋势,因为性别歧视的输入数据可能会导致大量的女性贷款被拒。基于错误的统计数据,人工智能算法可能更倾向于男性申请者而不是女性申请者,即使所有其他参数都相似。
人工智能可以根据种族区分
这听起来不太可能,但黑人申请人被拒绝贷款的可能性是白人的两倍。如果用于算法学习的输入数据反映了这种种族差异,那么它可以很快地实施,并开始越来越多拒绝黑人贷款。
替代数据也可能成为人工智能“种族主义”的来源。算法将申请者之前罚款和逮捕信息输入其中。事实是,这样的信息并不是中立的。据《华盛顿邮报》报道,非裔美国人比美国白人更容易成为警察的目标,而且在很多情况下都是毫无根据的。
其他类型的数据也是如此。少数种族群体面临着收入、职业和社区的不平等。所有这些指标可能成为人工智能对非白人申请人说“不”的坚实理由。
人工智能可以根据年龄区分
信用记录越多,人们就越了解某个人的信誉。老年人通常拥有更好的信用记录,因为他们背后有更多的金融交易。相反,年轻一代有关业务的数据较少,这可能成为拒绝的一个不公平原因。
人工智能可以根据教育来区分
一些人工智能借贷算法在做出信用决策时可以分析申请人的语法和拼写习惯。一种算法可能根据学习错误的拼写习惯或错别字来了解申请人的文化程度,从而导致很多申请人信誉不良。
从长远来看,该算法开始拒绝具有写作困难或障碍的符合条件的申请者,即使他们与支付能力无关。
解决贷款中的偏见
总的来说,为了使人工智能运行的贷款过程不受偏见的影响,需要让输入数据从任何可能的人类偏见中清除,从性别、种族主义到年龄歧视中清除出来。
为了使训练数据更加中立,组织应该组建更多不同的人工智能开发团队,包括贷款方和数据科学家,贷款方可以告知工程师他们工作的具体细节。更重要的是,这些金融机构应该培训参与人工智能决策的每个人,以便在他们的工作中遵守和执行公平和非歧视性的做法。否则,如果不采取措施确保多样性和包容性,贷款企业就有可能推出严重违反反歧视和公平借贷法律的人工智能算法。
实现更公平的人工智能的另一个步骤是审核算法做出的借贷决策;工作人员应评估这些决策。GDPR法规第22条支持这一观点,声称人们不应受到纯粹的自动化决策的影响,特别是这可能产生法律效力。
事实上,说起来容易做起来难。然而如果不加以解决,无意识的人工智能偏见问题可能会使贷款业务处于困境,并且不亚于任何故意的偏见行为,只有通过数据科学家和贷款专业人员的共同努力才能避免迫在眉睫的风险。