信用评分中的算法偏差

信用评分有可能改善全球资本获取渠道和金融包容性。随着金融机构开始获取不同类型的数据,信用评分机制的多样性也随之增加。金融机构跟踪这些替代数据并找到理解它们的方法的一种方法是使用算法和人工智能。在海量数据的世界里,算法可以帮助金融机构做出决策。信用评分的创新方法有可能扩大边缘化社区获取资本和其他金融服务的机会。然而,它们的创建必须是有意识的和透明的,以

考虑到可能由有偏见的数据或有偏见的算法引起的偏见。

算法是人类创造的,尽管依赖于计 韩国电报数据 算能力,但它们仍然受到创造者的文化、观点和偏见的影响。隐性偏见意味着,即使我们不支持算法,我们的思想仍然受到我们成长的文化中存在的观念、态度和刻板印象的影响。算法是为了复制人类行为而制作的,由于人类行为可能有偏见,人类创造的算法也可能有偏见。算法偏见是一种系统性错误(不是偶然造成的错误),会导致某些人群遭受不公平、不准确或不道德的结果。

 

许多人认为,为了消除这种偏见,算法不应该跟踪种族和性别等因素。他们认为,分类数据将阻止这些算法产生偏见,但事实 今年您在 google ads 中可能犯的 10 个最大错误 并非如此。即使没有明确跟踪种族和性别,由于这些偏见的结构性和系统性,算法仍然可以发现偏见。
当法律禁止的特征(如性别或种族)可以通过其他非可疑数据有意或无意地预测时,就会发生代理歧视。

性别有很多代理,例如:

  • 职业;
  • 人们购物的地方;
  • 人们花钱购买的物品;
  • 人们获得的医疗保健类型;
  • 人们下载的应用程序类型;
  • 人们听的音乐类型。

 

删除变量并不能消除偏见。事 阿尔及利亚商业指南 实上,这种盲目性往往使公司更难识别和防止偏见,因为他们无法跟踪偏见。只要人类容易受到偏见的影响,算法也会容易受到影响。

创新评分​​的拥护者强调了五种策略,以帮助金融机构在信用评分方面最大限度地减少偏见的影响,并改善整体算法卫生。这些策略的助记符是 REACT:

  • 监管——应建立监管能力,以确保金融机构使用的模型适合客户,并确保这些模型能够满足其余战略标准——可解释性、问责制、协作和透明度。这样,就可以开发和测试框架,然后由外部来源进行评估。
  • 可解释性——算法做出的所有决定都应该很容易向潜在借款人解释。决策应该简单明了。
  • 问责制——金融机构应通过设定金融包容性关键绩效指标,对自身负责,最大限度地减少算法中的偏见。
  • 合作——随着创新评分不断增长,金融机构应该分享有关金融包容性的最佳实践知识。
  • 透明度——信贷服务提供商应了解所使用的框架,并能够解释所使用的数据、提供商从何处获得数据、他们使用数据的原因以及信用评分决策的依据。消费者应该能够了解贷款流程的步骤、决策涉及的内容以及做出信贷决策的理由。

我们可以向许多杰出人士学习,他们在减轻融资行业的性别歧视方面做出了巨大贡献。

  • 非洲互联网政策学术网络 (AANOIP) 是一个跨学科学术交流和讨论网络,主题涉及非洲互联网现状、相关政策和监管制度。作为智库,AANOIP 发布了其关于监管最佳实践的研究结果,并倡导包容性算法设计的必要性。
  • Wakandi – 在非洲推出了信用协会管理系统,以数字化非正规金融团体的运作方式,帮助数字化这些金融空间,并为更多女性提供可以追踪其金融交易的官方身份识别系统。通过数字化非正规金融团体,Wakandi 创造了一种方法来增加可输入算法的信息量,实现数据多样化并创建访问权限。
  • 算法正义联盟-  算法正义联盟是一个结合艺术和研究来阐明人工智能的社会影响和危害的组织。
  • 包容性算法联盟-   < A+ > 联盟成立于 2019 年,是一个由技术专家、活动家和学者组成的全球联盟,他们倡导包容性人工智能和算法平权行动,以便我们在一个机器学习不会将已经存在偏见的系统带入我们未来的世界中更接近实现性别和种族平等。

虽然算法在促进金融包容性方面具有巨大潜力,但它们并不完美,可能包含创建算法的人的偏见。因此,金融机构必须确保自己不会过度依赖算法或其他技术,以尽量减少偏见,并且必须利用互补的人力和计算手段进行尽职调查,同时努力改善算法卫生。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部