首页 > 专业知识 > 最前线|Apple Card歧视女性?算法评分需要透明化

最前线|Apple Card歧视女性?算法评分需要透明化

蚂蚁花呗、京东白条可谓剁手党双十一期间重要的粮草库,如果花呗和白条规定,女性的借款额度不得高于男性,会怎么样?

显而易见,一定会减损这部分购买主力的热情,马云卸任后的过第一个双十一可能不会像今天这么开心。

据彭博报道,网络应用程序框架Ruby on Rails的创建者大卫‧海尼迈尔‧汉森(David Heinemeier Hansson)在推特上指责“Apple Card”(苹果卡)的算法歧视了他的妻子——他比妻子享有更高的信用额度,差额高达20倍。

一石激起千层浪,他的推文引起了很多人的共鸣,其中甚至包括苹果联合创始人史蒂夫‧沃兹尼亚克(Steve Wozniak),他评论道,同样的事情也发生在自己身上,其Apple Card的额度比妻子的高出10倍,不仅如此,Apple Card之外的其他贷方也存在这一问题。

Apple Card于今年3月推出,它建立在苹果公司现有的移动支付系统Apple Pay的基础上,既可以在Apple Pay中以数字方式使用,也可以以实体信用卡的形式使用,其信用评估基于黑盒算法。

可以说,Apple Card的推出标志着iPhone制造商首次进入消费金融领域,高盛集团(Goldman Sachs Group Inc.)则是Apple Card背后的金融机构。

被科技和金融领域最知名的两家公司这样差别对待,是女性的信用不如男性吗?

事实并非如此,汉森没有透露夫妇两人与收入相关的具体信息,但表示他们提交了联合纳税申报表,拥有相同的净资产,而且妻子的信用等级比他更高。沃兹尼亚克说,他和妻子一直共享信用卡和银行帐户。

汉森推文的广泛影响力让高盛不得不迅速采取行动,立即提高了其妻子的信用额度。

高盛发言人安德鲁‧威廉姆斯(Andrew Williams)表示,“我们的信用决定是基于客户的信誉度,而不是基于性别、种族、年龄、性取向,或法律禁止的任何其它因素。”

但汉森不愿意止步于此,而是希望这个事件能让政府部门对苹果的“黑箱算法”采取监管措施,正视算法评估模式的偏差导致的歧视问题。他在推文中呼吁, “让我们抓住这个机会,提高信用评估算法的透明度。消费者应该知道哪些输入决定他们的决定,有权纠正错误,并能够比较结果。”

据了解,出于降低成本、增加贷款申请的目的,传统金融机构在决定是否贷款时,越来越偏向于运用机器和算法决定申请者的贷款额度。金融机构运用算法,本身也是为了抽离“人”的主观偏见,但机器更“青睐”特定人群反而偏离了公司的本意。

算法决策中的歧视性问题不仅局限在金融领域。就在上周,纽约州金融服务局对医疗保健巨头联合健康集团(UnitedHealth Group Inc.)运用的算法导致黑人患者获得的医疗服务少于白人患者一事展开了调查。

技术创新可以降低服务成本,但现实是复杂的模型并不能带来公平。

目前,纽约州金融服务局(New York’s Department of Financial Services )正在对高盛的信用卡业务展开调查,其发言人在声明中回应,该局将进行调查,以确认Apple Card算法是否违反纽约法,并确保所有消费者,不论性别,都受到平等的对待。“如果Apple Card使用的算法确实确实促进了非法歧视,我们将采取适当的措施。”

相关推荐

最前线|Apple Card歧视女性?算法评分需要透明化
苹果Apple Card信用卡已接入美国信用系统,影响持卡人信用评分
最前线 | Apple Card正式上线,最高3%的返现归根结底是为留住用户
最前线 | 用Apple Card买苹果手机能打折,但国内用户暂时用不了
苹果信用卡 Apple Card 的设计分析
借助Apple Card,苹果准备转型做“小银行”
一文读懂苹果信用卡,Apple Card中国能办吗?
学习支付宝微信,Apple card是帮扶Apple Pay的一步好棋
证据显示苹果将在澳大利亚等其他国家推出Apple Card
AI透明化,面临着一个悖论

网址: 最前线|Apple Card歧视女性?算法评分需要透明化 http://m.xishuta.com/zhidaoview4287.html

所属分类:创业投资