神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
编者按:家长和老师等人作为传统的“守门人”角色,会对青少年们的自杀倾向进行一定干预,但当LGBTQ人群出现心理问题时,由于很多历史原因,他们可能无法干预。那,谷歌和人工智能可以帮忙吗?本文作者Sidney Fussell讲了谷歌对自杀援助非营利组织Trevor Project的支持,双方希望算法能够第一时间识别高自杀风险人群,进行更及时的干预。原文发表在《大西洋月刊》(The Altantic),原文标题The AI That Could Help Curb Youth Suicide。
图片来源:ALASTAIR GRANT / AP PHOTO
预防自杀的文献认为,社区里会有这么一类人,当有社区成员表达自杀的想法时,他们可能会提供帮助,他们被称作“守门人”。这个名词没有一个十分严谨的定义范围,通常情况下,“守门人”包括教师、家长、教练和年长的同事——当他们看到身边人出现心理问题时,具有某种形式的权威和干预能力。
当用户搜索自杀方法相关的关键词时,谷歌会突出显示全美预防自杀生命线(National Suicide Prevention Lifeline)的电话。但这绝不是万无一失的方法。谷歌可不能编辑具体的网页,它只能编辑搜索结果,这意味着当有人想找自杀方法时,他可以很轻易地通过链接、论坛等方式找到,压根儿不用搜索引擎。与此同时,在现如今的互联网上,“碾压”更可能是粉圈的拉踩表达,而不是真正的呼救,但机器可能无法理解其中的细微差别。当人们不使用英语、使用其他语言搜索时,谷歌的人工智能在检测自杀意念方面的效率也要低得多。
总的来说,搜索结果是一个有用但过于泛泛的干预方法,可以作为预防策略应用起来。毕竟,任何人都可以以任何理由搜索任何东西。
谷歌对算法预防自杀的最新尝试更有针对性——针对那些正在寻求帮助的人。
今年5月,这家科技巨头向非营利组织Trevor Project捐款150万美元,Trevor Project总部位于加州,通过电话热线(TrevorLifeline)、短信服务(TrevorText)和即时通讯平台(TrevorChat)向LGBTQ青少年提供心理咨询。该项目的领导者希望通过使用机器学习自动评估来信者的自杀风险,从而改进TrevorText和TrevorChat的服务。一切的一切都从Trevor咨询师的第一个问题开始:“发生了什么事?”
Trevor Project的办公室主任山姆·多里森(Sam Dorison)说:“如果他们有自杀的想法,我们想确保我们会以一种不带偏见的方式跟他们谈谈,让他们来引导整个对话过程。他们想讨论出柜吗?他们需要自己社区内LGBT社群的资源支持吗?我们真正让他们来引导对话,这可能最有帮助。”
目前,那些想得到自杀援助的人需要排队等待。Trevor的平均等待时间很短,不会超过五分钟,但在某些紧急情况下,一秒都耽搁不得。Trevor的领导团队希望,随着对人工智能的开发,它最终能够通过分析来电者对第一个问题的回答,识别出自杀风险高的来电者,并立即把这个电话转接给人工咨询师。
谷歌将使用两个数据点进行人工智能训练:青少年与咨询师对话的初始阶段,以及咨询师与他们交谈后完成的自杀风险评估。其理念是,通过对初始阶段与最终风险评估的数据进行对比,人工智能能够根据最早的反应预测自杀风险。
Trevor Project的技术总监John Callery说:“我们认为,如果我们能够根据最初的几条信息和最终的风险评估来训练算法,那么就会发现很多人类无法察觉但机器却能够识别的东西,这可能会帮助我们了解更多相关知识。” Callery补充说,咨询师们将继续做出自己的评估。
算法具有识别未知模式的惊人潜力,但要成为一名优秀的“守门人”,关键是当出现问题时,要向前推进并进行干预。尽管在某些方面,我们已经做到了,但这究竟是不是我们真正想要融入技术的那些方面还尚不可知。加拿大和英国的公共卫生计划挖掘社交媒体数据来预测自杀风险。在Facebook,一旦算法检测到视频中出现自残或暴力行为,就会迅速标记该直播视频,发送给警方。
我们在谷歌搜索“怎么缓解宿醉”,也搜索医疗建议,更搜索“如何从失恋中恢复过来”,我们用谷歌了解一切。搜索结果可能是混合了不相关信息的,甚至可能是误导性的,但是搜索本身并不会对此做出判断。
得克萨斯大学奥斯汀分校(University of Texas at Austin)人类发展与家庭科学系主任斯蒂芬·罗素(Stephen Russell)表示:“(学生们)回家后上网,他们可以向全世界任何人披露这些信息。”几十年来,Russell一直在对LGBTQ群体进行研究,他的研究颇具开创性,他表示,尽管有心理问题的学生确实“不应该用谷歌解决这些问题”,但是,让现实生活中的所有守门人们对LGBTQ人群的看法变得开放、积极确实很难,因为几十年来,人们一直对这些群体抱有污名和偏见。他说:“ 即使是当今,我也能听到有些管理者说,‘我们这里没有这样的孩子。’这一直是现实中的一个窘境。”
而Trevor Project的作用就在于此。最终,这个非营利组织的领导团队希望设计出这样一个人工智能系统:它能够预测LGBTQ年轻人们将需要什么资源——住房、出柜帮助、心理治疗——所有这些都是通过分析聊天中头几条信息来实现的。长期来看,他们希望人工智能能够进化,能够识别元数据中的模式,而不仅仅是扫描初始消息。例如,如果人工智能能够从消息中确定来信者的教育水平等信息,那么它能否推断出这些结构性因素对自杀风险的影响?
一堆令人眼花缭乱的“如果,那么”语句看上去不可能挽救一个人的生命,但相信很快,它就可以了。
译者:喜汤
相关推荐
拯救生命的AI:算法识别高自杀风险人群
退伍军人的自杀困境,AI会是一剂特效药吗?
除了菊纹识别,AI还有哪些奇奇怪怪的识别能力
面对5400万抑郁症患者,600位志愿者打算用AI拯救他们
神经科学可以预测自杀吗?
每年死亡两万人,科技如何拯救中国卡车司机的生命?
透视全球AI治理十大事件:站在十字路口的AI会失控吗
透视全球AI治理十大事件:站在创新十字路口的AI会失控吗?
寻找“树洞”自杀者的AI计划
“黄暴”视频看出心理阴影,内容审核师能被AI拯救吗?
网址: 拯救生命的AI:算法识别高自杀风险人群 http://m.xishuta.com/newsview8499.html