当前位置: www.89677.com > 互联网 > 正文

你最好的朋友www.89677.com:,AI能否拯救下一个茅

时间:2019-11-17 04:34来源:互联网
www.89677.com,(球藻怪/编译)Facebook近日上线了一个新功能,来帮助那些有自杀念头的人远离自杀。Facebook在一篇博客帖子上宣布,他们已经和国家自杀干预热线(National Suicide Prevention

www.89677.com,(球藻怪/编译)Facebook近日上线了一个新功能,来帮助那些有自杀念头的人远离自杀。Facebook在一篇博客帖子上宣布,他们已经和国家自杀干预热线(National Suicide Prevention Lifeline)以及自杀干预机构Now Matters Now等心理健康机构建立合作,希望能通过社交网络,寻求适当的方式来干预自杀。

近日,“80后创业明星”茅侃侃自杀离世,34岁的他面临公司濒临破产,60名员工仲裁、抵押车房的窘境。在微信发出最后一条朋友圈的他选择结束自己的生命。

www.89677.com 1

跳楼、烧炭、喝安眠药……树洞机器人监测着网络社交平台的信息,搜集着跟轻生有关的危险词汇。它全力运转,每天从数以千计的网络信息中定位出10条左右的高风险信息,生成当天的监控通报。

如果用户在Facebook上发表了包含自残或者自杀内容的帖子,Facebook就会收到这个信息,并鼓励用户与国家自杀干预热线的心理健康专家沟通,并向他们提供建议和支持,帮助他们解决自己面临的问题。Facebook表示这些方法是“和我们的临床及学术合作伙伴”共同创立的。

www.89677.com 2

Rich Bird

www.89677.com 3

此外,Facebook还给那些发现这类帖子的用户提供了解决方案:用户可以通过电话或短信的方式,向自己的朋友提供帮助和支持,也可以建议对方向专业人士或自杀干预热线寻求帮助。另外,用户还可以向Facebook报告这类帖子,负责团队会对其中自杀倾向严重的帖子(比如包含自残等内容)的作者,提供帮助。这些新功能将于几个月后向美国用户开放,而且Facebook表示他们正在致力于将这一功能在全球进行推广。

自杀,一直都是容不得忽视的公共健康议题。根据世卫组织统计数据,全球每年有超过80万人自杀,还有更多的人自杀未遂。评估自杀风险是心理健康临床医生面临的最大挑战之一:具有自杀倾向的人常常掩盖自杀意图,而临床医生在检测自杀倾向时的成效往往也不甚理想。我有几张阿里云幸运券分享给你,用券购买或者升级阿里云相应产品会有特惠惊喜哦!把想要买的产品的幸运券都领走吧!快下手,马上就要抢光了。

全球医疗保健和生命科学行业营销经理

“树洞行动”发起人黄智生。

www.89677.com 4Facebook会向可能有自杀倾向的人提供帮助。图片来源:facebook.com

但自杀并非不可避免。通过检测自杀倾向、及时介入,加之心理疏导和药物治疗,可以有效减少自杀率。

Hewlett Packard Enterprise

当树洞机器人的主人黄智生拿到监测通报时,救援,就开始了。

(编辑:球藻怪)

你最好的朋友www.89677.com:,AI能否拯救下一个茅侃侃。而使用人工智能检测自杀倾向,已有许多成果。新智元整理了中国、美国和加拿大的相关研究成果。

社交媒体似乎是完美的抑郁症治疗师,大众普遍认为其对心理健康有益,然而科学研究却发现了相反的效果。如今,世界各地的人都紧贴在他们的智能手机上,而不愿倾听周围的声音。不过现在AI已经准备好扭转这种趋势,它也许会成为你的BFF(Best Friend Forever)和治疗师。AI治疗抑郁症

让人工智能探测高危信息

文章题图:latimes.com

AI预测和防止自杀

www.89677.com 5

树洞救援行动堪比刑侦现场。

2017年3月,Facebook首当其冲,开始尝试在美国使用人工智能和模式识别等技术,通过扫描分析用户发表的有自杀倾向的帖子或评论,帮助识别可能有潜在自杀倾向的用户。一旦检测到潜在的自杀倾向,该模式识别软件将发送通知给Facebook专门处理此类事件的员工。该软件会立即给发帖的用户或其朋友发送一些有用信息。Facebook还与美国自杀求助热线、美国饮食紊乱协会、危机热线(Crisis Text Line)等一些组织合作,当用户的帖子被标记出来,而且他们选择愿意与其他人对话时,可以直接通过Messenger应用与专业人士联系。有时,Facebook员工还会通知当地政府来干预此类事件。去年11月,Facebook称已经成功将模式识别软件用于监测其美国用户的自杀倾向,并将把这个监测软件推广到其他国家。

抑郁症与心理疾病常常如影随形,当社交媒体在日常生活中变得不可或缺时,许多人希望它能够解决这个问题,并创造出连接更紧密、更健康的人类生活。

“5月1日要去自杀”,2018年4月28日,女孩北北发布的微博引起了树洞救援队的注意。

www.89677.com 6

研究人员正在将人工智能作为一种可能的方式,帮助扭转人们抑郁的状态,从而提高心理健康水平。AI或许不一定能增强社交媒体用户的联系感,但通过预测个体的干预需求,在必要时召集朋友,家人和心理健康专业人士的帮助,AI仍然大有助益。研究人员也在努力使AI更加个性化,更有魅力和风度,让它更像一个有亲和力的朋友或治疗师而为人们所接受。

她是谁?她现在状态如何?她在哪里?她的家人是否知道这种情况?在她轻生前找到她,这是团队亟待解决的问题。“树洞行动”发起人黄智生赶紧在医学人工智能群里呼吁救援。

继Facebook之后,美国范德比大学医学中心资料科学家Colin Walsh和团队于去年4月发表论文表示:他们建立了一种机器学习算法,可以预测病人尝试自杀的可能性。他们使用超过5000名有自残或自杀倾向病人的住院数据对机器学习模型进行训练,用以区分有自杀倾向和有自残行为但无自杀想法的两类人;同时还开发了一个算法,用以预测其自杀倾向。试验表明,机器学习算法在这两个任务上的表现都比医生的预测还要精准。

www.89677.com 7

几百个人开始解读女孩的公开信息。由于提供给警方的只有一个姓名和从电影票里确认的位置,警方没有办法联系到她。

原文链接

由斯坦福大学心理学家和人工智能专家团队创建的Woebot,“它能够和人做简单的日常沟通,追踪人的情绪,适时推送视频和文字游戏来帮助人们管理心理健康,”Megan Molteni在一篇有线文章中报道,“在花费了一年时间进行测试和收集临床数据之后,Woebot Labs Inc.刚刚推出了完整的商用产品——一款淘气,个性化的聊天机器人,它每天会为病人做检查,收费为每月39美元。”

“我活这么大一直没人给我送花,男孩子跟我在一起也只是想玩一玩,没有人真心爱我。我这个人就是这么差,我不配活在这个世界上”,看到这条微博,数据分析师推断,女孩可能是因为感情问题想不开。

AI对心灵健康受害者有很大帮助,但它不是一个人,也不是医生,因此它的应用会有所限制,也会面临一些法律和道德的问题。尽管如此,早期的迹象表明,对于向需要帮助的人提供有意义的帮助,人工智能是最有希望的,它能以最低的成本挽救许多生命。特别是在这个时代,医疗保健费用高昂,心理健康问题被高度污名化,医疗保险无法保证支付费用。AI作自杀干预

所幸,数据分析师发现了疑似女孩前男友的电话号码。接通是在第二天早上,整整一夜,救援团都在试图联系男孩。

www.89677.com 8

“你的女朋友马上就要自杀了,你赶紧去救救她”,心理老师不断劝解男孩,最终,男孩提供了女孩的基本信息:名字,地理位置,学校。

一些研究将社交媒体和抑郁症联系起来,并发现在社交媒体上花费的时间与孤独感之间存在直接关系。不过,由于技术无法全面社会化,社交媒体无法取代现实生活中的面对面社交互动。

4月29日早上,树洞救援队联系到了女孩所在学院的党委书记,党委书记联系到了女孩的家人。

社交媒体和互联网上的行为模式能够反映用户的心理健康状态,甚至可能预测一个人的行为。例如,Facebook已经在使用AI来识别自杀者的预警信号。AI在用户的帖子中分析其自然语言模式,并在朋友的评论中快速识别其自杀意图。然后Facebook的人类行为研究团队验证AI的发现并与用户联系,给出他或她可以获得帮助的方式。自杀求助热线负责人向英国广播新闻公司表示:“此举不仅有帮助,而且至关重要。”

5月1日,女孩还活着,她在微信里跟树洞救援队的成员说,“就是可能负面情绪一下子集中在这段时间,有点承受不来”“会好起来的”。

www.89677.com 9

并不是所有的被救助者都会表达感激之情。

Facebook还使用算法识别恐怖分子发布的帖子,以及其他有关内容。这一努力对于心理健康工作也很重要,因为一些有自杀倾向的人在杀害自己之前会杀死其他人,可能是家庭暴力也可能是大规模伤害。早期发现和干预可以拯救若干人的生命。

一个吞下大量安眠药江西省某医院抢救过来的男孩醒来后,质问他的母亲、医生和树洞救援队:“你们为什么要救我,怎么不让我去死?”

Facebook正在尝试用主动干预的方法做更多的事情,比如联系用户网络中的某个人或医务人员,以便及时地主动介入。“这是我们一直在与Facebook讨论的东西,”John Draper博士在 BBC的一篇文章中说,“我们越能够动员受害者的社交圈子,他们就越有可能获得帮助,问题是我们如何以没有攻击性的方式做到这一点。”

“有一些人很绝望,认为接下来是无穷无尽的痛苦,自杀对他来说是一个最简单的办法。你去干扰他,他是不愿意接受的”,黄智生说,“他觉得你把我救下来,可是你并没有帮助我解决问题,你不能代替我个人的痛苦体验,你只是说不要死。”

www.89677.com 10

不过,黄智生把社交平台上的留言视为一种求救信号。“如果他真的绝望,就会直接选择死亡。既然最后时刻在网络留下声音,就代表着他心存一种希望。”

找到维护隐私和适当干预之间的界线是一个艰难的挑战。但是,如果它不仅仅用于后端分析,AI也可以提供帮助。例如,它可能采取虚拟助理或朋友的形式。在这种情况下,人工智能将专注于研究单个人的特质,而非多数人普遍的行为。90%的自杀事件是可以预防的

与仅对高风险紧急行为进行救援的树洞救援队不同,中科院行为科学重点实验室朱廷劭团队利用人工智能技术检索出有轻生意念的微博信息,再通过发送私信进行早期干预和救助。

www.89677.com 11

据《中国新闻周刊》报道,朱廷劭团队曾向4222名有过自杀意念表述的群体发送参与调查邀请,最终有725人回复。78%的人表示不反对收到私信,并且希望出现心理危机时能获得专业的帮助。“大部分人还是希望得到救助的”,朱廷劭对隐私护卫队表示。

据世界卫生组织称:“全世界有3亿多人患有抑郁症,从2005年至2015年间增加了18%以上。”世卫组织进一步报告说,每年有将近80万人因自杀而死亡,自杀是15至29岁人群的第二大死因。

生命安全与个人隐私之争

即使在发达的高收入国家,由于多种因素的影响,例如专业人员和设施被过度使用,不同地区资源分布不均,接受精神治疗的社会污名化以及缺乏足够资金来支付成本等,精神卫生保健的获取仍然有限。据世界卫生组织称,全球78%的自杀事件发生在低收入和中等收入国家,在这些国家和地区,精神卫生保健的获取往往更加困难。

黄智生说,树洞救援队没有走任何法律不允许的手段去获得他人的信息,一切信息来源都是公开渠道。“我们知道个人隐私必须得到保护,你不能给他人带来骚扰。但是如果要避免自杀,必须准确地知道这个人是谁。这本身很难处理得非常准确”,他表示。

www.89677.com 12

在北北的案例中,树洞救援队沟通组曾第一时间联系微博索要北北的个人信息,被对方以保护用户隐私为由拒绝。

人工智能在锁定和快速响应处于危机中的个体方面有巨大的前景。这是因为人工智能驱动的数字助理和分析系统可以比人类更快地识别和响应,而且它能比目前的医疗保健系统容纳的更多的患者。专为精神卫生援助和干预设计的自动化AI系统的使用也远低于专业治疗师的成本。此外,用户认为与机器交谈比与具有判断力的人交谈,隐私性更强。

这样的事不止一次发生。有一次,树洞救援队发现北京的一位用户有高风险自杀倾向,索要详细信息时,同样被微博以保护用户隐私为由拒绝。微博称已将情况上报给北京网警,但后来事情不了了之。

Karim是由硅谷一家名为X2AI的公司设计的心理治疗聊天机器人。据“纽约客”报道, Karim的设计主要是为了帮助叙利亚难民,不过Karim不是唯一的成果。Emma是一位说荷兰语的机器人,用来帮助患有轻微焦虑和恐惧症的人。Tess是一位说英语的聊天机器人,擅长认知行为治疗和其他技术。该公司还研发了其他一些机器人为在巴西遭受过帮派暴力或在尼日利亚感染艾滋病毒的人们处理一系列精神健康问题。

“我个人理解,对这种情况,平台一般也不敢贸然直接介入,因为涉及到隐私问题。同样,平台也不能把信息给执法部门以外的机构。万一出了问题,就更复杂了”,一位社交平台员工告诉隐私护卫队。

www.89677.com 13

现任首都医科大学附属北京安定医院院长、国家精神心理疾病临床医学研究中心主任王刚曾对媒体表示目前,中国尚无《自杀救援法》等国家层面的相关法律,自杀干预行为的正当性与合法性没有保障。

然而,人工智能不是人类,也不是医生。因此,人工智能驱动的技术被用作心理健康专业人士的助手,或作为观察和支持患者的朋友。换句话说,人工智能不开处方,也不直接给任何人做治疗。

能作为法律依据的似乎只有《中华人民共和国精神卫生法》第28条:疑似精神障碍患者发生伤害自身、危害他人安全的行为,或者有伤害自身、危害他人安全的危险的,其近亲属、所在单位、当地公安机关应当立即采取措施予以制止,并将其送往医疗机构进行精神障碍诊断。但干预的权利限定在近亲属、所在单位、当地公安机关。

即便如此,基于人工智能的技术仍然可以让少数精神卫生保健专业人员更好地管理更多的患者。正是这种可扩展的方法成功地为越来越多的患者提供了精神健康护理,激活了当今超负荷的医疗保健行业。毕竟,生命依赖于这个行业。X2AI报告称,90%的自杀事件是可以预防的——只要有人能及时来到他们身边。永远的最好的朋友

“我们只是预警,最后通过警方或家人进行干预”,黄智生认为,这条法律是说伤害别人不行,伤害自己也不行。只要确认自杀正在进行中,每个人都应该站出来去阻止,“是社会伦理要求你这么做的,这时候生命安全高于个人隐私,甚至高于很多道德规范。”

www.89677.com 14

但他意识到,自杀干预确实面临争议。为了尽量保护当事人的个人隐私,他把救援队的介入限定在自杀正在进行的情况。如果当事人有自杀意念但没有实际行为,或者当事人认定他人的救助是一种骚扰、拒绝沟通,那么应该尊重对方,立即停止救援。

当Facebook,X2AI和其他组织的研究人员致力于使用高级分析和自动化来扩大心理健康应对计划的范围,并提高其效率和效果时,消费行业正在采用人工智能在其社交领域向用户提供更多的TLC 。

他举了一个通俗易懂的例子:一个男孩发现一个女孩爬到江边的大桥要跳下去,男孩马上跑去抱住她,不让她跳。反对者可以说男的不能随便抱女的,但在拯救生命的过程中,就不能考虑基本的伦理了,因为在那个当下,拯救生命是优先的。个人隐私也是同样的道理。

苹果公司的Siri,三星的Bixby,亚马逊的Echo助手Alexa以及谷歌的助手早已使用在我们的手机、平板电脑以及越来越多的智能设备中。每个人都可以配备AI程序,系统通过与用户的互动,间接观察用户的行为,分析用户的心理状态。当用户遇上危险时,系统可以及时呼救。

“树洞救援队站在生命安全的角度,认为平台应该超越个人隐私,提供用户的个人信息。但站在平台的角度,树洞是第三方机构,给他们提供用户个人信息也是有风险的,所以一般不会提供”,前述平台员工称,遇到类似的情况,客服会优先处理、联系监控人员,再上报公安。

www.89677.com 15

“我们宁可冒这样的风险”

新的智能家居设备旨在帮助老年人和残疾人在家中更好地生活并保障他们的安全,已经有许多专门为他们设计的支持GPS的医疗警报系统投入使用,人们可以通过触摸按钮来寻求帮助。

据新浪科技报道,2017年1月,一名年仅 12 岁的女孩称由于受到家庭成员性虐待,决定上吊自杀,她用社交媒体平台Live.Me 直播了整个过程。多达数百万人通过Facebook看过她自绝画面。

随着科技的发展,这些技术将会走向融合,融入一个单一的、个性化的AI实体,用户可能会将其视为私人助理或朋友。因为人工智能很可能比人类更了解用户,所以也许会成为用户的BFF——“永远的最好的朋友”。

2017年3月,为建立更为安全的社区,Facebook开发出用人工智能识别轻生倾向的监测软件。检测到问题后,社区团队会对帖子进行审核,与有潜在自我伤害风险的人联系,建议他们寻求帮助。同时,人工智能会针对用户亲友突出显示“自杀或自我伤害”报告,让亲友们意识可能存在问题。

高度的熟悉感会形成一种亲密和信任的感觉,它也有助于缓解孤独感。

当用户帖子被标记出来,且当事人愿意与他人对话时,Messenger 可作为连接“危险用户”与专业人士的桥梁,美国自杀求助热线、美国饮食紊乱协会、危机热线等组织都将提供相关帮助。

www.89677.com 16

“作为互联网的从业者,我也觉得大平台应该主动在这方面采取一些措施。感觉互联网平台都应该有这个义务”,前述平台员工说。但他有现实的顾虑:太多的信息,真假难辨,对各个环节来说,核实成本都非常大。

此外,如果AI建议寻求帮助,用户可能会信任该建议并采取行动。很快有一天,人工智能可能甚至会预约,会召唤一辆自动驾驶的汽车并将用户送上车。当不存在直接威胁时,它甚至可以将其观察记录发送给用户的私人医生作为健康评估。

树洞救援队形成了一套自己的判定方法。当机器人检测到具有高风险的用户时,树洞救援队首先会判断信息的真假,确认自杀是否正在进行。

虽然人工智能仍然是一项新兴技术,但它已经能够高效地完成许多任务。为患有各种心理健康问题的人们提供帮助是非常有意义的。幸运的是,基于该领域的AI研究已经在全球各地开展,AI将为我们带来一个充满关怀和温暖的世界。

仅依靠当天发布的微博信息是不够的,还要看用户是否在较长时间内不断表达自杀的意愿以及周边朋友的反馈。“从不同渠道获得的独立信息都指向同一行为时,我们才会确认这个事情真的要发生”,黄智生告诉隐私护卫队。

www.89677.com 17

即使是这样,也不能排除错判的可能性。“如果信息是虚假的,就带来风险。他会说你给他带来了骚扰,可能会引起法律上的麻烦”,黄智生说,“这时候到底是怕惹上官司就不去救人,还是说我宁可救人?”

他觉得,如果麻烦真的来了,救援队有勇气承担。从良心出发,让大家认真讨论整个过程,相信社会会站在他们一边。“我们没有任何经济或名利的目的。在最危险的时刻,我们宁可冒这样的风险,也要拯救你的生命。”

不过,也有评论认为,目前的情况下,有效的途径是,第三方救援机构应该寻求官方机构的背书,跟平台合作,推动各方力量把救援机制建立起来。

“侵犯隐私的风险是值得的”

世界卫生组织的统计显示,每年约有80万人死于自杀,每40秒钟就有一人死亡。自杀在整个生命过程中都有可能发生,是2012年全球15-29岁人群的第二大死因。

但是,在欧美地区,Facebook 的救助算法也面临争议。2018年5月,欧盟《一般数据保护条例》正式实施,对公民个人信息保护做了严格规定。此后,Facebook不再扫描和检测欧盟用户的帖子内容。有专家认为,Facebook应该为用户退出选项,保障用户的选择权。

Facebook曾在一份声明中称,“在预防自杀方面,我们努力平衡人们的隐私和安全。虽然我们的努力并不完美,但我们决定尽快为需要帮助的人提供资源。我们理解这是一个敏感问题,因此我们有一些隐私保护措施。”

在Facebook的计算中,侵犯隐私的风险是值得的。

纽约大学医学院儿科心理健康伦理学系主任Kyle McGregor接受媒体采访时,对此表示认可。“我们成年人有责任确保孩子克服成长时期的困难,过着快乐、健康的生活。如果我们有可能准确、有效地防止一两次自杀,那是值得的。”

中国的形势似乎显得更为严峻。

据官方早期公布的数据,中国自杀率是国际

平均数

的2.3倍,平均每两分钟就有1人死于自杀,并有8人自杀未遂。自杀是中国15-34岁人群第一位重要的死亡原因。近日,上海17岁男孩跳桥事件再度引发人们对青少年健康问题的关注和热议。

2017年,世界卫生组织心理危机预防研究与培训合作中心主任、北京回龙观医院院长杨甫德在接受《生命时报》采访时称,世卫组织和联合国都要求成员国有国家层面的自杀预防计划,但中国还没有完整的国家性自杀预防体系。他认为,应尽快出台国家层面的自杀预防计划。

“我们知道相当多的人,不同渠道,比如QQ、微信上,看到的信息很多。”黄智生说,不知道当事人要轻生,心里会还好受一点,但如果真的发现却没有能力救,实际上更痛苦。

他期盼树洞行动早日形成公益品牌,得到政府和公安机关的认可。“我们形成品牌了,官方他们可能愿意建立一种正规性的联系,约定一个合作的模式,这样我们以挽救更多的人”。

黄智生透露,微博已经同树洞救援队接触,探讨合作模式。

采写:南都实习生韩晓丹 记者冯群星

编辑:互联网 本文来源:你最好的朋友www.89677.com:,AI能否拯救下一个茅

关键词: