欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

机器学习能够分析说话方式 诊疗精神疾病

程序员文章站 2022-04-02 12:22:26
人们通过他们所说的内容以及他们说话的方式传达意思:音调、用词,以及短语的长度都是理解一个人心里在想什么的重要线索。当一个精神病学家或一个心理学家检查一个人的时候,他们注意听取这些信号,并根据过去的经验...

机器学习能够分析说话方式 诊疗精神疾病

人们通过他们所说的内容以及他们说话的方式传达意思:音调、用词,以及短语的长度都是理解一个人心里在想什么的重要线索。当一个精神病学家或一个心理学家检查一个人的时候,他们注意听取这些信号,并根据过去的经验诊断其健康状况。现在,在机器学习的帮助下,研究者们应用了同样的方法来诊断精神病病人。

在2015年,一个研究团队开发了一个人工智能模型,能正确预测哪组年轻人的成员会精神错乱——最主要的特征是精神分裂——通过分析他们的语音。该模型专注于精神病的语言性抽搐的迹象:短句子、疑惑、经常使用「这个」、「那个」及「额」这样的单词,以及从一句话到下一句话的逻辑混乱。

现在,NeuroLex Diagnostics的首席执行官兼工程师Jim Schwoebel想为主治医生打造一款工具以帮助他们诊断精神病病人。在会诊期间,NeuroLex的产品会通过一部安装在附近看不到的墙上的智能手机或是其他设备(Schwoebel有一款Amazon Alexa应用的原型)记录病人的信息。使用与精神病论文中的相同的模型,该产品会从病人的录音中搜索语言线索。该人工智能会将它的发现以数字的方式呈现——像血压读数那样——精神病学家做诊断的时候就可以参考这些数据。并且随着该算法被越来越多的病人「训练」,产生的读数能更好地反应一个病人的心理状态。

除了精神病分裂症诊断器,Schwoebel的另一个想法获得了来自美国精神病学会的奖赏,NeuroLex希望为已经在医院接受治疗的精神病病人开发一款工具。该人工智能并不会帮助单一样例的精神病诊断,而是实时检查病人的语音以跟踪他们的状况。

对于Schwoebel来说,该工作也是关乎个人的:他认为该方法可能能够帮助治疗他哥哥的精神分裂症。在Schwoebel的哥哥第一次精神崩溃前,他还能用短的、单个的词做出回应,或者含混地表示他想去「那」或去「这」——以及在他的哥哥第一次精神病发作后那些「都具有意义的」令人不安的异常。

据Schwoebel说,在他的哥哥看精神病医生并最终被确诊之前,他们看了十多个初级治疗医生。这之后,他哥哥吃了一种没有用的药,后来又吃过一种没有用的。在Schwoebel的哥哥确诊并接受有效治疗方案的那些年里,他经历了三次精神崩溃。因为对药物的需要,Schwoebel好奇如何更快地为一个人开出正确的处方与合适的剂量。

为了找到这种方法,NeuroLex计划对已经在医院里的精神病病人进行「前-后研究(pre-post study)」,「以观察在医院里的发病状态或抑郁状态过程中他们的语音模式是如何变化的。」理想情况下,该人工智能会分析接受心理治疗的病人的样本录音,「以观察哪种药最有效」,从而「减少住院时间,」Schwoebel说。

如果一个人的语音在服用某种药物之后,表现出更少的抑郁症或躁郁症的信号,该工具就能帮助证明该药物是有效的。如果服药后没有变化,该人工智能可能会建议立即尝试另外一种药,避免病人继续遭罪。并且,一旦它获取了足够的数据,它就能根据有相似语音特征的病人的情况推荐药品。几十年来,自动诊断方法已经被预期在更广阔的医学领域中被应用:一家公司声称它的肺癌识别算法的精确度比人类放射科医生的精确度还要高50%。

使心理健康临床医生的判断更「客观」、更「量化」的可能性,引起了马萨诸塞州综合医院的精神病学家Arshya Vahabzadeh的注意,他曾作为Schwoebel合办的创业加速器的导师。「精神分裂症是一组可观察到或可诱导的症状集」,而不是一概而论的诊断,他说。数据集足够大的时候,人工智能可能可以通过观察病人的共同特征,将「精神分裂症」这样一概而论的诊断分成更一针见血的,更有帮助的种类。「我认为数据会帮助我们将这些疾病分成更多子类,这是我们之前没法做到的。」

与任何医疗干预一样,人工智能助手「必须是经过研究与验证的。这是我的一大目标,」他说。虽然精神病预测研究表明,语音分析可以很好地预测精神病,但它仍然只是一个研究。没有人还发表了抑郁症或双相情感障碍的概念证明。

机器学习非常火,但仍有很长的路要走——不论是机器之外还是机器之内。举一个例子,Siri耗费多年处理苏格兰用户的问题与命令。对于精神保健而言,一点点小差错都可能是灾难性的。「如果你告诉我一项技术20% 的情况下都是不管用的」——或80% 的精确度——「我不会把它用在病人身上的,」Vahabzadeh说。

当考虑到年龄、性别、种族、家庭或者地域,这种风险变得更令人不安。如人工智能基于单一人群的语音样本训练,那么在该人群之外的普通样本就可能会导致错误的判断。

「如果你来自某个文化,你可能会说得轻一点,音调也更低,」但人工智能「可能会将其解释为抑郁,即使并不是如此,」Schwoebel说。

不过,Vahabzadeh相信某天该技术将能帮助临床医生更高效地治疗更多病人。鉴于美国各地的精神医疗保健提供者短缺,这点非常重要,他说:「如果人类不是有成本效益的解决方案,那么我们必须在某种程度上利用技术来扩大和增强医生的能力。」