一种识别未来自杀风险的机器学习方法-研究论文

上传者: 38686153 | 上传时间: 2022-06-29 23:15:35 | 文件大小: 172KB | 文件类型: PDF
背景 几乎不可能预测某人何时会死于自杀,但通过早期干预,许多死亡是可以预防的。 使用机器学习算法的临床试验已经能够使用患者的语言来计算某人在特定时间点自杀的可能性。 在这里,我们确定与自杀风险相关的语言特征在出院 30 天后是否持续存在。 方法利用多个医院基地急诊科和门诊部将受试者(n=253)纳入两组之一:自杀组或对照组。 他们对旨在收集思想标记的标准化工具和访谈的React被记录下来,并用机器学习算法进行分析。 大约 30 天后,受试者再次接受采访,并对他们采访中的语言进行分析,以确定是否存在自杀意念。 结果 结果表明,初次相遇时用于对自杀进行分类的语言特征在 30 天后仍存在于参与者的讲话中(AUC = 0·89(95% CI:0·85-0·95),p < 0 ·0001) 反之亦然; 在第二次采访中训练的分类器可以识别产生第一次采访的队列(AUC = 0·85(95% CI:0·81–0·90),p < 0·0001)。 解释 这种方法探讨了自杀式访谈在记录 30 天后的稳定性。 它通过计算创新和完善的计算语言方法来实现。 结果表明,患者语言所表现出的想法在首次披露后 30 天仍对机器学习有效,但与标准措施的初始相关性则无效。 这在寻求后续护理的决策支持时非常有用。 资金说明:辛辛那提儿童医院医疗中心,创新基金。 利益声明:作者没有要声明的竞争利益。 伦理批准声明:一项前瞻性临床试验于 2013 年 10 月至 2015 年 3 月期间进行(机构审查委员会 (#2013-3770) 批准)。

文件下载

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明