首页 > 深度学习 > 神经网络读懂人心,让瘫痪肢体恢复运动功能
神经网络读懂人心,让瘫痪肢体恢复运动功能

神经网络读懂人心,让瘫痪肢体恢复运动功能

2019-01-24 09:00

#深度学习 #神经网络


(ian burkhart 正在与项目首席研究人员 gaurav sharma 交谈。照片由俄亥俄州立大学 mcculty 拍摄,由 battelle 提供。)

 

在经历了一场意外后,ian burkhart 遭受了严重的脊髓损伤,导致胸部以下全部瘫痪。

 

不过幸运的是,借助一个由神经网络提供支持的脑机接口,他现在可以用右手捡东西、倒液体,甚至可以玩《吉他英雄》(guitar hero)。

 

(ian burkhart 在俄亥俄州立大学 wexner 医疗中心玩吉他电子游戏,研究人员 nick annetta 在一旁观看。照片由 battelle 提供。)

 

俄亥俄州立大学与其附近的独立研发组织 battelle 合作开展了一项临床试验,burkhart 是参加此项实验的首位患者。

 

burkhart 的大脑内植入了一枚由 blackrock microsystem 公司生产的微芯片,与运行着 battelle 算法的计算机相连。该算法会解读他的神经活动,并将信号传输到其右臂上携带电极的袖套。该袖套也是由 battelle 设计,可刺激 burkhart 手臂上的神经和肌肉,从而引发特定的手部动作。

 

目前,burkhart 只能在俄亥俄州的实验室里使用这个名为“neurolife”的系统。不过研究人员的终极目标是让 neurolife 变得足够便携,可以安装在用户的轮椅上,满足家用需求。

 

 “如果患者可以在家中使用 neurolife 系统完成日常活动,如吃饭、刷牙、穿衣等,那么该系统就会极大地提高他们独立生活的能力。”battelle 高级研究统计学家 david friedenberg 在《自然医学》(nature medicine) 上发表的一篇合著论文中说道。

 

 “我们希望尽可能地简化该系统的操作方法,以便用户和照顾他们的人可以轻松安装。” 他说到,“即使没有一群博士和工程师在场,他们也知道应该如何使用。”

 

神经网络读取神经信号

 

ai 可应用于包括义肢和助听器在内的多种辅助性技术工具。深度学习模型可以为语言障碍者提供合成语音,帮助盲人重见光明,还可以将手语翻译成文字。

 

辅助性设备开发人员之所以采用深度学习,是因为深度学习非常擅长解码噪音信号,比如脑电活动。

 

通过使用 nvidia quadro gpu,深度学习神经解码器(即可将神经活动转化为预期命令信号的算法)接受大脑信号训练。这些信号均来自与 burkhart 进行的脚本式会话,期间研究人员会让他思考执行特定的手部动作。之后,神经网络会分析大脑信号对应的预期动作。

 

但是,创建强大的神经解码系统的关键挑战在于,大脑信号每年都会发生变化。“如果某一天你感到累了,或者注意力不集中,可能就会影响控制不同动作的神经活动模式。” battelle 高级分析小组的首席研究统计学家 michael schwemmer 如是说。

 

(为了重新校准神经网络,burkhart 必须思考以特定的方式做出手部动作。这张照片摄于 2018 年 9 月,当时他正在俄亥俄州立大学的 wexner 医疗中心进行相关工作。照片由 battelle 提供。)

 

因此,每次 burkhart 来到实验室(一周两次)都要对神经解码器进行15到30分钟的重新校准。在此期间,他要完成一个脚本化的过程,依次思考移动他的手的不同部位。

 

这些会话一周要进行两次,每次都会生成新的大脑数据,用于更新两个神经网络。至于这两个神经网络,一个利用了标记数据进行监督学习,另一个则进行无监督学习。

 

在解码 burkhart 的大脑信号和预测其思考的动作方面,这两个网络的准确度可达到 90% 以上。无监督学习将此准确度维持了超过一年,且不需要进行大幅度的重新校准。

 

此外,深度学习也加快了 neurolife 系统处理用户大脑信号以及将该信号传输至电极袖套的速度。目前的反应时滞是 0.8 秒,与之前的方法相比提升了 11%。

 

 “在尝试端起一杯水时,你会希望思考一下就能做出相应的动作,而不希望出现很长的延迟。” friedenberg 说道, “因此我们很看重对于延迟的测量。”

相关新闻