(记者王潇雨 通讯员邰梦云)婴儿不会说话,又难配合检查,要想准确评估婴儿的视功能并非易事。而现在,只要拍摄一段5分钟的视频,就可以通过人工智能系统评估得出婴幼儿是否有视力损伤,准确率达80%以上。10月21日,由中山大学中山眼科中心刘奕志教授和林浩添教授完成的研究论文发表在《自然生物医学工程》上。他们研究发现,宝宝的视力可以通过11种行为特征进行判断。他们利用深度学习技术,在国际上首次建立了基于行为模式的婴幼儿智能视功能评估系统,用于及时发现语言前婴幼儿的视觉损伤。
据了解,由于难以客观评估婴幼儿视功能,全球2000万以上的视觉损伤婴幼儿不能被及时发现而终生致盲,造成了沉重的社会负担。虽然既往研究表明,视觉和行为表型之间存在一定的对应关系,但视力丧失如何影响个体行为模式变化,在很大程度上仍然是未知的。
该研究团队用近10年时间,积累了4196例婴幼儿的行为学表型视频,时长超过2万分钟。他们通过人工智能进行分析,定量对比了4大类视功能群体的13个行为特征的发生频率及严重程度,首次明确了斜视、眼球震颤、代偿头位等11个标志性的医学行为体征与婴幼儿视觉损伤的量化关系。
接着,研究人员创新性地采用时序分割网络来自主学习、建立行为学表型在视频水平的特征模型。“简单来说,这种模型结合稀疏采样的策略和视频水平的监督,可以实现对动态视频数据集的高效拟合,以准确进行预测和推断。”刘奕志介绍,与传统的检测方法相比,该系统对技术支持和婴儿合作的需求较少,可行性和准确性更高。
“研究结果表明,通过行为模式的视频记录来评估婴幼儿的视觉功能,智能评估系统在检测轻度和重度视觉损伤以及病因诊断方面都有令人满意的表现。”林浩添表示,该系统可作为视觉发育临床研究的技术支持,对进一步探究和明确婴幼儿的视觉发育规律具有重要意义。此外,该团队正在开发手机应用,期待未来家长可通过手机视频对照检查。
版权声明:
1、凡本网注明"来源:健康报"或"健康报网 ** 电/讯"或带有健康报网LOGO、水印的所有文字、图片和音频视频稿件,版权均属健康报网所有,任何媒体、网站或单位和个人未经本网书面授权不得转载、链接、转贴或以其他方式复制发表。
2、已经本网书面授权使用作品的媒体、网站,应在授权范围内使用,并注明“来源及作者”。违反上述声明者,本网将依法追究其相关法律责任。