语音识别技术在孤独症谱系障碍诊断中的研究进展与应用展望
doi: 10.7655/NYDXBNSN241209
李进宇 , 赵太宏
南京医科大学附属脑科医院院长办公室,江苏 南京 210024
基金项目: 南京市卫生科技发展专项资金(ZKX24053)
Research progress and application prospects of speech recognition technology in autism spectrum disorder diagnosis
LI Jinyu , ZHAO Taihong
Office of the Dean,the Affiliated Brain Hospital of Nanjing Medical University,Nanjing 210024 ,China
摘要
孤独症谱系障碍(autism spectrum disorder,ASD)是一种起病于发育早期的神经发育障碍,其核心症状主要表现在语言和社会交往方面。传统诊断工具(如《自闭症诊断观察量表第2版》)应用广泛,但在低龄儿童和基层医疗中可及性与客观性不足。语音识别技术因其量化能力强、成本较低、识别婴幼儿早期言语异常的灵敏度高,正成为辅助诊断ASD的重要手段。文章系统梳理了语音识别技术在不同年龄段早期筛查、共病情绪问题诊断、疾病严重程度评估及多模态融合等方面的最新研究。结果显示,通过提取基频、语速、停顿等声学特征,可有效区分ASD个体与典型发育儿童,并识别焦虑、抑郁及注意力缺陷多动障碍等共病。多模态融合(如脑影像、生理信号和行为数据)可进一步提升诊断准确率。但数据多样性不足、方言与年龄适用性局限、共病干扰及隐私保护等挑战依然突出。
Abstract
Autism spectrum disorder(ASD)is a neurodevelopmental disorder that typically emerges in early childhood,with core symptoms predominantly manifesting in language and social interaction. Although traditional diagnostic tools,such as the Autism Diagnostic Observation Schedule-2,are widely used,they often have limited accessibility and objectivity in younger children and in primary healthcare settings. Due to its strong quantitative capabilities,relatively low cost,and high sensitivity to early speech anomalies in infants,speech recognition technology has emerged as a promising approach for ASD diagnostic support. This paper systematically reviews the latest research on the application of speech recognition in early screening across different age groups, diagnosis of comorbid emotional issues,assessment of disease severity,and multimodal data integration. The findings indicate that extracting acoustic features(such as fundamental frequency,speech rate,and pauses)can effectively distinguish individuals with ASD from typically developing children,while also identifying comorbidities like anxiety,depression,and attention deficit hyperactivity disorder. Furthermore,multimodal fusion(e.g.,neuroimaging,physiological signals,and behavioral data)can further improve diagnostic accuracy. However,challenges persist,including inadequate data diversity,limitations related to dialect and age applicability,confounding effects of comorbid conditions,and concerns over privacy.
孤独症谱系障碍(autism spectrum disorder, ASD)是一种起病于发育早期的神经发育障碍,其核心表现包括社会交往障碍、语言或沟通能力受损,以及刻板或重复性行为[1]。近年来,ASD的发病率呈逐年上升趋势。2020年,中国6~12岁儿童的ASD 患病率达0.7%,患者人数超过1 000万,总体发病人数居全球第1 [2]
根据《国际疾病分类第11版》(ICD⁃11)和《精神障碍诊断与统计手册第 5 版》(DSM⁃5),ASD 的核心症状通常在婴幼儿时期显现,其中语言交流障碍是最早出现且最具特征性的临床表现。据数据显示,ASD 儿童共患言语及语言发育障碍率高,为 21%~52%[3]。现行的 ASD 诊断方法,如《自闭症诊断观察量表第 2 版》(Autism Diagnostic Observation Schedule⁃2,ADOS⁃2)虽在专业机构中应用广泛,但仍存在一定局限性。这些方法对施测者的专业技能要求较高,且评估结果具有一定主观性[4];此外,在低龄儿童及基层医疗机构中,诊断工具的可及性不足,限制了ASD的早期识别[5]。研究表明,尽管针对ASD患者的干预手段种类繁多,但诊断延迟往往导致错过最佳干预窗口期[6]
近年来语音识别技术凭借其成本相对较低、量化能力强以及识别早期言语异常灵敏度高的特点,在ASD诊断中的应用价值日益显现。研究表明,低龄儿童甚至婴幼儿的语音特征与 ASD 密切相关, 80%左右的ASD患儿首次就诊是由于语言障碍[7-8]。因此,文章系统梳理近年来语音识别技术在ASD诊断中的研究进展,探讨其未来发展方向与应用潜力。
1 研究现状
目前,语音识别技术在ASD诊断中的应用主要集中在以下4个方面:早期辅助疾病诊断、共病情绪相关问题的辅助诊断、疾病严重程度的辅助诊断以及多模态融合的辅助诊断。文章将从这4个方面进行详细梳理和分析。
1.1 早期辅助疾病诊断
语音识别技术在辅助诊断ASD时呈现显著的年龄段差异。根据文献,辅助疾病诊断主要聚焦于前语言期(0~3岁)和学龄前期(3~6岁)两个年龄阶段。
1.1.1 前语言期(0~3岁)
ASD 患儿在前语言期往往表现出发声方面的早期异常。因此,如何在0~3岁这一关键发育阶段迅速识别风险,对于把握干预时机至关重要。早期研究者们聚焦于前语言期婴幼儿的发声行为,如啼哭声和咿呀声的特征分析,以期通过非语言性发声行为的异常揭示ASD的早期风险。
Khozaei等[9] 在一项横断面设计的研究中,比较了 15 例约 6 月龄疑似 ASD 婴儿与同龄对照组的啼哭声特征,发现ASD婴儿在基频振动和周期率等声学指标上显著不同于对照组,识别准确率达 78.6%。这一结果为利用啼哭声进行早期筛查提供了初步证据。此外,Deveney 等[10] 通过纵向随访研究,从6~12月龄开始监测婴幼儿的咿呀声韵律,追踪至2岁,进一步证实了发声中潜在的细微异常能够有效预测ASD的早期风险。
因此,针对前语言期疑似患儿,可以通过对发声行为的定量风险评估,为ASD的早期诊断提供重要的辅助参考。
1.1.2 学龄前期(3~6岁)
随着儿童语言能力的逐渐发展,语音识别技术的应用范围也相应扩大,涵盖了更复杂的语音参数和语言语义。这一阶段的语音识别不仅有助于辅助诊断 ASD,还能更准确地识别 ASD 的表现特征。与前语言期相比,学龄前期儿童的发声行为依然是辅助诊断 ASD 的重要依据。Chen 等[11] 采集 32 例约4岁ASD患儿的短语语音,通过分析时频域特征,实现了对 ASD 患儿的识别,准确率高达74%。但区别在于学龄前期儿童的语言表达能力相比前语言期显著增强,语音识别能够捕捉到更丰富的语言和语音细节,从而提供更深入的辅助诊断信息。Lee等[12] 一项针对50例5岁ASD患儿的研究中,通过分析更自然的日常语音样本,取得了更高的识别率(81%),表明在语言能力更为成熟的阶段,语音识别技术能够更有效地识别ASD患儿的特征。
这主要归因于学龄前期儿童使用语言的复杂性和多样性,使得语音识别能够从更细微的语言行为中提取有价值的信息。后续研究若能获得更多样的语音语言数据,将对临床诊断ASD具有重要意义。
1.2 共病情绪相关问题的辅助诊断
近年来,语音识别技术在辅助诊断ASD及其共病情绪问题中展现出巨大潜力。与传统的行为观察和问卷评估相比,这项技术能够更快速、经济且精准地捕捉语音特征的变化,为区分ASD患者是否存在其他情绪相关问题提供可靠支持。
研究显示,ASD 共病情绪问题主要包括焦虑、抑郁以及注意缺陷多动障碍(attention deficit hyper⁃ activity disorder,ADHD)等[13]。这些共病不仅加重了 ASD 患者的核心症状,还严重影响其社会适应能力和生活质量。语音特征的变化成为识别这些情绪问题的重要线索,为精准诊断奠定了坚实基础。
在 ASD 患者中,焦虑共病较为普遍。具体来说,患者中焦虑症状有普遍性,为40%~84%[14]。焦虑症状的语音特征异常与情绪激越状态密切相关,具体表现为语速加快、基频变化范围扩大以及语音节奏的不规则[15-16]。Weed等[17] 通过分析26例ASD 患者的自然语音样本发现,合并焦虑的患者在语速和基频上的异常显著区别于单纯ASD患者,语音识别的区分准确率达76.6%。这些研究表明,语音识别技术能够提供客观的量化依据,有效辅助焦虑共病的诊断。
抑郁共病患者的语音特征则呈现截然不同的模式,具体表现为语速减慢、基频降低以及停顿时长显著增加。这些特征与患者情绪低落和语言表达迟缓的临床表现高度吻合[18-20]。Cohen等[21] 的研究进一步指出,基频稳定性和语音间歇是区分ASD 是否共患抑郁的重要参数。
对于ADHD共病患者,其语音特征主要表现为语速和节奏的显著波动、音强起伏大以及语音连贯性不足[22]。此外,Dixit等[23] 利用Praat软件提取基频 (F0),发现单纯ASD患者的F0的平均标准差显著高于共患ADHD组,且单纯ASD患者更倾向于高频发音和快速发音节奏,从而导致言语中更多停顿[17]。这些特征为区分单纯 ASD 与共患 ADHD 的状态提供了重要的辅助诊断参考。
1.3 疾病严重程度辅助诊断
ASD 患者的症状严重程度从轻度语言发育迟缓到重度语言功能完全缺失不等,表现出显著的异质性[24-25]。语音识别技术通过量化不同严重程度患者的语音模式,为精准诊断和分层管理提供了量化依据。研究表明,语音特征分析技术能够捕捉不同严重程度ASD患者的层级化语音特征,这种分层能力直接体现在语音参数的差异中[26]
轻度患者的语音异常较为轻微,主要表现为基频变异性增加(异常率41.7%),语音调控的波动性较小,但仍在正常范围之外[27]。这一阶段,语音识别技术可以通过捕捉这些细微变化,为精准诊断提供重要信息,支持疾病分层评估。
中度患者的语音特征异常逐步扩大,除基频变异外,还包括语速减慢和零交叉率异常(异常率分别为65.2%和60.4%)[27-28]。语音分析技术能够通过综合测量这些声学参数,客观评估患者的语言节律和表达能力下降的程度。该技术为不同严重程度患者的症状量化提供了数据支持,从而提升诊断的全面性与精确度。
重度患者的语音特征异常则覆盖多个维度,包括语速、基频和发声次数的显著异常(综合异常率 83.5%)[2729]。这些患者往往伴随语言能力的极大受限或完全丧失。语音分析技术应用的重点在于定量化评估语言能力的残余特征,为进一步的神经发育研究提供辅助信息,并与其他诊断工具互为补充。
Patel等[30] 研究指出,语音特征的层级变化不仅反映了患者语言能力的外在差异,还揭示了不同严重程度 ASD 患者的神经网络损伤模式。轻度患者主要涉及基底神经节的轻微功能障碍,而重度患者则表现为广泛的语言生成和感知机制损伤。基于这些发现,语音特征分析技术为不同严重程度患者的精准诊断提供了科学依据,可进一步结合神经影像学数据,完善辅助诊断框架。
1.4 语音与多模态融合辅助诊断
随着ASD研究的深入,单一模态的辅助诊断方法已无法满足对疾病复杂多维特征的解析需求。语音特征作为ASD患者语言、情绪及社交能力的重要表征,与其他模态(如脑影像、生理信号和行为数据)的融合,不仅提升了诊断的全面性与精准性,还揭示了ASD潜在的病理机制。
1.4.1 语音与脑影像的融合
ASD 患者的语音异常(如基频不稳定、语速较慢及音强波动)常反映语言调控的神经功能障碍,而这类障碍与脑功能网络的改变密切相关。 Bhaumik 等[31] 结合了来自多中心的数据,使用功能磁共振成像(functional magnetic resonance imaging, fMRI)和机器学习方法,构建了诊断 ASD 的多模态模型。结果显示,前额叶皮层和听觉皮层的功能连接显著中断,与语言障碍的严重程度相关。同时, Kazeminejad等[32] 通过分析表明,结合多模态数据的诊断模型可以在不同年龄组中准确分类 ASD 个体 (最高准确率达 95%)。此外,Lombardo 等[33] 发现, fMRI显示,ASD患者语言相关脑区(如颞上回)的激活模式显著影响其语言功能。多模态模型在预测语言障碍严重程度时表现出更高的准确率 (86.3%),显著优于单一模态数据(72.4%)。
1.4.2 语音与生理信号的融合
语音特征和生理信号中均有ASD特征体现,这为多模态融合提供了新的诊断手段。Mohanta等[34] 通过语音特征(如基频和信号能量)区分 ASD 和正常儿童,分类准确率高达 97.1%。同时,Sarabadani 等[35] 利用皮肤电活动和心率变异性等生理信号,准确区分正负情绪状态,准确率超过80%。此外,Ochi 等[36] 研究发现,语音特征的变化(如语速和音量)与ASD 患者的互动同步性密切相关。多模态模型在诊断焦虑和抑郁共病时的AUC达到0.91,显著优于单一模态(语音:0.78;生理信号:0.83)。这些研究表明,语音和生理信号的融合分析不仅提升了情绪障碍的诊断效能,还为理解ASD患者的情绪反应机制提供了新视角。
1.4.3 语音与行为数据的融合
ASD患者的社交互动能力异常复杂,传统行为观察方法依赖主观判断,难以全面捕捉微妙特征。语音特征通过量化语言参数(如语速、停顿时间),为自动化评估提供了客观基础。Drimalla等[37] 通过模拟对话任务分析面部表情、注视行为和语音特征,表明这些多模态特征在检测 ASD 社交障碍时具有 73%的分类准确率。Zhao 等[38] 结合语音特征 (如语速、音调)与注视行为数据,发现多模态模型能够以92.31%的准确率区分ASD儿童与典型发育儿童,显著优于单一行为观察的诊断效能。进一步研究发现,语音停顿时间与行为指标(如目光接触频率)的相关性显著(r=0.65,P <0.001),支持语音与行为特征联合分析的科学价值。这些成果表明,多模态融合不仅提升了对 ASD 社交能力的评估效能,还为探索其社交障碍的复杂机制提供了重要工具。
2 应用挑战与前景
2.1 应用挑战
尽管语音识别技术在 ASD 辅助诊断中展现出显著潜力,但其应用仍面临诸多挑战。首先,语音识别技术的有效性依赖于高质量的数据支持,而现有研究中针对 ASD 患者语音特征的样本规模普遍较小,尤其是在不同文化背景、语言环境及方言差异等方面的数据尚不充分,限制了模型的泛化能力和普适性。其次,语音识别技术的准确性和鲁棒性仍需进一步优化。例如,不同年龄段患者的语音特征差异显著,如何在前语言期和学龄前期中建立统一而精确的诊断标准,是一个尚未完全解决的问题。此外,共病情绪问题如焦虑、抑郁及 ADHD 可能对语音特征产生复杂影响,使得特征提取和识别更加困难。与此同时,尽管多模态融合技术虽已初显成效,但其在实际应用中存在实现成本高、技术门槛高以及跨模态数据集成难度大的问题。尤其是在基层医疗机构和资源有限的地区,语音识别技术与其他模态(如脑影像或生理信号)的整合应用尚存障碍。并且,语音识别技术在实际临床场景中的应用还面临伦理和隐私保护问题,特别是在语音数据的采集、存储与分析过程中,如何确保患者数据的安全性和隐私性,是技术推广中需要解决的重要难题。因此,要实现语音识别技术在 ASD 诊断中的广泛应用,亟需针对上述挑战展开深入研究,以推动这一技术从实验室到临床实践的转化。
2.2 应用前景
尽管面临上述挑战,语音识别技术在ASD诊断中的应用前景依旧广阔。随着对前语言期和学龄前期儿童发声特征的深入分析,语音识别系统有望实现更早期和更精准的ASD筛查,从而在关键干预窗口期内提供及时支持。此外,针对ASD患者常见的情绪共病问题,如焦虑、抑郁和ADHD,语音识别技术的发展将推动多维度情绪识别模型的构建,助力临床医生制定更个性化的治疗方案。在疾病严重程度的评估方面,细化的语音特征分析将支持精准分层管理。同时,多模态融合技术的进步,使语音数据能够与脑影像、生理信号及行为数据有效整合,提升诊断的全面性和准确性。未来研究需重点解决数据整合和标准化的问题,并通过跨学科合作,结合计算机科学、神经科学和心理学的优势,开发更先进的诊断工具。基于上述发展趋势,语音识别技术的闭环框架正逐步形成,涵盖语音采集、特征分析、模型构建、临床诊断及诊断支持5大核心环节(图1)。这一框架不仅展示了该技术在ASD诊断全流程应用中的潜力,也为未来研究和实践提供了系统化路径。特别是在基层医疗机构和偏远地区,语音识别技术的便捷性和低成本特性将显著提升 ASD诊断的可及性和公平性。总体而言,随着技术的不断优化和多领域协作的深化,语音识别技术将在 ASD 的早期诊断、共病识别、症状评估及个性化干预等方面发挥关键作用,最终提升ASD患者的生活质量和社会适应能力。
利益冲突声明:
所有作者声明无利益冲突。
Conflict of Interests:
The authors declare no conflict of interests.
作者贡献声明:
李进宇负责文献阅读、整理和撰写。赵太宏负责方向选定、审阅和修改。
Authors Contributions:
LI Jinyu was responsible for literature reading,organiza⁃ tion,and writing. ZHAO Taihong was responsible for selecting the research direction,reviewing,and revising.
1结合语音特征分析的ASD诊断闭环技术框架
Figure1A closed⁃loop technical framework for ASD diagnosis incorporating voice feature analysis
1结合语音特征分析的ASD诊断闭环技术框架
Figure1A closed⁃loop technical framework for ASD diagnosis incorporating voice feature analysis
ZEIDAN J N, FOMBONNE E, SCORAH J,et al. Global prevalence of autism:a systematic review update[J]. Autism Res,2022,15(5):778-790
QIU S, LU Y P, LI Y,et al. Prevalence of autism spectrum disorder in Asia:a systematic review and meta-analysis[J]. Psychiatry Res,2020,284:112679
美国精神医学学会. 精神障碍诊断与统计手册[M]. 北京: 北京大学出版社,2016:95-286.American Psychiatric Association. Diagnostic and statistical manual of mental disorders[M]. Beijing: Peking University Press,2015:95-286
LORD C, RUTTER M, DILAVORE P C,et al. ADOS-2. Manual(part I):modules,1-4. Autism diagnostic observation schedule[M]. Torrance, CA: Western Psychological Services,2012:24-30
MURRAY R E, BARTON E E. Training pediatricians to implement autism screening tools:a review of the literature[J]. Rev J Autism Dev Disord,2021,8(1):108-117
CUI M, NI Q, WANG Q. Review of intervention methods for language and communication disorders in children with autism spectrum disorders[J]. PeerJ,2023,11:e15735
FUSAROLI R, GROSSMAN R, BILENBERG N,et al. Toward a cumulative science of vocal markers of autism:a crosslinguistic meta-analysis-based investigation of acoustic markers in American and Danish autistic children[J]. Autism Res,2022,15(4):653-664
MARTINEZ-LUCAS L, ABDELWAHAB M, BUSSO C. The MSP-conversation corpus: Interspeech 2020[C]. Baixas: ISCA,2020
KHOZAEI A, MORADI H, HOSSEINI R,et al. Early screening of autism spectrum disorder using cry features[J]. PLoS One,2020,15(12):e0241690
DEVENEY S L, KYVELIDOU A, MATHER P. A home-based longitudinal study of vocalization behaviors across infants at low and elevated risk of autism[J]. Autism Dev Lang Impair,2021,6:23969415211057658
CHEN L, ZHANG C, GAO X P. Speech signal analysis of autistic children based on time-frequency domain distinguishing feature extraction:2022 IEEE 34th International Conference on Tools with Artificial Intelligence(ICTAI)[C]. Macao, China: IEEE,2022
LEE J H, LEE G W, BONG G,et al. End-to-end model-based detection of infants with autism spectrum disorder using a pretrained model[J]. Sensors(Basel),2022,23(1):202
BONE D, LEE C C, BLACK M P,et al. The psychologist as an interlocutor in autism spectrum disorder assessment:insights from a study of spontaneous prosody[J]. J Speech Lang Hear Res,2014,57(4):1162-1177
HALLETT V, LECAVALIER L, SUKHODOLSKY D G,et al. Exploring the manifestations of anxiety in children with autism spectrum disorders[J]. J Autism Dev Disord,2013,43(10):2341-2352
PLESA S D, JOSEPH R M, EGGLESTON B,et al. Prevalence and correlates of psychiatric symptoms in minimally verbal children and adolescents with ASD[J]. Front Psychiatry,2019,10:43
UNG D, WOOD J J, EHRENREICH-MAY J,et al. Clinical characteristics of high-functioning youth with autism spectrum disorder and anxiety[J]. Neuropsychiatry(London),2013,3(2):1-15
WEED E, FUSAROLI R, SIMMONS E,et al. Different in different ways:a network-analysis approach to voice and prosody in autism spectrum disorder[J]. Lang Learn Dev,2024,20(1):40-57
WANG J Y, ZHANG L, LIU T L,et al. Acoustic differences between healthy and depressed people:a cross-situation study[J]. BMC Psychiatry,2019,19(1):300
YAMAMOTO M, TAKAMIYA A, SAWADA K,et al. Using speech recognition technology to investigate the association between timing-related speech features and depression severity[J]. PLoS One,2020,15(9):e0238726
MILEY E V, SCHAEFFLER F, BECK J,et al. Secure account-based data capture with smartphones-preliminary results from a study of articulatory precision in clinical depression[J]. Linguist Vanguard,2021,7(s1):20190015
COHEN A S, COX C R, LE T P,et al. Using machine learning of computerized vocal expression to measure blunted vocal affect and alogia[J]. NPJ Schizophr,2020,6(1):26
MELLAHN O J, KNOTT R, TIEGO J,et al. Understanding the diversity of pharmacotherapeutic management of ADHD with co-occurring autism:an Australian cross-sectional survey[J]. Front Psychiatry,2022,13:914668
DIXIT, MITTAL V, SHARMA Y. Voice parameter analysis for the disease detection[J]. IOSR J Electron Commun Eng,2014,9(3):48-55
PHALEN L A, CHEZAN L C. Using the question-answer relationship strategy to improve listening comprehension in young children with autism spectrum disorder[J]. J Autism Dev Disord,2022,53(1):50-65
SCHAEFFER J, ABDEL-RAZIQ M, CASTROVIEJO E,et al. Language in autism:domains,profiles and co-occurring conditions[J]. J Neural Transm(Vienna),2023,130(3):433-457
MA W, XU L L, ZHANG H,et al. Can natural speech prosody distinguish autism spectrum disorders?A meta-analysis[J]. Behav Sci(Basel),2024,14(2):90
ENI M, DINSTEIN I, ILAN M,et al. Estimating autism severity in young children from speech signals using a deep neural network[J]. IEEE Access,2020,8:139489-139500
SAFI M F, AL SADRANI B, MUSTAFA A. Virtual voice assistant applications improved expressive verbal abilities and social interactions in children with autism spectrum disorder:a single-subject experimental study[J]. Int J Dev Disabil,2021,69(4):555-567
CHARPENTIER J, KOVARSKI K, HOUY-DURAND E,et al. Emotional prosodic change detection in autism spectrum disorder:an electrophysiological investigation in children and adults[J]. J Neurodev Disord,2018,10(1):28
PATEL S P, NAYAR K, MARTIN G E,et al. An acoustic characterization of prosodic differences in autism spectrum disorder and first-degree relatives[J]. J Autism Dev Disord,2020,50(8):3032-3045
BHAUMIK R, PRADHAN A, DAS S,et al. Predicting autism spectrum disorder using domain-adaptive cross-site evaluation[J]. Neuroinformatics,2018,16(2):197-205
KAZEMINEJAD A, SOTERO R C. Topological properties of resting-state fMRI functional networks improve machine learning-based autism classification[J]. Front Neurosci,2019,12:1018
LOMBARDO M V, PIERCE K, EYLER L T,et al. Different functional neural substrates for good and poor language outcome in autism[J]. Neuron,2015,86(2):567-577
MOHANTA A, MITTAL V K. Classifying speech of ASD affected and normal children using acoustic features:2020 National Conference on Communications(NCC)[C]. Kharagpur, India: IEEE,2020
SARABADANI S, SCHUDLO L C, SAMADANI A A,et al. Physiological detection of affective states in children with autism spectrum disorder[J]. IEEE Trans Affect Comput,2020,11(4):588-600
OCHI K, ONO N, OWADA K,et al. Quantification of speech and synchrony in the conversation of adults with autism spectrum disorder[J]. PLoS One,2019,14(12):e0225377
DRIMALLA H, SCHEFFER T, LANDWEHR N,et al. Towards the automatic detection of social biomarkers in autism spectrum disorder:introducing the simulated interaction task(SIT)[J]. NPJ Digit Med,2020,3:25
ZHAO Z, TANG H M, ZHANG X B,et al. Classification of children with autism and typical development using eye-tracking data from face-to-face conversations:machine learning model development and performance evaluation[J]. J Med Internet Res,2021,23(8):e29328