Page 123 - 南京医科大学学报自然科学版
P. 123

第44卷第2期                 杜 悦,史中青,戚占如,等. 一种超声心动图关键帧智能检测方法[J].
                  2024年2月                     南京医科大学学报(自然科学版),2024,44(2):253-262                        ·261 ·


                的硬件条件下,在南京鼓楼医院数据集上,当输入图                           图像的起止端,ResNet+VST模型在这类问题上表现
                像大小设置为224×224像素时,16帧的超声序列片段                       欠佳,后续考虑结合时序建模领域的最新研究,如
                推理平均耗时仅为 21 ms,而在 EchoNet⁃Dynamic⁃                新型RNN架构      [22] ;④部分样本的射血阶段持续时间
                Tiny数据集上,当图像大小设置为112×112像素时,                      较短,与ED之间的时间间隔较小,这容易导致标注
                推理耗时更短,仅为10 ms,基本满足临床需求。                          者之间、标注者内部的标注结果存在分歧,自然地,
                    然而,本研究仍存在不足之处:①数据量较少,                         模型同样可能将射血阶段帧误判为 ED 帧,与真实
                ResNet+VST 模型检测性能的更全面、充分评估,需                      标签存在较大偏差(图10)。因此,进一步研究标注
                要更大规模的数据集支持;②数据来源较为单一,                            者之间和标注者内部的差异是必要的。
                仅在两个数据集上进行实验,对模型泛化性的评估                                综上所述,本研究所提出的基于 DL 的超声心
                能效不足;③部分数据中关键帧位置位于超声动态                            动图关键帧智能检测模型ResNet+VST,适用任意长



                                                        ED


                                •••


                               Frame No   61            62            63            64

                                                                      ED


                                                                                             •••



                                          65            66            67            68
                                                    ED:true label;ED :model prediction.
                                                 图10  ResNet+VST模型预测异常示例
                                      Figure 10 Example of abnormal prediction by ResNet+VST model


                度且包含多个心动周期不同切面的超声心动图。                            [4] 张    钒,陆正大,李春迎,等. 超声图像分割的研究进展
                与目前常用的方法相比,该模型在检测精度和速度                                [J]. 临床超声医学杂志,2022,24(6):453-456
                方面均具有显著的优势,基本满足临床及实际应用                           [5] 蒋建慧,姚      静,张艳娟,等. 基于深度学习的超声自动
                需求,具有良好的应用价值。未来该模型有望作为                                 测量左室射血分数的研究[J]. 临床超声医学杂志,
                超声心动图图像质量自动评估以及腔室容积、射血                                 2019,21(1):70-74
                                                                 [6] ZENG Y,TSUI P H,PANG K J,et al. MAEF⁃Net:multi⁃
                分数等心脏参数自动测量的预处理步骤,以实现更
                                                                       attention efficient feature fusion network for left ventricular
                准确和快速的心脏图像分析。
                                                                       segmentation and quantitative analysis in two⁃dimensional
               [参考文献]                                                  echocardiography[J]. Ultrasonics,2023,127:106855

               [1] VIEILLARD⁃BARON A,MILLINGTON S J,SANFILIP⁃    [7] DARVISHI S,BEHNAM H,POULADIAN M,et al. Mea⁃
                    PO F,et al. A decade of progress in critical care echocar⁃  suring left ventricular volumes in two⁃dimensional echo⁃
                    diography:a narrative review[J]. Intensive Care Med,  cardiography image sequence using level⁃set method for
                    2019,45(6):770-788                                 automatic detection of end⁃diastole and end⁃systole frames
               [2] KHEIWA A,HARRIS I S,VARADARAJAN P. A practi⁃       [J]. Res Cardiovasc Med,2013,2(1):39-45
                    cal guide to echocardiographic evaluation of adult Fontan  [8] KUSUNOSE K. Radiomics in echocardiography:deep
                    patients[J]. Echocardiography,2020,37(12):2222-    learning and echocardiographic analysis[J]. Curr Cardiol
                    2230                                               Rep,2020,22(9):89
               [3] SIRJANI N,MORADI S,OGHLI M G,et al. Automatic  [9] 罗   刚,泮思林,乔思波,等. 深度学习技术在胎儿超声
                    cardiac evaluations using a deep video object segmenta⁃  心动图图像自动识别中的应用[J]. 实用医学杂志,
                    tion network[J]. Insights Imag,2022,13(1):69       2022,38(14):1830-1833
   118   119   120   121   122   123   124   125   126   127   128