Page 78 - 南京医科大学自然版
P. 78

第44卷第7期
               ·962 ·                          南   京 医 科       大 学      学 报                        2024年7月


              算法,纳入年龄、NIC、λHu、FT3、FT4、TSH和Radscore              为 0.852、0.910、0.938、0.902、0.845、0.886。其中,
              进行建模。在训练集中,AUC 分别为 0.935、1.000、                   XGBoost模型在训练集和验证集中的表现均为最优
              1.000、0.953、1.000、0.956;在验证集中,AUC 分别             (表2、图2)。


                                           表2 训练集与验证集中6种ML模型的预测性能
                             Table 2 Prediction performance of six ML models in the training and validation sets

                  Algorithm    ACC(%) SEN(%)    SPE(%) PPV(%)   NPV(%) PRE(%) REC(%) F1(%)        AUC(95%CI)
              Training set(n=100,SMOTE:n=38)
                  DT            089.13   093.55  085.53  084.06  094.20  084.06  093.55  088.55 0.935(0.893-0.977)
                  RF            100.00   100.00  100.00  100.00  100.00  100.00  100.00  100.00 1.000(1.000-1.000)
                  XGBoost       100.00   100.00  100.00  100.00  100.00  100.00  100.00  100.00 1.000(1.000-1.000)
                  SVM           092.03   092.75  091.30  091.43  092.65  091.43  092.75  092.09 0.953(0.915-0.990)
                  KNN           100.00   100.00  100.00  100.00  100.00  100.00  100.00  100.00 1.000(1.000-1.000)
                  LR            090.58   091.30  089.86  090.00  091.18  090.00  091.30  090.65 0.956(0.923-0.989)
              Validation set(n=43)
                  DT            081.40   088.46  070.59  082.14  080.00  082.14  088.46  085.19 0.852(0.735-0.970)
                  RF            076.74   082.14  066.67  082.14  066.67  082.14  082.14  082.14 0.910(0.826-0.993)
                  XGBoost       086.05   089.29  080.00  089.29  080.00  089.29  089.29  089.29 0.938(0.870-1.000)
                  SVM           074.42   078.57  066.67  081.48  062.50  081.48  078.57  080.00 0.902(0.815-0.990)
                  KNN           081.40   089.29  066.67  083.33  076.92  083.33  089.29  086.21 0.845(0.716-0.974)
                  LR            074.42   078.57  066.67  081.48  062.50  081.48  078.57  080.00 0.886(0.788-0.983)



                     A                                            B
                                                                          DT  LR  RF XGBoost SVM KNN
                        1.00
                                                                                                    1.00
                                                                       DT  1.00 0.67 0.16 0.06 0.25 0.93
                        0.75
                                                                       LR  0.67 1.00 0.72 0.39 0.80 0.62  0.80
                       Sensitivity  0.50                               RF  0.16 0.72 1.00 0.37 0.83 0.34  0.60
                                                   DT
                                                   KNN             XGBoost  0.06 0.39 0.37 1.00 0.27 0.15
                        0.25                       LR                                               0.40
                                                   RF
                                                   SVM               SVM  0.25 0.80 0.83 0.27 1.00 0.34
                                                   XGBoost                                          0.20
                          0
                             0     0.25   0.50   0.75   1.00         KNN  0.93 0.62 0.34 0.15 0.34 1.00
                                                                                                     0
                                       1-Specificity
                 Comparison of six ML algorithms on the ROC curves(A)and confusion matrix deLong test(B)in the validation set,showing that the XGBoost had
              the best performance.
                                                 图2 6种ML算法预测模型的比较
                                      Figure 2  Compare of six ML algorithms for prediction models



              2.4  列线图建立与验证
                                                                3 讨     论
                  根据 XGBoost 模型 SHAP 特征权重分布图的
              排序(图 3),选择前 5 的变量进行单因素和多因素                             在本项回顾性研究中,利用DSCT能谱参数、患
              Logistic 回归分析,保留了具有统计学意义的变量                       者临床资料及影像组学评分构建了一系列ML分类
              NIC、Radscore和年龄(P < 0.05,表3)。基于这些变                模型,各模型在预测甲状腺结节良恶性方面均表现
              量构建列线图组合模型。通过校准曲线和 DCA 的                          出较高的性能(AUC>0.800),以 XGBoost 算法的模
              评估证明,列线图是预测甲状腺良恶性结节的有效                            型最为显著,其在验证集上的 AUC 为 0.938。应用
              工具(图4)。                                           该模型可实现对甲状腺结节良、恶性状态的精准预
   73   74   75   76   77   78   79   80   81   82   83