Your browser does not fully support modern features. Please upgrade for a smoother experience.
人工智能在胎儿超声检查中的应用: History
View Latest Version
Please note this is an old version of this entry, which may differ significantly from the current revision.
Contributor: , , Ye Zhu , , , Mingxing Xie , Li Zhang

人工智能(AI)和产科超声的结合可以通过缩短检查时间,减少医生的工作量并提高诊断准确性来帮助优化胎儿超声检查。AI已成功应用于胎儿超声标准平面自动检测、生物特征参数测量和疾病诊断,为常规成像方法提供便利。

  • fetal ultrasound
  • artificial intelligence
  • prenatal diagnosis
  • deep learning
  • convolution neural network

1.AI 在胎儿超声标准平面智能检测中的应用

胎儿标准平面检测在很大程度上依赖于超声医生的专业知识和经验。手工制作的胎儿超声标准平面识别的主要局限性在于超声图像之间的类内变异性高,类间相似性低[13]。在这种情况下,人工智能可能很有用。
深度卷积神经网络 (DCNN) 可以使用其特征表示功能区分相似的超声视图,而无需任何手动设计的特征。Yu等人[14]利用DCNN识别胎儿面部标准平面(FFSP),增强了临床管线的识别性能和优化。然而,DCNN模型是用标记不足的样本训练的,这导致了过度拟合问题和性能下降。为了解决有限的训练数据和性能下降问题,Chen等人[15]提出了一种迁移学习策略,用于植入特定CNN模型的知识,使用自然场景图像进行大规模预训练,以定位医学图像,如胎儿腹部标准平面(FASP)。该模型在测试图像上的准确性、精度、召回率和 F1 分数分别为 0.896、0.714、0.710 和 0.712。这些测量证实了DCNN和迁移学习在平面识别辅助任务中的功效[15]。由于依赖于定量医学数据集和相应的收敛问题,该算法无法实时操作,限制了其临床应用。Lin等人提出的多任务学习框架[16]应用了更快的区域CNN进行视图检测和质量评估。此外,超声波平面的精确评估≤0.5 s。结合临床先验知识模块显著提高了解剖结构检测的准确性。凭借其出色的速度和性能,该网络有可能在美国检查中协助胎儿产前超声标准平面采集。
由于自然场景和胎儿超声图像之间的域差异不可忽略,使得模型不可行,Chen等人[13]使用复合神经网络和多任务学习框架来检测同一架构中的三个标准平面。共享特征在不同的平面上学习,减少了对大型数据集的需求和数据类之间的不平衡。因此,模型算法的泛化能力和平面检测精度有所提高。此外,该算法利用长短时记忆网络(LSTM)提取更多的时域信息,保证了平面分类的时间一致性和超声视频分类的准确性。值得一提的是,曲等人[17]提出的差分CNN[18]自动识别92个胎脑标准平面(FBSP),准确率达93.19%,计算效率高。与以往妊娠中期的研究不同,CNN模型用于识别和分类妊娠早期胎儿心脏超声心动图的关键帧[<>]。
大量研究表明,将AI与产前超声相结合可以显着提高平面识别的功效和准确性,减少不同操作员之间的差异,并确认飞机采用的一致性和可重复性。但是,存在局限性。在目前的研究中[131416],其中一个局限性是大多数研究仅纳入健康病例,缺乏病理样本阻碍了模型开发和临床应用。必须建立大规模、多样化、高质量的临床病理数据库,并将其纳入未来AI算法的训练和验证中。

2.AI 在胎儿超声生物测定参数测量中的应用

2.1. 智能测量胎头围 (HC)

HC是评估产前超声检查胎儿生长发育、评估胎龄和体重以及识别胎儿异常的重要生物特征指标[2021]。胎儿HC测量的准确性可能受到颅超声图像中部分边界缺失和观察者间变异的影响。超声图像也存在低对比度和伪影[22]。因此,即使是经验丰富的超声医师也发现手动测量胎儿HC既耗时又具有挑战性。
准确有效地定量HC在产前胎儿超声检查中至关重要。Foi等人[23]使用高斯差分算法重建了胎儿头骨模型。与以往使用图像处理操作最大化图像分割匹配的模型[24,25]不同,本研究基于椭圆参数和观察到的2D图像的骶骨厚度构建了模板图像,无需人机交互,可实现HC的全自动测量和图像伪影减少。此外,即使在质量较差的图像中,该方法也显示出很强的鲁棒性。随着DL的日益普及,越来越多的研究致力于使用CNN对胎儿头部进行分割。Fiorentino等人是第一个使用由距离场训练的回归CNN来描绘头骨曲线[26]的人,平均绝对误差(MAE)为1.90(±1.76)毫米,骰子相似系数(DSC)为97.75(±1.32)%。该模型显示出在临床实践中自动量化HC的潜力。另一项研究[27]将变压器强大的全局特征提取能力和CNN的局部特征提取彻底结合,无需人机交互即可准确地从头骨轮廓中提取完整信息。这是一个单阶段网络,实现了2D超声图像中胎儿HC的精确自动测量。该算法检测颅骨轮廓的平均准确率为84.45%,MAE±标准(mm)为1.97±1.89,ME±标准(mm)为0.11±2.71,没有增加主要计算参数。目前,许多研究已经超越了简单的HC测量。新兴研究尝试自动测量其他生物特征参数,如BPD、小脑横向直径和枕额直径[182829]。除了临床上流行的二维(30D)超声外,三维(2D)超声也被采用来呈现立方体解剖结构,结合混合注意力方案(HAS)为整个胎头分割提供更丰富的空间信息和定量生物特征参数,更具代表性和全面性[3]。
超声常规HC测量与AI相结合,可减少检查时间、临床间变异性,并提高诊断准确性[26]。目前的方向是整合更多质量更好的数据集[1],并设计增强的网络结构以提高性能。Smartplanes软件[31]可以在3D超声中自动测量HC和BPD,具有良好的重现性,已投入临床使用。我们应该将更多的算法整合到临床实践中,及时获得临床用户的反馈,以解决临床问题[30]。

2.2. 智能测量胎儿腹围(AC)

AC是计算胎儿体重的主要参数[32],在评估胎儿生长和早期筛查宫内生长受限或胎儿过大方面具有重要的临床价值[33]。提高其测量精度可以降低这些疾病的胎儿发病率和死亡率。在临床实践中,超声医师必须手动定位腹部的标准平面。胎位、羊水过少和孕妇腹壁厚度的变异性会影响AC测量的准确性[8]。因此,迫切需要一种快速准确的AC测量方法,以减轻超声医师的负担。
临床实践需要对腹围进行可靠的自动图像分割。CNN在医学图像分类方面显示出显著优势。Jang等人[32]首先使用CNN对超声波图像进行分类,然后采用霍夫变换自动测量交流电。在图像中只有少量训练样本和一些伪影的情况下,该算法仍然可以稳定测量AC参数,DSC为85.28±10.08%。然而,孕妇羊水不足可能会影响AI算法预测AC的准确性[32]。Kim等人[33]提出了一种结合多个CNN和U-Net [2]的AI算法来实现多任务学习。在胎儿肋骨和脊柱位置信息的支持下,准确识别胎儿腹部区域,减少羊水缺乏和伪影对AC测量的影响。同样,一项将多尺度特征金字塔网络和U-Net相结合进行图像分割的研究将注意力门(AG)纳入网络,该网络限制了不相关区域的特征激活,并通过DSC将模型的灵敏度和准确性提高了0.98。AC、HC、BPD 和股骨长度的自动多参数测量与手动方法密切相关。因此,不需要额外的用户干预。
与其他身体部位相比,腹部超声图像与背景对比度低且不均匀,形状不规则,扫描变异性大,边缘模糊[33]。因此,AC的精确测量特别费力。人工智能辅助的自动胎儿AC测量可以简化工作流程[34],克服操作员的依赖性[33],并智能地处理超声图像中的伪影[32]。Yasutomi等人[22]证实,深度神经网络可用于估计超声图像中显示的阴影强度,这可以用作过滤低质量图像的图像预处理步骤。

2.3. 智能测量胎儿颈项半透明层(NT)厚度

颈项透明层(NT)是胎儿颈后部皮肤下充满液体的区域[8]。NT增厚可能与不良妊娠结局和某些染色体疾病有关,例如唐氏综合征[353637]。NT厚度应在胎儿标准矢状面测量,以便精确测量,便于及早发现胎儿结构异常和遗传缺陷。然而,NT厚度的标准平面采集和智能测量很难获得。这些挑战包括超声图像的低信噪比、胎儿顶臀部长度短以及妊娠早期胎儿的活动性。不熟练的超声医师在关键生物识别任务上花费的时间比专家多25.56%[38]。
近年来,多学科专家在NT的自动测量方面取得了许多突破[8]。Moratalla等人[39]开发了一种用于NT半自动测量的AI算法,该算法实现了0.0149毫米的操作员间标准偏差,低于0.109毫米的手动方法,大大减少了观察者之间和观察者之间的差异。由于半自动方法涉及手动微调NT区域,这很耗时,并且可能导致人际关系和人际差异,因此一些研究人员开发了AI算法来实现NT厚度的全自动测量[3740]。Deng等人[40]提出了一个经过690张临床NT超声图像验证的分层模型,可以模拟人类的认知过程。当显示超声图像时,该模型首先识别并定位了胎儿的整个身体。根据解剖结构信息,从图像推断NT区域和胎头。识别NT区域和胎头提高了模型检测胎儿身体解剖结构的准确性。与单支持向量机(SVM)分类器相比,该新模型将性能平均提高了约5.68%,表明上下文信息有助于性能。最后,Sciortino 等人提出的自动 NT 测量 [37] 不需要用户干预,避免了操作员的可变性。总体而言,高达99.95%的飞机被正确识别。
人工智能可以帮助超声医师自动识别超声图像中的颈部区域并测量NT.SonoNT [39]已经集成到商业超声设备中,可以在临床实践中半自动测量NT。为了提高临床医生的效率和检查准确性,预计将开发用于智能NT测量的全自动商业工具。
综上所述,AI对胎儿生物参数的自动测量可以减少术士间和术者体内测量之间的误差,提高临床效率,提高自动测量的准确性[8],表现出与超声专家相当的性能水平。它是帮助没有经验的初级超声医师做出正确临床决策的有前途的工具[41]。自动测量的发展将有利于精准医学的进步,并有助于缓解全球产前超声医师的短缺。但是,有一些紧迫的问题需要解决。例如,更多的研究强调自动头围测量,而不是腹围和长骨。

3.AI 在胎儿超声疾病诊断中的应用

3.1.AI 新生儿呼吸系统疾病胎儿超声的应用

肺发育不全是早产死亡和新生儿呼吸系统疾病(NRM)的最常见原因[42]。临床医生通过羊膜腔穿刺术对羊水进行生化分析,以准确评估胎儿肺成熟度(FLM)。然而,当羊水与胎粪或血液混合时,结果可能会受到影响。此外,侵入性手术可能会导致有害的并发症。近几十年来,超声作为一种评估胎儿肺成熟的无创和可重复的方法,已经有了显着的发展。在常规超声中,当比较胎儿肺和胎盘、胎儿肠或肝脏之间的回声差异时,超声图像变化与 FLM 之间存在良好的相关性。这种对应关系允许对FLM进行无创预测[43]。然而,各种因素,如仪器、主观检查者差异和母胎状态,限制了其临床应用。
纹理特征分析可以直接从超声图像中提取关键特征,并有效量化FLM,从而减少主观检查者的差异。Palacio等人[43]提出了一种自动定量超声分析(AQUA)纹理提取器,可以从胎儿肺超声图像中提取最相关的特征进行FLM定量。他们实现了FLM预测,灵敏度为95.1%,特异性为85.7%,准确率为90.3%。基于前一项研究,Bonet-Carne等人[44]提出了一种新的定量超声胎儿肺成熟分析方法,称为quantusFLM,该方法可以预测新生儿呼吸窘迫综合征的发生,其准确性与羊水测试相当。更重要的是,该模型允许立即临床应用。Palacio的团队[45]在全球20个中心进行了一项前瞻性研究,使用quantusFLM分析了730张图像。他们预测新生儿呼吸窘迫综合征的发生率准确率为86.5%,特异性为88.6%。另一项研究[46]将quantusFLM应用于双胞胎妊娠组。Xia等人[47]开发了一种正常的胎儿肺GA分级模型,以识别由母体妊娠疾病引起的异常胎儿肺发育。该模型还可以评估产前皮质类固醇(ACS)治疗后的肺成熟度。该模型在预测GA方面的总体准确率为83.8%,具有良好的稳定性和重现性。鉴于GA和FLM之间的强相关性,该模型在评估新生儿呼吸窘迫综合征方面显示出巨大的潜力。基于AI的技术为胎儿超声图像中FLM的检测提供了新的思路。

3.2.AI 颅内畸形胎儿超声的应用及GA估计

  • 颅内畸形
中枢神经系统畸形是最常见的先天性畸形之一,脑部畸形的发生率可能高达1%[48]。目前,脑超声疑似脑部异常的临床诊断可以通过羊膜穿刺术或MRI结果进行调整或改善。然而,前者是侵入性的,有穿刺后并发症的风险[49],后者易受胎儿运动的影响,因此无法捕获微小的囊肿。作为一种无创、无辐射、实时和动态成像技术,胎儿神经超声检查(NSG)在诊断胎儿中枢系统疾病方面具有独特的优势。然而,超声医师在临床实践中手动识别胎儿脑平面。胎儿头部位置不正确、母体肥胖以及缺乏专业知识和经验会影响成像质量和最终诊断结果,导致假阳性和假阴性率高。
AI辅助超声诊断可以帮助克服传统超声检查的局限性。Xie等[50]提出了第一个胎脑异常产前超声诊断算法。该模型利用U-Net分割颅区,利用VGG-Net网络区分正常和异常超声图像,有助于降低胎儿脑异常的假阴性率。虽然病变区域定位的准确性较低,但可以通过目标检测技术[51]或反向传播方法进行补偿。Xie等人[52]使用基于CNN的DL模型来区分正常和异常的胎儿大脑,总体准确率为96.31%。此外,该模型可以通过热图和重叠图像可视化病变部位,从而提高了基本临床检查的灵敏度。然而,这两项研究都只能区分正常和异常的标准脑平面。基于YOLO算法,Lin等人[53]开发并验证了人工智能辅助图像识别系统PAICS,该系统可以实时检测和分类九种胎儿脑畸形。该模型需要的时间更少,其性能可与专家相媲美。由于其在该领域的重大进展,人工智能有望成为临床筛查胎儿中枢神经系统畸形的有效工具,并提高产前检测率。
  • GA estimation
Another important application of AI combined with fetal brain ultrasound is GA estimation. Currently, ultrasound measurements of fetal anatomical landmarks have been well established for GA estimation, especially in early gestational states. However, with time, the error in ultrasound-estimated GA becomes more pronounced in late pregnancy due to the neglect of variability in fetal growth and development, and in some studies, the error is greater than 2 weeks [54,55]. Therefore, the development of an accurate and reliable model for mid- and late-stage GA assessment is worth exploring.
Namburete et al. [56] used the regression forest method to analyze the spatial and temporal association between brain maturation and GA in fetal cranial ultrasound images. The estimated GA was close to the value obtained by clinical measurement, with the root mean square error (RMSE) of ±6.10 days in the second and third trimesters. The team developed a feature selection framework based on 448 3D ultrasound images of the fetal brain that was able to identify the key anatomical regions of the brain associated with GA changes, including callosal sulci, the Sylvian fissure, and the cingulate [56]. Additionally, Burgos-Artizzu et al. [57] proposed a new DL model named quantusGA based on standard transthalamic axial plane 2D images of 1394 fetuses. The method used supervised learning to learn and automatically analyze changes in brain morphology in fetal ultrasound images. This method [57] showed a lower error in late pregnancy than simply measuring fetal biometric parameters. Unlike single image analysis [56,57], Lee et al. [55] used CNN to analyze images from multiple standard ultrasound views for GA estimation without utilizing biometric information. The best model has a MAE of 3.0 days and 4.3 days in the middle and late stages of pregnancy, respectively. What’s more, it’s applicable to both high- and low-risk pregnancies and to people in different geographical areas. The application of AI has the potential to provide a reliable and accurate GA prediction method for pregnant women who are unable to attend early obstetric examinations in a timely manner.

3.3. AI Applications in Fetal Ultrasound of Congenital Heart Diseases

Congenital heart disease (CHD) is the most common and severe congenital disease among newborns, with a prevalence of about 6–13 per 1000 [29,58]. Rates of fetal congenital heart disability have reached 9.3% in Asia [59]. Generally, surgical treatment for neonatal and adult CHD patients is costly, with long treatment cycles, the risk of secondary surgery, and high mortality, placing a heavy burden on patients and their families. Prenatal ultrasound diagnosis of fetal CHD can assist in making clinical decisions and improve neonatal outcomes [19]. However, when identifying complex abnormal fetal heart anatomy [60,61], detecting and localizing lesions precisely is difficult and time-consuming due to the activity of the fetus, the faster heart beating, the smaller heart size than adults, and the high requirement for expertise [62,63,64]. Moreover, in countries or regions lacking well-established healthcare systems, advanced echocardiographic equipment, and experienced technicians or specialists, prenatal CHD has a high rate of missed diagnosis, which can lead to delayed treatment and a poorer prognosis. The combination of AI and traditional ultrasound is expected to alleviate the above problems [62,65].
In recent years, AI techniques have made significant progress in assessing cardiac structure and function. Arnaout et al. [5] trained an integrated neural network model based on 1326 2D ultrasound grayscale images to distinguish normal hearts from complex CHDs in the recommended five standard cardiac views (three-vessel trachea, three-vessel view, left ventricular outflow tract, axial four-chamber, and abdomen). The model was tested internally with a concentration AUC of 0.99, a sensitivity of 95% (95% confidence interval, 84–99%), a specificity of 96% (95% confidence interval, 95–97%), and a negative predictive value of 100%. Their results showed that the model’s sensitivity is comparable to that of clinicians and performs well on both external datasets and lower-quality images. Compared to 2D ultrasound, four-dimensional (4D) sonography with spatiotemporal image correlation (STIC) enables a more comprehensive view of fetal malformations in real time. Yeo et al. [60,61] developed a fetal intelligent navigation echocardiogram (FINE) in conjunction with Virtual Intelligent Sonographer Assistance (VIS-Assistance), allowing clinicians to locate seven anatomical landmarks according to prompts. Seconds later, the software could automatically generate nine standard fetal echocardiographic views and intelligently identify surrounding anatomical structures with Vis-Assistance. In four proven cases of CHD (coarctation of the aorta, tetralogy of Fallot, transposition of the great vessels, and pulmonary atresia with an intact ventricular septum), the FINE model could recognize abnormal cardiac anatomy. This approach may simplify fetal heart examinations and reduce operator dependence. In a follow-up study, FINE further identified double-outlet right ventricle (DORV) [66] and d-transposition of the great arteries (d-TGA) [67]. It has been integrated into commercial ultrasound equipment [68]. Based on earlier studies [60,61], Yeo et al. [69] proposed a model combined with color or bidirectional functional Doppler, namely 5D Heart Color (or color Doppler FINE). In four specific CHD cases, 5D Heart Color showed vascular anatomy, flow direction, and velocity, providing additional diagnostic details differentiating CHD from micro-physiological tricuspid regurgitation and improving diagnostic accuracy and sensitivity. However, the visualization rate was low for the superior and inferior vena cavae views (33 and 30%), and the STIC technique has a high requirement for the examination equipment and extra time costs [70]. Anda et al. proposed the use of learning deep architectures for the interpretation of first-trimester fetal echocardiography (LIFE) to recognize fetal CHD without using 4D sonography, which was the first AI-standardized approach to assist sonographers in diagnosing fetal CHD in the first trimester [70]. AI has shown significant clinical potential in congenital disease diagnosis, shortening training periods, and reducing the subjective variability of clinicians [71].®
However, compared with neonatal and adult studies, fetal ultrasound image quality can be affected by various factors, such as maternal abdominal fat, fetal position, and mobility [8]. These factors limit the intellectual development and clinical applications of prenatal ultrasound diagnosis. Therefore, further exploration is needed.

This entry is adapted from the peer-reviewed paper 10.3390/jcm12093298

This entry is offline, you can click here to edit this entry!
Academic Video Service