成人网18视频网站,qvod激情视频在线观看,色国产精品一区在线观看,久久99热国产这有精品,天天舔天天爽,国产日韩视频,伊人久久精品成人网


首頁(yè)
產(chǎn)品系列
行業(yè)應用
渠道合作
新聞中心
研究院
投資者關(guān)系
技術(shù)支持
關(guān)于創(chuàng )澤
| En
 
  當前位置:首頁(yè) > 新聞資訊 > 機器人開(kāi)發(fā) > 深度學(xué)習在術(shù)前手術(shù)規劃中的應用  
 

深度學(xué)習在術(shù)前手術(shù)規劃中的應用

來(lái)源:--      編輯:創(chuàng )澤      時(shí)間:2020/5/6      主題:其他   [加盟]

外科手術(shù)的進(jìn)步對急性和慢性疾病的管理,延長(cháng)壽命和不斷擴大生存范圍都產(chǎn)生了重大影響。如圖1所示,這些進(jìn)步得益于診斷,成像和外科器械的持續技術(shù)發(fā)展。這些技術(shù)中,深度學(xué)習對推動(dòng)術(shù)前手術(shù)規劃尤其重要。手術(shù)規劃中要根據現有的醫療記錄來(lái)計劃手術(shù)程序,而成像對于手術(shù)的成功至關(guān)重要。在現有的成像方式中,X射線(xiàn),CT,超聲和MRI是實(shí)際中常用的方式;卺t學(xué)成像的常規任務(wù)包括解剖學(xué)分類(lèi),檢測,分割和配準。

圖1:概述了流行的AI技術(shù),以及在術(shù)前規劃,術(shù)中指導和外科手術(shù)機器人學(xué)中使用的AI的關(guān)鍵要求,挑戰和子區域。

1、分類(lèi)

分類(lèi)輸出輸入的診斷值,該輸入是單個(gè)或一組醫學(xué)圖像或器官或病變體圖像。除了傳統的機器學(xué)習和圖像分析技術(shù),基于深度學(xué)習的方法正在興起[1]。對于后者,用于分類(lèi)的網(wǎng)絡(luò )架構由用于從輸入層提取信息的卷積層和用于回歸診斷值的完全連接層組成。

例如,有人提出了使用GoogleInception和ResNet架構的分類(lèi)管道來(lái)細分肺癌,膀胱癌和乳腺癌的類(lèi)型[2]。Chilamkurthy等證明深度學(xué)習可以識別顱內出血,顱骨骨折,中線(xiàn)移位和頭部CT掃描的質(zhì)量效應[3]。與標準的臨床工具相比,可通過(guò)循環(huán)神經(jīng)網(wǎng)絡(luò )(RNN)實(shí)時(shí)預測心臟外科手術(shù)后患者的死亡率,腎衰竭和術(shù)后出血[4]。ResNet-50和Darknet-19已被用于對超聲圖像中的良性或惡性病變進(jìn)行分類(lèi),顯示出相似的靈敏度和更G的特異性[5]。

2、檢測

檢測通常以邊界框或界標的形式提供感興趣區域的空間定位,并且還可以包括圖像或區域J別的分類(lèi)。同樣,基于深度學(xué)習的方法在檢測各種異;蜥t學(xué)狀況方面也顯示出了希望。用于檢測的DCNN通常由用于特征提取的卷積層和用于確定邊界框屬性的回歸層組成。

為了從4D正電子發(fā)射斷層掃描(PET)圖像中檢測前列腺癌,對深度堆疊的卷積自動(dòng)編碼器進(jìn)行了訓練,以提取統計和動(dòng)力學(xué)生物學(xué)特征[6]。對于肺結節的檢測,提出了具有旋轉翻譯組卷積(3D G-CNN)的3D CNN,具有良好的準確性,靈敏度和收斂速度[7]。對于乳腺病變的檢測,基于深度Q網(wǎng)絡(luò )擴展的深度強化學(xué)習(DRL)用于從動(dòng)態(tài)對比增強MRI中學(xué)習搜索策略[8]。為了從CT掃描中檢測出急性顱內出血并改善網(wǎng)絡(luò )的可解釋性,Lee等人[9]使用注意力圖和迭代過(guò)程來(lái)模仿放射科醫生的工作流程。

3、分割

分割可被視為像素J或體素J圖像分類(lèi)問(wèn)題。由于早期作品中計算資源的限制,每個(gè)圖像或卷積都被劃分為小窗口,并且訓練了CNN來(lái)預測窗口中心位置的目標標簽。通過(guò)在密集采樣的圖像窗口上運行CNN分類(lèi)器,可以實(shí)現圖像或體素分割。例如,Deepmedic對MRI的多模式腦腫瘤分割顯示出良好的性能[10]。但是,基于滑動(dòng)窗口的方法效率低下,因為在許多窗口重疊的區域中會(huì )重復計算網(wǎng)絡(luò )功能。由于這個(gè)原因,基于滑動(dòng)窗口的方法近被完全卷積網(wǎng)絡(luò )(FCN)取代[11]。關(guān)鍵思想是用卷積層和上采樣層替換分類(lèi)網(wǎng)絡(luò )中的全連接層,這大大提G了分割效率。對于醫學(xué)圖像分割,諸如U-Net [12][13]之類(lèi)的編碼器-解碼器網(wǎng)絡(luò )已顯示出令人鼓舞的性能。編碼器具有多個(gè)卷積和下采樣層,可提取不同比例的圖像特征。解碼器具有卷積和上采樣層,可恢復特征圖的空間分辨率,并終實(shí)現像素或體素密集分割。在[14]中可以找到有關(guān)訓練U-Net進(jìn)行醫學(xué)圖像分割的不同歸一化方法的綜述。

對于內窺鏡胰管和膽道手術(shù)中的導航,Gibson等人 [15]使用膨脹的卷積和融合的圖像特征在多個(gè)尺度上分割來(lái)自CT掃描的腹部器官。為了從MRI進(jìn)行胎盤(pán)和胎兒大腦的交互式分割,將FCN與用戶(hù)定義的邊界框和涂鴉結合起來(lái),其中FCN的后幾層根據用戶(hù)輸入進(jìn)行了微調[16]。手術(shù)器械界標的分割和定位被建模為熱圖回歸模型,并且使用FCN幾乎實(shí)時(shí)地跟蹤器械[17]。對于肺結節分割,Feng等通過(guò)使用候選篩選方法從弱標記的肺部CT中學(xué)習辨別區域來(lái)訓練FCN,解決了需要準確的手動(dòng)注釋的問(wèn)題[18]。Bai等提出了一種自我監督的學(xué)習策略,以有限的標記訓練數據來(lái)提GU-Net的心臟分割精度[19]。

4、配準

配準是兩個(gè)醫學(xué)圖像,體積或模態(tài)之間的空間對齊,這對于術(shù)前和術(shù)中規劃都特別重要。傳統算法通常迭代地計算參數轉換,即彈性,流體或B樣條曲線(xiàn)模型,以小化兩個(gè)醫療輸入之間的給定度量(即均方誤差,歸一化互相關(guān)或互信息)。近,深度回歸模型已被用來(lái)代替傳統的耗時(shí)和基于優(yōu)化的注冊算法。

示例性的基于深度學(xué)習的配準方法包括VoxelMorph,它通過(guò)利用基于CNN的結構和輔助分割來(lái)將輸入圖像對映射到變形場(chǎng),從而大化標準圖像匹配目標函數[20]。提出了一個(gè)用于3D醫學(xué)圖像配準的端到端深度學(xué)習框架,該框架包括三個(gè)階段:仿射變換預測,動(dòng)量計算和非參數細化,以結合仿射配準和矢量動(dòng)量參數化的固定速度場(chǎng)[21]。提出了一種用于多模式圖像配準的弱監督框架,該框架對具有較GJ別對應關(guān)系的圖像(即解剖標簽)進(jìn)行訓練,而不是用于預測位移場(chǎng)的體素J別轉換[22]。每個(gè)馬爾科夫決策過(guò)程都由經(jīng)過(guò)擴張的FCN訓練的代理商進(jìn)行,以使3D體積與2D X射線(xiàn)圖像對齊[23]。RegNet是通過(guò)考慮多尺度背景而提出的,并在人工生成的位移矢量場(chǎng)(DVF)上進(jìn)行了培訓,以實(shí)現非剛性配準[24]。3D圖像配準也可以公式化為策略學(xué)習過(guò)程,其中將3D原始圖像作為輸入,將下一個(gè)佳動(dòng)作(即向上或向下)作為輸出,并將CNN作為代理[25]。

參考文獻: 
[1]   G. Litjens, T. Kooi, B. E.Bejnordi, A. A. A. Setio, F. Ciompi, M. Ghafoorian, J. A. Van Der Laak, B. VanGinneken, and C. I. Sa′nchez, “A survey on deep learning in medical image analysis,” Medical Image Analysis, vol. 42, pp. 60–88, 2017.
[2]   P. Khosravi, E. Kazemi, M.Imielinski, O. Elemento, and I. Hajirasouliha, “Deep convolutional neural networks enable discrimination of heterogeneous digital pathology images,” EBioMedicine, vol. 27, pp. 317–328, 2018.
[3]   S. Chilamkurthy, R. Ghosh, S.Tanamala, M. Biviji, N. G. Campeau, V. K. Venugopal, V. Mahajan, P. Rao, and P.Warier, “Deep learning algorithms for detection of critical findings in head CT scans: a retrospective study,” The Lancet, vol. 392, no. 10162, pp. 2388–2396,2018.
[4]   A. Meyer, D. Zverinski, B.Pfahringer, J. Kempfert, T. Kuehne, S. H. Su¨ndermann, C. Stamm, T. Hofmann, V.Falk, and C. Eickhoff, “Machine learning for real-time prediction of complications in critical care: a retrospective study,” The Lancet RespiratoryMedicine, vol. 6, no. 12, pp. 905–914, 2018.
[5]   X. Li, S. Zhang, Q. Zhang, X.Wei, Y. Pan, J. Zhao, X. Xin, C. Qin, X. Wang, J. Li et al., “Diagnosis of thyroid cancer using deep convolutional neural network models applied to sonographic images: a retrospective, multicohort, diagnostic study,” The LancetOncology, vol. 20, no. 2, pp. 193–201, 2019.
[6]   E. Rubinstein, M. Salhov, M.Nidam-Leshem, V. White, S. Golan, J. Baniel, H. Bernstine, D. Groshar, and A.Averbuch, “Unsupervised tumor detection in dynamic PET/CT imaging of the prostate,” Medical Image Analysis, vol. 55, pp. 27–40, 2019.
[7]   M. Winkels and T. S. Cohen,“Pulmonary nodule detection in CT scan with equivariant CNNs,” Medical image analysis, vol. 55, pp. 15–26, 2019.
[8]   G. Maicas, G. Carneiro, A. P.Bradley, J. C. Nascimento, and I. Reid,“Deep reinforcement learning for active breast lesion detection from DCE-MRI,” in Proceedings of International Conference on Medical image computing and Computer-Assisted Intervention (MICCAI). Springer, 2017, pp.665–673.
[9]   H. Lee, S. Yune, M. Mansouri,M. Kim, S. H. Tajmir, C. E. Guerrier, S. A. Ebert, S. R. Pomerantz, J. M.Romero, S. Kamalian et al., “An explainable deep-learning algorithm for the detection of acute intracranial hemorrhage from small datasets,” NatureBiomedical Engineering, vol. 3, no. 3, p. 173, 2019.
[10]K. Kamnitsas, C. Ledig, V. F.Newcombe, J. P. Simpson, A. D. Kane, D. K. Menon, D. Rueckert, and B. Glocker, “Efficient multi-scale 3D CNN with fully connected CRF for accurate brain lesion segmentation,” Medical image analysis, vol. 36, pp. 61–78, 2017.
[11]J. Long, E. Shelhamer, and T.Darrell, “Fully convolutional networks for semantic segmentation,” in proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2015, pp. 3431–3440.
[12]O. Ronneberger, P. Fischer, and T. Brox, “U-Net: Convolutional networks for biomedical image segmentation,” in Proceedings of International Conference on Medical Image Computing and computer-Assisted Intervention (MICCAI). Springer, 2015, pp. 234–241.
[13]O. C¸i¸cek, A. Abdulkadir, S.S. Lienkamp, T. Brox, and O. Ronneberger,¨ “3D U-Net: learning dense volumetric segmentation from sparse annotation,” in Proceedings of InternationalConference on Medical Image Computing and Computer-Assisted Intervention(MICCAI). Springer, 2016, pp. 424–432.
[14]X.-Y. Zhou and G.-Z. Yang,“Normalization in training U-Net for 2D biomedical semantic segmentation,” IEEERobotics and Automation Letters, vol. 4, no. 2, pp. 1792–1799, 2019.
[15]E. Gibson, F. Giganti, Y. Hu,E. Bonmati, S. Bandula, K. Gurusamy, B. Davidson, S. P. Pereira, M. J.Clarkson, and D. C. Barratt, “Automatic multi-organ segmentation on abdominal CT with dense networks,” IEEE Transactions on Medical Imaging, vol. 37, no. 8,pp.1822–1834, 2018.
[16]G. Wang, W. Li, M. A. Zuluaga,R. Pratt, P. A. Patel, M. Aertsen, T. Doel, A. L. David, J. Deprest, S.Ourselin et al., “Interactive medical image segmentation using deep learning with image-specific fine-tuning,” IEEE Transactions on Medical Imaging, vol.37, no. 7, pp. 1562–1573, 2018.
[17]I. Laina, N. Rieke, C.Rupprecht, J. P. Vizca′ıno, A. Eslami, F. Tombari, and N. Navab, “Concurrentsegmentation and localization for tracking of surgical instruments,” in Proceedings of International Conference on Medical Image Computing and Computer-Assisted Intervention (MICCAI).Springer, 2017, pp. 664–672.
[18]X. Feng, J. Yang, A. F. Laine,and E. D. Angelini, “Discriminative localization in CNNs for weakly-supervised segmentation of pulmonary nodules,” in Proceedings of International Conference on Medical Image Computing and Computer-Assisted Intervention (MICCAI). Springer, 2017,pp. 568–576.
[19]W. Bai, C. Chen, G. Tarroni,J. Duan, F. Guitton, S. E. Petersen, Y. Guo, P. M. Matthews, and D. Rueckert,“Self-supervised learning for cardiac MR image segmentation by anatomical position prediction,” in International Conference on Medical Image Computing and ComputerAssisted Intervention. Springer, 2019, pp. 541–549.
[20]G. Balakrishnan, A. Zhao, M.R. Sabuncu, J. Guttag, and A. V. Dalca, “VoxelMorph: a learning framework for deformable medical image registration,” IEEE Transactions on Medical Imaging,2019.
[21]Z. Shen, X. Han, Z. Xu, and M.Niethammer, “Networks for joint affine and non-parametric image registration,”in Proceedings of the IEEE Conference on Computer Vision and pattern recognition (CVPR), 2019, pp. 4224–4233.
[22]Y. Hu, M. Modat, E. Gibson, W.Li, N. Ghavami, E. Bonmati, G. Wang, S. Bandula, C. M. Moore, M. Emberton etal., “Weaklysupervised convolutional neural networks for multimodal image registration,” Medical Image Analysis, vol. 49, pp. 1–13, 2018.
[23]S. Miao, S. Piat, P. Fischer,A. Tuysuzoglu, P. Mewes, T. Mansi, and R. Liao, “Dilated FCN for multi-agent2D/3D medical image registration,” in Proceedings of AAAI Conference on artificial intelligence, 2018.
[24]H. Sokooti, B. de Vos, F.Berendsen, B. P. Lelieveldt, I. Iˇsgum, and M. Staring, “Nonrigid image registration using multi-scale 3D convolutional neural networks,” in Proceedings of International Conference on Medical Image Computing and computer-Assisted Intervention (MICCAI). Springer, 2017, pp. 232–239.
[25]R. Liao, S. Miao, P. deTournemire, S. Grbic, A. Kamen, T. Mansi, and D. Comaniciu, “An artificial agent for robust image registration,” in Proceedings of AAAI Conference on Artificial Intelligence, 2017.

  



迎賓機器人企業(yè)【推薦】

2022年迎賓機器人企業(yè):優(yōu)必選、穿山甲、創(chuàng )澤智能、慧聞科技、杭州艾米、廣州卡伊瓦、勇藝達、睿博天米、銳曼智能、康力優(yōu)藍、云跡科技、南大電子、獵戶(hù)星空、瞳步智能

2020年工業(yè)機器人企業(yè)《機器人戰“疫”系列》

2020年工業(yè)機器人推薦企業(yè):眾為興,翼菲自動(dòng)化,節卡,遨博,埃斯頓,華數,新松,國機智能,拓斯達,天機機器人

2020年物流機器人企業(yè)【推薦】

2020年物流機器人推薦企業(yè):​斯坦德,極智嘉,京東,曠視艾瑞思,快倉,馬路創(chuàng )新,?低,北京機科,昆明船舶,新石器,美團

機器人遙操作

機器人遙操作已廣泛應用在醫療領(lǐng)域、極端環(huán)境探索如太空與深海場(chǎng)景、防恐防爆應用場(chǎng)景,及基于工業(yè)機械臂的自動(dòng)化生產(chǎn)中

2020年人形機器人企業(yè)【推薦】

2020年人形機器人推薦企業(yè):達闥科技、康力優(yōu)藍、南京阿凡達、勇藝達、森漢科技、穿山甲、廣州卡伊瓦、三寶創(chuàng )新。

機器人抗擊傳染病

新冠病毒凸顯了機器人在與傳染病對抗中的重要作用,機器人不會(huì )感染傳染病

2020年清潔機器人企業(yè)【推薦】

2020年清潔機器人推薦企業(yè):科沃斯、石頭科技、上海高仙、普森斯科技、四川東方水利、智意科技、東莞智科、廣州艾可、小狗科技、,斕貦C器人、神舟云海。

2020年巡檢機器人企業(yè)【推薦】

2020年巡檢機器人推薦企業(yè):哈工大機器人、朗馳欣創(chuàng )、優(yōu)必選、杭州艾米、普華靈動(dòng)、沐點(diǎn)智能、億嘉和、科大智能、京東數科、深圳施羅德。

2020年安防機器人企業(yè)【推薦】

2020年安防機器人推薦企業(yè):廣州高新興、北京凌天、浙江國自、沈陽(yáng)新松、湖南萬(wàn)為、蘇州博眾、北京智能開(kāi)誠、優(yōu)必選、南京聚特、上海合時(shí)

2020年教育機器人企業(yè)【推薦】

2020年教育機器人企業(yè):儒博科技、城市漫步、優(yōu)必選、鑫益嘉、大疆創(chuàng )新、森漢科技、勇藝達、創(chuàng )客工場(chǎng)、智伴、科大訊飛...

《泰安市生活垃圾分類(lèi)管理條例》或將于11月1日起施行

4月28日,市十七屆人大常委會(huì )第26次會(huì )議審議了《泰安市生活垃圾分類(lèi)管理條例》(草案修改稿),或將于2020年11月1日起施行

安徽《宣城市生活垃圾分類(lèi)管理辦法》

《宣城市生活垃圾分類(lèi)管理辦法》已經(jīng)2020年1月19日市人民政府第50次常務(wù)會(huì )議審議通過(guò),現予公布,自2020年5月1日起施行。

迎賓機器人企業(yè)【推薦】

2022年迎賓機器人企業(yè):優(yōu)必選、穿山甲、創(chuàng )澤智能、慧聞科技、杭州艾米、廣州卡伊瓦、勇藝達、睿博天米、銳曼智能、康力優(yōu)藍、云跡科技、南大電子、獵戶(hù)星空、瞳步智能

山東機器人公司準獨角獸企業(yè)-創(chuàng )澤智能

山東機器人公司,創(chuàng )澤機器人榮獲山東省工信廳人工智能領(lǐng)域的準獨角獸的稱(chēng)號,是中國工信部人工智能產(chǎn)業(yè)創(chuàng )新重點(diǎn)任務(wù)揭榜優(yōu)勝單位

消毒機器人優(yōu)勢、技術(shù)及未來(lái)發(fā)展趨勢

消毒機器人有哪些優(yōu)勢,未來(lái)發(fā)展趨勢

家庭陪護機器人

家庭陪護機器人能在家中起到監控安全陪護具有人機互動(dòng)交互服務(wù)多媒體娛樂(lè )價(jià)格查詢(xún)等

兒童陪護機器人

兒童陪護機器人與孩子互動(dòng)陪伴玩耍學(xué)習價(jià)格問(wèn)詢(xún)等功能說(shuō)明使用指南介紹

展館智能機器人

展館智能機器人可講解自主行走語(yǔ)音交互咨詢(xún)互動(dòng)價(jià)格咨詢(xún)等功能介紹以及表情展現能力

智能講解機器人

智能講解機器人正在劍橋講解演示咨詢(xún)互動(dòng)移動(dòng)宣傳價(jià)格問(wèn)詢(xún)等功能說(shuō)明介紹

智能接待機器人

智能接待機器人迎賓服務(wù)來(lái)賓問(wèn)詢(xún)答疑價(jià)格查詢(xún)

智能主持機器人

智能主持機器人參與主持了寧夏的云天大會(huì )并完成了大會(huì )的接待任務(wù)多才多藝載很受歡迎

超市智能機器人

超市智能機器人能幫助商家吸引客戶(hù)道路指引導購價(jià)格查詢(xún)

4s店智能機器人

4s店智能機器人迎賓銷(xiāo)售導購數據收集分析價(jià)格問(wèn)詢(xún)等

展廳智能機器人

展廳智能機器人可用于接待講解咨詢(xún)互動(dòng)價(jià)格查詢(xún)等功能
 
資料獲取
新聞資訊
== 資訊 ==
» 智能服務(wù)機器人的足式移動(dòng)方案的優(yōu)勢和適用
» 智能服務(wù)機器人的輪式移動(dòng)方案的優(yōu)勢和適用
» 多技術(shù)棧驅動(dòng)的具身智能:移動(dòng)+操作+交互
» 選擇合適的機器人形態(tài):3自由度、300自
» 通用具身智能機器人的多元形態(tài):專(zhuān)用+類(lèi)人
» 服務(wù)機器人商業(yè)模式變革:產(chǎn)品矩陣助力全棧
» DeepSeek等大模型工具使用手冊-實(shí)
» 艾瑞《中國人工智能產(chǎn)業(yè)研究報告》-AI產(chǎn)
» 2025中國人工智能行業(yè)大模型應用實(shí)踐與
» 2025人工智能+行業(yè)發(fā)展藍皮書(shū)-典型應
» 疾控工作者應該怎么利用DeepSeek等
» 從DeepSeek爆火看2025年AI的
» 2025人工智能賦能新型工業(yè)化范式變革與
» 人形機器人大規模量產(chǎn)在即,關(guān)注核心環(huán)節投
» 智能具身機器人的交互的四個(gè)層級:HCI,
 
== 機器人推薦 ==
 
迎賓講解服務(wù)機器人

服務(wù)機器人(迎賓、講解、導診...)

智能消毒機器人

智能消毒機器人

機器人底盤(pán)

機器人底盤(pán)

 

商用機器人  Disinfection Robot   展廳機器人  智能垃圾站  輪式機器人底盤(pán)  迎賓機器人  移動(dòng)機器人底盤(pán)  講解機器人  紫外線(xiàn)消毒機器人  大屏機器人  霧化消毒機器人  服務(wù)機器人底盤(pán)  智能送餐機器人  霧化消毒機  機器人OEM代工廠(chǎng)  消毒機器人排名  智能配送機器人  圖書(shū)館機器人  導引機器人  移動(dòng)消毒機器人  導診機器人  迎賓接待機器人  前臺機器人  導覽機器人  酒店送物機器人  云跡科技潤機器人  云跡酒店機器人  智能導診機器人 
版權所有 © 創(chuàng )澤智能機器人集團股份有限公司     中國運營(yíng)中心:北京·清華科技園九號樓5層     中國生產(chǎn)中心:山東日照太原路71號
銷(xiāo)售1:4006-935-088    銷(xiāo)售2:4006-937-088   客服電話(huà): 4008-128-728