Please use this identifier to cite or link to this item:
http://nuir.lib.nu.ac.th/dspace/handle/123456789/2323
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor | RUTTHAPONG NANTAPRAE | en |
dc.contributor | รัฐพงษ์ นันตาแพร่ | th |
dc.contributor.advisor | Titipong Kaewlek | en |
dc.contributor.advisor | ฐิติพงศ์ แก้วเหล็ก | th |
dc.contributor.other | Naresuan University. Faculty of Allied Health Sciences | en |
dc.date.accessioned | 2021-03-05T06:47:18Z | - |
dc.date.available | 2021-03-05T06:47:18Z | - |
dc.date.issued | 2563 | en_US |
dc.identifier.uri | http://nuir.lib.nu.ac.th/dspace/handle/123456789/2323 | - |
dc.description | Master of Science (M.S.) | en |
dc.description | วิทยาศาสตรมหาบัณฑิต (วท.ม.) | th |
dc.description.abstract | The limitation of organs at risk (OARs) delineation process in head and neck (H&N) cancer patient, who has been treated by radiotherapy. For instance, it is time-consuming, the variation of intra- and inter-observer and depending on the experience of radiation oncologist’s delineated. Consequently, this study aims to develop the deep learning model for auto-delineation of OARs on CT simulation images of H&N cancer patient, to evaluate the prediction results, and to analyze the factors affecting the prediction of the models were developed. The model development base on U-Net and Feature pyramid network architectures were modified by 4 backbone models: VGG19, ResNet50, SE-ResNet50, and InceptionV3. Training models used 2 training methods: transfer learning and fine-tune methods. The CT simulation image and DICOM RT contour file total of 102 dataset collected from The cancer image archive database used to train the models. The model performances were evaluated by Dice Similarity Coefficients (DSC), 95th percentile Hausdorff Distance (95%HD), models training time, models prediction time, and analysis result of factors that affected the accuracy of the model prediction. The results showed that the best models were classified by each backbone models: TUVGG19, FUResNet50, FFSE-ResNet50, and FUIncV3. The results of averages DSC value were more than 0.8 for brain stem, left and right eye globes, and mandible. more than 0.68 for the left and right parotid glands and spinal cord. The result of averages 95%HD value were less than 2 millimeters for brain stem, left and right eye globes, and spinal cord. Less than 4.1 millimeters for the mandible, left and right parotid glands. The result for averages time of model predictions were 1.286, 1.348, 1.370, and 1.403 seconds per image for the TUVGG19, FUResNet50, FFSE-ResNet50, and FUIncV3 models, respectively. Factors affected the model’s prediction included CT image quality for training models, the accuracy of training mask reference, and the number of the dataset for training should be large. | en |
dc.description.abstract | การกำหนดขอบเขตอวัยวะที่มีความเสี่ยงในผู้ป่วยมะเร็งศีรษะและลำคอที่รักษาด้วยวิธีการฉายรังสี มีข้อจำกัด เช่น ใช้เวลากำหนดขอบเขตนาน มีความแปรปรวนภายในและระหว่างแพทย์ผู้กำหนดขอบเขตรวมถึงประสบการณ์ของแพทย์ ดังนั้นการศึกษานี้จึงมีจุดมุ่งหมายเพื่อพัฒนาโมเดลการเรียนรู้เชิงลึกสำหรับกำหนดขอบเขตอวัยวะที่มีความเสี่ยงอัตโนมัติบนภาพเอกซเรย์คอมพิวเตอร์จำลองการรักษาผู้ป่วยมะเร็งศีรษะและลำคอ ประเมินผลการทำนายขอบเขต และวิเคราะห์ปัจจัยที่มีผลต่อการทำนายของโมเดลที่พัฒนาขึ้น ดำเนินการพัฒนาโมเดลบนพื้นฐานรูปแบบสถาปัตยกรรมยูเน็ต และฟีเจอร์พีระมิดเน็ตเวิร์ค ร่วมกับโมเดลแบคโบน 4 โมเดล ได้แก่ วีจีจี19 เรสเน็ต50 ซี-เรสเน็ต50 และอินเซปชันวี3 ใช้รูปแบบการสอน 2 วิธี ได้แก่ วิธีปรับจูน และวิธีถ่ายทอดการเรียนรู้ สอนโมเดลโดยใช้ข้อมูลภาพเอกซเรย์คอมพิวเตอร์จำลองการรักษา และข้อมูลการกำหนดขอบเขตอวัยวะที่มีความเสี่ยงจากฐานข้อมูลทีซีเอไอ จำนวน 102 ชุดข้อมูล ประเมินประสิทธิภาพการทำนายของโมเดลด้วยค่าสัมประสิทธิ์ความเหมือน (ดีเอสซี) ค่าระยะห่าง 95 เปอร์เซ็นต์ไทล์ฮาวดรอฟ (95%เอชดี) ประเมินเวลาสอนโมเดล เวลาทำนายมาสก์ และวิเคราะห์ปัจจัยที่มีผลต่อประสิทธิภาพการทำนายของโมเดลการเรียนรู้เชิงลึกที่พัฒนาขึ้น ผลการประเมินพบว่าโมเดลที่ให้ผลการทำนายที่ดีในแต่ละรูปแบบโมเดลแบคโบน ได้แก่ โมเดลทียูวีจีจี19 เอฟยูเรสเน็ต50 เอฟเอฟซี-เรสเน็ต50 และเอฟยูอินเชปชันวี3 ผลการประเมินค่าดีเอสซี มากกว่า 0.80 ในอวัยวะที่มีความเสี่ยงก้านสมอง ดวงตาทั้ง 2 ข้าง กระดูกขากรรไกรล่าง และมีค่าดีเอสซี มากกว่า 0.68 ใน ต่อมน้ำลายข้างกกหูทั้ง 2 ข้าง และไขสันหลัง ผลการประเมินค่า 95%เอชดี น้อยกว่า 2 มิลลิเมตร ในอวัยวะที่มีความเสี่ยงก้านสมอง ดวงตาทั้ง 2 ข้าง ไขสันหลัง และค่า 95%เอชดี น้อยกว่า 4.1 มิลลิเมตร ในอวัยวะที่มีความเสี่ยงกระดูกขากรรไกรล่าง และต่อมน้ำลายข้างกกหูทั้ง 2 ข้าง เวลาทำนายมาสก์เฉลี่ยเท่ากับ 1.286, 1.348, 1.370 และ 1.403 วินาทีต่อภาพ สำหรับ โมเดลทียูวีจีจี19 เอฟยูเรสเน็ต50 เอฟเอฟซี-เรสเน็ต50 และเอฟยูอินเชปชันวี3 ตามลำดับ ปัจจัยที่มีผลต่อการทำนายของโมเดลที่พัฒนาขึ้นได้แก่ คุณภาพของภาพซีทีสำหรับสอนโมเดล ความถูกต้องของขอบเขตมากส์อ้างอิงในชุดข้อมูลสอน และปริมาณข้อมูลสำหรับสอนโมเดล | th |
dc.language.iso | th | en_US |
dc.publisher | Naresuan University | en_US |
dc.rights | Naresuan University | en_US |
dc.subject | การเรียนรู้เชิงลึก | th |
dc.subject | ภาพเอกซเรย์คอมพิวเตอร์จำลองการรักษา | th |
dc.subject | มะเร็งศีรษะและลำคอ | th |
dc.subject | สถาปัตยกรรมยูเน็ต | th |
dc.subject | สถาปัตยกรรมฟีเจอร์พีระมิดเน็ตเวิร์ค (เอฟพีเอ็น) | th |
dc.subject | Deep Learning | en |
dc.subject | CT simulation image | en |
dc.subject | Head and Neck cancer | en |
dc.subject | U-Net architecture | en |
dc.subject | Feature Pyramid Network (FPN) architecture | en |
dc.subject.classification | Health Professions | en |
dc.title | การเรียนรู้เชิงลึกโดยโครงข่ายประสาทเทียมคอนโวลูชันสำหรับกำหนดขอบเขตอัตโนมัติบนอวัยวะที่มีความเสี่ยงของมะเร็งศีรษะและลำคอ | th |
dc.title | Deep learning with convolutional neural network for auto-delineation on organs at risk of head and neck cancer | en |
dc.type | Thesis | en |
dc.type | วิทยานิพนธ์ | th |
Appears in Collections: | คณะสหเวชศาสตร์ |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
61061932.pdf | 3.65 MB | Adobe PDF | View/Open |
Items in NU Digital Repository are protected by copyright, with all rights reserved, unless otherwise indicated.