Please use this identifier to cite or link to this item: https://ir.swu.ac.th/jspui/handle/123456789/25153
Title: การจำแนกฟันจากภาพเอกซเรย์โดยวิธีการเข้าคู่รูปแบบ
Other Titles: Teeth segmentation from dental X-ray image by template matching
Advisor : ฑีฆพันธุ์ เจริญพงษ์
Authors: อริสา พูนศรี
Keywords: การจำแนกฟัน
ภาพเอกซเรย์ฟัน
Issue Date: 2558
Publisher: ภาควิชาวิศวกรรมชีวการแพทย์ คณะวิศวกรรมศาสตร์ มหาวิทยาลัยศรีนครินทรวิโรฒ
Abstract(TH): โครงงานวิศวกรรมนี้นำเสนอวิธีการจำแนกฟันออกจากภาพเอกซเรย์ชนิดรอบปากภายนอก (panoramic) ซึ่งเป็นการตัดจำแนกฟันออกมาเป็นซีกเพื่อช่วยในการวินิจฉัยของทันตแพทย์ให้เป็นไปอย่างถูกต้องและมีความสะดวกในการใช้เพราะเป็นการประมวลผลแบบอัตโนมัติ โดยมีการทำงานแบ่งเป็น 3 ขั้นตอนหลักด้วยกัน คือ ขั้นตอนการหาบริเวณฟัน ขั้นตอนการเข้าคู่รูปแบบฟัน และขั้นตอนจำแนกฟัน โดยขั้นตอนการหาบริเวณของฟันประกอบด้วย 2 กระบวนการย่อย ได้แก่ 1.กระบวนการจำแนกบริเวณฟันเบื้องต้นด้วยเทรสโฮลโดยวิธีการของ Otsu (Otsu’s thresholding) 2.การกำจัดส่วนที่อยู่นอกบริเวณฟันด้วยระยะมาฮาลาโนบิส (Mahalanobis distance) ในส่วนของขั้นตอนการเข้าคู่รูปแบบฟันประกอบด้วย 2 กระบวนการได้แก่ 1.การปรับคุณภาพของภาพโดยใช้เทรสโฮลปรับค่า (adaptive thresholding) 2.การเข้าคู่รูปแบบโดยค่าคอรีเลชั่น (template matching using correlation) โดยแต่ละรูปแบบจะใช้รูปแบบที่มีขนาดต่างกัน 4 ขนาดและในส่วนของขั้นตอนจำแนกฟันประกอบด้วย 3 ขั้นตอน ได้แก่ 1.การเลือกส่วนที่ตรวจจับฟันร่วมกัน 2.กระบวนการแบ่งกลุ่มข้อมูลด้วยวิธี K-means (Data Clustering by K-means Algorithm) 3.การจำแนกฟันออกมาเป็นซีก โดยผลการทดลองหาขนาดของรูปแบบที่ใช้ในการเข้าคู่รูปแบบมีขนาดที่เหมาะสม 4 ขนาด เนื่องจากมีค่าความถูกต้องเฉลี่ยร้อยละ 60.75 ในรูปแบบของฟันประเภทรากเดี่ยว และสำหรับรากคู่ มีความถูกต้องร้อยละ 60.83 โดยเฉลี่ยซึ่งเหมาะกับการนำไปใช้เป็นรูปแบบสำหรับขั้นตอนนี้ และผลการทดลองในขั้นตอนการจำแนกฟันโดยเลือกส่วนที่เลือกซ้ำกันของรูปแบบแต่ละขนาด มีค่าความถูกต้องของการตรวจจับ (accuracy) เฉลี่ยร้อยละ 48.91 สำหรับรากคู่ และ ร้อยละ 58.31 สำหรับรากเดี่ยว จึงทำการเลือกฟันเฉพาะ 5 ซีกแรกสำหรับรากเดี่ยว และ 3 ซีกแรกสำหรับรากคู่ และทำพื้นที่การตรวจจับซ้ำกันมาใช้ในขั้นตอน การจำแนกฟันโดยใช้รูปแบบเอียงค่าความถูกต้องจากการตรวจจับฟันเอียง ค่าถูกต้องในการตรวจจับรากเดี่ยวร้อยละ 60.65 รากคู่ร้อยละ 61.18 ซึ่งเป็นผลการทดลองที่ค่อนข้างพึงพอใจในระดับหนึ่ง
Abstract: This engineering project proposed a new method to segment a teeth from panoramic dental x-ray. Presently, dental information is widely used in many application because teeth features are distinguishable. So we make it useful by improving the program to segment a teeth from dental x-ray that will create more choices to get the primary screening before diagnosis by the expert. This research proposed a new method to segment a teeth from panoramic dental x-ray. It has 3 main sections including: Specify teeth area, Matching and Segmentation. Specify teeth area has 2 processes: 1. Converted to binary image using Otsu’s Threshold and 2. Define teeth area using Mahalanobis Distance. Matching step also has 2 processes: 1. Image Enhancement using Adaptive threshold and 2. Template Matching using Correlations. In the result shows performance of suitable templates using in Template Matching, get 4 sizes with mean accuracy is 60.75 % for single root and 60.83 % for double roots. The last section is Segmentation has 3 processes: 1. Plotted boxes merging, 2. K-mean Clustering and 3.Separating individual tooth. In the result shows performance of 4 boxes 3 boxes 2 boxes merging and 1 box from matching. An accuracy of this step has 48.91 per cent for double roots and 58.31% for single root so, we choose first 5detected teeth for single-rooted teeth and first 3detected teeth for double-rooted teeth and this step also uses detected area for declined template matching next step. Accuracy of declined template matching has 60.65% for single-rooted and 61.18% for double-rooted in approximately the results quite good for this project.
URI: https://ir.swu.ac.th/jspui/handle/123456789/25153
Appears in Collections:BioEng-Senior Projects

Files in This Item:
File Description SizeFormat 
Eng_Arisa_P.pdf
  Restricted Access
58.19 MBPDFView/Open Request a copy


Items in SWU repository are protected by copyright, with all rights reserved, unless otherwise indicated.