Please use this identifier to cite or link to this item:
http://nuir.lib.nu.ac.th/dspace/handle/123456789/6558
Title: | Development of deep learning neural network for on-device mobile processing การพัฒนาโครงข่ายประสาทเทียมชนิดการเรียนรู้แบบลึกสำหรับการประมวลผลบนอุปกรณ์เคลื่อนที่ |
Authors: | CHAKKRIT TERMRITTHIKUN จักรกฤษ เติมฤทธิกุล PAISARN MUNEESAWANG ไพศาล มุณีสว่าง Naresuan University PAISARN MUNEESAWANG ไพศาล มุณีสว่าง paisarnmu@nu.ac.th paisarnmu@nu.ac.th |
Keywords: | การเรียนรู้เชิงลึก ขั้นตอนวิธีเชิงวิวัฒนาการหลายวัตถุประสงค์ โครงข่ายประสาทเทียมแบบสังวัตนาการ Deep learning Multi-Objective Evolutionary Algorithms Convolutional Neural Network |
Issue Date: | 23 |
Publisher: | Naresuan University |
Abstract: | The computing cost and memory footprint of computer applications are essential factors for consideration and optimisation for mobile-aware devices. Deep learning has evolved continuously and sufficiently to be used on resource-constrained devices. However, there are still some limitations in using deep learning applications because they are not designed to process complicated tasks. Further, the complexity of the deep learning model is the barrier to implementation on these devices. In this research, a Neural Architecture Search (NAS) was developed that uses a Multi-Objective Evolutionary Algorithm (MOEA) to create a less complicated and robust model, focusing on faster processing time and minimal storage size. The objectives of our NAS are improved accuracy, reduction of complexity and optimisation of parameters. A new state-of-the-art population initialisation (SOTA-PI) to improve models’ efficiency is proposed, with Early Exit to reduce search cost and the number of parameters while searching the models. These methods have been applied to population initialisation without adjusting the number of populations. Tests of the MOEA-Net with SOTA-PI model have shown this model to outperform the current state-of-the-art models on eight out of twelve image recognition datasets. The EEEA-Net-C2 (Early Exit Evolutionary Algorithm Network) also outperformed MobileNet-V3 on image recognition, object detection, semantic segmentation, and keypoints detection tasks. The timeframe for searching for both the SOTA-PI model and EEEA-Net-C2 model took twelve GPU-hours which is significantly faster than the current state-of-the-art-models which have been tested at 96-GPU-hours and even up to 3,150 GPU-days. ต้นทุนการประมวลผลและการใช้หน่วยความจำเป็นปัจจัยสำคัญสำหรับการประมวลผลแอปพลิเคชันบนอุปกรณ์เคลื่อนที่ แบบจำลองของโครงข่ายประสาทเทียมชนิดการเรียนรู้แบบลึกมีการพัฒนาอย่างต่อเนื่องเพื่อใช้สำหรับอุปกรณ์ที่มีทรัพยากรจำกัด อย่างไรก็ตาม การใช้งานจริงยังคงมีข้อจำกัดเรื่องประสิทธิภาพความถูกต้องและความเร็วในการประมวลผล เนื่องจากอุปกรณ์เหล่านี้ไม่ได้ออกแบบมาเพื่อประมวลผลที่ซับซ้อน งานวิจัยนี้นำเสนอวิธีการพัฒนาโครงข่ายประสาทเทียมชนิดการเรียนรู้แบบลึกสำหรับการประมวลผลบนอุปกรณ์เคลื่อนที่ ซึ่งมีวัตถุประสงค์เพื่อลดความซับซ้อนของพารามิเตอร์กับต้นทุนการประมวผลของแบบจำลอง และเพิ่มประสิทธิภาพด้านความถูกต้อง ด้วยการใช้วิธีการค้นหาแบบจำลองแบบอัตโนมัติด้วยขั้นตอนวิธีเชิงวิวัฒนาการ ซึ่งสามารถแก้ไขปัญหาการหาค่าที่เหมาะสมได้ การเพิ่มประสิทธิภาพในการค้นหาแบบจำลองแบ่งเป็นการเพิ่มประสิทธิภาพความถูกต้องด้วยเทคนิค SOTA-PI กับการลดเวลาในการค้นหาและจำนวนพารามิเตอร์ด้วยเทคนิค Early Exit ด้วยการปรับเปลี่ยนวิธีการสร้างประชากรใหม่ โดยที่ไม่ได้เปลี่ยนจำนวนของประชากร จากผลการทดลอง พบว่าการรู้จำภาพถ่ายจาก 8 ชุดข้อมูลนั้น แบบจำลอง MOEA-Net (SOTA-PI) ให้ประสิทธิภาพเหนือกว่าแบบจำลองที่ทันสมัย และแบบจำลอง EEEA-Net-C2 (Early Exit) มีประสิทธิภาพเหนือกว่าแบบจำลอง MobileNet-V3 สำหรับการรู้จำภาพ การตรวจจับวัตถุ การแยกส่วนภาพ และการตรวจจับจุดสำคัญของมนุษย์ นอกจากนี้การค้นหาแบบจำลอง MOEA-Net (SOTA-PI) และ EEEA-Net-C2 ใช้เวลาเพียง 12 ชั่วโมง ต่อ 1 หน่วยประมวลผลกราฟิกส์ |
URI: | http://nuir.lib.nu.ac.th/dspace/handle/123456789/6558 |
Appears in Collections: | คณะวิศวกรรมศาสตร์ |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
60030304.pdf | 6.04 MB | Adobe PDF | View/Open |
Items in NU Digital Repository are protected by copyright, with all rights reserved, unless otherwise indicated.