Klasifikasi Tekstur Serat Kayu pada Citra Mikroskopik Veneer Memanfaatkan Deep Convolutional Neural Network
DOI:
https://doi.org/10.52985/insyst.v2i1.152Keywords:
Convolutional Neural Network, EfficientNet, contrast stretchingAbstract
Convolutional Neural Network sebagai salah satu metode Deep Learning yang paling sering digunakan dalam klasifikasi, khususnya pada citra. Terkenal dengan kedalaman dan kemampuan dalam menentukan parameter sendiri, yang memungkinkan CNN mampu mengeksplor citra tanpa batas. Tujuan penelitian ini adalah untuk meneliti klasifikasi tekstur serat kayu pada citra mikroskopik veneer dengan CNN. Model CNN akan dibangun menggunakan MBConv dan arsitektur lapisan akan didesain menggunakan EfficientNet. Diharapkan dapat tercapai tingkat akurasi yang tinggi dengan penggunaan jumlah parameter yang sedikit. Dalam penelitian ini akan mendesain empat model arsitektur CNN, yaitu model RGB tanpa contrast stretching, RGB dengan contrast stretching, Grayscale tanpa contrast stretching dan Grayscale dengan contrast stretching. Proses ujicoba akan mencakup proses pelatihan, validasi dan uji pada masing-masing input citra pada setiap model arsitektur. Dengan menggunakan penghitungan softmax sebagai penentu kelas klasifikasi. SGD optimizer digunakan sebagai optimization dengan learning rate 1e-1. Hasil penelitian akan dievaluasi dengan menghitung akurasi dan error dengan menggunakan metode F1-score. Penggunaan channel RGB tanpa contrast stretching sebagai citra input menunjukkan hasil uji coba yang terbaik.
References
L. G. Hafemann, L. S. Oliveira, and P. Cavalin, “Forest species recognition using deep convolutional neural networks,” 2014, doi: 10.1109/ICPR.2014.199.
J. Yang, P. Huang, F. Dai, Y. Sun, L. Wang, and H. Bi, “Application of Deep Learning in Wood Classification,” 2019 IEEE Int. Conf. Comput. Sci. Educ. Informatiz. CSEI 2019, pp. 124–129, 2019, doi: 10.1109/CSEI47661.2019.8938960.
I. MathWorks, “Convolutional Neural Network - MATLAB & Simulink.” p. 1.
C. Doshi, “Why Relu? Tips for using Relu. Comparison between Relu, Leaky Relu, and Relu-6.,” pp. 2–7, 2019.
M. Sandler, A. Howard, M. Zhu, A. Zhmoginov, and L. C. Chen, “MobileNetV2: Inverted Residuals and Linear Bottlenecks,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., pp. 4510–4520, 2018, doi: 10.1109/CVPR.2018.00474.
M. Tan and Q. V. Le, “EfficientNet: Rethinking model scaling for convolutional neural networks,” 36th Int. Conf. Mach. Learn. ICML 2019, vol. 2019-June, pp. 10691–10700, 2019.
M. Tan, “Blog AutoML and Model Scaling,” pp. 1–4, 2019.
J. Hu, “Squeeze-and-Excitation_Networks_CVPR_2018_paper.pdf,” Cvpr, pp. 7132–7141, 2018.
K. Ta and P. Follow, “Squeeze and Excitation Networks ( Hu et al .,” pp. 3–6, 2020.
A. Howard et al., “Searching for mobileNetV3,” Proc. IEEE Int. Conf. Comput. Vis., vol. 2019-October, pp. 1314–1324, 2019, doi: 10.1109/ICCV.2019.00140.
M. Tan et al., “Mnasnet: Platform-aware neural architecture search for mobile,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., vol. 2019-June, pp. 2815–2823, 2019, doi: 10.1109/CVPR.2019.00293.
Downloads
Published
How to Cite
Issue
Section
License
Copyright (c) 2020 Journal of Intelligent System and Computation
This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.