دوره 14، شماره 2 - ( 6-1396 )                   جلد 14 شماره 2 صفحات 43-58 | برگشت به فهرست نسخه ها


XML English Abstract Print


Download citation:
BibTeX | RIS | EndNote | Medlars | ProCite | Reference Manager | RefWorks
Send citation to:

Kianisarkaleh A, Ghassemian M H. Modified Nonparametric Discriminant Analysis for Classification of Hyperspectral Images with Limited Training Samples. JSDP. 2017; 14 (2) :43-58
URL: http://jsdp.rcisp.ac.ir/article-1-344-fa.html
کیانی سرکله آزاده، قاسمیان محمد حسن. تحلیل ممیز غیرپارامتریک بهبودیافته برای دسته‌بندی تصاویر ابرطیفی با نمونه آموزشی محدود. پردازش علائم و داده‌ها. 1396; 14 (2) :43-58

URL: http://jsdp.rcisp.ac.ir/article-1-344-fa.html


دانشگاه تربیت مدرس
چکیده:   (1210 مشاهده)

استخراج ویژگی نقش مهمی در بهبود دسته­بندی تصاویر ابرطیفی دارد. روش­های استخراج ویژگی غیرپارامتریک، نسبت به روش­های پارامتریک، برای داده­های با توزیع غیر نرمال‌ کارایی بهتری دارند و می­توانند ویژگی­های بیشتری را استخراج کنند. روش­های استخراج ویژگی غیرپارامتریک از ماتریس­های پراکندگی غیرپارامتریک برای محاسبه ماتریس انتقال استفاده می­کنند. تحلیل ممیز غیرپارامتریک[1]، یکی از روش­های غیرپارامتریک در استخراج ویژگی است که در آن برای تشکیل ماتریس­های پراکندگی غیرپارامتریک، از میانگین­های محلی هر نمونه و تابع وزن استفاده می­شود. میانگین محلی با استفاده از k نمونه همسایه به‌دست می­آید و تابع وزن، بر روی نمونه­های مرزی در تشکیل ماتریس­ پراکندگی بین­دسته­ای تأکید می­کند. در این مقاله، NDA بهبود‌یافته[2] به‌منظور اصلاح NDA معرفی شده است. در MNDA، تعداد نمونه­های همسایه در محاسبه میانگین محلی با توجه به موقعیت نمونه در فضای ویژگی به‌دست می­آید. روش پیشنهادی از توابع وزن جدید در تشکیل ماتریس­های پراکندگی استفاده می­کند. توابع وزن پیشنهادی تأکید روی نمونه­های مرزی در تشکیل ماتریس پراکندگی بین­دسته­ای و تأکید روی نمونه­های نزدیک به میانگین دسته، در تشکیل ماتریس پراکندگی درون دسته­ای دارند. علاوه براین، به‌منظور اجتناب از تکین‌شدن ماتریس پراکندگی درون‌دسته­ای، از تنظیم آن استفاده شده است. نتایج آزمایش­ها روی تصاویر ایندیانا و سالیناس نشان می­دهد که MNDA کاریی بهتری نسبت به روش­های استخراج ویژگی پارامتریک و غیرپارامتریک مورد مقایسه داشته است. بیشترین مقدار صحت متوسط دسته­بندی برای داده ایندیانا %34/80 است که با 18 نمونه آموزشی، دسته­بند ماشین بردار پشتیبان و 10 ویژگی استخراج شده از MNDA به‌دست آمده است. برای داده سالیناس، بیشترین مقدار صحت متوسط دسته­بندی، %31/94 است که با 18 نمونه آموزشی، دسته­بند ماشین بردار پشتیبان و 9 ویژگی استخراج‌شده از MNDA به‌دست آمده است. آزمایش­ها نشان می‌دهند که با استفاده از توابع وزن پیشنهادی و ماتریس پراکندگی درون‌دسته­ای تنظیم­شده، روش پیشنهادی نتایج بهتری را در دسته‌بندی تصاویر ابرطیفی با نمونه‌های آموزشی محدود به‌دست آورده است.

 
[1] Nonparametric Discriminant Analysis (NDA)
[2] Modified NDA (MNDA)
متن کامل [PDF 6004 kb]   (461 دریافت)    
نوع مطالعه: پژوهشي | موضوع مقاله: مقالات پردازش تصویر
دریافت: ۱۳۹۳/۱۲/۲۳ | پذیرش: ۱۳۹۵/۷/۲۶ | انتشار: ۱۳۹۶/۷/۲۹ | انتشار الکترونیک: ۱۳۹۶/۷/۲۹

فهرست منابع
1. [1] G. F. Hughes, "On the mean accuracy of statistical pattern recognizers," IEEE Transactions on Information Theory, vol. 14, pp. 55–63, 1968. [DOI:10.1109/TIT.1968.1054102]
2. [2] M. Imani, and H. Ghassemian, "Binary coding based feature extraction in remote sensing high dimensional data," Information Sciences, vol. 342, pp. 191-208, 2016. [DOI:10.1016/j.ins.2016.01.032]
3. [3] S. A. Hosseini, and H. Ghassemian, "Rational function approximation for feature reduction in hyperspectral data," Remote Sensing Letters, vol. 7, pp. 101-110, 2015. [DOI:10.1080/2150704X.2015.1101180]
4. [4] S. A. Hosseini, and H. Ghassemian, "Hyper-spectral data feature extraction using rational function curve fitting," Signal and Data Processing, vol. 13, pp. 3-16, 2016. [DOI:10.18869/acadpub.jsdp.13.3.3]
5. [5] M. Imani, and H. Ghassemian, "Feature reduction of hyperspectral data for increasing of class separability and preserving of data structure," Signal and Data Processing, vol. 14, pp. 71-82, 2017. [DOI:10.18869/acadpub.jsdp.14.1.71]
6. [6] W. Liao, A. Pizurica, P. Scheunders, W. Philips, and Y. Pi, "Semisupervised local discriminant analysis for feature extraction in hyperspectral images," IEEE Transaction on Geoscience and Remote Sensing, vol. 51, pp. 184-198, 2013. [DOI:10.1109/TGRS.2012.2200106]
7. [7] Z. Feng, Sh. Yang, Sh. Wang, and L. Jiao, "Discriminative spectral–spatial margin-based semisupervised dimensionality reduction of hyperspectral data," IEEE Geoscience and Remote Sensing Letters, vol. 12, pp. 224-228, 2015. [DOI:10.1109/LGRS.2014.2327224]
8. [8] K. Fukunaga, Introduction to statistical pattern recognition. San Diego, CA, USA, Academic, 1990.
9. [9] X. He, and P. Niyogi, "Locality preserving projections," Advances in Neural Information Processing Systems, vol. 16, pp. 153–160, 2004.
10. [10] M. Kamandar, and H. Ghassemian, "Linear feature extraction for hyperspectral images based on information theoretic learning," IEEE Geoscience and Remote Sensing Letters, vol. 10, pp. 702-706, 2013. [DOI:10.1109/LGRS.2012.2219575]
11. [11] B. C. Kuo, and D. A. Landgrebe, "Nonparametric weighted feature extraction for classification" IEEE Transaction on Geoscience and Remote Sensing, vol. 42, pp. 1096–1105, 2004. [DOI:10.1109/TGRS.2004.825578]
12. [12] J. Yang, P. Yu, and B. C. Kuo, "A nonparametric feature extraction and its application to nearest neighbor classification for hyperspectral image data," IEEE Transaction on Geoscience and Remote Sensing, vol. 48, pp. 1279–1293, 2010. [DOI:10.1109/TGRS.2009.2031812]
13. [13] M. Imani, and H. Ghassemian, "Feature reduction of hyperspectral images: discriminant analysis and the first principal component," journal of AI and Data Mining, vol. 3, pp. 1-9, 2015.
14. [14] M. Imani, and H. Ghassemian, "Feature extraction using attraction points for classification of hyperspectral images in a small sample size situation," IEEE Geoscience and Remote Sensing Letters, vol. 11, pp. 1325-1329, 2014. https://doi.org/10.1109/LGRS.2013.2292892 [DOI:10.1109/LGRS.2014.2316134]
15. [15] M. Imani, and H. Ghassemian, "Feature space discriminant analysis for hyperspectral data feature reduction," ISPRS Journal of Photogrammetry and Remote Sensing, vol. 102, pp. 1–13, 2015. [DOI:10.1016/j.isprsjprs.2014.12.024]
16. [16] R. O. Duda, P. E. Hart, and D. G. Stock, Pattern classification, 2nd ed. New York, Wiley, 2001.
17. [17] C. Chang, and C. Lin, "LIBSVM : A library for support vector machines," ACM Transactions on Intelligent Systems and Technology, vol. 2, pp. 1–27, 2011. [DOI:10.1145/1961189.1961199]
18. [18] G. M. Foody, "Thematic map comparison: evaluating the statistical significance of differences in classification accuracy," Photogrammetric Engineering and Remote Sensing, vol. 70, pp. 627-633, 2004. [DOI:10.14358/PERS.70.5.627]

ارسال نظر درباره این مقاله : نام کاربری یا پست الکترونیک شما:
CAPTCHA code

ارسال پیام به نویسنده مسئول


کلیه حقوق این وب سایت متعلق به فصل‌نامة علمی - پژوهشی پردازش علائم و داده‌ها می باشد.