Signal and Data Processing
پردازش علائم و دادهها
JSDP
Engineering & Technology
http://jsdp.rcisp.ac.ir
1
admin
2538-4201
2538-421X
10.52547/jsdp
1
8888
fa
jalali
1396
6
1
gregorian
2017
9
1
14
2
online
1
fulltext
fa
تحلیل ممیز غیرپارامتریک بهبودیافته برای دستهبندی تصاویر ابرطیفی با نمونه آموزشی محدود
Modified Nonparametric Discriminant Analysis for Classification of Hyperspectral Images with Limited Training Samples
مقالات پردازش تصویر
Paper
پژوهشي
Research
<p dir="RTL" style="margin-right: 1.85pt;"><span style="font-family:b nazanin;"><span style="font-size:10.0pt;">استخراج ویژگی نقش مهمی در بهبود دسته­بندی تصاویر ابرطیفی دارد. روش­های استخراج ویژگی غیرپارامتریک، نسبت به روش­های پارامتریک، برای داده­های با توزیع غیر نرمال کارایی بهتری دارند و می­توانند ویژگی­های بیشتری را استخراج کنند. روش­های استخراج ویژگی غیرپارامتریک از ماتریس­های پراکندگی غیرپارامتریک برای محاسبه ماتریس انتقال استفاده می­کنند. تحلیل ممیز غیرپارامتریک<a href="file://tsclient/E/Nashrieh_No_32/3-kiani/3.kiani-Edited.1396-07-10.docx#_ftn1" name="_ftnref1" title=""><span dir="LTR"><strong><span style="letter-spacing:-.05pt;"><span style="font-family:times new roman,serif;"><span style="font-size:10.0pt;">[1]</span></span></span></strong></span></a></span></span>، یکی از روش­های غیرپارامتریک در استخراج ویژگی است که در آن برای تشکیل ماتریس­های پراکندگی غیرپارامتریک، از میانگین­های محلی هر نمونه و تابع وزن استفاده می­شود. میانگین محلی با استفاده از <em><span dir="LTR"><span style="font-size:8.0pt;">k</span></span></em> <span style="font-family:b nazanin;"><span style="font-size:10.0pt;">نمونه همسایه بهدست می­آید و تابع وزن، بر روی نمونه­های مرزی در تشکیل ماتریس­ پراکندگی بین­دسته­ای تأکید می­کند. در این مقاله، </span></span><span dir="LTR"><span style="font-size:8.0pt;">NDA</span></span><span style="font-family:b nazanin;"><span style="font-size:10.0pt;"> بهبودیافته<a href="file://tsclient/E/Nashrieh_No_32/3-kiani/3.kiani-Edited.1396-07-10.docx#_ftn2" name="_ftnref2" title=""><span dir="LTR"><strong><span style="letter-spacing:-.05pt;"><span style="font-family:times new roman,serif;"><span style="font-size:10.0pt;">[2]</span></span></span></strong></span></a></span></span> بهمنظور اصلاح <span dir="LTR"><span style="font-size:8.0pt;">NDA</span></span><span style="font-family:b nazanin;"><span style="font-size:10.0pt;"> معرفی شده است. در </span></span><span dir="LTR"><span style="font-size:8.0pt;">MNDA</span></span><span style="font-family:b nazanin;"><span style="font-size:10.0pt;">، تعداد نمونه­های همسایه در محاسبه میانگین محلی با توجه به موقعیت نمونه در فضای ویژگی بهدست می­آید. روش پیشنهادی از توابع وزن جدید در تشکیل ماتریس­های پراکندگی استفاده می­کند. توابع وزن پیشنهادی تأکید روی نمونه­های مرزی در تشکیل ماتریس پراکندگی بین­دسته­ای و تأکید روی نمونه­های نزدیک به میانگین دسته، در تشکیل ماتریس پراکندگی درون دسته­ای دارند. علاوه براین، بهمنظور اجتناب از تکینشدن ماتریس پراکندگی دروندسته­ای، از تنظیم آن استفاده شده است. نتایج آزمایش­ها روی تصاویر ایندیانا و سالیناس نشان می­دهد که </span></span><span dir="LTR"><span style="font-size:8.0pt;">MNDA</span></span> <span style="font-family:b nazanin;"><span style="font-size:10.0pt;">کاریی بهتری نسبت به روش­های استخراج ویژگی پارامتریک و غیرپارامتریک مورد مقایسه داشته است. بیشترین مقدار صحت متوسط دسته­بندی برای داده ایندیانا %34/80 است که با 18 نمونه آموزشی، دسته­بند ماشین بردار پشتیبان و 10 ویژگی استخراج شده از </span></span><span dir="LTR"><span style="font-size:8.0pt;">MNDA</span></span> <span style="font-family:b nazanin;"><span style="font-size:10.0pt;">بهدست آمده است. برای داده سالیناس، بیشترین مقدار صحت متوسط دسته­بندی، %31/94 است که با 18 نمونه آموزشی، دسته­بند ماشین بردار پشتیبان و 9 ویژگی استخراجشده از </span></span><span dir="LTR"><span style="font-size:8.0pt;">MNDA</span></span> <span style="font-family:b nazanin;"><span style="font-size:10.0pt;">بهدست آمده است. آزمایش­ها نشان میدهند که با استفاده از توابع وزن پیشنهادی و ماتریس پراکندگی دروندسته­ای تنظیم­شده، روش پیشنهادی نتایج بهتری را در دستهبندی تصاویر ابرطیفی با نمونههای آموزشی محدود بهدست آورده است.</span></span></p>
<div>
<hr align="left" size="1" width="33%" >
<div id="ftn1"><a href="file://tsclient/E/Nashrieh_No_32/3-kiani/3.kiani-Edited.1396-07-10.docx#_ftnref1" name="_ftn1" title=""><span style="font-family:times new roman,serif;"><span style="font-size:9.0pt;"><span style="font-size:9pt;">[1]</span></span></span></a><span style="font-family:times new roman,serif;"><span style="font-size:9.0pt;"> Nonparametric Discriminant Analysis (NDA)</span></span><span dir="RTL"><span style="font-family:times new roman,serif;"><span style="font-size:9.0pt;"></span></span></span></div>
<div id="ftn2"><a href="file://tsclient/E/Nashrieh_No_32/3-kiani/3.kiani-Edited.1396-07-10.docx#_ftnref2" name="_ftn2" title=""><span style="font-family:calibri,sans-serif;"><span style="font-size:10.0pt;">[2]</span></span></a> <span style="font-family:times new roman,serif;"><span style="font-size:9.0pt;">Modified NDA (MNDA)</span></span></div>
</div>
<div id="ftn1"></div>
<p><strong>Feature extraction performs an important role in improving hyperspectral image classification. Compared with parametric methods, nonparametric feature extraction methods have better performance when classes have no normal distribution. Besides, these methods can extract more features than what parametric feature extraction methods do. Nonparametric feature extraction methods use nonparametric scatter matrices to compute transformation matrix. Nonparametric Discriminant Analysis (NDA) is one of the nonparametric feature extraction methods in which, to form nonparametric scatter matrices, local means of samples and weight function are used. Local mean is calculated by <em>k</em> nearest neighbors of each sample and weight function emphasizes on boundary samples in between class scatter matrix formation. In this paper, modified NDA (MNDA) is proposed to improve NDA. In MNDA, the number of neighboring samples, when measuring local mean, are determined considering position of each sample in feature space. MNDA uses new weight functions in scatter matrix formation. Suggested weight functions emphasizes on boundary samples in between class scatter matrix formation and focus on samples close to class mean in within class scatter matrix formation. Moreover, within class scatter matrix is regularized to avoid singularity. Experimental results on Indian Pines and Salinas images show that MNDA has better performance compared to other parametric, nonparametric feature extraction methods. For Indian Pines data set, the maximum average classification accuracy is 80.34%, which is obtained by 18 training samples, support vector machine (SVM) classifier and 10 extracted features achieved by MNDA method. For Salinas data set, the maximum average classification accuracy is 94.31%, which is obtained by 18 training samples, SVM classifier and 9 extracted features achieved by MNDA method. Experiments show that using suggested weight functions and regularized within class scatter matrix, the proposed method obtained better results in hyperspectral image classification</strong> <strong>with limited training samples.</strong><br>
</p>
تصاویر ابرطیفی, استخراج ویژگی, دستهبندی نظارتشده, پدیده هیوز, نمونههای آموزشی محدود
Hyperspectral images, Feature extraction, Supervised classification, Hughes Phenomenon, Limited training samples
43
58
http://jsdp.rcisp.ac.ir/browse.php?a_code=A-10-720-1&slc_lang=fa&sid=1
Azadeh
Kianisarkaleh
آزاده
کیانی سرکله
azade.kiyani@gmail.com
10031947532846005455
10031947532846005455
No
Science and Research Branch, Islamic Azad University
دانشگاه آزاد اسلامی، واحد علوم و تحقیقات
Mohammad Hassan
Ghassemian
محمد حسن
قاسمیان
ghassemi@modares.ac.ir
10031947532846005456
10031947532846005456
Yes
Tarbiat Modares University
دانشگاه تربیت مدرس