@article{ author = {Ghassemian, Hassan and Hosseini, Seyed Abolfazl}, title = {Hyper-Spectral Data Feature Extraction Using Rational Function Curve Fitting}, abstract ={In this paper, with due respect to the original data and based on the extraction of new features by smaller dimensions, a new feature reduction technique is proposed for Hyper-Spectral data classification. For each pixel of a Hyper-Spectral image, a specific rational function approximation is developed to fit its own spectral response curve (SRC) and the coefficients of the numerator and denominator polynomials of this function are considered as new extracted features. The method focuses on geometrical nature of SRCs and relies on the fact that the sequence discipline - ordinance of reflectance coefficients in spectral response curve - contains some information which has not been addressed by many other existing methods based on the statistical analysis of data.  Maximum likelihood classification results demonstrate that our method provides better classification accuracies in comparison with many competing feature extraction algorithms. In addition, the proposed algorithm has the possibility  of being  applied to all pixels of image individually and simultaneously as well. }, Keywords = {}, volume = {13}, Number = {3}, pages = {3-16}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {استخراج ویژگی در تصاویر ابرطیفی به کمک برازش منحنی با توابع گویا}, abstract_fa ={در این مقاله روشی برای کاهش ویژگی در تصاویر ابرطیفی به منظور طبقه‌بندی این داده‌ها معرفی شده است که بر مبنای استخراج ویژگی‌های جدید با ابعادی بسیار کمتر از ابعاد ویژگی‌های نخستین عمل می‌کند. برای هر پیکسل از یک تصویر ابرطیفی، یک تابع تقریب کسریِ گویایِ مجزا از طریق برازش بر منحنی پاسخ طیفی آن پیکسل تولید می‌شود. ضرایب چند‌جمله‌ای‌های صورت و مخرج این تابع به‌عنوان ویژگی‌های جدید انتخاب می‌شوند. روش پیشنهادی بر ماهیت هندسی منحنی‌های پاسخ طیفی تأکید و تمرکز دارد و بر این واقعیت تکیه می‌کند که ترتیب توالی نقاط در این منحنیها حاوی اطلاعات مفیدی است که با غالب روش‌های استخراج ویژگی موجود، مورد توجه قرار نگرفته است. نتایج طبقه‌بندی با طبقه‌بند، بیشینه احتمال حکایت از برتری صحت نتایج طبقه‌بندی به‌وسیلۀ ویژگی‌های معرفی شده در مقایسه با روش‌هایِ متعددِ موردِ بررسی دارد. به‌علاوه روش پیشنهادی، قابلیت اعمال به تمام پیکسلهای تصویر را به‌صورت همزمان دارد.}, keywords_fa = { استخراج ویژگی, تصاویر ابرطیفی, برازش منحنی, تقریبPadé , طبقه‌بندی}, doi = {10.18869/acadpub.jsdp.13.3.3}, url = {http://jsdp.rcisp.ac.ir/article-1-346-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-346-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {SadeghiBajestani, Ghasem and Monzavi, Abbas and HashemiGolpaygani, Seyed Mohamad Rez}, title = {Precisely chaotic models survey with Qualitative Bifurcation Diagram}, abstract ={The most important method  for behavior recognition of recurrent maps is to plot bifurcation diagram. In conventional method used for plotting bifurcation diagram,  a couple of time series for different values of model parameter have been generated and these points have been plotted with due respect to it after transient state. It does not have enough accuracy necessary for period detection and essential for discrimination between long periodic behaviors from chaotic behaviors; on the other hand because of being 2-dimensinal, it will not be possible to investigate the effect if the initial condition is in the basin of attraction. In this research, a new bifurcation diagram is presented which is called: Qualitative Bifurcation Diagram (QBD). QBD provides accurate determination of periodicity. Results of our algorithm implementation on logistic map, represents its ability on determining long periods and period windows. Bifurcation diagram of logistic map does not obey mosaic tiling patterns (patterns that are created by arrangement not interaction) as a disciplinein addition to having the dynamic order. Some benefits of QBD are: long period discrimination, period window detection, computation time reduction, period presentation instead of amplitude show. In the  following we have an analytical survey to Lyapunov exponent – as a usual measurement tool for chaotic behavior – and important notes are expressed. Finally, Recurrent Quantification Analysis (RQA) and QBD are compared.  }, Keywords = {Bifurcation diagram, Chaos, Logistic Map, Lyapunov Exponent, Recurrent Quantification Analysis}, volume = {13}, Number = {3}, pages = {17-34}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {بررسی دقیق رفتار مدلهای آشوبی با استفاده از روش نمودار دوشاخگی کیفی}, abstract_fa ={روشِ اساسی برای شناسایی رفتار نگاشت‌های بازگشتی، ترسیم نمودار بایفورکیشن (دوشاخگی) است. در روش مرسوم با تغییر مقدار پارامترِ نگاشت، سری‌های زمانی متعددی ایجاد می‌شود و آن‌گاه با ترسیم مقادیر این سری‌ها در دوره ماندگار- بر حسب مقادیر پارامتر- نمودار دوشاخگی به‌دست می‌آید. این نمودارها، در تعیین دوره تناوب و همچنین جداسازی رفتارهای با دورۀ تناوب طولانی، از رفتارهای آشوب‌گونه، دقت کافی ندارند؛ و از طرف دیگر به‌دلیل دو‌بعدی‌بودن نمودارها، امکان بررسی اثر شرط نخستین در شکل‌گیری بستر جذب وجود ندارد. نمودار ارائه‌شده در این پژوهش که آن را نمودار دوشاخگی کیفی (QBD)[1]می‌نامیم، امکان تعیین دقیق دوره تناوب را فراهم می‌کند. با استفاده از QBD شناسایی مقادیری از شرط نخستین و پارامتر که به‌ازای آنها رفتار نگاشت، متناوب، شبه‌متناوب و یا آشوب‌گونه است، ممکن خواهد بود. نتایج به‌دست‌آمده از پیاده‌سازی الگوریتم پیشنهادی بر روی نگاشت لاجستیک، بیان‌گر توانایی آن در تشخیص تناوب‌های بالا و پنجره‌های متناوب است. همچنین مشاهده شد، نمودار دوشاخگی لاجستیک از یک نظم موزاییکی (نظمی که از چینش اجزا در کنارهم و نه براساس تعامل شکل بگیرد) بهره‌مند نیست و نظمی پویا دارد. مزیت‌های QBD بر روش معمول ترسیم نمودار دوشاخگی عبارتند از: تشخیص تناوب‌های بالا، تشخیص پنجره‌های متناوب، کاهش زمان محاسبات و نمایش دورۀ تناوب به‌جای مقادیر کمی دامنه. در ادامه این پژوهش به‌صورت تحلیلی نمای لیاپانوف –به‌عنوان یکی از ابزاهای متداول در شناسایی آشوب- مورد بررسی قرارگرفته و درباره صحت آن نکات قابل تأملی بیان شده است. در پایان به‌منظور ارزیابی روش پیشنهادی، تحلیل کمی‌سازی بازگشت و  QBD مورد مقایسه قرا‌رگرفته‌اند. [1] Qualitative Bifurcation Diagram}, keywords_fa = {نمودار دوشاخگی, آشوب, نگاشت لاجستیک, نمای لیاپانوف, نمایش بازرخداد}, doi = {10.18869/acadpub.jsdp.13.3.17}, url = {http://jsdp.rcisp.ac.ir/article-1-309-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-309-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Mahdikhanlou, Khadijeh and Ebrahimnezhad, Hossei}, title = {Shape based object retrieval using descriptors extracted from growing contour process}, abstract ={In this paper, a novel shape descriptor for shape-based object retrieval is proposed. A growing process is introduced in which a contour is reconstructed from the bounding circle of the shape. In this growing process, circle points move toward the shape in normal direction until they  get to the shape contour. Three different shape descriptors are extracted from this process: the first descriptor is defined as the number of steps that every circle point should pass which is called Growing Steps. The second descriptor is considered as the boundary distance of the circle points at the end of the growing process. The third descriptor is the curvature of the growing lines created by moving points. Invariance to translation is the intrinsic property of these features. By selecting a fixed starting point and tracing the boundary in a fixed direction (clock-wise or  counter clock-wise), a set of descriptors  could be collected invariant to rotation. Finally, normalizing the descriptors makes them invariant to scale. Support vector machines based on one-shot score are applied in the retrieval stage. Experimental results show that the suggested method has high performance for shape retrieval. It achieves 89.16% retrieval rate on MPEG-7 CE-Shape-1 dataset.}, Keywords = {Shape retrieval, Growing points, Growing steps, Boundary distance, Curvature of growing lines, SVM-OSS.}, volume = {13}, Number = {3}, pages = {35-50}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {بازیابی مبتنی بر شکل اجسام با توصیفگرهای بدست آمده از فرآیند رشد کانتوری}, abstract_fa ={در این مقاله یک ویژگی جدید برای بازیابی مبتنی بر شکل اجسام پیشنهاد می‌شود. ابتدا یک فرآیند رشدی معرفی  که در آن یک کانتور با استفاده از دایره محیطی شکل بازسازی می‌شود. نقاط دایره محیطی در جهت نرمال به سمت شکل حرکت می‌کنند، تا جایی که به کانتور شکل برسند. سه توصیف‌گر شکل از این فرآیند استخراج می‌شود. توصیف‌گر نخست، تعداد گام‌هایی است که هر یک از نقاط باید طی کنند تا به کانتور شکل برسند. توصیف‌گر دوم، فاصله مرزی نقاط از یکدیگر است؛ زمانی که همه نقاط به کانتور مرز رسیده باشند. توصیف‌گر سوم نیز به‌صورت انحنای خطوط ایجاد‌شده در حین حرکت رشدی نقاط از دایره تا کانتور در نظر گرفته می‌شود. تغییرناپذیری نسبت به انتقال، ویژگی ذاتی این سه توصیف‌گر است. با انتخاب یک نقطه شروع ثابت و جهت مشخص (ساعت‌گرد یا پاد ساعت‌گرد) برای دنبال‌کردن کانتور شکل، این ویژگی‌ها نسبت به چرخش تغییرناپذیر خواهند شد. در آخر، با هنجارسازی کردن، ویژگی‌ها نسبت به مقیاس تغییرناپذیر می‌شوند. در مرحله بازیابی، از ماشین‌های بردار پشتیبان براساسOSS  استفاده می‌شود. نتایج آزمایش نشان می‌دهد که روش پیشنهادی،  روشی کارآمد جهت بازیابی شکل است. لازم به ذکر است که درصد بازیابی این روش روی پایگاه داده MPEG-7 CE-Shape-1، 89.16 درصد است. }, keywords_fa = { بازیابی شکل, رشد نقاط, گام‌های رشد, فاصله مرزی, انحنای خطوط رشد, SVM-OSS.}, doi = {10.18869/acadpub.jsdp.13.3.35}, url = {http://jsdp.rcisp.ac.ir/article-1-358-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-358-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {BabaAli, Bagher}, title = {}, abstract ={Although researches in the field of Persian speech recognition  claim  a  thirty-year-old  history in Iran  which has achieved considerable progresses, due to the lack of well-defined experimental framework, outcomes from many of these researches are not comparable to each other and their accurate assessment won’t be possible. The experimental framework includes ASR toolkit and speech database which consists of training, development and test datasets. In recent years,   as a state-of-the-art open-source ASR toolkit; Kaldi has been very well-received and welcomed in the community of the world-ranked speech researchers around the world. considering all aspects, Kaldi is the best option among all of the other ASR toolkits to establish a framework to do research in all languages, including Persian. In this paper, we chose Fardat as the speech database which is the counterpart of TIMIT for Persian language because not only it has got a standard form  but it’s also accessible for all researchers around the world. Similar to the recipe on TIMIT database, we defined these three sets on the Farsdat: Training, Development and Test sets. After a survey on Kaldi’s components and features, we applied most of state-of-the-art ASR techniques in the Kaldi on the Farsdat based on three sets definition. The best phone error rate on development and test set have been 20.3% and 19.8%. All of the codes and the recipe that was written by author have been submitted to Kaldi repository and they are accessible  for free, so all the reported results  will be easily replicable if you have access to Farsdat database.}, Keywords = {Persian Continuous Speech Recognition, FarsDat Database, Kaldi Toolkit}, volume = {13}, Number = {3}, pages = {51-62}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {پایه‌گذاری بستری نو و کارآمد در حوزه بازشناسی گفتار فارسی}, abstract_fa ={برخلاف پیشینۀ سی‌سالۀ پژوهش در حوزۀ بازشناسی گفتار فارسی در ایران و دست‌یافتن به پیشرفت‌های در خور توجه، نتایج عمده کارهای انجام‌شده به‌دلیل عدم وجود بستر یکسان، قابل مقایسه و ارزیابی دقیق نیستند. بستر بیش‌تر شامل سامانۀ بازشناسی و دادگان با تعریف مشخص مجموعه‌های آموزش، توسعه و ارزیابی است. سامانۀ متن‌باز کلدی با وجود نوظهور‌بودن آن ویژگی‌های منحصر‌به‌فردی دارد که در سال‌های اخیر مورد توجه اکثر آزمایشگاه‌های تراز نخست پردازش گفتار دنیا قرار گرفته است و با لحاظ همه جوانب،  بهترین انتخاب موجود در راستای پایه‌گذاری این بستر برای تمامی زبان‌ها از جمله زبان فارسی است. در این مقاله پس از بررسی خصوصیات، توانمندی‌ها و اجزای مختلف نرم‌افراز کلدی؛ دادگان فارس‌دات را به‌دلیل ثبت رسمی و قابل دسترس‌بودن آن برای همگان از سراسر دنیا به‌عنوان بخش دیگر این بستر انتخاب کرده و به تأسی از انتخاب انجام‌شده بر روی دادگان TIMIT به تعریف مجموعه‌های آموزش، توسعه و ارزیابی می‌پردازیم. در‌نهایت بیش‌تر قریب به اتفاق تکنیک‌ها و روش‌های موجود در کلدی بر روی دادگان فارس‌دات، مطابق تعریف صورت گرفته، مورد آزمایش قرار گرفته‌اند. بهترین میزان خطای حاصل در بازشناسی واج برای مجموعه توسعه 3/20 درصد و برای مجموعه آزمون 8/19 بوده است. دسترسی به کدهای نوشته در جهت فراهم‌سازی این بستر، در نرم‌افزار کلدی موجود است که با توجه به متن‌باز‌بودن آن، دسترسی به آنها به‌منظور  بازسازی نتایج آمده در این مقاله در‌صورت در‌اختیارداشتن دادگان فارس‌دات به‌راحتی قابل انجام است.}, keywords_fa = {بازشناسی گفتار پیوسته فارسی, دادگان فارس دات, نرم‌افزار متن‌باز کلدی.}, doi = {10.18869/acadpub.jsdp.13.3.51}, url = {http://jsdp.rcisp.ac.ir/article-1-348-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-348-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Moradi, Bahare and Ezoji, Mehdi}, title = {A Dynamic Skin Detection Method Using the Fusion of 2-D Histogram-Based Features}, abstract ={This paper presents a dynamic approach to Skin Detection- to separate the skin pixels from non-skin pixels- in colored images. The static methods which use a fixed skin color model, will fail if there are illumination variations or different skin colors in an image. Because of contextual information the proposed algorithm will be less sensitive to the uncontrolled illumination conditions. In addition, the selection of discriminant features and the fusion of them and Bayesian classification increase the accuracy of the proposed method in comparison to the reference methods.}, Keywords = {Skin Detection, Skin Dynamic model, 2-D Histogram, Bayesian Rule}, volume = {13}, Number = {3}, pages = {63-78}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {آشکارسازی پویای پوست با استفاده از ادغام ویژگی‌های مبتنی بر هیستوگرام دو بعدی}, abstract_fa ={در این مقاله، روشی پویا برای آشکارسازی پوست )جداسازی پیکسل‌های پوست از پیکسل‌های غیرپوست( در تصاویر رنگی ارائه شده است.. روش‌های ایستا به‌طور عمومی  به‌دلیل بهره‌گیری از یک مدل پوست ثابت، در‌صورت وجود تغییرات روشنایی و نیز حضور گروه‌های نژادی گوناگون در یک تصویر کارایی مناسبی ندارند. در روش ارائه‌شده، با استخراج اطلاعات محلی پوست در هر تصویر به‌صورت پویا، الگوریتم در برابر شرایط نورپردازی متغیر بسیار مقاوم شده است. افزون بر این، بهره‌گیری از ویژگی‌های مناسب جداساز ، چگونگی ادغام اطلاعات و طبقه‌بندی پیکسل‌ها با استفاده از قاعده تصمیم‌گیری بیز، کارایی بهتری را نسبت به روش‌های پیشین نشان می‌دهد. }, keywords_fa = {آشکارسازی پوست, مدل پویای پوست, هیستوگرام دوبعدی, روش تصمیم‌گیری بیز}, doi = {10.18869/acadpub.jsdp.13.3.63}, url = {http://jsdp.rcisp.ac.ir/article-1-325-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-325-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {hanifelou, zahra and Monadjemi, Amir Hassan and moallem, peym}, title = {Robust method of changes of light to detect and track vehicles in traffic scenes}, abstract ={In this paper, according to the detection and tracking of the moving vehicles at junctions, a rapid method is proposed which is based on intelligent image processing. In the detection part, the Gaussian mixture model has been used to obtain the moving parts. Then, the targets have been detected using HOG features extracted from training images, Ada-boost Cascade Classifier and the trained SVM. At the tracking part, a number of key points on the image of the vehicle were identified at first. The center of mass of the object and the edges were used to obtain these key points because these points are primarily important and more common in tracking rigid bodies. Then, these points were tracked in consecutive frames using definitive adaptive procedures. Also, the Kalman filter has been used to estimate new locations when the detector  is not able to detect the targets. The major advantage of this method  in comparison with the previous methods is its resistance against vehicle's overlapping and changes in Illuminations, so that the detection accuracy is 90.80% on overloaded traffic scenes and 88.75% on the tracking vehicles.}, Keywords = {Detection, Tracking, Ada-boost, Kalman Filter, Vehicle tracking, Deterministic Methods Corresponding, Cost Function}, volume = {13}, Number = {3}, pages = {79-98}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {ارائه‌ی روشی مقاوم نسبت به تغییرات روشنایی در آشکارسازی و ردیابی خودروها درصحنه‌های ترافیکی}, abstract_fa ={در این مقاله روشی سریع مبتنی بر پردازش‌های هوشمند تصویر، جهت آشکارسازی و ردیابی خودروهای متحرک در تقاطع‌ها ارائه ‌شده است. در بخش آشکارسازی، ابتدا از مدل گوسی ترکیبی استفاده ‌شده تا مناطق متحرک به‌دست آید؛ سپس به‌کمک یک مدل آشکارساز که توسط ویژگی‌های هیستوگرام گرادیان جهت‌دار استخراج ‌شده از تصاویر آموزشی و طبقه‌بند آبشاری و ماشین بردار پشتیبان آموزش ‌دیده است، آشکارسازی خودروها صورت می‌پذیرد. در بخش ردیابی، در ابتدا تعدادی نقطه کلیدی بر روی تصویر هر خودرو مشخص می‌شود؛ برای به‌دست‌آوردن این نقاط کلیدی، از مرکز جرم هدف و گوشه‌های آن استفاده ‌شده است؛ زیرا به‌طور اصولی این نقاط در ردیابی اجسام صلب اهمیت بیشتری دارند و معمول‌تر هستند؛ سپس عمل ردیابی این نقاط در قاب‌های متوالی با ایده‌گرفتن از روش‌های تطبیق قطعی صورت گرفته است. همچنین در زمان‌هایی که آشکارساز قادر به آشکارسازی اهداف نبوده، جهت تخمین مکان جدید هدف از فیلتر کالمن استفاده‌ شده است. مزیت عمده این روش نسبت به روش‌های قبلی، مقاومت در برابر تغییرات روشنایی و هم‌پوشانی خودروها است، به‌طوری‌که با دقت 90.80% قادر به آشکارسازی خودروها درصحنه‌های پرترافیک و با دقت 88.75% قادر به ردیابی خودروها شده است.}, keywords_fa = {آشکارسازی, ردیابی بصری, HOG, Ada-boost, فیلتر کالمن, ردیابی خودرو, روش‌های تطبیق قطعی نقاط, تابع هزینه}, doi = {10.18869/acadpub.jsdp.13.3.79}, url = {http://jsdp.rcisp.ac.ir/article-1-510-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-510-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {ghaemi, hadi and kahani, mohes}, title = {Question Classification using Ensemble Classifiers}, abstract ={Question answering systems are produced and developed to provide exact answers to the question posted in natural language. One of the most important parts of question answering systems is question classification. The purpose of question classification is predicting the kind of answer needed for the question in natural language. The  literature works can be categorized as rule-based and learning-based methods. This paper proposes a novel architecture for hybrid classification of questions. The results of the classifiers were combined by five methods of Weighted Voting, Behavior Knowledge space, Naive Bayes, Decision Template and Dempster-Shafer. The method uses a combination of two classifiers based on machine learning (Support Vector Machine and Sparse Representation) and one rule-based classifier. The learning-based classification uses the set of features extracted from the questions. The features are extracted on the basis of the lexical and syntactic structure of the questions. The results from the classifiers were combined by the methods that are common in the combination of one-class classifiers and the Obtained results indicate the improvement of the classification operations in comparison with the present methods. }, Keywords = {Question classification, Rule-based, Learning-based, Sparse Representation, Support Vector Machine, Question answering. }, volume = {13}, Number = {3}, pages = {99-112}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {دسته‌بندی پرسش‌ها با استفاده از ترکیب دسته‌بندها}, abstract_fa ={هدف از تولید و گسترش سامانه‌های پرسش و پاسخ، ایجاد پاسخ دقیق برای پرسش داده‌شده به زبان طبیعی است. یکی ازمهم‌ترین بخش‌های سامانه‌های پرسش و پاسخ، دسته‌بندی پرسش است. عمل دسته‌بندی پرسش، پیش‌بینی نوع پاسخ مورد نیاز برای پرسش داده‌شده به زبان طبیعی است. کارهای انجام­شده در این زمینه را می‌توان در دو دسته مبتنی بر قانون و مبتنی بر یادگیری تقسیم کرد. در این مقاله یک معماری جدید برای دسته‌بندی ترکیبی پرسش‌ها ارائه شده است، نتایج هریک از دسته‌بندها توسط پنچ روش رأی­گیری وزن‌دار، فضای دانش رفتار، بیز ساده، کلیشه تصمیم و دمپستر شفر ترکیب شده و خروجی نهایی را شکل می‌دهد. این روش ترکیبی متشکل از دو دسته‌بند مبتنی بر یادگیری ماشین (ماشین بردار پشتیبان و نمایش پراکنده) و یک دسته‌بند مبتنی بر قانون استفاده شده است. عملیات دسته‌بندی مبتنی بر یادگیری با توجه به مجموعه ویژگی‌های استخراج شده از پرسش‌ها انجام می‌پذیرد. این ویژگی‌ها براساس ساختار لغوی و نحوی پرسش‌ها استخراج شده‌اند. در پایان نتایج حاصل از دسته‌بندها با روش‌های معمول در ترکیب دسته‌بندهای تک­طبقه ترکیب شده‌اند و نتایج حاصل بیان­کننده بهبود عملیات دسته‌بندی نسبت به روش‌های موجود است.}, keywords_fa = {دسته‌بندی پرسش‌ها, مبتنی برقانون, مبتنی بر یادگیری, نمایش پراکنده, ماشین بردار پشتیبان, پرسش‌وپاسخ}, doi = {10.18869/acadpub.jsdp.13.3.99}, url = {http://jsdp.rcisp.ac.ir/article-1-270-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-270-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Saidi, Maryam and Mohammadian, Amin and Daneshikohan, Marzieh and Seyedsalehi, Zohreh}, title = {Automatic credibility assessment screening using discriminate analysis of skin conductance response and photoplethysmograph signals}, abstract ={Credibility assessment screening by a small system and receiving optimum result in minimum time is a basic need in critical gates. Therefore the aim of this research is automatic detection of stress in guilty persons through skin conductance response and photoplethysmograph signals which are convenient and ease-of-use sensors .In this paper, a set of database with interview protocol (including control and relevant questions) in mock crime (Stealing jewels) is provided. 40 subjects participated in the experiments. 28 time-frequency features are extracted from two mentioned signals. The function of dimension reduction algorithms including principal component analysis, Kernel based PCA, linear discriminant analysis, cluster based LDA is evaluated to select optimum features. Support Vector Machine, Bayesian and AdaBoost are used as classifiers. The evaluation of algorithms on database is based on LOO method. Maximum accuracy (81.08%) is obtained through principal components analysis as feature selection method and Bayesian as classifier.}, Keywords = {Stress detection, Screening, Skin conductance signal, Photoplethysmography.}, volume = {13}, Number = {3}, pages = {113-128}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {غربال‌‌گری خودکار افراد خطاکار با تحلیل تفکیک‌پذیری مشخصات سیگنال‌های هدایت الکتریکی پوست و حجم‌‌سنجی نوری}, abstract_fa ={غربال‌گری افراد خطاکار به‌کمک سامانه­ای کم‌حجم و حصول نتیجه در کم‌ترین زمان ممکن یکی از نیازمندی­های اساسی در زمینه کنترل مبادی ورود و خروج، در مناطق حساس به‌شمار می­رود. در راستای این مهم، هدف از انجام این پژوهش، بررسی امکان تشخیص خودکار استرس در فرد خطاکار به‌کمک دو سیگنال هدایت الکتریکی پوست و حجم‌سنجی نوری است که حس‌گرهای آنها کمترین مزاحمت را برای افراد ایجاد می­کنند.  مجموعه دادگانی در قالب یک مصاحبه حاوی سؤالات کنترل و مربوط و با ثبت سیگنال هدایت الکتریکی پوست و حجم‌سنجی نوری از چهل ‌نفر در قالب سناریوی دزدیدن جواهرات تهیه شده است. جهت تحلیل خودکار این سیگنال­ها پس از هنجارسازی آنها به استخراج 28 ویژگی زمانی-فرکانسی از دو سیگنال ذکر‌شده پرداخته شده است. عملکرد روش‌های کاهش بعد، تحلیل مولفه‌های مستقل، تحلیل مؤلفه‌های مستقل هسته‌محور، تحلیل تفکیک‌پذیر خطی، تحلیل تفکیک‌پذیر خطی مبتنی بر خوشه جهت استخراج ویژگی‌های بهینه ارزیابی شده است. طبقه‌بندهای مورد بررسی ماشین بردار پشتیبان، بیزین و AdaBoost هستند. ارزیابی روش‌ها براساس روش LOO در میان دادگان بوده است. بیشترین درصد صحت (08/81درصد) با روش کاهش بعد تحلیل مؤلفه‌های مستقل و تحلیل تفکیک‌پذیر خطی و طبقه‌بند بیزین حاصل شده است. }, keywords_fa = {تشخیص استرس, غربال‌گری, سیگنال هدایت الکتریکی پوست, حجم‌سنجی نوری}, doi = {10.18869/acadpub.jsdp.13.3.113}, url = {http://jsdp.rcisp.ac.ir/article-1-242-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-242-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Shahbahrami, Asadollah and Najafi, Kiumarc and Najafi, Tahereh}, title = {Different Application Fields of Brain Signal Processing in Iran}, abstract ={According to the researches, it turns out that human's activities are the results of the internal-neural activities of their brain. The reflection of such activities which are propagated throughout the scalp can then be acquired and processed. In this regard, brain signals can be acquired and recorded by EEG (Electroencephalography). Researchers have applied different technqiues for acquiring, pre-processing, feature extrcation and reduction and classifying EEG signal. According to published papers by Iranian researchers until 2015, it  has been found that most studies have been performed in medical applications and brain computer interface fields. Sampling and receiving EEG signals have been performed more in the central region than other regions. Statistical technqiues have more been used for feature extraction than other technqiues. Finally, the support vector machines are mostly used in the classification of brain signals. At the end, a study on anxiety and depression detection on fifty cases was performed in medical field. Simulation results show that our approach achieve an accuracy of up to 97 percents.}, Keywords = {Feature Extraction, Feature Reduction, Classification, Brain Signals}, volume = {13}, Number = {3}, pages = {129-154}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {حوزه های مختلف کاربردی پردازش سیگنال مغزی در ایران}, abstract_fa ={پژوهش‌ها نشان می‌دهد که اعمال انسان نتیجه عملکرد نورونی داخل مغز وی است. بازخورد این عملکرد به‌صورت سیگنال ساطع‌شده از سطح جمجمه قابل دریافت و پردازش است. دریافت و ثبت سیگنال‌های مغزی توسط دستگاه EEG قابل انجام است. پژوهش‌گران از شیوه‌های گوناگونی در راستای اخذ و پیش پردازش سیگنال، استخراج و کاهش ویژگی و انواع طبقه‌بندی‌کننده‌ها در پژوهش‌های مختلف استفاده کرده‌اند. با توجه به مطالعات جمع‌آوری‌شده از پایگاه‌های علمی داخلی و خارجی که توسط پژوهش‌گران ایرانی تا سال 1394 در زمینۀ پردازش سیگنال مغزی انجام گرفته است، مشخص شد که بیشتر پژوهش‌ها در بخش‌های پزشکی و ارتباط مغز با رایانه صورت گرفته و نیز نمونه‌گیری و اخذ سیگنال از ناحیه مرکزی سطح جمجمه بیشتر مورد استفاده قرار گرفته است و در میان انواع مختلف روش‌های استخراج ویژگی و کاهش آن، روش آماری برای استخراج ویژگی و روش گزینشی برای کاهش آن استفاده شده است. در‌نهایت ماشین بردار پشتیبان بیشترین استفاده را در طبقه‌بندی‌کننده‌های سیگنال مغزی داشته است. در انتها با درنظرگرفتن فراوانی روش‌های استفاده‌شده در مراحل پردازش سیگنال مغز در بخش پزشکی، بر روی تشخیص اضطراب و افسردگی پنجاه سوژه، پژوهشی صورت گرفت و نتیجه با دقت 97 درصد حاصل شد.}, keywords_fa = {استخراج ویژگی, کاهش ویژگی, طبقه‌بندی‌کننده, سیگنال مغز}, doi = {10.18869/acadpub.jsdp.13.3.129}, url = {http://jsdp.rcisp.ac.ir/article-1-305-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-305-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Fayyazi, Hossein and Dehghani, Hamid and Hosseini, Mojtab}, title = {Sparse unmixing of hyper-spectral images using a pruned spectral library}, abstract ={Spectral unmixing of hyperspectral images is one of the most important research fields  in remote sensing. Recently, the direct use of spectral libraries in spectral unmixing is on increase. In this way  which is called sparse unmixing, we do not need an endmember extraction algorithm and the number determination of endmembers priori. Since spectral libraries usually contain highly correlated spectra, the sparse unmixing approach leads to non-admissible solutions. On the other hand, most of the proposed solutions are not noise-resistant and do not reach to a sufficiently high sparse solution. In this paper, with the purpose of overcoming the problems above, at first the spectral library will be pruned based on the spectral information of the image,clustering and classification techniques. Then a genetic algorithm  will be used for sparse unmixing. The experimental results on the simulated and real images show that the proposed method gives good results in noisy images. }, Keywords = {Hyper-spectral images, Spectral Library Pruning, Sparse Unmixing.}, volume = {13}, Number = {3}, pages = {155-169}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {تجزیه‌ ی تُنُک تصاویر ابرطیفی با استفاده از یک کتابخانه‌ ی طیفی هرس شده}, abstract_fa ={تجزیه طیفی تصاویر ابرطیفی یکی از زمینه‌های پژوهشی مهم در سنجش از دور است. در همین اواخر استفاده مستقیم از کتابخانه‌های طیفی برای انجام تجزیه طیفی افزایش یافته‌ است. در این روش‌ها که به تجزیه تُنُک موسومند، نیازی به استخراج مواد پایه و تعیین تعداد آن‌ها از قبل نیست؛ امٌا از آن‌جا که کتابخانه‌های طیفی حاوی طیف‌هایی هستند که همبستگی زیادی دارند، روش‌های تجزیه تُنُک ممکن است، راه‌حل‌های نیمه بهینه‌ای تولید کنند. از طرف دیگر بسیاری از این روش‌ها، نسبت به نوفه حساس بوده و علاوه‌بر‌این به راه‌حل به‌طور‌کامل تُنُکی منجر نمی‌شوند. در این مقاله برای حل مشکلات بالا، در ابتدا کتابخانه طیفی براساس اطلاعات طیفی موجود در تصویر و با استفاده از تکنیک‌های خوشه‌بندی و طبقه‌بندی، هرس شده و سپس از الگوریتم ژنتیک برای تجزیه تُنُک استفاده شده ‌است. آزمایش‌های انجام‌شده بر روی تصاویر آزمایشی و واقعی نشان می‌دهد که روش پیشنهادی، در تصاویر با نسبت سیگنال به نوفه کم و تصاویر واقعی نتایج بهتری به‌دست می‌دهد. }, keywords_fa = {تصاویر ابرطیفی, هرس کتابخانه طیفی, تجزیه تُنُک. }, doi = {10.18869/acadpub.jsdp.13.3.155}, url = {http://jsdp.rcisp.ac.ir/article-1-128-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-128-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} }