@article{ author = {}, title = {Image Encryption Algorithm based on Recursive Cellular Automata}, abstract ={In this paper, a new structure for image encryption using recursive cellular automatais presented. The image encryption contains three recursive cellular automata in three steps, individually. At the first step, the image is blocked and the pixels are substituted. In the next step, pixels are scrambledby the second cellular automata and at the last step, the blocks are attachedtogether and the pixels substitute by the third cellular automata. Due to reversibility of cellular automata, the decryption of the image is possible by doing the steps reversely. The experimental results show that the encrypted image is not comprehend visually, also this algorithmhas satisfactory performance in terms of quantitative assessment from some other schemes.}, Keywords = {Cryptography, Cellular Automata, Recursive Cellular Automata}, volume = {13}, Number = {1}, pages = {3-14}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {رمزنگاری تصاویر با استفاده از اتوماتای سلولی برگشت پذیر}, abstract_fa ={در این مقاله یک ساختار جدید برای رمزنگاری تصویر با استفاده از اتوماتای سلولی برگشت­پذیر ارائه می­شود. رمزنگاری تصویر در روش پیشنهادی در سه مرحله جداگانه صورت می­گیرد. در مرحله اول تصویر بلوک­بندی می­شود و سپس مقادیر روشنایی پیکسل­ها با استفاده از اتوماتای سلولی برگشت­پذیر جایگزین می­شوند. درهم­ریزی تصویر در مرحله دوم توسط اتوماتای دیگری انجام می­شود و سپس در مرحله نهایی بلوک­های تصویر در کنار یک دیگر قرار می­گیرند و عمل جایگزینی پیکسل­ها با استفاده از اتوماتای سلولی برگشت­پذیر صورت می­پذیرد. بدیهی است مراحل رمزگشایی تصویر با توجه به برگشت­پذیری اتوماتای پیشنهادی به صورت معکوس قابل اجرا است. نتایج آزمایش­ها نشان می­دهد روش پیشنهادی می­تواند تصویر را به گونه­ای رمز کند که تصویر رمز شده از لحاظ بصری قابل درک نباشد. هم چنین ارزیابی با استفاده از معیارهای کمی نشان می­دهد روش پیشنهادی نتایج مطلوب­تری نسبت به روش­های مورد بررسی داشته است.                                                                               }, keywords_fa = {رمزنگاری تصویر, اتوماتای سلولی, اتوماتای سلولی برگشت­پذیر}, url = {http://jsdp.rcisp.ac.ir/article-1-266-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-266-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {khorashadizadeh, majid and latif, ali mohamm}, title = {image denoising using adaptive switching filter based on extreme learning machine}, abstract ={In this paper a new efficient method for detecting the impulse noise from the corrupted image using extreme learning machine (ELM) is proposed. An improved version of the standard median filter is suggested to remove the detected noisy pixel. The performance of proposed detector is evaluated using classification accuracy. The results show that our detector is robust even at higher noise density. Results illustrate that proposed filter provides better performance in terms of PSNR than many other median filter variants for Salt and pepper noise. . The suggested technique yields significantly good results both in objective and subjective judgments of image quality.}, Keywords = {}, volume = {13}, Number = {1}, pages = {15-25}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {حذف نویز ضربه تصاویر با استفاده از فیلتر تطبیقی سوئیچ کننده مبتنی بر ماشین یادگیر بیشینه}, abstract_fa ={در این مقاله یک رویکرد کارآمد مبتنی بر ماشین یادگیر بیشینه برای تشخیص و شناسایی پیکسلهای آغشته به نویز فلفل نمک از تصاویر دیجیتال ارائه‌شده است. الگوریتم پیشنهادی با استفاده از یک طبقه بند ماشین یادگیر بیشینه با ورودی های پیکسل مرکزی، ROAD و چهار فاکتور تصمیم گیری فیلتر SD-ROM، ابتدا پیکسل های نویزی را تشخیص داده و سپس با استفاده از فیلتر میانه تطبیقی، مقدار پیکسل نویزی تخمین زده می شود. نتایج حاصل از ارزیابی عملکرد طبقه بند، نمایانگر قابلیت بالای ویژگی های ورودی در متمایزکردن پیکسل نویزی از پیکسل سالم است. برای ارزیابی، تصاویر بهبودیافته توسط الگوریتم پیشنهادی با تصاویر حاصل از چند فیلتر متداول دیگر مقایسه و از معیار نرخ ماکزیمم سیگنال به نویز استفاده شد. نتایج عددی حاصل از آزمایش‌ها حاکی از کارآمدی فیلتر پیشنهادی ازنظر معیارهای کمی و کیفی می باشند.}, keywords_fa = {حذف نویز, ماشین یادگیر بیشینه, فیلتر میانه تطبیقی , نویز فلفل نمک, فیلتر سوئیچ کننده}, url = {http://jsdp.rcisp.ac.ir/article-1-294-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-294-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {RezaeiSharifabadi, Morteza and Khosravizadeh, Parvaneh}, title = {Automatic Labeling of Semantic Roles in Persian Sentences using Dependency Trees}, abstract ={Automatic identification of words with semantic roles (such as Agent, Patient, Source, etc.) in sentences and attaching correct semantic roles to them, may lead to improvement in many natural language processing tasks including information extraction, question answering, text summarization and machine translation. Semantic role labeling systems usually take advantage of syntactic parsing and therefor the syntactic representation chosen affects the overall performance of the system. In this research, we present a semantic role labeling system based on full syntactic parsing. For this purpose, we use a dependency parser and machine learning methods. In our system, we have made an effort to overcome the problems of previous semantic role labelers for Persian, which all are based on shallow syntactic parsing. The outcome of the system is promising.}, Keywords = {semantic role labeling, shallow semantic parsing, dependency grammar, Persian language, natural language processing, computational linguistics}, volume = {13}, Number = {1}, pages = {27-38}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {برچسب‌زنی خودکار نقش‌های معنایی در جملات فارسی به کمک درخت‌های وابستگی}, abstract_fa ={تتشخیص خودکار واژه‌های دارای نقش‌های معنایی (همچون کنش‌گر، کنش‌پذیر، منشأ، و ...) در جملات و اختصاص صحیح نقش‌های معنایی به آن‌ها توسط رایانه می‌تواند موجب بهبود کیفیت در بسیاری از کاربردهای پردازش زبان طبیعی همچون استخراج اطلاعات، پرسش و پاسخ، خلاصه‌سازی، و ترجمۀ ماشینی شود. در چنین پردازشی که برچسب‌زنی نقش معنایی و یا تجزیۀ معنایی سطحی خوانده می‌شود معمولاً از تجزیۀ نحوی جملات به منظور تعریف ویژگی‌های نحوی استفاده می‌شود و نوع بازنمایی نحوی مورد استفاده در دقت سامانۀ برچسب‌زنی نقش معنایی موثر است. در این پژوهش به ارائۀ برچسب‌زن نقش معنایی مبتنی بر تجزیۀ نحوی کامل می‌پردازیم. بدین منظور از تجزیه‌گر نحوی وابستگی و روش‌های یادگیری ماشینی استفاده می‌شود. در برچسب‌زن ارائه‌شده سعی شده است که مشکلات برچسب‌زن‌های قبلی ارائه‌شده برای زبان فارسی، که همگی مبتنی بر تجزیۀ نحوی سطحی بوده‌اند، رفع شود و معماری سیستم به برچسب‌زن‌های به‌روز دنیا نزدیک باشد. نتایج پژوهش نشان‌دهندۀ دقت مناسب سیستم ارائه‌شده است.}, keywords_fa = {برچسب‌زنی نقش معنایی, تجزیۀ معنایی سطحی, دستور وابستگی, زبان فارسی, پردازش زبان طبیعی, زبان‌شناسی رایانه‌ای }, url = {http://jsdp.rcisp.ac.ir/article-1-279-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-279-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Ansari, Zohreh and Seyyedsalehi, Ali}, title = {Deep Modular Neural Networks with Double Spatio-temporal َAssociation Structure for Persian Continuous Speech Recognition}, abstract ={In this article, growable deep modular neural networks for continuous speech recognition are introduced. These networks can be grown to implement the spatio-temporal information of the frame sequences at their input layer as well as their labels at the output layer at the same time. The trained neural network with such double spatio-temporal association structure can learn the phonetic sequence subspace. Therefore, it can filter out invalid phonetic sequences in its own structure and output valid sequences. To evaluate the performance of these growable neural networks, we used FARSDAT and BIG FARSDAT datasets. Experimental results on FARSDAT show that deep modular neural networks outperform the phone accuracy rate of GMM-HMM models with an absolute improvement of 2.7%. Moreover, developing deep modular neural networks to a double spatio-temporal association structure improves their result by 5.1%. As there is no phonetic labeling for BIG FARSDAT, a semi-supervised learning algorithm is proposed to fine-tune the neural network with double spatio-temporal structure on this dataset, which achieves a comparable result with HMMs.}, Keywords = {Deep neural networks, Modular neural networks, Pre-training, Semi-supervised learning, Continuous speech recognition}, volume = {13}, Number = {1}, pages = {39-56}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {معرفی شبکه های عصبی پیمانه ای عمیق با ساختار فضایی-زمانی دوگانه جهت بهبود بازشناسی گفتار پیوسته فارسی}, abstract_fa ={در این مقاله به معرفی شبکه‌های عصبی پیمانه ای عمیق و قابل رشد به منظور بهبود بازشناسی گفتار پیوسته پرداخته می شود. ساختار این شبکه ها و روش‎های پیش‎تعلیم معرفی شده برای آنها بگونه ای است که درعین هماهنگی با ساختار گفتار، در حافظه و محاسبات لازم صرفه جویی میشود. بدلیل قابلیت رشد این ساختارها، می‌توان در تعلیم آنها اطلاعات فضایی-زمانی بردارهای بازنمایی در ورودی و اطلاعات فضایی-زمانی برچسب آوایی آنها را در خروجی شبکه عصبی انجمن کرد. شبکه تعلیم یافته با این ساختار انجمنگر فضایی-زمانی دوگانه، میتواند زیرفضای زنجیره های معتبر آوایی دادگان را یادبگیرد. بنابراین، در ساختار خود زنجیره های خروجی نامعتبر را پالایش کرده و زنجیره های درست را میدهد. جهت بررسی عملکرد این ساختارها، از دودسته دادگان گفتاری فارس دات و فارس دات بزرگ استفاده شد. نتایج آزمایش‎ها نشان می‌دهند که میتوان دقت بازشناسی آوا را برروی دادگان فارس دات تا 2.7% با استفاده از شبکه‌های عصبی پیمانه ای عمیق نسبت به مدل‌های مخفی مارکوف بالابرد. که با توسعه آنها به ساختار فضایی-زمانی دوگانه این نتیجه تا 5.1% بهبودمی یابد. بدلیل عدم وجود برچسب های آوایی برای دادگان بزرگ، یک روش تعلیم نیمه سرپرستی شده برای تعلیم شبکه های عصبی برروی این دادگان پیشنهاد شده است که میتواند به درصد بازشناسی قابل مقایسه ای با مدلهای مخفی مارکوف دست یابد.}, keywords_fa = {شبکه های عصبی عمیق, شبکه های عصبی پیمانه ای, پیش تعلیم, تعلیم نیمه سرپرستی شده, بازشناسی گفتار پیوسته}, url = {http://jsdp.rcisp.ac.ir/article-1-277-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-277-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Shekofteh, Yasser and Gholipor, Hasan and Goodarzi, M.Mohsen and kabudian, Jahanshah and Almasganj, Farshad and Reza, Shaghayegh and Sarraf, Im}, title = {Fast estimation of warping factor in the vocal tract length normalization using obtained scores of gender detection modeling}, abstract ={The performance of automatic speech recognition (ASR) systems is adversely affected by the variations in speakers, audio channels and environmental conditions. Making these systems robust to these variations is still a big challenge. One of the main sources of variations in the speakers is the differences between their Vocal Tract Length (VTL). Vocal Tract Length Normalization (VTLN) is an effective method introduced to cope with this variation. In this method, the speech spectrum of each speaker is frequency warped according to a specific warping factor of that speaker. In this paper, we first developed the common search-based method to obtain the appropriate warping factor over a HMM-based Persian continuous speech recognition system. Then pointing out the computational cost of search-based method, we proposed a linear regression process for estimating warping factor based on the scores generated by our gender detection system. Experimental results over a Persian conversational speech database shown an improvement about 0.54 percent in word recognition accuracy as well as a significant reduction in computational cost of estimating warping factor, compared to search-based approach.}, Keywords = {speech recognition, Vocal Tract Length Normalization, gender detection, linear regression, warping factor,}, volume = {13}, Number = {1}, pages = {57-70}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {تخمین سریع ضرایب پیچش در هنجارسازی طول مجرای صوتی با استفاده از امتیاز به دست آمده از مدلسازی تشخیص جنسیت}, abstract_fa ={یکی از مشکلات عمده­ی سامانه­های خودکار بازشناسی گفتار (ASR)، تنوعات موجود در بین گویند­ه­ها، کانال انتقال داده و محیط است که به علت وجود این تنوعات، کارایی این سامانه‌ها در شرایط کاربردی مختلف به شدت تغییر می‌کند. مقاوم سازی سیستم­های بازشناسی جهت مقابله با این تغییرات از جمله مسائل حال حاضر در حوزه بازشناسی گفتار است. از جمله عواملی که باعث کاهش کارایی سیستم­ها می­شود، تمایز مشخصات صوتی آواهای یکسانِ تولید شده از گوینده­های مختلف است. یکی از عوامل اصلی این مشکل ناشی از تفاوت موجود در طول مجرای صوتی (VTL) بین گوینده­های مختلف می‌باشد. روش هنجارسازی طول مجرای صوتی (VTLN) از روش­های رایج برای رفع این مشکل است که در آن برای هر گوینده یک ضریب پیچش فرکانسی تعیین می­گردد. در این مقاله روش متداول تعیین ضریب پیچش با رویکرد مبتنی بر جستجو در یک سیستم بازشناسی گفتار پیوسته فارسی مبتنی بر مدل مخفی مارکوف معرفی و مشکلات محاسباتی استفاده از این روش شرح داده شده است. در نهایت روشی مبتنی بر رگرسیون خطی از روی امتیازِ محاسبه شده از مدلسازی تشخیص جنسیت جهت تخمین ضرایب پیچش پیشنهاد شده است که منجر به کاهش قابل ملاحظه هزینه محاسباتیِ روش مبتنی بر جستجو می­شود. علاوه بر این، نتایج آزمایشات بر روی دادگان آزمون گفتار تلفنی محاوره­ای، بیانگر بهبود 54/0 درصدی دقت تشخیص کلمه روش پیشنهادی نسبت به روش متداول مبتنی بر جستجو می­باشد. }, keywords_fa = {بازشناسی گفتار, هنجارسازی طول مجرای صوتی, تشخیص جنسیت, رگرسیون خطی, ضریب پیچش فرکانسی.}, url = {http://jsdp.rcisp.ac.ir/article-1-254-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-254-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Ahangarbahan, Hamid and Montazer, Gholam Ali}, title = {Design a Sentence Based Plagiarism Detection System by Evidences Fusion in Persian Text}, abstract ={Today, there are many documents on Internet, such that users can generate new documents by coping them and existing Plagiarism Detection systems (PDS) couldn't detect all kind of plagiarism. The main challenge is finding a suitable algorithm to improving the amount of similar documents and their assessing time. It’s difficult to do assessing similarity in Persian texts that different characteristics affect on it and also many of them are ambiguous. For this reason Dempster - Shefer (Evidence) theory has been used in this paper. The proposed system will assess in a two-level and in the first stage, sentences will divide in general and expert terms and then assessing by suitable measures and domain ontology. These results will be delivered to first level as "basic belief" and will be integrated by using a Dempster combination rule to create one of the second level inputs. In second level, the previous level result and another similarity measures will be weighted and combined belief and plausibility functions for final assessment will be distinguished. This system has been used for real data assessment and compared the actual results shows that the precision between the system results and actual results is about 90%, which implies that the system can be used as Plagiarism Detection System.}, Keywords = {Plagiarism, Data fusion, Evidence theory, Similarity Measures, Semantic Similarity}, volume = {13}, Number = {1}, pages = {71-85}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {طراحی سامانۀ تشخیص دستبرد ادبی جمله‌بنیاد در متون فارسی به کمک هم‌جوشی گواه‌ها}, abstract_fa ={در حال حاضر، افراد به راحتی می‌توانند سند جدیدی را با رونوشت‌برداری از منابع وسیع اینترنتی درست و به نام خود ثبت کنند که مصداقی از دستبرد ادبی است. سامانه‌های دستبرد ادبی موجود قابلیت شناسایی کامل انواع دستبرد را ندارند. چالش اساسی در این زمینه یافتن الگوریتمی مناسب برای بهبود میزان یافته‌های مشابه و زمان بررسی آنهاست. تاکنون سنجه‌های مختلفی برای ارزیابی مشابهت دو سند ارائه شده که کارایی آنها به محتوای متن و منابع مورد استفاده برای مقایسۀ بین واژه‌های دو سند محدود است. در این مقاله روشی ارائه شده است که با توجه به کیفی و ناکامل بودن عوامل اثرگذار بر سنجش شباهت بین دو متن، از نظریۀ گواه برای هم‌جوشی اطلاعات به منظور ارزیابی تشابه دو سند فارسی و کشف دستبرد ادبی استفاده می‌کند. سامانۀ طراحی‌شده در مرحلۀ اول جمله‌های موجود در سند را به دو بخش عمومی و تخصصی تقسیم کرده و سپس با استفاده از سنجه‌های متفاوت و استفاده از منابعی همانند «هستان‌نگار تخصصی» امتیاز تشابه برای هر بخش را محاسبه و در نهایت در دو سطح، میزان شباهت بین دو سند را استنتاج می‌کند؛ به طوری‌که در سطح اول نتایج سنجه‌های شباهت‌سنجی به عنوان گواه (با باور پایۀ مشخص) با قاعدۀ دمپستر-شفر با هم ترکیب شده و به عنوان گواهی جدید به سطح دوم منتقل می‌شوند. در سطح دوم نتیجۀ سطح اول ‌و‌گواه جدید از طریق قاعدۀ میانگین‌گیری ترکیب شده و توابع باور و مقبولیت نهایی محاسبه و شباهت بین دو جمله(سند) ارزیابی می‌شود. سامانۀ مذکور بر داده‌های واقعی در محیط زبان فارسی مورد ارزیابی قرار گرفته که با دقت بیش از 90% امکان شناسایی اسناد مشابه را داراست و به همین دلیل توانمندی لازم برای استفاده در حوزۀ شناسایی دستبرد ادبی را داراست.}, keywords_fa = { دستبرد ادبی, هم‌جوشی داده, سنجه‌های شباهت‌سنجی, نظریۀ گواه, شباهت‌سنجی معنایی}, url = {http://jsdp.rcisp.ac.ir/article-1-276-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-276-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {}, title = {Improved Clustering Persian Text Based on Keyword Using Linguistic and Thesaurus Knowledge}, abstract ={Persian words in writing with a diverse and cover all modes of grammatical words with the recruitment of a series of specific rules because it is impossible to extract keywords automatically from Persian texts difficult and complex. This thesis has attempted to use linguistic information and thesaurus, keywords Mnatry be provided. Using the symbol system is structured network can be keywords, including the exchange of words, words and words with hierarchical relationships complete the package has increased. Therefore the agreement between users and search keywords text search and recall is increased. In the first stage non-important words are removed and the public. Supervision in the text are words and more words to clarify the relative importance of using a blower numerical weight is assigned to each word that indicates the effectiveness of the word in connection with the subject and compared with the other words used in the text. Particularly complex operation that makes use of thesaurus keywords are extracted Mnytry that kind of hierarchical category scientific literature in the field of information retrieval is indicated. Test results on different topics several text accurately represents the proposed method and the ability to extract the keywords in accordance with user demand.}, Keywords = {Keyword Extraction, Thesaurus, Computational Linguistic, Information Retrieval}, volume = {13}, Number = {1}, pages = {87-100}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {ارائه روشی جدید برای شاخص‌گذاری خودکار و استخراج کلمات کلیدی برای بازیابی اطلاعات و خوشه‌بندی متون}, abstract_fa ={در زبان فارسی کلمات دارای صورت‌های نگارشی متنوعی هستند و پوشش کلیه حالات دستوری کلمات با به کارگیری یک سری قواعد معین ناممکن است به همین دلیل استخراج کلمات کلیدی به طور خودکار از متون فارسی دشوار و پیچیده است. در این مقاله سعی شده است با استفاده از اطلاعات زبان شناختی و اصطلاح‌نامه ، کلمات کلیدی بامعناتری ارائه شود. با استفاده از اصطلاح‌نامه که از نظامی ساختارمند برخوردار است می‌توان شبکه کلمات کلیدی، شامل کلمات هم ارز، کلمات سلسله مراتبی و وا‌بسته را تکمیل کرده و افزایش داد. بنابراین می‌توان توافق بین جستجوی کاربران و کلمات کلیدی متنی را بیشتر نمود و جامعیت جستجو را افزایش داد. در مرحله اول کلمات غیر مهم و عمومی حذف می‌شوند. سپس کلمات متن ریشه‌یابی می‌شوند و در ادامه برای مشخص شدن اهمیت نسبی کلمات با استفاده از روش‌های وزن‌دهی یک وزن عددی به هر کلمه منسوب می‌گردد که بیانگر میزان تاثیر کلمه در ارتباط با موضوع متن و درمقایسه با سایر کلمات بکار رفته در متن است‌. مجموعه عملیات فوق خصوصاً استفاده از اصطلاح‌نامه باعث می‌شود که دسته‌بندی متون دقیق‌تر انجام گیرد و به نوعی رده علمی سلسله مراتبی متون در حوزه بازیابی اطلاعات نیز مشخص می‌شود. نتایج آزمایش‌ها روی چندین متن در موضوعات مختلف نشان دهنده دقت و توانایی روش پیشنهادی در استخراج کلمات کلیدی منطبق با خواست کاربر است و در نتیجه خوشه‌بندی دقیق‌تر متون می‌باشد.}, keywords_fa = {استخراج کلمات کلیدی, اصطلاح‌نامه, زبان‌شناختی, بازیابی اطلاعات}, url = {http://jsdp.rcisp.ac.ir/article-1-139-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-139-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Ahmadizar, Fardin and Soltanian, Khabat and AkhlaghianTab, Fardi}, title = {Construction and Training of Artificial Neural Networks using Evolution Strategy with Parallel Populations}, abstract ={Application of artificial neural networks (ANN) in areas such as classification of images and audio signals shows the ability of this artificial intelligence technique for solving practical problems. Construction and training of ANNs is usually a time-consuming and hard process. A suitable neural model must be able to learn the training data and also have the generalization ability. In this paper, multiple parallel populations are used for construction of ANN and evolution strategy for its training, so that in each population a particular ANN architecture is evolved. By using a bi-criteria selection method based on error and complexity of ANNs, the proposed algorithm can produce simple ANNs that have high generalization ability. To assess the performance of the algorithm, 7 benchmark classification problems have been used. It has then been compared against the existing evolutionary algorithms that train and/or construct ANNs. Experimental results show the efficiency and robustness of the proposed algorithm compared to the other methods. In this paper, the impact of parallel populations, the bi-criteria selection method, and the crossover operator on the algorithm performance has been analyzed. A key advantage of the proposed algorithm is the use of parallel computing by means of multiple populations.}, Keywords = {Artificial Neural Networks, Evolution Strategy, Parallel Populations}, volume = {13}, Number = {1}, pages = {101-114}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {طراحی و آموزش شبکه‏ های عصبی مصنوعی به وسیله استراتژی تکاملی با جمعیت‏ های موازی}, abstract_fa ={کاربرد شبکه‏‏ های عصبی مصنوعی در حوزه‏ هایی از قبیل دسته‏ بندی تصاویر و سیگنال های صوتی مؤید توانایی این ابزار قدرتمند هوش مصنوعی در حل مسائل دنیای امروز است. طراحی و آموزش شبکه‏ های عصبی همواره یک فرآیند زمان‏بر و مشکل بوده است. یک مدل عصبی مناسب باید بتواند الگوی داده‏ های آموزشی را فراگرفته و نیز قابلیت تعمیم داشته باشد. در این مقاله، از جمعیت‏ های موازی برای طراحی معماری شبکه عصبی و همچنین از استراتژی تکاملی برای آموزش آن استفاده شده است، به‏ طوریکه در هر جمعیت شبکه ای با معماری خاصی تکامل می‏ یابد. با کمک یک روش انتخاب دومعیاره مبتنی بر میزان خطا و پیچیدگی شبکه‏ ها، الگوریتم ارائه شده قادر است شبکه‏ های ساده با قابلیت تعمیم بالا تولید کند. برای ارزیابی کارایی الگوریتم پیشنهادی از 7 مسأله استاندارد دسته‏ بندی استفاده شده است. روش ارائه شده با روش‏های تکامل اوزان، تکامل معماری و نیز الگوریتم‏های تکامل همزمان معماری و اوزان مورد مقایسه قرار گرفته است. نتایج آزمایش‏ها کارایی و پایداری این روش را نسبت به روش‏های مورد مقایسه نشان می‏دهد. در این مقاله، همچنین تأثیر وجود جمعیت‏های موازی، روش انتخاب دومعیاره و نیز عملگر ادغام در الگوریتم ارائه شده مورد بررسی قرار گرفته است. از مزایای اصلی این روش بهره‏ گیری از پردازش موازی به وسیله جمعیت‏های مستقل است.}, keywords_fa = {شبکه‏ های عصبی مصنوعی, استراتژی تکاملی, جمعیت‏ های موازی}, url = {http://jsdp.rcisp.ac.ir/article-1-110-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-110-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {}, title = {Hyperspectral Images Sub-Pixel Classification Based on Pixel-Swapping Algorithm Extension and Its Evaluation}, abstract ={The capability of the matter identification is developed considerably in hyperspectral images. The spectral reflectance of surfaces in these imaging systems in the visible and near infrared range of the electromagnetic spectrum is recorded in extremely narrow and continuous bands. But for some reasons, such as existence the mixed pixels and low spatial resolution of these images, is difficult to land cover accurate position identify. The soft classification methods provide the estimation of the membership value of various classes within mixed pixels. But, by using these methods, the matter information extraction is possible only and position information extraction in sub-pixel level is impossible. In recent years, in order to solve this problem, some methods that are called SRM, have been developed for positioning the extracted membership values by soft classification process in sub-pixels for producing a higher spatial resolution land use map. In this paper, pixel-swapping method is used as the latest SRM algorithms, and with repetition the binary case of this algorithm for each class, this algorithm has been generalized and developed for multi-class. Another main point in sub-pixel classification is the performance evaluation of these classifiers. Because of the influence of various parameters in the sub-pixel classification, the evaluation of this process is very complex. Hence, as a main and innovative activity in this paper, the Influence of the neighborhood level and the zoom factor as two important parameters in the extension pixel-swapping method has been simulated and analyzed. For this purpose, in this paper a framework for evaluating the sub-pixel classification performance based on dependent on and independent on soft classification error is proposed.}, Keywords = {Hyperspectral image, Sub-pixel classification, Sub-pixel classification evaluation, Pixel-swapping method, SRM algorithm}, volume = {13}, Number = {1}, pages = {115-125}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {طبقه‌بندی زیرپیکسلی تصاویر ابرطیفی براساس تعمیم الگوریتم معاوضه پیکسلی و ارزیابی آن}, abstract_fa ={قابلیت شناسایی ماهیتی پوشش‌های سطح در تصاویر ابرطیفی به‌نحو قابل‌توجهی فراهم شده‌است. دراین تصاویر طیف بازتابی سطح در محدوده مرئی و مادون‌قرمزنزدیک طیف الکترومغناطیس در باندهای بسیار باریک و پیوسته ثبت می‌گردد. لیکن بدلایلی ازجمله وجود پیکسل‏های مخلوط و پایین بودن قدرت تفکیک‌مکانی این تصاویر، شناسایی دقیق موقعیتی پوشش‌های سطح در آنها دشوار است. روش‏های طبقه‏بندی‌نرم امکان برآورد سهم کلاس‏ها رادر داخل پیکسل‏های مخلوط فراهم می‌آورد. اما بااستفاده ازاین روش‏ها تنها اطلاعات ماهیتی درسطح زیرپیکسل تولید شده و آرایش مکانی کلاس‌ها نامعلوم باقی می‏ماند. جهت حل این مشکل، روش‏هایی بانام SRM ارائه شده که مقادیر عضویت حاصل از طبقه‏بندی‌نرم رادر زیرپیکسل‌ها جانمایی نموده و نقشه پوششی با توان‌تفکیک بالاتری تولید می‏نمایند. دراین مقاله، ازروش معاوضه‌پیکسلی بعنوان یکی‌از الگوریتم‏های SRM استفاده وبا تکرار آن‌برای هرکلاس‏، حالت چندکلاسه آن ایجاد شد. نکته اساسی که‌در طبقه‌بندی زیرپیکسلی مطرح می‌شود، ارزیابی این نوع طبقه‌بندی‌کنندهها است، که بدلیل اثرگذاری پارامترهای متنوع در طبقه‌بندی زیرپیکسلی، پیچیده است. از اینرو بعنوان فعالیتی اصلی و نوآورانه اثرگذاری دو پارامتر سطح‌همسایگی و ضریب‌بزرگنمایی درروش معاوضه‌پیکسلی تعمیم‌داده‌شده، شبیه‌سازی و تحلیل شده‌است. برای این‌منظور چارچوبی برای ارزیابی عملکرد طبقه‌بندی زیرپیکسلی به‌دو صورت مستقل از خطای طبقه‏بندی‌نرم و وابسته به‌آن، پیشنهاد گردید.}, keywords_fa = {تصویر ابرطیفی, طبقه بندی زیرپیکسل, ارزیابی طبقه بندی ریزپیکسلی, روش معاوضه پیکسلی, الگوریتم SRM}, url = {http://jsdp.rcisp.ac.ir/article-1-30-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-30-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Zardadi, Mohsen and Mehrshad, Naser}, title = {A New Approach to Retinal Vessel Segmentation by Using Computational Model of Simple Cells in Primary Visual Cortex}, abstract ={In this paper, a new unsupervised algorithm for automatic retinal blood vessel extraction is presented. A pre-processing step is introduced to eliminating optic disk and back ground noise. Blood vessel highlighting is prepared by a new method inspired by simple cells in human visual system. An adaptive threshold is introduced as an activation function of simple cells. Post-processing step is used as a final stage at the output of simple cells to eliminating exudates which is detected as blood vessels. The results on DRIVE database demonstrate that the performance of the proposed algorithm is comparable with state-of-the-art techniques in terms of execution time and extracted vessels.}, Keywords = {retinal vessel segmentation, medical assistance systems, retinal simple cell model, DRIVE database }, volume = {13}, Number = {1}, pages = {127-138}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {آشکارسازی عروق شبکیه چشم بر اساس مدل محاسباتی سلول ساده کورتکس اولیه بینایی}, abstract_fa ={در این مقاله یک الگوریتم جدید برای آشکارسازی خودکار و بدون نظارت عروق خونی شبکیه چشم ارائه شده است. برای آشکارسازی عروق خونی شبکیه، ابتدا یک مرحله پیش‌پردازش برای حذف لکه زرد و شدت روشنایی‌های نویزگونه پس‌زمینه تصویر انجام شده است. برجسته‌سازی رگ‌های خونی تصویر در جهت‌های مختلف با استفاده از یک الگوریتم جدید مبتنی بر عملکرد سلول ساده سیستم بینایی انسان انجام شده است. یک مقدار آستانه تطبیقی نیز به عنوان تابع فعالیت این سلول ساده در نظر گرفته شده است. در انتها برای حذف ترشحات آشکارشده به عنوان رگ‌های خونی، یک مرحله پس‌پردازش روی خروجی‌های سلول‌های ساده انجام می‌شود. نتایج به‌دست آمده نشان می‌دهد که روش پیشنهادی تقریباً در تمامی تصاویر پایگاه داده DRIVE عروق شبکیه چشم را با درصد بالاتری نسبت به روش‌های موجود آشکارسازی کرده و مدت زمان استخراج عروق بسیار بهبود یافته است.}, keywords_fa = {آشکارسازی عروق شبکیه, سیستم‌های تصمیم‌یار پزشکی, مدل سلول ساده شبکیه, بانک داده DRIVE }, url = {http://jsdp.rcisp.ac.ir/article-1-230-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-230-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} }