@article{ author = {}, title = {Stress in Persian}, abstract ={Abstract: This research has been carried out in the framework of Auto segmental-metrical (AM) phonology to study the stress in Persian. Two types of abstract and concrete prominences were distinguished in which the first one refers to the stress and the second one refers to the pitch accent. Stress is assumed to be a lexical property of the lexemes, but pitch accent is assumed to be an intonational element; therefore, contrary to stress, pitch accent in not fixed and predictable. Pitch accents could appear only on the lexically stressed syllables, if the context necessitates. Using the interface between phonology and morphology, it was concluded that all classes of lexemes are stressed on their final syllables in Persian; of course some grammatical morphemes are exceptions. Stress in inflected forms of words was formalized in which inflectional morphemes are stressed and receive the stress of the word, but clitics are unstressed and do not change the position of word stress if added to the stem. The results of this study could be used in linguistic studies and in different branches of Natural Language Processing (NLP) as well.}, Keywords = {stress, lexical stress, pitch accent, autosegmental-metrical, phonology, intonation. }, volume = {6}, Number = {1}, pages = {3-12}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {تکیه در زبان فارسی}, abstract_fa ={این تحقیق در چارچوب نظریۀ واج‌شناسی لایه‌ای (Autosegmental-metricall) به مطالعه تکیه در زبان فارسی می‌پردازد و می‌کوشد با تمایز میان دو مفهوم مجزای ذهنی و عینی از تکیه، جایگاه تکیه در کلمات زبان فارسی را مورد مطالعه قرار دهد. مفهوم ذهنی از تکیه اشاره به دانش زبانی اهل زبان از الگوی برجستگی واژه‌ها در ذهن گویشور زبان دارد که به آن تکیه واژگانی(stress) می‌گویند و مفهوم عینی از تکیه به الگوی برجستگی کلمه در گفتار اطلاق می‌شود که به آن تکیه زیروبمی(pitch accent) می‌گویند. تحقیق حاضر با استناد به اطّلاعات موجود در واژگان ذهنی(mental lexicon) گویشور فارسی نشان می‌دهد (بر خلاف برخی تحقیقات پیشین) که انواع واژه‌های فارسی در ذهن اهل زبان دارای الگوی تکیه واحدی است. میان تکیه واژگانی و تکیه زیروبمی رابطه قابل‌پیش‌بینی و معناداری وجود دارد و از این رابطه علاوه‌بر مطالعات محض زبانی، در تولید خودکار آهنگ(intonation) و نوای گفتار(prosody) نیز می‌توان استفاده کرد. با توجّه به یافته‌های این تحقیق، مباحثی مانند الگوی تکیه در صیغه¬های مختلف فعل یا در صورت‌های گوناگون تصریفی اسم و یا بی‌تکیه بودن برخی از واحدهای واژگانی مانند حروف اضافه و غیره موضوعیت خود را از دست می‌دهند. در اینجا تکیه‌بر بودن و یا نبودن انواع تکواژهای اشتقاقی، تصریفی و واژه‌بست‌ها مورد بررسی قرار گرفته است که حضور آن ها در ساختمان کلمه، جایگاه تکیه کلمه را قابل‌پیش‌بینی می‌کند.}, keywords_fa = {تکیه, تکیه واژگانی, تکیه زیروبمی, واج‌شناسی لایه‌ای, آهنگ}, url = {http://jsdp.rcisp.ac.ir/article-1-740-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-740-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2009} } @article{ author = {}, title = {Semantic Role Labeling of Persian Sentences with Memory-Based Learning Approach}, abstract ={Abstract Extracting semantic roles is one of the major steps in representing text meaning. It refers to finding the semantic relations between a predicate and syntactic constituents in a sentence. In this paper we present a semantic role labeling system for Persian, using memory-based learning model and standard features. Our proposed system implements a two-phase architecture to first identify the arguments by a shallow syntactic parser or chunker, and then to label them with appropriate semantic role, with respect to the predicate of the sentence. We show that good semantic parsing results, can be achieved with a small 1300-sentence training set. In order to extract features, we developed a shallow syntactic parser which divides the sentence into segments with certain syntactic units. The input data for both systems is drawn from RCISP corpus which is hand-labeled with required syntactic and semantic information. The results show an F-score of 81.6% on argument boundary detection task and an F-score of 87.4% on semantic role labeling task using Gold-standard parses. an overall system performance shows an F-score of 73.8% on complete semantic role labeling system i.e. boundary plus classification.}, Keywords = {Semantic Role Labeling, Shallow Semantic Parsing, Shallow Syntactic Parsing, Memory- Based Learning.}, volume = {6}, Number = {1}, pages = {13-22}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {برچسب‌زنی نقش معنایی جملات فارسی با رویکرد یادگیری مبتنی بر حافظه}, abstract_fa ={استخراج نقش های معنایی یکی از گام های اصلی در بازنمایی معنی متن است. نقش های معنایی، ارتباط معنایی بین فعل و آرگومان های آن در جمله را مشخص می‌کنند. در این مقاله یک سیستم برچسب‌زنی خودکار نقش معنایی برای متون فارسی با رویکرد یادگیری ماشین ارائه شده است. مجموعه داده¬های مورد نیاز سیستم بخشی از پیکرۀ متنی زبان فارسی است که توسط پژوهشکدۀ پردازش هوشمند علائم تهیّه و برچسب‌گذاری شده است. سیستم پیشنهادی از دو مرحلۀ تشکیل شده؛ در مرحلۀ اوّل با تجزیۀ نحوی جمله، حد و مرز سازه و همچنین نوع گروه نحوی این اجزا در جمله مشخص می‌شود. این اطّلاعات به عنوان ورودی در مرحلۀ دوم مورد استفاده قرار می‌گیرد. مرحلۀ دوم سیستم مربوط به تخصیص نقش های معنایی مناسب به سازه‌های مشخص شده در مرحلۀ قبل می‌باشد. برای این منظور از ویژگی های نحوی و ساختاری هر سازه، بهره گرفته می شود. نتایج به دست آمده نشان‌دهندۀ 81.6% F1= برای زیر سیستم تجزیۀ نحوی، و 87.4% F1= برای زیرسیستم برچسب‌زنی معنایی درحالتی که ورودی های سیستم به¬صورت دستی تصحیح شده باشند. همچنین کارآیی کل سیستم 73.8%F1= را برای سیستم کامل برچسب‌زنی معنایی، یعنی تجزیۀ نحوی و تخصیص نقش نشان می‌دهد. نتایج به دست آمده حاکی از آن است که می‌توان از یک پیکرۀ آموزشی کوچک 1300 کلمه¬ای نتایج قابل قبولی به¬دست آورد.}, keywords_fa = {پردازش زبان طبیعی, برچسب‌زنی معنایی, تجزیۀ سطحی معنایی, تجزیۀ سطحی نحوی, یادگیری مبتنی بر حافظه.}, url = {http://jsdp.rcisp.ac.ir/article-1-741-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-741-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2009} } @article{ author = {}, title = {Using Reaction Time, P300 and Multimodal Information to Assess "Guilty Knowledge"}, abstract ={Abstract: Current lie detection methods, based on the polygraph technique, rely upon the measurement of several physiological characteristics to discriminate whether a truth or a lie is expressed. P300-based GKT (guilty knowledge test) has been suggested as an alternative approach for conventional polygraph technique. The purpose of this study is to evaluate RT (response time) analysis and combination of RT and ERP to identify participants possessing specific guilty knowledge. For the analysis, several previous methods were implemented and results of RT analysis and fusion ERP and RT analysis were compared which other. The accuracy of RT analysis (bootstrapped analysis of reaction time method) is 81% and AUC (area under curve) of correct detection in guilty and innocent subjects is 0.85 which are comparable to 80% accuracy of ERP analysis (Wavelet classifier method) and AUC=0.86 in previous study. Between the many fusion methods, fusion of BART and BAD method has the better accuracy and best AUC, this is superior result compared to results of previous methods from McNemar’s test point of view. These results show that brain response and behavioral response have complement information. The Fusion of BART and BAD method is combination of brain and behavioral response, therefore this proposed as best approach for Assess "Guilty Knowledge".}, Keywords = {Reaction Time, Guilty Knowledge Test, Event Related Potential, Multimodal Analysis. }, volume = {6}, Number = {1}, pages = {23-32}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {استفاده از زمان پاسخ، مؤلفّۀ شناختی P300 و تلفیق دو مد به منظور تشخیص}, abstract_fa ={روش های موجود تشخیص دروغ که بر اساس پلی گرافی کلاسیک عمل می کنند، سعی می کنند با استفاده از مشخصّات چندین سیگنال فیزیولوژیک، به تفکیک فرد راستگو یا دروغ گو بپردازند. رویکرد دیگری که در کنار روش کلاسیک مطرح گردیده است، استفاده از مؤلفۀ شناختی P300 سیگنال های مغزی برای کشف دانش فرد خطاکار است؛ در ادامۀ توسعۀ این روش ها، موضوعی که در این تحقیق به آن پرداخته شده است، بحث ارزیابی تشخیص دانش فرد خطاکار از تحلیل زمان پاسخ فرد و تلفیق تحلیل زمان پاسخ و مؤلفّۀ شناختی P300 مغز است. به همین منظور چندین روش قبلی، تحلیل مغزی و تحلیل زمان پاسخ پیاده سازی و توسعه داده شد و ترکیب حالات مختلفی از روش ها مورد بررسی قرار گرفت. نتیجۀ روش تحلیل زمان پاسخ توسعه یافته در این تحقیق، به صحّت 81% و سطح زیر منحنی 0.85 رسیده است که با بهترین نتیجۀ تحلیل مغزی در کارهای قبل (استفاده از طبقه بندی کننده با ویژگی های مبتنی بر تبدیل موجک که صحّت 80% و سطح زیر منحنی 0.86 داشت به طورکامل قابل مقایسه است. از بین حالات مختلف تلفیق روش های تحلیل مغزی و زمان پاسخ، بهترین نتیجه، مربوط به روش تحلیل زمان پاسخ بوت استرپ شده و تشخیصP300 به روش اختلاف دامنه بوت استرپ شده بود. این تلفیق صحّت تفکیک بین افراد خطاکار و بی گناه را تا 88% بهبود داد که این بهبود با استفاده از آزمون مک نمار در مقایسه با نتیجۀ روش اختلاف دامنۀ بوت استرپ شده به¬عنوان بهترین نتیجۀ تحقیقات قبل به طور کامل معنی دار (0.01 ) بود.}, keywords_fa = {آزمون دانش فرد خطاکار , پتانسیل برانگیختۀ بینایی, تحلیل چند مد}, url = {http://jsdp.rcisp.ac.ir/article-1-742-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-742-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2009} } @article{ author = {}, title = {Emotion Classification Using Brain and Peripheral Signals}, abstract ={Abstract Emotions play a powerful and significant role in human beings everyday life. They motivate us, impact our beliefs and decision making and would affect some cognitive processes like creativity, attention, and memory. Nowadays the use of emotion in computers is an increasingly in vogue field. In many ways emotions are one of the last and least explored frontiers of intuitive human-computer interactions. This can perhaps be explained by the fact that computers are traditionally viewed as logical and rational tools which is incompatible with the often irrational and seeming illogical nature of emotions. It is apparent that we as humans, in spite of having extremely good abilities at felling and expressing emotions, still cannot agree on how they should best be defined. until now, there are a bunch of good reasons which supports that emotion is a fitting topic for Human-Computer Interaction research. Human beings who are emotional creatures should theoretically be able to interact more effectively with computers which can account for these emotions. So Emotions assessed would make some improvement in HCI. The goal of our research is to perform a multimodal fusion between EEG’s and peripheral physiological signals for emotion detection. The input signals were electroencephalogram, galvanic skin resistance, blood pressure and respiration, which can reflect the influence of emotion on the central nervous system and autonomic nervous system respectively. The acquisition protocol is based on a subset of pictures which correspond to three specific areas of valance-arousal emotional space(positively excited, negatively excited, and calm). The features extracted from input signals, and to improve the results of brain signals, nonlinear features as correlation dimension, largest lyapunov exponent and fractal dimension is used. The performance of four classifiers: LDA, QDA, KNN, SVM has been evaluated on different feature sets: peripheral signals, EEG’s, and both. Synchronization likelihood is used as a channel selection algorithm and the performance of two feature selection algorithms; Genetic Algorithm and Mutual information is evaluated. The best result of accuracy in EEG signals is 63.3% with QDA as classifier, the best result of peripheral signals is 61.67% and the best of both is 63.3% with QDA. In comparison among the results of different feature sets, EEG signals seem to perform better than other physiological signals, and the results presented showed that EEG’s can be used to assess emotional states of a user. Also, fusion provides more robust results since some participants had better scores with peripheral signals than with EEG’s and vice-versa.}, Keywords = {Emotion, EEG, peripheral signals, feature extraction, classification, channel selection, nonlinear features.}, volume = {6}, Number = {1}, pages = {33-52}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {طبقه بندی احساس افراد با استفاده از سیگنال های مغزی و محیطی}, abstract_fa ={تحقیقات نشان می دهد که احساس، یک فرآیند ذهنی و متوجه مغز انسان می باشد و روی فرآیند های مهمّی چون حافظه، تمرکز، تفکّر و تصمیم گیری اثر دارد. به همین، دلیل مطاله مکانیزم و عملکرد آن مورد توجّه محققان علوم شناختی قرار گرفته است. مطالعه‌ احساس از طریق پردازش سیگنال های بیولوژیکی، علاوه بر کاربردهای کلینیکی که در زمینه تشخیص و درمان به موقع ناهنجاری های روانی می تواند داشته باشد، در علوم مبتنی بر تعاملات انسان و رایانه نیز نقش مهمی بازی می کند و باعث پیشرفت های زیادی در این زمینه می گردد. هدف اصلی در این تحقیق، طبقه بندی احساس افراد با استفاده از سیگنال های مغزی و محیطی است. دادگان مورد استفاده، از مجموعه دادگان eNTERFACE است که در سال 2006 جمع آوری شده، سه حالت احساسی برانگیختگی مثبت، برانگیختگی منفی و حالت آرام یا استراحت را مورد مطالعه قرار داده است. سیگنال مغزی به¬صورت همزمان با چهار سیگنال محیطی: تنفس، میزان هدایت پوست، فشار خون و دما از پنج نفر ثبت شده است. ویژگی های مرتبط با حالات مختلف احساسی از سیگنال ها استخراج شده، که در مورد سیگنال های محیطی ویژگی های حوزه زمان و حوزه فرکانس مورد نظر می باشد و در مورد سیگنال مغزی، علاوه بر ویژگی های حوزه زمان و فرکانس، ویژگی های غیرخطی بعد همبستگی، نمای لیاپانوف و بعد فرکتال نیز استفاده شده است و در مورد سیگنال های مغزی از روش Synchronization Likelihood به منظور انتخاب الکترود استفاده شده است. ساختارهای چهارطبقه بندی کننده KNN,QDA,LDA,SVM مورد استفاده قرار گرفته است و نتایج سیگنال‌های مغزی و محیطی به صورت جداگانه و نیز در ترکیب با یکدیگر مقایسه شده اند. بیشترین میزان صحت،63.3% در طبقه بندی سیگنال های مغزی ، 61.67% در طبقه بندی سیگنال های محیطی و 61.67% در طبقه بندی ترکیب سیگنال های مغزی و محیطی، به دست آمده است. نتایج نشان می دهد که استفاده از سیگنال مغزی نسبت به سیگنال محیطی و نیز ترکیب مغزی و محیطی در ایجاد تمایز بین حالات مختلف احساسی مورد مطالعه، موفق تر است؛ ولی نتایج به دست آمده از ترکیب سیگنال مغزی و محیطی، نتایج مقاوم تری نسبت به تغییر افراد و تغییر روش ها محسوب می شود.}, keywords_fa = {سیستم های بازشناخت احساس, سیگنال مغزی, سیگنال های محیطی, استخراج ویژگی, طبقه بندی}, url = {http://jsdp.rcisp.ac.ir/article-1-743-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-743-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2009} } @article{ author = {}, title = {JPEG Image Steganalysis Based on Classification of Statistical Features and Two Stage Decision Making}, abstract ={Abstract In this paper, we propose a comprehensive steganalysis scheme for JPEG images. In this method, the optimized features which can interpret high distinction between cover and stego images are extracted from images. These features have been selected after a careful study on modifications caused by different steganography algorithms on statistical characteristics of images. Furthermore, using a hierarchical decision making, we have considerably improved the detection accuracy. It has been shown that the first-order statistics of DCT coefficients (e.g. histogram) are often more successful than second-order statistics (e.g. different types of correlations) in detection of LSB flipping methods such as JSteg, OutGuess, JPHide&Seek and StegHide. On the other hand, the second order statistical characteristics have better performance in some other steganography methods (especially for LSB Matching, MB1, SSIS and PQ). The proposed Method reveals the weakness of the different steganography algorithms by thorough view on them. The results of our experiments indicate that the accuracy of proposed approach is better than some other state of the art steganalysis methods in the term of detection accuracy. Besides, it is more generalized and comprehensive. A database including 2000 JPEG images with different quality factors has been used for these experiments. The new scheme can detect six common steganography methods: JSteg, OutGuess, F5, MB1, Sequential and Random LSB Matching, with accuracies higher than 80% for the payload of more than 20%. We have used SVM for our classification scheme.}, Keywords = {Blind JPEG Steganalysis, data hiding attack, LSB flipping, LSB matching, feature categorization}, volume = {6}, Number = {1}, pages = {53-70}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {نهان‌کاوی در تصاویر JPEG بر مبنای دسته‌بندی ویژگی‌های آماری و تصمیم‌گیری دو مرحله‌ای}, abstract_fa ={در این مقاله روش جامعی برای نهان‌¬کاوی در تصاویر JPEGG معرّفی می‌شود. در این روش پس از بررسی دقیق اثر فرآیندهای پنهان‌نگاری گوناگون بر مشخصّات آماری تصویر، ویژگی‌های بهینه‌ای از تصویر استخراج می‌شود که توانایی بالایی در ایجاد تمایز بین دو گروه تصاویر طبیعی و پنهان‌نگار دارند. علاوه بر استخراج ویژگی‌های بهینه، در یک تصمیم‌گیری سلسله مراتبی دقّت تشخیص به شکل قابل توجهی افزایش یافته است. در این مقاله نشان می‌دهیم که آمارگان مرتبه اوّل ضرایب DCT (مانند هیستوگرام) بیشتر در حمله به روش‌های پنهان‌نگاری جای-گذاری در LSB (مانند JSTEG، OUTGUESS، JPHide&Seek و StegHide) موفق‌تر از آمارگان مرتبه دوم (مانند انواع همبستگی‌ها) عمل می‌کنند. همچنین مشخصات آماری مرتبه دوم در تشخیص سایر روش‌های پنهان‌نگاری در حوزه ضرایب DCT (بالاخص روش‌های تطبیق LSB، روش MB1، SSIS و روش مبتنی بر کوانتیزیشن) عملکرد بهتری از مشخصّات آماری مرتبه اوّل دارند. علاوه بر آن، روش نهان‌ کاوی معرفی شده با نگاه جامع به انواع روش‌های پنهان‌نگاری موجود، مشخّص می‌کند که نقاط ضعف هر یک در مقابل حملات آماری گوناگون چیست و چگونه می‌توان به روش‌های جاسازی امن‌تر دست پیدا کرد. نتایج تجربی نشان می‌دهد که دقّت این روش در مقایسه با روش‌های رقیب، بهتر بوده و در عین حال از جامعیت و تعمیم‌پذیری بالاتری برخوردار است. آزمایش ها روی مجموعه دوهزارتایی از تصاویر JPEG با ضرایب کیفیت متنوع انجام شده و روش معرفی شده، قادر بوده است که شش روش پنهان‌نگاری معمول (JSteg، OutGuess، F5، MB1، Sequential LSB matching و Random LSB Matching) را با دقّت بیش از 80% در نرخ های جاسازی بیش از 20% تشخیص دهد. طبقه‌بندی‌کننده‌های مورد استفاده برای طبقه‌بندی از نوع SVM هستند.}, keywords_fa = {نهان‌کاوی تصاویر JPEG, حمله به پنهان‌نگاری, جای گذاری در LSB, تطبیق LSB. دسته‌بندی ویژگی‌ها.}, url = {http://jsdp.rcisp.ac.ir/article-1-744-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-744-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2009} } @article{ author = {}, title = {Single Trial P300 Recognition in Auditory Event Related Potential Using Genetic Algorithm and Neural Network Classifier}, abstract ={Abstract P300 is known as the most prominent component between cognitive components in electrical brain activity. According to done research, when brain encounters an inconsistent stimulation during processing a series of usual stimulation, a P300 component appears in recorded brain signal which could distinguishes from usual ones. Amplitude of P300 decreases after a short during act of auditory simulation; so that we face difficulty in recognition of component features. In the research we considered reduction of the amplitude of P300 with five auditory stimulations and its reasons in three separate record blocks as well as recognition of the component with Neural Network and Genetic Algorithm. Finally single-trial recordings containing P300 component from single-trial recordings without P300 component have been discriminated by six optimum features as Neural Network classifier input in Pz channel with accuracy of 80.55% in learning data and 50% in test data in the first block.}, Keywords = {Electroencephalography (EEG), Event Related Potential (ERP), P300, Neural Network, Genetic Algorithm}, volume = {6}, Number = {1}, pages = {71-78}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {تشخیص و بررسی کاهش دامنۀ P300 در پتانسیل‌های وابسته به رویداد شنوایی تک‌ثبت با استفاده از الگوریتم ژنتیک و طبقه بندی‌کنندۀ شبکۀ عصبی}, abstract_fa ={P3000 را برجسته‌ترین مؤلّفۀ در بین مؤلّفه‌های شناختی مختلف موجود در سیگنال الکتریکی مغز می‌دانند. طبق تحقیقات انجام شده، هنگامی که مغز در حین پردازش یک سری از تحریکات معمول، به یک تحریک جدید (تحریک غیرمعمول) برمی‌‌خورد، در سیگنال مغزی ثبت‌‌شده، یک موج P300 ظاهر می‌‌شود که با تشخیص این مؤلّفه می‌توان تحریکات جدید را از تحریکات معمول جداسازی کرد. دامنۀ مؤلّفۀ P300 در هنگام اعمال تحریکات صوتی، پس از گذشت مدّت زمانی از شروع آزمایش کاهش می‌یابد؛ به نحوی که در تشخیص دامنۀ این مؤلّفه با مشکل روبرو می‌شویم. در این تحقیق با استفاده از پنج تحریک صوتی، به بررسی کاهش دامنۀ این مؤلّفه و علل آن در سه بلوک ثبت مجزّا و همچنین تشخیص این مؤلّفۀ شناختی، به وسیلۀ شبکۀ عصبی و الگوریتم ژنتیک پرداخته‌ایم. در نهایت با استفاده از ده ویژگی بهینه، به عنوان ورودی طبقه بندی کنندۀ شبکۀ عصبی در کانال Pz با صحّت 47/61% در دادگان آموزش و 60% در دادگان آزمون در بلوک اوّل، تک‌ثبت‌های حاوی موج P300 از تک‌ثبت‌های فاقد این موج جداسازی شده‌اند.}, keywords_fa = {الکترو انسفالوگرافی( EEG ), پتانسیل‌های وابسته به رویداد, P300, شبکۀ عصبی, الگوریتم ژنتیک}, url = {http://jsdp.rcisp.ac.ir/article-1-745-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-745-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2009} } @article{ author = {}, title = {Pedestrian Detection in Infrared Image Sequences Using SVM and Histogram Classifiers}, abstract ={Abstract In dark environments and foggy or smoky conditions where it is not possible to use eyesight and usual binoculars to detect human from other objects, the best solution is to use infrared images. This paper presents a robust method to recognize pedestrians in infrared image sequences. For this purpose, combination of SVM and histogram classifiers has been used. A pre-processing phase extracts image patterns similar to human patterns and delivers them to histogram and SVM classifiers. For training and testing phases of the presented algorithm thermal data base of OSU pedestrian video sequences has been utilized. Results of the algorithm present its good accuracy and performance.}, Keywords = {Pedestrian detection, Infrared images, Support Vector Machine, Histogram classifie}, volume = {6}, Number = {1}, pages = {79-90}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {تشخیص عابر پیاده با استفاده از کلاس بندهای SVM و هیستوگرام در توالی تصاویر مادون قرمز}, abstract_fa ={در محیط‌هایی که نمی‌توان از چشم غیر مسلح و دوربین‌های معمولی برای تشخیص انسان از غیر انسان استفاده کرد ( مانند محیط‌های تاریک، مه و دود)، بهترین راه حل استفاده از تصاویر مادون قرمز است. این مقاله یک روش مقاوم برای تشخیص انسان در توالی تصاویر مادون قرمز ارایه می‌دهد. برای این منظور از ترکیب کلاس‌بند SVM و کلاس‌بند مبتنی بر هیستوگرام استفاده شده است؛ به این ترتیب که الگوهایی از تصویر که احتمال حضور انسان در آن‌ها موجود می‌‌باشد، پس از فرآیندپیش پردازش استخراج شده و به کلاس‌بندهای هیستوگرام و SVM داده می‌شوند. برای یادگیری و تست الگوریتم ارایه شده از پایگاه دادۀ گرمایی عابرپیادۀ OSU استفاده شده است. نتایج اجرای الگوریتم ارایه شده روی این پایگاه داده، کارآیی و دقّت آن را نشان می‌دهد.}, keywords_fa = {تشخیص عابر پیاده, تصاویر مادون قرمز, ماشین بردار پشتیبان, هیستوگرام}, url = {http://jsdp.rcisp.ac.ir/article-1-746-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-746-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2009} }