@article{ author = {Seyyedsalehi, Seyyede Zohreh and Seyyedsalehi, Seyyed Ali}, title = {Improving the nonlinear manifold separator model to the face recognition by a single image of per person}, abstract ={Manifold learning is a dimension reduction method for extracting nonlinear structures of high-dimensional data. Many methods have been introduced for this purpose. Most of these methods usually extract a global manifold for data. However, in many real-world problems, there is not only one global manifold, but also additional information about the objects is shared by a large number of manifolds. In this context, based on previous researches, this paper proposes a nonlinear dimension reduction method based on the deep neural network that extract simultaneously manifolds embedded in data. In nonlinear manifold separator model, unlike unsupervised learning of bottleneck neural network, data labels are indirectly used for manifold learning. Given the deep structure of the model, it has been shown that using pre-training methods can significantly improve its performance moreover, to improve within-manifold discrimination for different classes, its standard functions have been improved. This paper makes use of the model for extracting both expression and identity manifolds for facial images of the CK+ database. In comparing early and improved models, it is shown that the facial expression recognition rate from 24.29% to 75.07% and the face recognition rate by a single image of each person by enriching dataset from 90.62% to 97.07% were improved.}, Keywords = {Neural network • Manifold learning • Within-manifold discrimination • Virtual patterns • Deep structure • Manifold separation}, volume = {12}, Number = {1}, pages = {3-16}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {بهبود مدل تفکیک‌کننده منیفلدهای غیرخطی به‌منظور بازشناسی چهره با یک تصویر از هر فرد}, abstract_fa ={یادگیری منیفلد یکی از روش‌های کاهش بعد مطرح به‌منظور استخراج ساختار غیرخطی داده با ابعاد بالا می‌باشد. تاکنون روش‌های زیادی به این منظور ارائه شده‌اند. در تمام این روش‌ها یک منیفلد به‌عنوان منیفلد جاسازی‌شده در داده استخراج می‌شود. در‌حالی‌که در خیلی از مسائل مربوط به دنیای واقعی یک منیفلد به‌تنهایی بیانگر ساختار داده نمی‌باشد. در این راستا بر مبنای تحقیقات قبلی، یک روش کاهش بعد غیرخطی مبتنی بر شبکه‌های عصبی عمیق ارائه شده است که قادر به استخراج توأم منیفلدهای جاسازی شده در داده می‌باشد. در مدل شبکه عصبی تفکیک‌کننده منیفلدهای غیرخطی، برخلاف روش معمول استخراج منیفلد با شبکه‌های عصبی که به‌صورت بدون سرپرستی صورت می‌گیرد، از برچسب داده در جهت شکل‌گیری منیفلدها به‌صورت غیرمستقیم استفاده می‌شود. با توجه به ساختار عمیق این مدل نشان داده شده است که با بهره‌گیری از روش‌های پیش‌تعلیم می‌توان به‌طور معناداری عملکرد آن‌را بهبود بخشید. همچنین در راستای استخراج بهتر منیفلدها و حفظ تمایز درون‌منیفلدی برای طبقات مختلف، توابع معیار آن بهبود داده شده است. این مدل برای استخراج منیفلدهای حالت‌های احساسی و افراد از دادگان چهره CK+، مورد استفاده قرار گرفته است. با بهره‌گیری از پیش‌تعلیم لایه‌به‌لایه و بهبود توابع معیار، نرخ بازشناسی حالت برای تصاویر مجازی از 29/24% به 07/75% و درصد صحت بازشناسی هویت با یک تصویر از هر فرد با غنی‌سازی دادگان تعلیم طبقه‌بند KNN توسط این تصاویر مجازی، از 62/90% به 07/97% نسبت به مدل اولیه بهبود داشته‌ است.}, keywords_fa = {شبکه عصبی, یادگیری منیفلد , تمایز درون منیفلدی, الگوهای مجازی, ساختار عمیق, تفکیک منیفلد}, url = {http://jsdp.rcisp.ac.ir/article-1-181-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-181-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Asgharian, Hassan and taj, nasri}, title = {IMS SIP Server security model using the TVRA methodology}, abstract ={IMS (IP Multimedia Subsystem) network is considered as an NGN (Next Generation Network) core networks by ETSI. Decomposition of IMS core network has resulted in a rapid increase of control and signaling message that makes security a required capability for IMS commercialization. The control messages are transmitted using SIP (Session Initiation Protocol) which is an application layer protocol. IMS networks are more secure than typical networks like VoIP according to mandatory of user authentication in registration time and added SIP signaling headers. Also different vulnerabilities have been occurred that lead to SIP servers attacks. This paper studies the main SIP servers of IMS (x-CSCF) based on ETSI Threat, Vulnerability and Risk Analysis (TVRA) method. This method is used as a tool to identify potential risks to a system based upon the likelihood of an attack and the impact that such an attack would have on the system. After identifying the assets and weaknesses of IMS SIP servers and finding out the vulnerabilities of these hardware and software components, some security hints that can be used for secure deployment of IMS SIP servers are proposed. Modeling shows the effects of server weaknesses and threats that reduces availability. Any designed system has some assets with weaknesses. When threats have accrued based on weaknesses, the system will vulnerable. Vulnerability analysis optimizes costs and improves security.}, Keywords = {TVRA Security Modeling, IMS SIP Servers Flooding attacks, IMS architecture and network Vulnerability assessment.}, volume = {12}, Number = {1}, pages = {17-32}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {ملزومات امنیتی پیاده‌سازی IMS SIP سرور امن}, abstract_fa ={شبکهIMS به عنوان هسته شبکه‌های نسل آینده توسطETSIدر نظر گرفته شده است. ساختار هسته شبکه IMS از دید پیام‌های کنترلی و پروتکل‌های ارتباطی باعث شده است امنیت به عنوان یک قابلیت ضروری برای نیازمندی‌های IMS درآید.پیام‌های کنترلی توسط پروتکلSIP منتقل می‌شود که یک پروتکل لایه کاربرد است. به دلیل اجباری بودن احراز هویت کاربر به شبکه در زمان ثبت‌نام و به دلیل اضافه شدن سرآیند‌های سیگنالینگ، این شبکه امن‌تر از شبکه‌های رایجی نظیرVOIP است، هرچند آسیب‌پذیری‌های متفاوتی اضافه شده است که منجر به حملات بر روی سرورهای‌ SIP می‌شود. این پژوهش بررسی بر روی سرور اصلی شبکه(x-CSCF) را مبتنی بر تهدید، آسیب‌پذیری و تحلیل ریسک انجام می‌دهد. این روش به عنوان ابزاری جهت شناخت پتانسیل ریسک روی سیستم‌ها مبنی بر احتمال وقوع حمله و آسیب‌ ناشی از آن بکار می‌رود. هر طرح سیستمی دارای ارزش‌ها و دارایی‌هایی به همراه نقاط ضعف است. تهدیدها مبتنی بر ضعف‌ها بوجود می‌آیند و سبب آسیب‌پذیری سیستم می‌شوند. پس از شناخت سرمایه‌های سیستم، نقاط ضعف سرورها و شناخت آسیب‌پذیری‌های تجهیزات و کاربردها، شاخص‌های امنیتی بدست می‌آید که در تولید و پیاده‌سازی امن سرورها حایز اهمیت هستند. مدل‌سازی نشان می‌دهد ضعف‌های سرورها و تهدیدها بر کاهش دسترس‌پذیری آن‌ها موثر است. تحلیل آسیب‌ها هزینه را کاهش داده و امنیت را ارتقا می‌دهد. }, keywords_fa = {مدل‌سازی امنیتی TVRA, حملات طوفانی سرورهای SIP, معماری و شبکه IMS, تحلیل آسیب‌پذیری }, url = {http://jsdp.rcisp.ac.ir/article-1-64-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-64-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Pourghassem, Hossei}, title = {A Feature-based Vehicle Tracking Algorithm Using Merge and Split-based Hierarchical Grouping}, abstract ={Vehicle tracking is an important issue in Intelligence Transportation Systems (ITS) to estimate the location of vehicle in the next frame. In this paper, a feature-based vehicle tracking algorithm using Kanade-Lucas-Tomasi (KLT) feature tracker is developed. In this algorithm, a merge and split-based hierarchical two-stage grouping algorithm is proposed to represent vehicles from the tracked features. In the proposed grouping algorithm, with defining measures such as distance, spread and also blob analysis, initial grouping results formed by K-means clustering algorithm are refined. Moreover, to modify the performance of KLT tracker and also optimized utilization from grouping results obtained by proposed algorithm, an effective group matching algorithm based on a merging and splitting scheme is employed to match the tracked groups from a frame to the next frame. The proposed tracking algorithm is evaluated on different test videos with various illumination conditions such as day, night and shadow. The obtained results show that our proposed tracking algorithm covers the most challenges of tracking in the ITS applications.}, Keywords = {Merge and split hierarchical two-stage grouping algorithm, Group matching algorithm based on merge and split schemes, Feature-based tracking algorithm, Intelligence transportation system.}, volume = {12}, Number = {1}, pages = {33-46}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {یک الگوریتم ردیابی خودرو مبتنی بر ویژگی با استفاده از گروه‌بندی سلسله مراتبی ادغام و تقسیم}, abstract_fa ={ردیابی خودرو یکی از چالشهای مهم در سیستمهای حمل و نقل هوشمند جهت تخمین موقعیت خودرو در فریم بعدی از یک دنباله متوالی تصاویر از ویدئوهای نظارتی است. در این مقاله، یک الگوریتم ردیابی خودرو مبتنی بر ویژگی با استفاده از الگوریتم تخمین زننده ویژگی Kanade-Lucas-Tomasi (KLT) گسترش یافته است. در این الگوریتم، برای جایگزینی خودروها بوسیله ویژگیهای ردیابی شده، یک الگوریتم گروه‌بندی دو مرحله‌ای سلسله مراتبی ادغام و تقسیم پیشنهاد می‌گردد. در الگوریتم گروه‌بندی پیشنهادی با تعریف معیارهایی همچون معیارهای فاصله، گستردگی و همچنین آنالیز حباب نتایج گروه‌بندی اولیه حاصل شده از الگوریتم خوشه‌بندی K-means اصلاح می‌گردد. علاوه براین، جهت تصحیح عملکرد الگوریتم تخمین‌زننده ویژگی KLT و همچنین استفاده مناسبتر از نتایج گروه‌بندی الگوریتم پیشنهادی، یک الگوریتم کارآمد تطبیق گروه‌های ویژگی براساس نقشه ادغام و تقسیم جهت تطبیق گروه ویژگیهای ردیابی شده از یک فریم به فریم بعد پیشنهاد می‌شود. در این الگوریتم تطبیق سعی شده است که با استفاده از ویژگیهای منطبق شده بین دو فریم، خودروهای متناظر در آن دو فریم به درستی تطبیق داده شوند. الگوریتم ردیابی پیشنهادی بر روی ویدئوهای آزمایشی متفاوتی با شرایط نورپردازی متفاوت همچون روز، شب و وجود سایه ارزیابی می‌گردد. نتایج حاصل نشان می‌‌دهد که الگوریتم ردیابی پیشنهادی اکثر چالشهای مهم ردیابی خودرو در کاربردهای عملیاتی سیستمهای حمل و نقل هوشمند را پوشش می‌دهد.}, keywords_fa = {الگوریتم گروه‌بندی دو مرحله‌ای سلسله مراتبی ادغام و تقسیم, الگوریتم تطبیق گروه‌ها مبتنی بر نقشه ادغام و تقسیم, الگوریتم ردیابی مبتنی بر ویژگی, سیستم حمل و نقل هوشمند.}, url = {http://jsdp.rcisp.ac.ir/article-1-165-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-165-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Montazer, Gholam Ali and shayestehfar, mohamm}, title = {Iranian License Plate identification with fuzzy support vector machine}, abstract ={License plate recognition is one of the most important applications used in intelligent transportation systems. Difficulty of correct detection and identification of the car plates in different environment conditions makes researchers try new approaches to better solve the problem. License plate recognition problem is divided into three sub problems: "Plate Location", "Character Segmentation", and "Character Identification". In this paper we have tried to improve location and identification of Iranian license plate with fuzzy rules. License locating has been done with edge detection, morphological operations and using fuzzy rules and characters have been identified by fuzzy support vector machine. By applying the algorithm on 50 images, 90% of plates were located and 94% of characters were identified successfully. This shows superiority of our algorithm over non-fuzzy approaches.}, Keywords = {fuzzy theory, license plate, pattern recognition, support vector machine (FSVM) }, volume = {12}, Number = {1}, pages = {47-56}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {شناسایی پلاک خودروهای ایرانی با الگوریتم ماشین بردار پشتیبانی فازی}, abstract_fa ={یکی از مهم‌ترین زیر سامانه‌های حمل و نقل هوشمند، سامانه‌ی تشخیص و شناسایی پلاک خودرو است. دشواری تشخیص و شناسایی صحیح پلاک خودرو در شرایط مختلف محیطی موجب شده تا پژوهش در این زمینه‌ی تحقیقاتی هم‌چنان ادامه داشته باشد. مسئله‌ی تشخیص پلاک خودرو را می‌توان به سه زیر مسئله‌ی «جایابی پلاک»، «استخراج نویسه‌های پلاک» و «شناسایی نویسه‌ها» تقسیم کرد. در این مقاله تلاش شده به کمک قواعد فازی، الگوریتم‌های جایابی پلاک خودروهای ایرانی و شناسایی نویسه‌های آن بهبود یابد. جایابی پلاک با لبه‌یابی، تحلیل‌ ریخت‌شناسانه و استفاده از قواعد فازی و شناسایی نویسه‌ها با استفاده از ماشین بردار پشتیبانی فازی انجام شده است. با آزمایش الگوریتمِ یادشده بر روی 50 تصویر صحت جایابی پلاک خودرو 90 درصد و صحت شناسایی نویسه‌ها 94 درصد به دست آمد که در مقایسه با روش‌های مرسوم دارای توانمندی چشمگیری است. }, keywords_fa = {پلاک خودرو, شناسایی الگو, ماشین بردار پشتیبانی, نظریه‌ی فازی}, url = {http://jsdp.rcisp.ac.ir/article-1-120-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-120-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Farsi, Hassan and Etezadifar, Pouri}, title = {Robustness of Motion Vector against Channel Error for Improvement of Synthesized Video Quality}, abstract ={According to progress of technology during the recent decades, video transmission through a wireless channel has found high demands. In this field, several methods have been proposed to improve video quality. Appearing error in motion vector values is one of the most important factors which can affect the video quality. In case of creating errors in motion vector, the synthesized video frames are moved compared to the previous situation and therefore the synthesized video quality considerably degrades. In this paper, in order to overcome this problem and also to increase PSNR, we propose a method to increase the channel coding rate but transmission rate is maintained constant. In the proposed method, firstly, the motion vector is searched in each block with size of 8*8. After ending the search, the adjacent blocks with the motion vector equals to zero (without movement) are combined together and provide bigger block. Meanwhile, the blocks with equal motion vectors are combined together and transmitted to receiver in two different methods. The experimental results show that the proposed method without increasing side information is able to provide more robustness for video frame against channel errors. The performance of the proposed method has been compared with the new method for different source coding rates and SNRs.}, Keywords = {: Motion vector, Video frame coding, Variable bit rate, Channel coding }, volume = {12}, Number = {1}, pages = {57-78}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {مقاوم سازی بردار حرکت در برابر خطای کانال جهت بهبود کیفیت ویدیوی ‎دریافتی}, abstract_fa ={با توجه به پیشرفت تکنولوژی در دهه‌های اخیر، ارسال و دریافت ویدیو از طریق کانال‌های مخابراتی بی سیم با استقبال گسترده ای روبرو شده است. بدین منظور روش های بسیاری جهت بالا بردن کیفیت ویدیویی ارسالی ارائه گردیده اند.یکی از مواردی که کیفیت فایل‌های ویدیویی را کاهش می‌دهد وجود خطا در مقادیر بردارهای حرکت می‌باشد. در صورت ایجاد خطا در مقادیر بردارهای حرکت، تصاویر ایجاد شده مقداری نسبت به حالت قبلی خود جابجا می‌گردند و کیفیت فریم دریافتی را به صورت قابل توجهی پایین می‌آورند. در این مقاله به منظور مقابله با این مشکل و همچنین بالا بردن PSNR، از افزایش نرخ کدینگ کانال در یک نرخ ارسال ثابت استفاده می-گردد. در روش پیشنهادی، ابتدا با استفاده از بلوک‌هایی با اندازه 8*8 جستجوی بردار حرکت در فریم مورد نظر شروع می‌گردد. پس از اتمام جستجو بلوک‌هایی که در همسایگی هم و دارای حرکت صفر (بدون حرکت ) می‎باشند با یکدیگر ترکیب می‌گردند و بلوک بزرگتری می‌سازند. همچنین بلوک‌هایی که دارای مقدار حرکت برابر بوده اند نیز با همدیگر ترکیب می‌شوند و به دو روش مختلف به گیرنده ارسال می‌گردند. آزمایش‌های انجام شده نشان می‌دهند که روش پیشنهادی بدون افزایش حجم اطلاعات ارسالی برای هر فریم، توانسته‌ است فریم های ویدیویی را نسبت به خطاهای کانال مقاوم تر سازد. در نهایت نتایج بدست آمده را با چندین نرخ ارسال برای منبع و چندین SNR برای کانال با نتایج بدست آمده از روش‌های متداول مقایسه کرده‌ایم}, keywords_fa = {بردار حرکت- کدینگ فریم های ویدیویی- نرخ بیت متغیر- کدینگ کانال}, url = {http://jsdp.rcisp.ac.ir/article-1-43-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-43-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Geravanchizadeh, Masoud and Fallah, Ali and Eterafoskouei, Mirali}, title = {Prediction of consonants Intelligibility for Listeners with Normal Hearing Using Microscopic Models of Speech Perception Considering Different Distance Measures in Automatic Speech Recognizer}, abstract ={In this study, recognition rates of consonants available in vowel-consonant-vowel structure in hearing tests and two microscopic models will be investigated. Such a syllable structure doesn’t exist in Farsi and Azerbaijani languages, but since the goal is only recognition of middle phoneme, according to hearing tests, listeners are able to properly recognize phonemes in clean speech conditions. Inasmuch as these syllable structures are meaningless, it will be suitable for our purpose that is only determination of recognition rates of phonemes not meaningful words. Using this corpus, listeners’ linguistic knowledge in prediction of words is disregarded. Results of hearing tests are compared with two microscopic models based on human auditory system. Difference between two models is at the final stage of feature extraction that in first model, a 8 Hz filter and in the second model a modulation filterbank is used. Correct recognition rates of phonemes in different signal to noise ratios and two distance metrics for speech recognizer, will be compared. In this study recognition rates of consonants for listeners with Azerbaijani native language have been studied. Beside the empirical aspect of the paper, the innovations of this work lies in the study of using two different distance measures for Holube’s model and also direct comparison of two microscopic models in prediction of overall recognition rates and recognition rate of each consonant.}, Keywords = {Intelligibility, Speech perception, Microscopic model, Feature vector, Phoneme recognition rate, Distance measure, Automatic Speech Recognizer. }, volume = {12}, Number = {1}, pages = {79-90}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {پیش‌بینی قابلیت فهم همخوان‌ها در افراد دارای شنوایی عادی با استفاده از مدل‌های میکروسکوپی دارای معیار فاصله‌ مختلف در بازشناساگر خودکار گفتار}, abstract_fa ={در این مطالعه، نرخ تشخیص همخوان‌های موجود در ساختار هجایی «واکه- همخوان- واکه»، در آزمون‌های شنوایی و دو مدل میکروسکوپی ادراک گفتار مورد بررسی قرار می‌گیرد. چنین ساختار هجایی در زبان فارسی و ترکی آذری وجود ندارد. با وجود این، نتایج آزمون‌های شنوایی نشان می‌دهد که شنونده آذری یا فارسی زبان در شرایط بدون نویز، قادر به تشخیص صحیح همخوان‌ها می‌باشد. برای این پژوهش که در آن هدف، تشخیص صحیح آواها و نه کلمات بامعنی است، استفاده از این دادگان صوتی فاقد معنی مناسب می‌باشد چون با استفاده از این دادگان، دانش زبانی شنوندگان در پیش‌بینی کلمات نادیده گرفته میشود. نتایج آزمون‌های شنوایی با نتایج دو مدل میکروسکوپی که بر پایه سیستم شنوایی انسان است، مقایسه می‌شود. تفاوت دو مدل در مرحله نهایی استخراج ویژگی به منظور استفاده در شناساگر خودکار گفتار DTW است. در مدل میکروسکوپی اول، در مرحله پایانی استخراج ویژگی، از فیلتر 8 هرتز و در مدل دوم، از فیلتربانک مدولاسیون استفاده می‌شود. در ادامه، نرخ تشخیص صحیح آواها در مقادیر مختلف سیگنال به نویز با استفاده از معیارهای فاصله اقلیدسی و لگاریتمی با یکدیگر مقایسه می‌شود. در این تحقیق، نرخ تشخیص همخوان‌ها برای شنونده آذری‌زبان مورد بررسی قرار گرفته است. در کنار جنبه تجربی این مطالعه، نو‌آوری این مقاله در بررسی دو معیار فاصله مختلف برای مدل هلوب و نیز مقایسه مستقیم دو مدل میکروسکوپی در پیش‌بینی میانگین نرخ تشخیص و نیز نرخ تشخیص تک‌تک همخوان‌ها می‌باشد.}, keywords_fa = {قابیلت فهم, ادراک گفتار, مدل میکروسکوپی, بردار ویژگی, نرخ تشخیص آوا, معیار فاصله, شناساگر خودکار گفتار.}, url = {http://jsdp.rcisp.ac.ir/article-1-180-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-180-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Tabatabaei, Raziyeh and Feizi-Derakhshi, Mohammad-Reza and Masoumi, Saei}, title = {Proposing an intelligent and semantic-based system for Evaluating Text Summarizers}, abstract ={Nowadays summarizers and machine translators have attracted much attention to themselves, and many activities on making such tools have been done around the world. For Farsi like the other languages there have been efforts in this field. So evaluating such tools has a great importance. Human evaluations of machine summarization are extensive but expensive. Human evaluations can take months to finish and involve human labor that cannot be reused. In this paper, we propose a method of automatic machine summarization evaluation that is quick, inexpensive, and language-independent, that correlates highly with human evaluation, and that has little marginal cost per run. This method has the metrics of determining auto summaries’ quality, through comparing them to the summaries produced by Human (ideal summaries). These metrics measures overlapping of system summaries and human ones in number of units like n-tuples, words string and pairs of words. Certainly for semantic comparing of texts in case of review summaries, the appearance of words are not enough and using of WordNet seems to be necessary. In the proposed method words network is used with an appropriate idea and has improved evaluation results significantly. The proposed method is the first method for the Persian language. Performance measurement of the tool was done during a specified and standard procedure and the results indicate acceptable yield of it. We present this method as an automated understudy to skilled human judges which substitutes for them when there is need for quick or frequent evaluations.}, Keywords = {Natural Language Processing, Persian Language, System Summarizer Evaluation, Evaluation measure.}, volume = {12}, Number = {2}, pages = {3-11}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {ارائه یک سیستم هوشمند و معناگرا برای ارزیابی سیستم های خلاصه ساز متون}, abstract_fa ={امروزه با افزایش منابع متنی در شبکه جهانی وب، هر روز بر گستره‏ ی اطلاعات قابل دسترس برای کاربران افزوده می شود بنابراین جهت نگهداری و بازیابی و پردازش آنها از سامانه ‏های خلاصه‏ سازی خودکار متن، استفاده می‏ کنیم. میزان کیفیت خلاصه‏ سازهای ماشینی، توسط انسان‏ها مورد بررسی قرار می‏ گیرد اما این کار نیروی متخصص و زمان زیادی را می‏ طلبد و هزینه بر خواهد بود. بنابراین برای حل این مشکل، در این مقاله سیستمی به اسم TabEval برای ارزیابی سامانه‏ های خلاصه‏ سازی خودکار متن ارائه شده است. این سیستم با ایده و معماری جدید به محاسبه‏ ی میزان تشابه ظاهری و معنایی بین خلاصه‏ ی سیستمی و خلاصه‏ های انسانی (خلاصه‏ های ایده ‏آل) می‏ پردازد. برای محاسبه میزان تشابه معنایی از شبکه‏ ی واژه‏ ها و زنجیره‏ های لغوی استفاده می‏ گردد. خروجی حاصل از این سیستم توسط نیروهای متخصص در زمینه‏ ی ادبیات زبان فارسی مورد بررسی قرار گرفت. نتایج حاصل از بررسی‏ ها حاکی از این بود که این سیستم همانند انسان بطور هوشمند عمل می‏ کند.}, keywords_fa = {ارزیابی هوشمند, خلاصه‏ سازهای سیستمی, پردازش زبان طبیعی, F-measure, معیار ارزیابی, لینک های هم رخداد, شبکه ی واژه ها}, url = {http://jsdp.rcisp.ac.ir/article-1-182-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-182-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {khodadadi, habib and rahatiquchani, saeed and estaji, azam}, title = {Contrast Relation Recognition in Persian discourse using supervised learning methods}, abstract ={Discourse is a part of language that intend is used to communicate. A discourse relation recognition system can identify one or more relation between the textual units in a discourse. Like other languages, Contrast relation is a one of the available relations in Persian discourse. Contrast relation recognition in discourse is useful for generation and perception of discourse, paraphrasing and summarization systems and et al. This relation in one discourse is often detected by discourse marker such as “اما” and “ولی”, But in some situation these markers are removed and relation recognition is difficult. For this reason we have proposed to use of some feature for relation recognition. These features are: tense of verbs, word pairs, and et al. In this paper, a Corpus of Research Center of Intelligent Signal Processing has been used to collect 5000 instances of contrast and 5000 other relations then created feature vector for each instance. We used three supervised methods for classification: SVM, KNN ,Parzen Window and combine of this classifiers. Finally, the best result achieved by combine classifier that accuracy is 87.13.}, Keywords = {Contrast Relation Recognition , Discourse, Discourse Marker, Natural Language Processing, Supervised Learning}, volume = {12}, Number = {2}, pages = {13-22}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {شناسائی رابطه تقابل در گفتمان فارسی به کمک روش های یادگیری باسرپرستی}, abstract_fa ={گفتمان به هر قطعه یا پاره‌ای از زبان گفته می‌شود که به قصد برقراری ارتباط به کار برده شده باشد‌. سیستم شناسایی روابط موجود در گفتمان سیستمی است که می‌تواند روابط موجود بین واحدهای متنی یک گفتمان را شناسایی کند. یکی از روابط موجود در گفتمان‌های زبان فارسی رابطه تقابل است که شناسایی آن به توانائی تولید و درک گفتمان کمک می-کند و در سیستم‌های متعددی مانند خلاصه‌ساز، تفسیر و... کاربرد دارد. این رابطه در یک گفتمان می‌تواند به کمک نقش-نماهای خاص رابطه تقابل مانند "اما" و "ولی" شناسایی شود؛ اما در بعضی موارد این نقش‌نماها حذف می‌شوند و شناسایی رابطه را با مشکل مواجه می‌کنند. لذا به منظور شناسایی این رابطه، از ویژگی‌هائی مانند زمان فعل‌ها، جفت کلمات و ... استفاده شد. بدین منظور و پس از گردآوری 5000 نمونه رابطه تقابل و 5000 نمونه سایر روابط از مجموعه داده پژوهشکده هوشمند علائم، برای هر نمونه بردار ویژگی تشکیل داده شد و در نهایت برای دسته‌بندی و تشخیص رابطه تقابل از چند روش‌ یادگیری باسرپرستی شامل ماشین بردار پشتیبان ، نزدیکترین همسایه، پنجره پارزن و همچنین ترکیب این دسته-بندها استفاده شد. که بهترین میزان صحت 87.13 و مربوط به ترکیب دسته‌بندها در بهترین حالت می‌باشد}, keywords_fa = {پردازش زبان طبیعی, گفتمان, نقش‌نمای گفتمان, شناسایی رابطه تقابل‌, یادگیری باسرپرستی}, url = {http://jsdp.rcisp.ac.ir/article-1-45-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-45-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {hoseinkhani, fatemeh and nasersharif, babak}, title = {Two Featuer Transformation Methods Based on Genetic Algorithm for Reducing Support Vector Machine Classification Error}, abstract ={Discriminative methods are used for increasing pattern recognition and classification accuracy. These methods can be used as discriminant transformations applied to features or they can be used as discriminative learning algorithms for the classifiers. Usually, discriminative transformations criteria are different from the criteria of  discriminant classifiers training or  their error. In this paper, for relating feature transformation criterion to classification rate, we obtain a feature transformation method using genetic algorithm where we choose fitness function as Support Vectomr Machine(SVM) classification error rate. In addition, we obtain a feature transformation method using multi-objective genetic algorithm in order to consider both between class discrimination (According to feature transformation criterion) and support vector machine classification error rate simultaneously. Experimental results on UCI dataset indicate that using both classification error and between class discrimination in feature transformation improve discriminative feature transformations performance in increasing SVM classification accuracy. Additionally, the use of feature transformation with classification error criterion increases SVM classification more than other conventional feature transformation and proposed two-objective methods.}, Keywords = {Feature Transformation, Discrimination, Support Vector Machine, Genetic Algorithms, Classification.}, volume = {12}, Number = {2}, pages = {23-39}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {دو روش تبدیل ویژگی مبتنی بر الگوریتم های ژنتیک برای کاهش خطای دسته بندی ماشین بردار پشتیبان}, abstract_fa ={در بازشناسی الگو یکی از روش های افزایش دقت بازشناسی، بهره گیری از روش های متمایز ساز است. این روش ها یا به صورت تبدیل متمایزساز بر ویژگی ها بکار می روند یا از روش های یادگیری متمایزساز برای آموزش دسته بند استفاده می کنند. معمولا معیار تبدیلات متمایز ساز متفاوت با معیار آموزش و یا خطای دسته بندهای متمایز ساز است. در مقاله حاضر، برای هماهنگ کردن معیار تبدیل ویژگی و نیز معیار دسته بندی ماشین بردار پشتیبان روشی برای تخمین تبدیل ویژگی با استفاده از الگوریتم ژنتیک (GA) پیشنهاد می شود که معیار تبدیل آن کمینه کردن خطای دسته بندی ماشین بردار پشتیبان است. علاوه بر این، روشی برای تخمین تبدیل ویژگی با استفاده از الگوریتم ژنتیک دوهدفه، پیشنهاد می شود که معیار این تبدیل بیشینه شدن تمایز بین دسته ای (مطابق با معیار روش های تبدیل ویژگی) و کمینه کردن خطای دسته بندی ماشین بردار پشتیبان به صورت همزمان است. ارزیابی بر روی دادگان UCI نشان می دهد که استفاده از معیارهای همزمان خطای دسته بندی و تمایز بین دسته ای در تبدیل ویژگی سبب بهبود عملکرد تبدیلات ویژگی متمایز ساز متداول در افزایش دقت دسته بندی ماشین بردار پشتیبان می گردد. علاوه بر اینکه استفاده از تبدیل ویژگی با معیار خطای دسته بندی نسبت به دیگر روش های شناخته شده تبدیل ویژگی و نیز روش دو هدفه، دقت دسته بندی ماشین بردار پشتیبان را بیشتر افزایش می دهد.}, keywords_fa = {تبدیل ویژگی , متمایزسازی , ماشین بردار پشتیبان , الگوریتم ژنتیک , دسته بندی}, url = {http://jsdp.rcisp.ac.ir/article-1-185-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-185-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Hasanzadeh, Fatemeh and Shahabi, Hossein and Moghimi, Sahar and Moghimi, Ali}, title = {EEG investigation of the effective brain networks for recognizing musical emotions}, abstract ={In the current research brain effective networks related to happy and sad emotions are studied during listening to music. Connectivity patterns among different EEG channels were extracted using multivariate autoregressive modeling and partial directed coherence while participants listened to musical excerpts. Both classical and Iranian musical selections were used as stimulus. Participants’ self-reported emotional values were used for classification of excerpts. The connectivity matrices varied from happy to sad musical selections. Moreover, the parameters extracted from different regions correlated with subjective assessments of the emotional content. Self-reported valance had a positive correlation with the inflow of frontal channels while listening to happy excerpts. This correlation was negative for sad pieces. The obtained results demonstrate that the connectivity indices among different regions can be used for differentiating happy and sad emotions.}, Keywords = {EEG, emotion, music, partial directed coherence, effective network}, volume = {12}, Number = {2}, pages = {41-54}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {بررسی الکتروانسفالوگرام شبکه موثر مغز انسان در حین گوش دادن به موسیقی به منظور تشخیص احساسات}, abstract_fa ={در تحقیق حاضر شبکه های موثر مغزی مرتبط با احساسات شادی و غم در حین گوش کردن به موسیقی مورد مطالعه قرار می‌گیرند. الگوی ارتباط بین نواحی مختلف کانالهای EEG با استفاده از مدلسازی خودبازگشتی چند متغیره و کوهرنس جهت‌دار جزئی در حالی‌ که داوطلبین به موسیقی گوش فرا داده اند استخراج شد. به عنوان محرک از موسیقی کلاسیک و سنتی ایرانی استفاده شد. داوطلبین در حین گوش دادن به موسیقی با استفاده از یک نرم افزار قطعه مورد نظر را از لحاظ محتوای احساسی مورد مطالعه قرار دادند. از نتایج این ارزیابی برای طبقه‌بندی قطعات استفاده شد. ماتریس‌های ارتباط متناظر تفاوتهایی را در حین گوش دادن به قطعات شاد و غمگین نشان دادند. همچنین پارامترهای ارتباط که از بخشهای مشخصی از ماتریس‌های متناظر استخراج شده بودند همبستگی معناداری را با ارزیابی شخصی افراد از محتوای احساسی قطعات نشان دادند. میزان جاذبه گزارش شده توسط افراد در حین گوش کردن به قطعات شاد با اندیس‌های ورودی به کانالهای خصوصا ناحیه فرنتال همبستگی مثبتی نشان داد. این مساله در مورد قطعات غمگین برعکس بود (مقادیر همبستگی منفی بودند). در نهایت با توجه به نتایج بدست آمده به نظر می‌رسد می‌توان از اندیس‌های مربوط به ارتباط نواحی مختلف جهت شناسایی درک احساسی افراد از موسیقی استفاده کرد.}, keywords_fa = {الکتروانسفالوگرام, احساسات, موسیقی, کوهرنس جهت‌دار جزئی, شبکه موثر}, url = {http://jsdp.rcisp.ac.ir/article-1-198-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-198-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {rahimi, zeinab and samani, mohammad hossein and khadivi, shahram}, title = {Extracting parallel corpora from web comparable documents to improve the quality of an English-Farsi translation system}, abstract ={Data used for training statistical machine translation method are usually prepared from three resources: parallel, non-parallel and comparable text corpora. Parallel corpora are an ideal resource for translation but due to lack of these kinds of texts, non-parallel and comparable corpora are used either for parallel text extraction. Most of existing methods for exploiting comparable corpora look for parallel data at the sentence level. However, we believe that very non-parallel corpora have none or few good sentence pairs most of their parallel data exists at the sub-sentential level. The base system is Manteanu 2006 fragment extraction system implemented in C# and the proposed system is implemented based on extracting fragment blocks from input related sentences using score calculated from special features such as fragment length, LLR score, relevance path specification in the block and translation coverage percent. Evaluations indicates that proposed method outperforms the base system and the improved base system.}, Keywords = {Comparable Corpora, Fragment Extraction, Parallel Corpora, Machine Translation}, volume = {12}, Number = {2}, pages = {55-72}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {استخراج پیکره‌ موازی از اسناد قابل‌مقایسه برای بهبود کیفیت ترجمه در سیستم‌های ترجمه ماشینی}, abstract_fa ={امروزه با گسترش وسائل ارتباط عمومی و به خصوص شبکه جهانی اینترنت، نیاز به عملیات ترجمه خودکار به صورت چشم‌گیری افزایش یافته است. یکی از مطرح‌ترین روش‌های ترجمه ماشینی، روش‌ آماری است. پارامترهای سیستم ترجمه ماشینی آماری با استفاده از مجموعه بزرگی از دادگان آموزشی (پیکره موازی دو زبانه) تخمین زده می‌شود؛ اما در برخی زبان‌ها هنوز مسئله نیاز پایه‌ای سیستم ترجمه ماشینی آماری یعنی پیکره‌های متنی بزرگ موازی برطرف نشده است. برای رفع این مشکل روشی پیشنهادی برای بهبود کیفیت پیکره‌های مستخرج از اسناد قابل مقایسه و در نتیجه بهبود کیفیت سیستم ترجمه ماشینی ارائه شده است. از آنجایی که در اکثر متون قابل مقایسه داده‌های موازی نه به صورت جمله، بلکه به صورت قطعات زیرجمله‌ای ظاهر می‌شوند، روش پیشنهادی سعی در استخراج قطعات موازی به صورت بلوک با استفاده از مجموعه‌ای از ویژگی‌ها دارد که این ویژگی‌ها عبارت‌اند از طول عبارت، امتیاز شباهت لگاریتمی، شیب مسیر ترازبندی در بلوک، پراکندگی شیب قطعات تشکیل‌دهنده بلوک، مربعی بودن بلوک و درصد حضور کلمات هم ترجمه در بلوک. طبق ارزیابی‌های انجام شده روش پیشنهادی دارای کارایی مناسبی است و علاوه بر اینکه از نظر دقت و بازخوانی از روش‌های موجود استخراج قطعه پیشی گرفته است، دادگان مستخرج از اجرای این روش روی بخشی از پیکره قابل مقایسه موجود، کارایی سیستم ترجمه ماشینی پایه را برای دادگان آزمون مختلف از 0.33 تا 1.4 واحد بلو افزایش داده است.}, keywords_fa = {پیکره قابل مقایسه, استخراج قطعات موازی, پیکره موازی, ترجمه ماشینی}, url = {http://jsdp.rcisp.ac.ir/article-1-190-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-190-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Ghodousi, mahrad and Nasrabadi, Ali moti and Torabi, Shahla and Mohammadian, Amin and Mehrnam, AmirHossei}, title = {Combination of event related potentials and Peripheral signals in order to improve the accuracy of the Lie detection Systems}, abstract ={Since it was being predicted that combination of psychophysiological and ERP signals, during the detection of a guilty person's knowledge can increase the performance of integrative lie detection system toward using the separate procedures Using the knowledge of both aspects, in this study it has been tried to determine the proper Inter-Stimulus Intervals (ISI) together with suitable sequence of stimulations in order to simultaneous recording of P300 component of brain Event Related Potentials and peripheral signals. Also a proper mock crime scenario has been designed it has the capability of exciting the cognitive aspect of mock crime and also was capable of provoking the subject’s concerns, based on telling lie about the crime. At the next stage, after recording data from 32 participants, features from their ERP and SCR (as one of the most important peripheral signals) signals have been extracted. Then, an LDA classifier was applied on selected features which were selected by Genetic algorithm and these accuracies: 76.67%, 73.33% & 80% have been obtained for EEG, SCR and Combined data respectively. The resulted accuracies at the first show the proper quality of scenario and protocol, in synchronous stimulation and recording of both signal categories, also the improvements which have been resulted by integrative data in compare with separate ones are observable.}, Keywords = {Oddball paradigm, Event Related Potentials, Integrated Lie-detection analysis, Peripheral Signals}, volume = {12}, Number = {2}, pages = {73-86}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {تلفیق پتانسیل‌های برانگیخته مغزی و سیگنال‌های محیطی به منظور بهبود کیفیت سیستم های تشخیص فریب}, abstract_fa ={از آنجا که پیش بینی می‌شد که تلفیق دو روش ثبت دادگان کلاسیک و مغزی در پروسه تشخیص دانش فرد خطاکار می‌تواند منجر به افزایش صحت عملکرد سیستم دروغ‌سنجی در مقایسه با عملکرد جداگانه هر کدام از این روش‌ها گردد، در این پژوهش، با بهره گیری از دانش موجود در هر دو حوزه سعی به بررسی فرضیه فوق شده است. در این راستا ابتدا فاصله زمانی ارائه تحریکها (ISI) و نیز نحوه چینش آن ها، به گونه-ای تنظیم شده است که امکان ثبت همزمان مولفه ‌P300 از پتانسیل‌های وابسته به رخداد مغزی و سیگنال‌های محیطی را فراهم ‌نماید؛ همچنین سناریوی مناسبی از جرم ساختگی طراحی شده تا هم در بردارنده‌‌ی اطلاعات شناختی جرم و هم مبتنی بر اضطراب ناشی از دروغ باشد. پس از ثبت دادگان از 32 شرکت‌کننده، به استخراج ویژگی از سیگنال های پتانسیل برانگیخته مغزی و SCR ( به عنوان یکی از مهم ترین سیگنال های محیطی) سوژه‌ها پرداخته شد. سپس با نتخاب ویژگی توسط الگوریتم ژنتیک و استفاده از طبقه بند LDA ، درصد صحت‌های تشخیصی 76.67% ، 73.33% و 80% به ترتیب برای ویژگی‌های حاصل از دادگان مغزی، SCR و تلفیقی حاصل شدند؛ صحت‌های حاصل در وهله اول بیانگر کیفیت مناسب سناریو و پروتکل طراحی شده در تحریک و ثبت همزمان هر دو دسته سیگنال بوده و همچنین بیانگر بهبود نتایج طبقه بندی با استفاده از دادگان تلفیقی در مقایسه با دادگان جداگانه می باشند.}, keywords_fa = {الگوی ادبال, پتانسیل‌های وابسته به رخداد مغزی, دروغ‌سنجی تلفیقی , سیگنال‌های محیطی}, url = {http://jsdp.rcisp.ac.ir/article-1-36-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-36-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {}, title = {Extractive summarization based on cognitive aspects of human mind for narrative text}, abstract ={This study explains a summarization system based on a cognitive model theory. This theory is about comprehension and is used to explain comprehending narrative texts. Majority of previous methods have been used statistical approaches for summarization, and this method is different as it tries to build a system based on a cognitive theory and not statistical methods. Main principle of situational model is that as humans read a text, they will make a mental image based on temporality, causality, intentionality, protagonists, and place. Proposed system extracts five features for each sentence and identifies the most important sentences based on five features. The results obtained from this method were satisfactory.}, Keywords = {Extractive summarization, Situational model theory, Cognitive Science, Narrative text}, volume = {12}, Number = {2}, pages = {87-96}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {خلاصه‌ساز متون روایی مبتنی بر جنبه‌های شناختی ذهن انسان}, abstract_fa ={این پژوهش به طراحی و ایجاد یک سامانه‌ خلاصه‌سازی متن، که مبتنی بر نظریات شناختی است، می‌پردازد. نظریه مدل موقعیتی مهمترین نظریه در زمینه عملکرد ذهن در درک متن شناخته می‌شود که برای توضیح فرآیند درک متون روایی کاربرد دارد. در مقایسه با دیگر روش‌ها که بطور معمول رویکردی آماری دارند، این روش از این نظر که سامانه‌ای مبتنی بر عملکرد ذهن انسان است، روش نوینی محسوب می‌شود، بعلاوه توانسته یکی از نظریات شناختی معتبر را در قالب یک سامانه خودکار خلاصه‌سازی به بوته آزمایش گذارد. نظریه شناختی مدل موقعیتی بیان می‌نماید که به هنگام خوانش متن، انسان به پنج ویژگی در سطح جمله شامل تغییر زمان و مکان، روابط علی، میزان ارتباط با موضوع و شخصیت‌های اصلی توجه می‌کند و چارچوبی ذهنی بر حسب آن ایجاد می‌نماید تا جملات مهم متن شناسایی ‌گردند. نتایج بدست آمده برای این روش دقتی رضایت‌بخش قابل مقایسه با روش‌های روز آماری را بدست داده است که از این جهت که مبتنی بر یک نظریه شناختی درک متن است، حائز اهمیت می‌باشد.}, keywords_fa = {کلید واژه: خلاصه‌سازی خودکار استخراجی, علوم شناختی, نظریه مدل موقعیتی , متون روایی.}, url = {http://jsdp.rcisp.ac.ir/article-1-203-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-203-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {}, title = {Speech Enhancement Using MMSE Estimator Based on Mixture of laplacian}, abstract ={In this paper an estimator of speech spectrum for speech enhancement based on Laplacian Mixture Model has been proposed. We present an analytical solution for estimating the complex DFT coefficients with the MMSE estimator when the clean speech DFT coefficients are mixture of Laplacians distributed. The distribution of the DFT coefficients of noise are assumed zero-mean Gaussian.The drived MMSE estimator is non-linear and it was shown that this estimator performs better than estimators which are based on Gaussian and Laplacin model}, Keywords = {EM algorithm, Gaussian noise, Laplacian Mixture Model, Minimum Statistic,MMSE estimator. }, volume = {12}, Number = {2}, pages = {97-107}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {بهسازی گفتار با تخمین گر کمترین میانگین مربعات خطا برپایه توزیع مخلوط لاپلاس برای گفتار}, abstract_fa ={در این مقاله یک روش بهسازی گفتار آماری با فرض توزیع مخلوط لاپلاس برای گفتار، برای تخمین سیگنال گفتار تمیز (بدون نویز) از سیگنال گفتار نویزی ارائه شده است. در روش پیشنهادی، ضرایب تبدیل فوریه زمان کوتاه گسسته سیگنال گفتار با استفاده از تخمین گر کمترین میانگین مربعات خطا، بدست می آید. در این تخمین، فرض می شود که تابع چگالی احتمال ضرایب تبدیل فوریه سیگنال تمیز و نویز به ترتیب، مخلوط لاپلاس و گوسی با میانگین صفر می باشد. نتایج حاصل از معیارهای SNRقطعه ای، LLR و PESQ نشان می دهد که روش پیشنهادی عملکرد بهتری نسبت به دو روش مبتنی بر توزیع گوسی و روش مبتنی بر توزیع لاپلاس دارد. }, keywords_fa = {تخمین گر MMSE, الگوریتم EM, توزیع مخلوط لاپلاس, توزیع گوسی}, url = {http://jsdp.rcisp.ac.ir/article-1-54-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-54-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Mirzababaei, Behzad and Faili, Heshaam}, title = {A real-world spell checker using context-sensitive features}, abstract ={Nowadays, a large volume of documents is generated daily. These documents generated by different persons, thus, the documents contain spelling errors. These spelling errors cause quality of the documents are decrease. Therefore, existence of automatic writing assistance tools such as spell checker/corrector can help to improve their quality. Context-sensitive are misspelled words that have been wrongly converted into another word of the language. Thus, detection of real-word errors requires discourse analysis. In this paper, we propose a language independent discourse-aware discriminative ranker and use information of whole document and a log-linear model for ranking. To evaluate our method, we augment it into two context-sensitive spellchecker systems one is based on Statistical Machine Translation (SMT) and the other is based on language model. For more evaluation, we also use two different tests. Proposed method cause outperform about 17% over the SMT base approach with respect to detection and correction recall.}, Keywords = {Spell checker, context-sensitive error, statistical machine translation, context-aware ranking}, volume = {12}, Number = {3}, pages = {3-14}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {ارائه یک رتبه‌بند برای خطایاب معنایی با استفاده از ویژگی‌های حساس به متن}, abstract_fa ={در عصر فناوری، روزانه حجم زیادی از سند­های الکترونیکی تولید می­شود. از آنجا که این سند­ها توسط افراد مختلف تولید می­شود دارای خطاهایی هستند. وجود خطاها باعث کاهش کیفیت سند­ها می­شود، بنابراین وجود ابزارهای خطایاب باعث افزایش کیفیت می­شود. یکی از انواع خطاها، خطای معنایی حساس به متن است. همانطور که از نام این آن برمی­آید، برای تشخیص و تصحیح آن، نیاز به تحلیل اطلاعات موجود در متن است. در این مقاله، یک رتبه­بند متمایزگر مستقل از زبان برای خطایاب­های معنایی حساس به متن ارائه دادیم و از اطلاعات کل متن برای رتبه­بندی استفاده کردیم. این رتبه­بندی توسط ویژگی­های حساس به متن و یک مدل لگاریتم خطی انجام شده است. برای ارزیابی روش، از دو روش مبنای مختلف که یکی بر اساس مترجم ماشینی آماری و دیگری بر اساس مدل زبانی است استفاده کرده­ایم. به منظور ارزیابی سیستم از دو داده­ی آزمون مختلف در زبان فارسی استفاده شده است. این روش باعث بهبود 17% در بازخوانی تشخیص و تصحیح نسبت به روش مبنای مترجم ماشینی آماری شده است.}, keywords_fa = {خطایاب, خطای حساس به متن, مترجم ماشینی آماری, رتبه بندی آگاه به متن}, url = {http://jsdp.rcisp.ac.ir/article-1-218-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-218-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {ahmadifard, alireza and khosravi, hossei}, title = {A two step method for offline handwritten Farsi word recognition using adaptive division of gradient image}, abstract ={This paper presented a two step method for offline handwritten Farsi word recognition. In first step, in order to improve the recognition accuracy and speed, an algorithm proposed for initial eliminating lexicon entries unlikely to match the input image. For lexicon reduction, the words of lexicon are clustered using ISOCLUS and Hierarchal clustering algorithm. Clustering is based on the features that describe the shape of word generally. In second step, a new method proposed to extract histogram of gradient image which this showed well the correspondence between different samples of handwritten word images. The gradient feature vectors of input words are compared with gradient feature vectors of candidate words using K nearest neighbor classifications. The recognition result on handwritten words of IRANSHAR dataset showed that the lexicon reduction step and the new method of extracting gradient feature increased recognition accuracy and speed by removing classifier confusion.}, Keywords = {handwritten Farsi word recognition,ISOCLUS clustering algorithm,DTW algorithm, profile feature, gradient histogram feature}, volume = {12}, Number = {3}, pages = {15-29}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {یک روش دو مرحلهای برای بازشناسی کلمات دستنوشته فارسی به کمک بلوکبندی تطبیقی گرادیان تصویر}, abstract_fa ={در این مقاله یک روش دو مرحلهای برای بازشناسی کلمات دست نوشته فارسی ارائه شده است. در مرحله اول برای افزایش دقت و کاهش بارمحاسباتی، الگوریتمی برای کاهش کلمات فرهنگ لغت قابل مقایسه با کلمه مورد آزمون ارائه شده است. برای این منظور کلمات موجود در فرهنگ لغت توسط الگوریتمهای خوشه بندی ،دسته بندی می شوند. خوشه بندی در این مرحله بر اساس ویژگیهایی که شکل کلی کلمه را توصیف می کنند، می باشد. در مرحله دوم یک روش جدید جهت استخراج ویژگی هیستوگرام گرادیان تصویر کلمه پیشنهاد شده است که این روش پیشنهادی تناظر بین نمونههای مختلف تصاویر یک کلمه دستنوشته را بهتر نشان میدهد. با مقایسه بردار ویژگی نزدیک- K استخراج شده از کلمه ورودی و بردار ویژگی کلمات کاندید (بدست آمده از مرحله اول) در یک طبقه بند ترین همسایه بهترین کاندید برای کلمه ورودی شناسایی می گردد. نتایج پیاده سازی روش پیشنهادی بر روی پایگاه داده "ایران شهر" نشان می دهد که مرحله کاهش فرهنگ لغت و روش جدید جهت استخراج ویژگی هیستوگرام گرادیان، دقت و سرعت سیستم را بطور قابل ملاحظهای هم از لحاظ دقت و تا حدودی از لحاظ سرعت بهبود می بخشد}, keywords_fa = {بازشناسی کلمه دست نوشته, الگوریتم خوشه بندی ISOCLUS, الگوریتم DTW , ویژگی پروفایل, ویژگی هیستوگرام گرادیان }, url = {http://jsdp.rcisp.ac.ir/article-1-66-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-66-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Sabahi, Mohammad Farz}, title = {Blind Detection and Equalization in Chaotic Communication Systems Using Importance Sampling}, abstract ={In this paper an Importance Sampling technique is proposed to achieve blind equalizer and detector for chaotic communication systems. Chaotic signals are generated with dynamic nonlinear systems. These signals have wide applications in communication due to their important properties like randomness, large bandwidth and unpredictability for long time. Based on the different chaotic signals properties, different communication methods have proposed such as chaotic modulation, masking, and spread spectrum. In this article, chaos masking is assumed for transmitting modulated message symbols. In this case, channel estimation is a nonlinear problem. Several methods such as extended Kalman filter (EKF), particle filter (PF), minimum nonlinear prediction error (MNPE) and ... are previously presented for this problem. Here, a new approach based on Monte Carlo sampling is proposed to joint channel estimation and demodulation. At the receiver end, Importance Sampling is used to detect binary symbols according to maximum likelihood criteria. Simulation results show that the proposed method has better performance especially in low SNR}, Keywords = {Chaotic Communication, Detection, Importance Sampling, Blind Equalization, Chaos Masking}, volume = {12}, Number = {3}, pages = {31-41}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {آشکارسازی و همسان سازی کور در سیستم مخابراتی آشوبی بااستفاده از نمونه برداری اهمیتی}, abstract_fa ={در این مقاله یک روش نمونه برداری اهمیتی برای تحقق آشکارساز و همسان ساز کور در مخابرات آشوبی پیشنهاد شده است. سیگنالهای آشوبی با سیستم های دینامیکی غیرخطی تولید می شوند. این سیگنال ها به دلیل دارا بودن خواص منحصر بفردی مانند شبه تصادفی بودن، پهنای باند عریض داشتن، غیرقابل پیش بینی بودن برای مدت طولانی و نیز برآورده کردن نیازهای مخصوص برخی از سیستم های مخابراتی، مورد توجه هستند. براساس خواص مختلف آشوب، روش های مخابراتی شامل مدولاسیون آشوبی، ماسک گذاری و طیف گسترده پیشنهاد شده است. در سیستم مخابراتی مورد بررسی در این مقاله سمبل های پیام با روش ماسک گذاری آشوبی (Chaos Masking) مدوله و ارسال می شود، در این حالت مسأله تخمین کانال یک مسأله غیر خطی است که روش های متنوعی مانند فیلترکالمن گسترش یافته، فیلترذره ای، کمترین خطای پیش بینی غیرخطی و ... برای حل آن استفاده شده است. در این مقاله رویکرد جدیدی برای تخمین و دی مدولاسیون با استفاده از نمونه برداری تصادفی (مونت کارلو) ارائه شده است. در گیرنده، برای تخمین سمبل های پیام ازنمونه برداری اهمیتی استفاده می شود. در مقایسه با فیلترکالمن گسترش یافته روش به کار رفته در این مقاله مخصوصاً در SNR های پایین نتایج بهتری دارد.}, keywords_fa = {مخابرات آشوبی, آشکارسازی, نمونه برداری اهمیتی, همسان سازی کور, ماسک گذاری آشوبی }, url = {http://jsdp.rcisp.ac.ir/article-1-133-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-133-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Mirjalili, Alireza and Abootalebi, Vahid and Sadeghi, Mohammad Taghi}, title = {Improving the performance of sparse representation-based classifier for EEG classification}, abstract ={In this paper, the problem of classification of motor imagery EEG signals using a sparse representation-based classifier is considered. Designing a powerful dictionary matrix, i.e. extracting proper features, is an important issue in such a classifier. Due to its high performance, the Common Spatial Patterns (CSP) algorithm is widely used for this purpose in the BCI systems. The main disadvantages of the CSP algorithm are its sensibility to noise and the over learning phenomena when the number of training samples is limited. In this study, to overcome these problems, two modified form of the CSP algorithms, namely the DLRCSP and GLRCSP have been used. Using the adopted methods, the average detection rate is increased by a factor of about 7.78 %. Also, a problem of the SRC classifier which uses the standard BP algorithm is the computational complexity of the BP algorithm. To overcome this weakness, we used a new algorithm which is called the SL0 algorithm. Our classification results show that using the SL0 algorithm, the classification process is highly speeded up. Moreover, it leads to an increase of about 1.61% in average correct detection compared to the basic standard algorithm.}, Keywords = {Electroencephalogram, sparse representation-based classifier, regularized common spatial patterns, Smoothed L0-norm}, volume = {12}, Number = {3}, pages = {43-55}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {بهبود کارایی طبقه‌بندی‌کننده مبتنی بر نمایش تنک برای طبقه‌بندی سیگنالهای مغزی}, abstract_fa ={در این مقاله مسئله طبقه‌بندی سیگنالهای EEG مبتنی بر تصور حرکتی برای یک سیستم واسط مغز-کامپیوتر (BCI)، توسط طبقه‌بندی‌کننده مبتنی بر نمایش تنک (SRC) مورد توجه واقع شده است. این طبقه‌بندی‌کننده برای کارایی بالا نیاز به طراحی ماتریس دیکشنری قوی دارد. با توجه به کارایی بالای الگوریتم الگوهای مکانی مشترک (CSP) در سیستمهای BCI، از این روش برای طراحی ماتریس دیکشنری استفاده شده است. از معایب CSPحساس به نویز بودن و مسئله فرایادگیری در مجموعه‌های آموزشی کم می‌باشد. برای رفع این معایب از دو نوع الگوریتم بهبود CSP با نامهای GLRCSP و DLRCSP استفاده شده است. استفاده از این روش‌ها منجر به افزایش میانگین درصد صحت تشخیص ‌به میزان حدود 7/78 % نسبت به گونه استاندارد CSP شده است. از سوی دیگر یکی از معایب طبقه‌بندی‌کننده SRC که از الگوریتم پایه BP استفاده می‌کند، زمان‌بر بودن آن می‌باشد. برای رفع این عیب، از الگوریتم جدید SL0 به عنوان جایگزین الگوریتم BP استفاده نمودیم. نتایج نشان داد که نه تنها زمان مرحله آزمون بسیار کاهش می‌یابد، بلکه این تغییر منجر به افزایش میانگین درصد صحت تشخیص به میزان 1/16 % نسبت به الگوریتم استاندارد پایه می‌شود.}, keywords_fa = {:سیگنال‌های مغزی, طبقه‌بندی مبتنی بر نمایش تنک, الگوهای مکانی مشترک تنظیم شده, الگوریتم نرم صفر هموار شده(SL0)}, url = {http://jsdp.rcisp.ac.ir/article-1-175-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-175-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Yazdani, Seyed Hamid and Abutalebi, Hamid Rez}, title = {Adaptive and Smart Beamforming in Ad-hoc Microphone Arrays by Clustering and Ranking of the Microphones}, abstract ={Considering the existence of a many speech degradation factors, speech enhancement has become an important topic in the field of speech processing. Beamforming is one of the well-known methods for improving the speech quality that is conventionally applied using regular (classical) microphone arrays. Due to the restrictions in the regular arrangement of microphones, in recent years there has been an emerging trend toward the microphone arrays with irregular arrangement (or so-called Ad-hoc microphone arrays). Due to the lack of knowledge about the location and the arrangement of microphones, and spreading of the microphones throughout the environment, the idea of clustering has been considered in this paper. We propose a method for the clustering of microphones in directional noise fields. For this type of noise fields, we propose a new clustering method that works based on the energy of the received signals. We have tried that the proposed clustering method to be applicable in different directional noise fields. We also propose a modified structure for the GSC beamformer by considering different roles for microphone clusters. Our evaluations indicate that in some situations, employing a microphone cluster produces superior results compared to the usage of all microphones. This, in turn, shows that the performance of the speech enhancement system can been improved using the clustering process, while the computational load is also decreased (due the reduction in the number of employed microphones).}, Keywords = {speech enhancement, beamforming, Ad-hoc microphone array, clustering, GSC beamformer}, volume = {12}, Number = {3}, pages = {57-68}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {شکل‌دهی وفقی و هوشمند پرتو در آرایه‌های میکروفونی Ad-hoc با استفاده از خوشه‌بندی و رتبه‌بندی میکروفون‌ها}, abstract_fa ={با توجه به وجود عوامل بسیار در تخریب سیگنال گفتار، بهسازی این سیگنال از اهمیت زیادی برخوردار شده است. شکل‌دهی پرتو یکی از روش‌های مطرح برای بهسازی گفتار است که با استفاده از آرایه‌های میکروفونی صورت می‌پذیرد. با توجه به محدودیت‌های موجود در نحوه چینش میکروفون‌ها، پنجره‌ای به سوی بحث آرایه‌های میکروفونی با چیدمان نامنظم (Ad-hoc) گشوده شده است. با فرض عدم شناخت نسبت به مکان و چینش میکروفون‌ها و همچنین پراکنده بودن میکروفون‌ها در محیط، در این مقاله، ایده خوشه‌بندی میکروفون‌ها بر اساس انرژی دریافتی از منابع موجود در محیط مورد توجه قرار گرفته و روش جدیدی برای خوشه‌بندی پیشنهاد شده است. در ادامه، برای هر خوشه میکروفونی، دو نوع رتبه پیشنهاد شده که بر اساس میزان فاصله به منبع نویز و گوینده می‌باشند. همچنین بر اساس نتیجه خوشه‌‌بندی و رتبه‌بندی آن‌ها، ساختار جدیدی برای شکل‌دهنده پرتو GSC (Generalized Sidelobe Canceller) ارائه شده است. برای حالتی که نویز پخشنده نباشد، بر اساس انرژی منابع موجود در محیط روشی برای خوشه‌بندی پیشنهاد شده که می‌تواند برای سایر میدان‌های نویزی نیز بکار گرفته شود. با پیاده‌سازی و ارزیابی روش پیشنهادی دیده می‌شود که در بعضی از حالت‌ها، استفاده از یک خوشه در برابر بکارگیری تمام میکروفون‌ها نتیجه بهتری را بدست می‌دهد که این خود حاکی از دستاوردی دیگر می‌باشد. این دستاورد، کاهش تعداد میکروفون‌های مورد استفاده است که به نوبه خود، کاهش پیچیدگی و حجم محاسبات (در عین افزایش کیفیت خروجی) را به دنبال دارد.}, keywords_fa = {بهسازی گفتار, شکل‌دهی پرتو, آرایه‌های میکروفونی Ad-hoc, خوشه‌بندی, شکل‌دهنده پرتو GSC}, url = {http://jsdp.rcisp.ac.ir/article-1-202-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-202-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Sattarpour, Maryam and MohammadzadehAsl, Babak}, title = {}, abstract ={}, Keywords = {}, volume = {12}, Number = {3}, pages = {69-80}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {تشخیص و تخمین تغییرات موج T با استفاده از تحلیل چندلیدی سیگنال ECG}, abstract_fa ={وجود تغییرات الکتریکی در فاز رپلاریزاسیون سیکل قلبی با افزایش خطر آریتمی­های بطنی و مرگ قلبی ناگهانی ارتباط مستقیمی دارد، بنابراین تشخیص و ارزیابی این تغییرات، که تغییرات موج T (TWA) نامگذاری شده­اند، می­تواند امکانات جدیدی را در اختیار پزشکان قرار دهد. با این حال تشخیص صحیح TWA به دلیل دامنه­ی بسیار کوچک آن (گاهی کوچکتر از سطح نویز) و ادغام شدن با نویزهای بیولوژیکی نظیر حرکت الکترودها، فعالیت ماهیچه­ها و تنفس همواره با مشکلاتی مواجه است. ما در این مقاله برای تشخیص تغییرات موج T بر خلاف روش­های متداول، از یک روش چندلیدی استفاده نموده­ایم. روش پیشنهادی ابتدا یک تبدیل PCA را به سیگنال­های پیش­پردازش شده اعمال می­کند، سپس با اعمال روش همبستگی به داده­های تبدیل­یافته تغییرات موج T را تشخیص می­دهد. این روش علاوه بر تشخیص صحیح تغییرات موج T، برخلاف سایر روش­های موجود مکان وقوع تغییرات را نیز تشخیص می­دهد.}, keywords_fa = {تغییرات موج T, روش طیفی, روش همبستگی, مرگ قلبی ناگهانی.}, url = {http://jsdp.rcisp.ac.ir/article-1-222-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-222-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Dehghani, Mehdi and Saleh, Mahmou}, title = {Design and evaluation of hybrid encoding schema for Covert Timing Channel on the Internet}, abstract ={Covert channel means communicating information through covering of overt and authorized channel in a manner that existence of channel to be hidden. In network covert timing channels that use timing features of transmission packets to modulating covert information, the appropriate encoding schema is very important. In this paper, a hybrid encoding schema proposed through combining "the inter-packets gap" and "the reordering packets" encoding schemas, emphasizing on improvement of capacity and stealthiness of covert channel. The capacity of proposed channel have computed and stealthness and robustness of channel have evaluated in experimental manner. Our results show that selecting 3 to 5 packet in a codword in accordance to normal situation of network traffic, the capacity is increased from 10% to 300% and stealthness is boosted up to acceptable value, and robustness is high enough.}, Keywords = {Covert Channel, Encoding, Performance Evaluation Criteria, Inter-packets gap, Reordering }, volume = {12}, Number = {3}, pages = {81-97}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {طراحی و ارزیابی روش کدگذاری ترکیبی برای کانال پوششی زمانبندی‌دار در شبکه اینترنت}, abstract_fa ={کانال پوششی به معنی مبادله اطلاعات در پوشش یک کانال آشکار است به‌نحوی‌که اصل وجود ارتباط از دید ناظر مخفی بماند. در کانال‌های پوششی زمانبندی‌دار تحت شبکه که از ویژگی‌های زمان‌بندی ارسال بستک‌های شبکه برای مدولاسیون اطلاعات پوششی استفاده می‌شود، طراحی روش کدبندی مناسب از اهمیت بالایی برخوردار است. در این تحقیق طراحی روش کدبندی جدید با ترکیب روش‌های «فاصله بین بستک‌ها» و «بازترتیب بستک‌ها» و تأکید بر بهبود ظرفیت و نامحسوسی کانال پوششی ارائه‌شده، ظرفیت کانال به روش کدبندی ترکیبی محاسبه گردیده و نامحسوسی و استحکام کانال به روش اندازه‌گیری عملی ارزیابی‌شده‌اند. نتایج تحقیق نشان می‌دهد که مطابق با وضعیت عادی بازترتیب در شبکه، با انتخاب 3 تا 5 بستک در جدول کلمه‌کد، ظرفیت از 10% تا 300% می‌تواند افزایش یافته، نامحسوسی تا حد قابل‌قبولی بهبودیافته و استحکام کانال نیز حفظ‌شده است.}, keywords_fa = {کانال پوششی,‌ کدگذاری, معیار ارزیابی, بازترتیب بسته‌ها, فاصله بین‌بسته‌ها}, url = {http://jsdp.rcisp.ac.ir/article-1-214-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-214-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Zarei, Farzaneh and Faili, Hesham and Mirian, Maryam}, title = {A machine learning approach for correcting the errors of a Treebank}, abstract ={The Treebank is one of the most useful resources for supervised or semi-supervised learning in many NLP tasks such as speech recognition, spoken language systems, parsing and machine translation. Treebank can be developded in different ways that could be, generally, categorized in manually and statistical approaches. While the resulted Treebank in each of these methods has the annotation error, one which accomplished by statistical method has much more errors than the other. Error in Treenabanks causes that they are not useful anymore. In this paper an statistical method is proposed which aims to correct the errors in a specific English LTAG-Treebank. The proposed method was applied to a automatically generated Treebank and an improvement from 68% to 79% respect to F-measure is retrieved.}, Keywords = {}, volume = {12}, Number = {3}, pages = {99-108}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {تصحیح خودکار خطا در درخت بانک نحوی با استفاده از یادگیری ماشینی انتقال محور}, abstract_fa ={درخت بانک یکی از پرکاربردترین منابع در به کارگیری روش های یادگیری باسرپرستی و نیمه سرپرستی در سامانه های پردازش زبان های طبیعی مانند ابزارهای شناسایی گفتار، تحلیلگرهای نحوی و نرم افزارهای مترجم ماشینی است. روش های مختلفی جهت تولید درخت بانک وجود دارد که می توان آن ها را به دو طبقه ی اصلی، روش های تولید دستی و روش های تولید خودکار تقسیم کرد. در هر یک از این روش ها، درخت بانک حاصل دارای خطاهایی هستند که البته میزان این خطاها در روش تولید خودکار به مراتب بیشتر است. وجود خطا در درخت بانک باعث می‌شود که نتوان از آن به عنوان یک منبع مناسب استفاده کرد. در این مقاله یک روش کاملا خودکار ارائه شده است که در آن سعی شده یک درخت بانک که با دستور درخت-پیوندی لغوی برچسب گذاری شده است، اصلاح گردد. روش ارائه شده نوعی روش تشخیص و تصحیح خطا براساس یادگیری انتقال محور است و بر روی یک درخت بانک که پیشتر به روش خودکار تولید شده بود اجرا شد و سبب بهبود آن بانک از 68% به 79% طبق معیار F1 شد.}, keywords_fa = {درخت بانک نحوی, تشخیص و تصحیح خطا, دستور درخت-پیوندی, یادگیری انتقال محور}, url = {http://jsdp.rcisp.ac.ir/article-1-221-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-221-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Salehi, Marzieh and Khadivi, Shahram and Riahi, Nooshi}, title = {Confidence Estimation for Machine Translation using Novel Syntactic and Lexico-semantic Features}, abstract ={Despite machine translation (MT) wide suc-cess over last years, this technology is still not able to exactly translate text so that except for some language pairs in certain domains, post editing its output may take longer time than human translation. Nevertheless by having an estimation of the output quality, users can manage imperfection of this tech-nology. It means we need to estimate the confidence of the output without having any references. Moreover, Confidence Estimation (CE) can be useful for some applications that their goal is to improve machine translation quality such as system combination, regener-ating, pruning, etc. but there is not yet any completely satisfactory method for CE task. We propose 5 groups of syntactic and lexico-semantic features. The results show that the lexico-semantic feature outperforms the best baseline system (2) by 9.63% in CER, 8.5% in F-measure and 5.1% in negative class F-measure. Also by combining proposed syn-tactic features together we reach 4.59% CER reduction, 4.1% F-measure improvement and 2% negative F-measure improvement.}, Keywords = {confidence estimation, machine translation, mutual information, syntax, lexical, semantic.}, volume = {12}, Number = {3}, pages = {109-121}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {تخمین اطمینان خروجی ترجمه ماشینی با استفاده از ویژگی های جدید ساختاری و محتوایی}, abstract_fa ={با وجود پیشرفت‌های اخیر در حوزه‌ ترجمه‌ ماشینی، این تکنولوژی قادر به ترجمه‌ دقیق متون نیست و گاهی ممکن است ویرایش خروجی آن زمان بیشتری نسبت به ترجمه دستی بگیرد. با این حال با داشتن تخمینی از کیفیت خروجی، کاربران می‌توانند به طور مناسبی با ناکامل بودن این تکنولوژی برخورد کنند. برای کاربردهایی که هدف آنها بالا بردن کیفیت ترجمه‌ ماشینی است، نظیر ترکیب خروجی سامانه‌های ترجمه‌گر مختلف، بازترتیب لیست چند ترجمه‌ بهتر و بازتولید خروجی، لازم است که بدون داشتن ترجمه‌ مرجع تخمینی از درستی خروجی داشته باشیم. هنوز روش کارامدی برای تخمین درستی کلمات خروجی ترجمه‌ ماشینی وجود ندارد. در این مقاله 5 گروه ویژگی جدید در قالب ویژگی‌های مبتنی بر محتوا و مبتنی بر ساختار ارائه شده است. نتایج نشان می‌دهد که ویژگی مبتنی بر محتوا نسبت به بهترین سامانه پایه (2) برتری 63/9 درصدی در CER، 5/8 درصدی در F-measure و 1/5 درصدی در F-measure طبقه منفی داشته است. همچنین ترکیب ویژگی‌های مبتنی بر ساختار ارائه شده، در مقایسه با بهترین سامانه پایه به ترتیب بهبود 59/4، 1/4 و 2 درصدی در معیارهای CER، F-measure و F-measure طبقه منفی ایجاد کرده است.}, keywords_fa = {تخمین اطمینان, ترجمه ماشینی, اطلاعات متقابل, ساختار, محتوا.}, url = {http://jsdp.rcisp.ac.ir/article-1-217-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-217-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2015} } @article{ author = {Marvasti-Zadeh, Seyed Mojtaba and Ghaneiyakhdan, Hossei}, title = {A Fast and Hybrid Boundary Matching Algorithm for Temporal Error Concealment of Video Data}, abstract ={Despite data resilient methods against error that are applied on video data in transmitter side, occurringerror along video data transferring for communication channels is inevitable. Error concealment is a useful method for improving the quality of damaged videos in receiver side. In this paper, a fast and hybrid boundary matching algorithm is presented for more accurate estimating of damaged motion vectors (MVs) from received video. The proposed algorithm performs the error concealment for each damaged macroblock (MB) according to the preference list of error concealment that it assigns. Then, boundary distortion for each candidate MBis calculated with classic and outer boundary matching criterionsfor each boundary pixel. After reconstructing of each damaged MB, the list of preference is updated. Moreover, depending on accuracy of each adjacent boundary from damaged MB, a special weight is given to them, through match process. Finally, the candidate MVwith the lowest boundary distortion is selected as MV of damaged MB. Experimental results show that the proposed algorithm increases the average of PSNR for different test sequences more than 1.8 dB in comparison with reference methods and without significant increasing in calculation time and with improving the quality of reconstructed videos.}, Keywords = {Temporal Error Concealment, Motion Vector Estimation, Hybrid Boundary Matching Algorithm, Macroblock}, volume = {12}, Number = {4}, pages = {3-15}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {الگوریتم انطباق مرزی ترکیبی و سریع برای اختفای خطای زمانی داده‌های ویدئویی}, abstract_fa ={با وجود روش‌های مقاوم‌سازی داده‌ها در برابر خطا که در طرف فرستنده روی داده‌های ویدئو اعمال می‌شوند، بروز خطا در حین انتقال داده‌های ویدئویی از کانال‌های مخابراتی اجتناب‌ ناپذیر است. اختفای خطا، شیوهای موثر جهت ارتقای کیفیت ویدئوهای آسیب‌دیده در طرف گیرنده است. در این مقاله، یک الگوریتم انطباق مرزی ترکیبی و سریع جهت تخمین دقیق‌تر بردارهای حرکت آسیب‌دیده ویدئوی دریافتی ارائه می‌شود. الگوریتم پیشنهادی، اختفای خطا برای هر ماکروبلاک آسیب‌دیده را به ترتیب لیست اولویت اختفای خطایی که تعیین می‌کند انجام می‌دهد.سپس،اعوجاج مرزی برای هر ماکروبلاک نامزد به‌صورت ترکیبی از دو معیار انطباق مرزی کلاسیک و انطباق مرز خارجی برای هر پیکسل مرزی محاسبه می‌گردد. پس از بازسازی هر ماکروبلاک آسیب‌دیده، لیست اولویت بروز رسانی می‌شود. همچنین، وابسته به صحت هریک از مرزهای مجاور ماکروبلاک آسیب‌دیده، وزن خاصی به آن‌ها در فرایند تطبیق داده می‌شود. در نهایت، بردار حرکت نامزد با کمترین اعوجاج مرزی به‌عنوان بردار حرکت ماکروبلاک آسیب‌دیده انتخاب می‌شود. نتایج تجربی نشان می‌دهد که الگوریتم پیشنهادی بدون افزایش قابل ملاحظه‌ی زمان محاسبات، ضمن بهبود کیفیت ویدئوهای بازسازی‌شده، مقدار متوسط PSNR برای دنباله‌های مختلف آزمون بیش از dB 1/8 در مقایسه با روش‌های مرجع افزایش می‌دهد.}, keywords_fa = {اختفای خطای زمانی, تخمین بردار حرکت, الگوریتم انطباق مرزی ترکیبی, ماکروبلاک}, url = {http://jsdp.rcisp.ac.ir/article-1-173-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-173-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Rajabi, Hamid and Nahvi, Manoochehr}, title = {Fall Detection Using Novel Tracking Method Based on Modified Contour Algorithm}, abstract ={The population of elderly people has growing trend in the developed or developing countries. Since the elderly are mainly associated with disability, this group of people exposed to dangerous events such as falling down. It is therefore needed to take care of these people against dangerous events. Intelligent video monitoring is a approach that may be able to give quick notification to the caregivers. For this purpose, in this paper, an approach using a novel tracking method based on modified contour algorithm is presented. The new method is able to conduct tracking and falling down detection in a realistic conditions in the presence of multiple motions. Simulations indicate that the proposed algorithm is able to identify the fall-down event with high accuracy and speed.}, Keywords = {fall detection algorithm, contour, machine vision, tracking, intelligent surveillance systems.}, volume = {12}, Number = {4}, pages = {17-31}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {آشکارسازی افتادن با استفاده از روش نوین ردیابی بر پایۀ الگوریتم اصلاح شدۀ کانتور}, abstract_fa ={در جوامع توسعه یافته یا در حال توسعه تعداد افراد سالمند رو به افزایش است. این افراد به علت کهولت سن و ناتوانی‏ جسمی معمولاً در معرض اتفاقات خطرناکی از جمله‏ افتادن هستند که این امر لزوم مراقبت از این افراد را نشان می‏‌دهد. یکی از روش‌های مراقبت، نظارت هوشمند ویدئویی است که قادر است در هنگام وقوع حادثه مراقبین را با سرعت زیادی مطّلع نماید. این مقاله با استفاده از روش ردیابی نوینی بر پایۀ الگوریتم اصلاح شدۀ کانتور، افراد را ردیابی و افتادنِ آن‌ها را در دنباله‌های ویدئویی آشکار می‏نماید. از مزایای روش ارائه شده، آشکار سازی افتادن در شرایط نسبتاً واقعی و در حضور چندین شئ می‏باشد. شبیه‏سازی‌ها نشان میدهد که الگوریتم ارائه شده با دقّت و سرعت بالایی قادر است افتادن را در دنباله‏های ویدئویی شناسایی و آشکار نماید.}, keywords_fa = {آشکارسازی افتادن, الگوریتم کانتور, بینایی ماشین, ردیابی, سیستم‌های هوشمند مراقبت.}, url = {http://jsdp.rcisp.ac.ir/article-1-183-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-183-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {NematiNia, Mohammad Sadegh}, title = {Improving Heuristic Guess and Determine Attack on TIPSY and SNOW 1.0 Stream Ciphers}, abstract ={Guess and determine attacks are general attacks on stream ciphers. These attacks are classified into ad-hoc and Heuristic Guess and Determine (HGD) attacks. One of the Advantages of HGD attack algorithm over ad-hoc attack is that it is designed algorithmically for a large class of stream ciphers while being powerful. In this paper, we use auxiliary polynomials in addition to the original equations as the inputs to the HGD attack on TIPSY and SNOW 1.0 stream ciphers. Based on the concept of guessed basis, the number of guesses in both HGD attack and the improved one on TIPSY is six, however the attack complexity is reduced from O(2102)to O(296). This amount is equal to that of ad-hoc attack, but the size of the guessed basis is improved from seven to six. Also, the complexity of GD attack on SNOW 1.0 of heuristic one with the guessed basis of size 6 and ad-hoc attack with the guessed basis of size 7areO(2202) and O(2224), respectively. However, the complexity and the size of guessed basis of the improved HGD attack are reduced to O(2160) and 5, respectively.}, Keywords = {Stream Cipher, Guess and Determine attack, TIPSY, SNOW 1.0, Computational Complexity}, volume = {12}, Number = {4}, pages = {33-42}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {بهبود حمله حدس و تعیین اکتشافی به سامانه های رمز جریانی TIPSY و SNOW1.0}, abstract_fa ={حملات حدس و تعیین از جمله حملات عام به سامانه های رمز جریانی است. این حملات به دو دسته ی حملات حدس و تعیین اقتضایی و اکتشافی تقسیم بندی می‌شوند. مزیت روش اکتشافی نسبت به روش اقتضایی در قدرت تحلیل و ارائه ی الگوریتمی برای دسته بزرگی از رمزهای جریانی با فرض یکسان بودن اندازه متغیرها است. در این مقاله از معادلات فرعی علاوه بر معادلات اصلی به عنوان ورودی حمله ی حدس و تعیین اکتشافی برای حمله به سامانه های رمز جریانیTIPSY و SNOW 1.0 استفاده شده است. براساس مفهوم پایه ی حدس تعداد حدس ها در حمله اکتشافی و بهبودیافته به سامانه یTIPSY شش مورد است، لیکن پیچیدگی حمله حدس و تعیین اکتشافی بهبود یافته از O(2102) به O(296) کاهش یافته است. این پیچیدگی با پیچیدگی حمله ی اقتضایی برابر است، اما حمله پیشنهادی، اندازه ی پایه ی حدس را از 7 به 6 بهبود داده است. همچنین، در حمله ی حدس و تعیین به SNOW 1.0 پیچیدگی حمله اکتشافی با پایه ی حدس با اندازه ی 6 و اقتضایی با اندازه ی 7 به ترتیب O(2202) و بوده O(2224) است که در حمله ی پیشنهادی به پایه ی حدس با اندازه ی 5 و پیچیدگی از مرتبه ی O(2160) کاهش یافته است.}, keywords_fa = {رمز جریانی, حمله‌ی حدس و تعیین, رمز جریانیSNOW 1.0, رمزجریانیTIPSY, پیچیدگی محاسباتی حمله}, url = {http://jsdp.rcisp.ac.ir/article-1-261-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-261-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {}, title = {Sharif Text Editor: A Persian Editor and Spell Checker System}, abstract ={In this paper, we will introduce an intelligent system to edit and spell check Persian texts. The goal is editing and preprocessing Persian texts for natural language processing tasks. This system is based on an expandable and engineering approach and is composed of three subsystems: Persian text editor, spell checker and stemmer. These parts interact with each other to edit texts. To do this, the stemmer subsystem process each word in the text if the subsystem could not find a stem in the lexicon, the word will be recognized as an incorrect word. Then, the spell checker provides a list of suggestions to correct the wrong word. Subsequently, the editor subsystem edits the text based on the standards of the Academy of Persian Language and Literature. Our evaluation shows nearly 92%, 95% and 96% precision numbers for editor, stemmer and spell checker subsystems, respectively.}, Keywords = {Key words: Natural Language Processing, automatic spell checking, text editor, stemmer}, volume = {12}, Number = {4}, pages = {43-52}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {ویرایش‌گر متن شریف: سامانۀ ویرایش و خطایابی املایی زبان فارسی}, abstract_fa ={در مقالۀ حاضر سامانه‌ای هوشمند جهت ویرایش و خطایابی املایی متون فارسی معرفی شده‌است. هدف از طراحی و ایجاد این سامانه، ویرایش متون فارسی برای کاربردهای پردازش زبان طبیعی است. این سامانه بر مبنای یک رویکرد مهندسی قابل توسعه، از سه زیرسامانه تشکیل شده‌است: ویرایش‌گر متن فارسی معیار، خطایاب املایی خودکار زبان فارسی و ستاک‌یاب واژگان زبان فارسی. این سه بخش با یکدیگر در تعاملند؛ بدین شکل که ابتدا ستاک واژه‌های متن شناسایی می‌شود و در صورت عدم وجود ستاک در فهرست واژه‌های زبان، واژۀ مذکور به عنوان واژه‌ای نادرست شناسایی خواهد‌شد و سپس خطایاب خودکار فهرستی از واژه‌های جایگزین را پیشنهاد خواهد‌کرد. در زیرسامانۀ ویرایش‌گر، متن موجود ویرایش شده و متنی یکپارچه که منطبق بر معیارهای مصوب فرهنگستان زبان و ادب فارسی است، به کاربر ارائه خواهد شد. نتایج ارزیابی نشان‌دهندۀ دقتی بسیار خوب در حدود 95% در ستاک‌یابی کلمات، 92% در ویرایش و 96% در خطایابی املایی زبان فارسی است.}, keywords_fa = {واژگان کلیدی: پردازش زبان طبیعی, خطایاب املایی خودکار , ویرایشگر متن فارسی معیار, ستاک‌یاب}, url = {http://jsdp.rcisp.ac.ir/article-1-250-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-250-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Ahmadkhani, Somayeh and Adibi, Peym}, title = {Supervised Probabilistic Principal Component Analysis Mixture Model in a Lossless Dimensionality Reduction Framework for Face Recognition}, abstract ={In this paper, we first proposed the supervised version of probabilistic principal component analysis mixture model. Then, we consider a learning predictive model with projection penalties, as an approach for dimensionality reduction without loss of information for face recognition. In the proposed method, first a local linear underlying manifold of data samples is obtained using the supervised probabilistic principal component analysis mixture model. Then, a support vector machine classifier with projection penalty is trained as a predictive model using this local linear manifold. Thus, the predictive model benefits from dimensionality reduction, while it loses minimum amount of useful information. To evaluate the proposed method, we used well-known face recognition databases. Gabor feature extraction method have been applied to these images. The experimental results show that the proposed method has a higher classification accuracy than many of the traditional methods which use predictive models after dimensionality reduction. It also works better than the projection penalty method with linear or nonlinear based dimensionality reduction models.}, Keywords = {Lossless Dimensionality Reduction, Mixture Model, Probabilistic Principal Component Analysis, Supervised, Projection Penalty}, volume = {12}, Number = {4}, pages = {53-65}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {مدل ترکیبی تحلیل مؤلفه اصلی احتمالاتی بانظارت در چارچوب کاهش بعد بدون اتلاف برای شناسایی چهره}, abstract_fa ={در این مقاله ابتدا مدل بانظارت روش ترکیبی تحلیل مؤلفه اصلی احتمالاتی (SPPCAMM) ارائه شده است. سپس با در نظر گرفتن جریمه نگاشت در یادگیری مدل پیشگو روشی برای شناسایی چهره با استفاده از یک رویکرد کاهش بعد بدون اتلاف ارائه شده است. در روش پیشنهادی ابتدا یک منیفولد زیربنایی محلی خطی با استفاده از مدل ترکیبی تحلیل مؤلفه اصلی احتمالاتی بانظارت از نمونه داده ها به دست می آید. سپس دسته بند ماشین بردار پشتیبان با اعمال جریمه نگاشت به عنوان مدل پیشگوی مذکور با استفاده از این منیفولد محلی خطی آموزش داده میشود. بدین ترتیب از مزایای کاهش بعد در مدل پیشگو استفاده میشود، و در عین حال جلوی از دست رفتن اطلاعات مفید گرفته میشود. برای آموزش و ارزیابی روش پیشنهادی، از پایگاه داده های چهره شناخته شده استفاده شده است. روش استخراج ویژگی گابور بر روی تصاویر به کار گرفته شده است. نتایج آزمایشها نشان میدهد که روش پیشنهادی نسبت به بسیاری از روشهای معمول که کاهش بعد را انجام داده و سپس دسته بند را آموزش میدهند، و همچنین نسبت به روش جریمه نگاشت مبتنی بر مدلهای کاهش بعد خطی و غیرخطی دقت بیشتری دارد.}, keywords_fa = {کاهش بعد بدون اتلاف, مدل ترکیبی, تحلیل مؤلفه اصلی احتمالی, بانظارت, جریمه نگاشت }, url = {http://jsdp.rcisp.ac.ir/article-1-259-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-259-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Fasahat, Foruzan and Payvandy, Pedram}, title = {Structural parameter extraction of warp and weft woven fabric using wavelet-fuzzy method and genetic algorithm}, abstract ={Flexibility of woven fabric structure has caused many errors in yarn location detection using customary methods of image processing. On this line, proposing an adaptive method with fabric image properties is concentrated to extract its parameters. In this regards, using meta-heuristic algorithms seems applicable to correspond extraction algorithm of structural parameters to the image conditions. In this study, a new method is proposed for woven fabric image preprocessing and structural texture detection applying compound methods of signal processing, fuzzy clustering and genetic algorithm. Results indicate that proposed method is capable of detecting exact yarn location with mean precision of more than 73 percent in double-layered fabric images with uneven color pattern. In one-layered fabric images with low density weave and invariable color pattern, the mean precision is more than 84 percent.}, Keywords = {Genetic Algorithm, Wavelet Transform, Fuzzy c-means (FCM) clustering, Image Processing, Fabric Image, Yarn Location.}, volume = {12}, Number = {4}, pages = {67-81}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {استخراج پارامترهای ساختاری منسوج تاری و پودی با استفاده از روش موجک- فازی و الگوریتم ژنتیک}, abstract_fa ={به علت منعطف‌بودن ساختار منسوج، تعیین موقعیت نخ در تصویر آن با استفاده از روش‌های معمول در پردازش تصویر با خطای زیادی همراه بوده است و در این زمینه، ارائه یک روش انطباق‌پذیر با خصوصیات تصویر منسوج جهت استخراج پارامترهای آن مورد توجه می‌باشد. در این راستا استفاده از الگوریتم‌های فرا ابتکاری جهت تطبیق الگوریتم استخراج پارامترهای ساختاری با شرایط تصویر، کاربردی به نظر می رسد. در این مطالعه، با کاربرد ترکیبی از روش‌های پردازش سیگنال، خوشه‌بندی فازی و الگوریتم ژنتیک، یک روش نوین برای پیش‌پردازش و تشخیص بافت ساختاری تصاویر منسوجات ارائه شده است. نتایج نشان می‌دهد که روش پیشنهادی قادر به تشخیص صحیح موقعیت نخ در تصاویر منسوجات دولایه با طرح رنگ نایکنواخت با دقت میانگین بیش از 73 درصد می‌باشد. در تصاویر منسوجات تک‌لایه با بافت نامتراکم و طرح رنگ یکنواخت، این میزان به طور میانگین بیش از 84 درصد می‌باشد.}, keywords_fa = {الگوریتم ژنتیک, تبدیل موجک, الگوریتم خوشه‌بندی فازی (FCM), پردازش تصویر, تصویر پارچه, موقعیت نخ}, url = {http://jsdp.rcisp.ac.ir/article-1-262-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-262-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {}, title = {automatic gender identification in persian text}, abstract ={Gigantic amount of textual data being transfers in web everyday. like other communities,cyberspace is vulnerable to attacks, false information and deception.it becomes increasingly important to design an efficient method to trace identity in this community.to investigate the problem of gender identification,we propose 48 feature,and design three machine learning algorithms.the results of study showed that ADtree classifier had accuracy up to 73.8%.}, Keywords = {,gender identification,author identification,text mining}, volume = {12}, Number = {4}, pages = {83-94}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {تشخیص خودکار جنسیت نویسنده در متون فارسی}, abstract_fa ={با گسترش روز افزون استفاده از اینترنت، شاهد تبادل هزاران گیگابایت اطلاعات متنی در فضای مجازی هستیم. فضای سایبر این امکان را به اشخاص می‌دهد که هویت حقیقی خود را مخفی کنند و با هویت ساختگی جدیدی وارد آن شوند. از این‌رو اهمیت حفظ امنیت این فضا، کنترل بر محتوای تولید شده توسط کاربران و شناسایی مشخصات تولیدکنندگان محتوا هر روز پررنگتر می‌شود. موضوع مورد بررسی در این تحقیق که مربوط به حوزه‌ شناسایی نویسنده می‌باشد، شناسایی خودکار جنسیت نویسنده متن فارسی است. به منظور شناسایی جنسیت، با توجه به مطالعات زبان-روانشناختی صورت گرفته، 48 ویژگی روان‌شناختی و سبک شناسی تعریف شد. دو پیکره متنی جهت آموزش طبقه بندها تهیه شد و سپس برای شناسایی جنسیت، سه الگوریتم یادگیری ماشینی مختلف (ماشین بردار پشتیبان، بیز ساده و درخت تصمیم) طراحی شد. نتایج اعتبارسنجی متقابل10تایی نشان داد که بیشترین دقت مربوط به طبقهبند درخت تصمیم با دقت %73.8 است.}, keywords_fa = {تشخیص جنسیت, شناسایی نویسنده, متن کاوی}, url = {http://jsdp.rcisp.ac.ir/article-1-104-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-104-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {Soltanzadeh, Fatemeh and Bahrani, Mohammad and Eslami, Moharram}, title = {A Rule-Based Approach in Converting a Dependency Parse Tree into Phrase Structure Parse Tree for Persian}, abstract ={In this paper, an automatic method in converting a dependency parse tree into an equivalent phrase structure one, is introduced for the Persian language. In first step, a rule-based algorithm was designed. Then, Persian specific dependency-to-phrase structure conversion rules merged to the algorithm. Subsequently, the Persian dependency treebank with about 30,000 sentences was used as an input for the algorithm and an equivalent phrase structure treebank was extracted. Finally, the statistical Stanford parser was trained using the developed treebank. Experimental results show a F1 of 96.05% for the conversion algorithm and an F1 of 86.01% for Persian factored model parser.}, Keywords = {Conversion, Dependency Grammar, Phrase Structure Grammar, Natural Language Processing, Treebank, Persian. }, volume = {12}, Number = {4}, pages = {95-115}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {ارائۀ راهکاری قاعده‌مند جهت تبدیل خودکار درخت تجزیۀ نحوی وابستگی به درخت تجزیۀ نحوی ساخت‌سازه‌ای برای زبان فارسی}, abstract_fa ={هدف مقاله حاضر ارائۀ روشی خودکار جهت تبدیل درخت تجزیه نحوی وابستگی به درخت تجزیه نحوی مبتنی بر دستور ساخت‌سازه‌ای معادل در زبان فارسی است. برای نیل بدین هدف، الگوریتمی قاعده‌مند جهت این نوع تبدیل طراحی شده‌است. به منظور دستیابی به درخت تجزیۀ نحوی ساخت‌سازه‌ای مناسب برای جملات زبان فارسی، دستور زبان فارسی مورد مطالعه قرار گرفته و قوانین خاص زبان فارسی استخراج و به الگوریتم مذکور افزوده شده‌است. نتایج حاصل از ارزیابی پژوهش بیانگر این است که الگوریتم طراحی‌شده برای تبدیل ساختارها به F1 معادل با 96.05 درصد دست‌ یافته‌است. سپس، الگوریتم مذکور بر روی پیکرۀ وابستگی زبان فارسی با حدود 30000 جمله اعمال و دادگان درخت نحوی ساخت‌سازه‌ای معادل حاصل شده‌است. علاوه بر این، تجزیه‌گر نحوی استنفورد برروی پیکرۀ ساخت‌سازه‌ای حاصل آموزش داده شده و تجزیه‌گر نحوی ترکیبی زبان فارسی با F1 معادل با 86.01 درصد به دست آمده‌است.}, keywords_fa = {تبدیل, دستور وابستگی, دستور ساخت‌سازه‌ای , پردازش زبان طبیعی, دادگان درخت نحوی, زبان فارسی.}, url = {http://jsdp.rcisp.ac.ir/article-1-272-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-272-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} } @article{ author = {rahatighochani, saei}, title = {farsi word sense disambiguation with LDA Topic model}, abstract ={Word sense disambiguation is the task of identifying the correct sense for the word in a given context among a finite set of possible sense. In this paper a model for farsi word sense disambiguation is presented. The model use two group of features: first, all word and stop words around target word and topic models as second features. We extract topics from a farsi corpus with Latent Dirichlet Allocation (LDA) model. The system with a maximum entropy model achieved 97.67% precision for 4 high frequently farsi homograph words}, Keywords = {Latent Dirichlet Allocation(LDA), Topic Model, Maximum Entropy, Word Sense Disambiguation }, volume = {12}, Number = {4}, pages = {117-125}, publisher = {Research Center on Developing Advanced Technologies}, title_fa = {رفع ابهام معنایی واژگان مبهم فارسی با مدل موضوعی LDA}, abstract_fa ={ابهام زدایی از واژگان مبهم و دارای معانی متعدد موضوع مهمی در حوزه ی پردازش زبان های طبیعی می باشد. در این مقاله، مدلی برای رفع ابهام از واژگان مبهم فارسی بر اساس استخراج ویژگی های جدید پیشنهاد شده است. برای ایجاد این مدل دو دسته ویژگی واژگان و نشانه های همراه واژه مبهم و ویژگی هایی که با بکار بردن روش های مدل سازی موضوع بدست می آید، استفاده شده است. یک مدل موضوعی، مدلی آماری برای استخراج چکیده موضوعات موجود در اسناد یک پیکره است. در مقاله حاضر ما از روش بدون سرپرستی تخصیص پنهان دریکله(LDA) برای این منظور استفاده کرده‌ایم. نتایج آزمایشات برای چهار واژه مبهم پر تکرار در زبان فارسی که ازپیکره پژوهشکده پردازش هوشمند علائم استخراج شد، دقّت حدود 97.67% را نشان می‌دهد که بیان‌گر مؤثر بودن این روش در یافتن معنی مناسب واژگان مبهم است.  }, keywords_fa = {تخصیص پنهان دریکله, چند معنایی , رفع ابهام معنایی, مدل سازی موضوع }, url = {http://jsdp.rcisp.ac.ir/article-1-58-en.html}, eprint = {http://jsdp.rcisp.ac.ir/article-1-58-en.pdf}, journal = {Signal and Data Processing}, issn = {2538-4201}, eissn = {2538-421X}, year = {2016} }