<?xml version="1.0" encoding="utf-8"?>
<journal>
<title>Signal and Data Processing</title>
<title_fa>پردازش علائم و داده‌ها</title_fa>
<short_title>JSDP</short_title>
<subject>Engineering &amp; Technology</subject>
<web_url>http://jsdp.rcisp.ac.ir</web_url>
<journal_hbi_system_id>1</journal_hbi_system_id>
<journal_hbi_system_user>admin</journal_hbi_system_user>
<journal_id_issn>2538-4201</journal_id_issn>
<journal_id_issn_online>2538-421X</journal_id_issn_online>
<journal_id_pii></journal_id_pii>
<journal_id_doi>10.61882/jsdp</journal_id_doi>
<journal_id_iranmedex></journal_id_iranmedex>
<journal_id_magiran></journal_id_magiran>
<journal_id_sid>1</journal_id_sid>
<journal_id_nlai>8888</journal_id_nlai>
<journal_id_science></journal_id_science>
<language>fa</language>
<pubdate>
	<type>jalali</type>
	<year>1400</year>
	<month>2</month>
	<day>1</day>
</pubdate>
<pubdate>
	<type>gregorian</type>
	<year>2021</year>
	<month>5</month>
	<day>1</day>
</pubdate>
<volume>18</volume>
<number>1</number>
<publish_type>online</publish_type>
<publish_edition>1</publish_edition>
<article_type>fulltext</article_type>
<articleset>
	<article>


	<language>fa</language>
	<article_id_doi></article_id_doi>
	<title_fa>بهبود دقت واژگان کلیدی استخراج‌شده از متن فارسی با استفاده از الگوریتم Word2Vec</title_fa>
	<title>Improving Precision of Keywords Extracted From Persian Text Using Word2Vec Algorithm</title>
	<subject_fa>مقالات پردازش متن </subject_fa>
	<subject>Paper</subject>
	<content_type_fa>كاربردي</content_type_fa>
	<content_type>Applicable</content_type>
	<abstract_fa>&lt;div style=&quot;text-align: justify;&quot;&gt;&lt;strong&gt;&lt;span style=&quot;color:black;&quot;&gt;&lt;span style=&quot;font-family:B Nazanin;&quot;&gt;&lt;span style=&quot;font-size:10.0pt;&quot;&gt;واژگان کلیدی لغات مهمی از سند هستند که بیان&#8204;گر توصیفی از متن هستند و نقش بسیار مهمی در فهم دقیق و سریع از محتوا دارند. شناسایی واژگان کلیدی از متن با روش&#8204;های معمول کاری زمان&#8204;بر و پرهزینه است. در این مقاله ابتدا با استفاده از شبکه عصبی پیشرو و از طریق الگوریتم &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;strong&gt;&lt;span dir=&quot;LTR&quot;&gt;&lt;span style=&quot;color:black;&quot;&gt;&lt;span style=&quot;font-family:Times New Roman Bold,serif;&quot;&gt;&lt;span style=&quot;font-size:8.0pt;&quot;&gt;Word2Vec&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;strong&gt;&lt;span style=&quot;color:black;&quot;&gt;&lt;span style=&quot;font-family:B Nazanin;&quot;&gt;&lt;span style=&quot;font-size:10.0pt;&quot;&gt; ماتریس همبستگی واژگان را به&#8204;ازای یک سند محاسبه و سپس با استفاده از ماتریس همبستگی و یک فهرست اولیه محدود از واژگان کلیدی، نزدیک&#8204;ترین واژگان را از نظر شباهت در قالب فهرست نزدیک&#8204;ترین همسایگی&#8204;&amp;shy;ها استخراج می&lt;span style=&quot;background:#F79646;&quot;&gt;&#8204;&lt;/span&gt;کنیم. فهرست به&#8204;دست&#8204;آمده را به&#8204;صورت نزولی مرتب و از ابتدای فهرست، درصدهای مختلفی از واژگان را انتخاب و به&#8204;ازای هر درصد، ده مرتبه فرایند آموزش شبکه عصبی و ساخت ماتریس همبستگی و استخراج فهرست نزدیک&#8204;ترین &amp;shy;همسایگی&#8204;&amp;shy;ها را تکرار و در&#8204;نهایت میانگین دقت، فراخوانی و معیار&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;strong&gt;&lt;span dir=&quot;LTR&quot;&gt;&lt;span style=&quot;color:black;&quot;&gt;&lt;span style=&quot;font-family:Times New Roman Bold,serif;&quot;&gt;&lt;span style=&quot;font-size:8.0pt;&quot;&gt;F&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;strong&gt;&lt;span style=&quot;color:black;&quot;&gt;&lt;span style=&quot;font-family:B Nazanin;&quot;&gt;&lt;span style=&quot;font-size:10.0pt;&quot;&gt; را محاسبه می&#8204;کنیم. این کار را تا جایی ادامه می&#8204;&amp;shy;دهیم که به بهترین نتایج در ارزیابی دست یابیم؛ نتایج نشان می&amp;shy;&#8204;دهند که به&#8204;ازای انتخاب حداکثر چهل درصدِ واژگان از ابتدای فهرستِ نزدیک&#8204;ترین همسایگی&amp;shy;&#8204;ها، نتایج مورد قبولی به&#8204;دست می&#8204;&amp;shy;آید. الگوریتم بر روی پیکره&#8204;ای با هشتصد خبر که به&#8204;صورت دستی واژگان کلیدی آن&#8204;ها را استخراج کرده&#8204;ایم، آزمایش&#8204;شده است و نتایج آزمایش&#8204;ها نشان می&#8204;دهد که دقت روش پیشنهادی 78 درصد خواهد بود.&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/strong&gt;&lt;/div&gt;</abstract_fa>
	<abstract>&lt;div style=&quot;text-align: justify;&quot;&gt;&lt;strong&gt;Keywords can present the main concepts of the text without human intervention according to the model. Keywords are important vocabulary words that describe the text and play a very important role in accurate and fast understanding of the content. The purpose of extracting keywords is to identify the subject of the text and the main content of the text in the shortest time. Keyword extraction plays an important role in the fields of text summarization, document labeling, information retrieval, and subject extraction from text. For example, summarizing the contents of large texts into smaller texts is difficult, but having keywords in the text can make you aware of the topics in the text. Identifying keywords from the text with common methods is time-consuming and costly. Keyword extraction methods can be classified into two types with observer and without observer. In general, the process of extracting keywords can be explained in such a way that first the text is converted into smaller units called the word, then the redundant words are removed and the remaining words are weighted, then the keywords are selected from these words. Our proposed method in this paper for identifying keywords is a method with observer. In this paper, we first calculate the word correlation matrix per document using a feed forward neural network and Word2Vec algorithm. Then, using the correlation matrix and a limited initial list of keywords, we extract the closest words in terms of similarity in the form of the list of nearest neighbors. Next we sort the last list in descending format, and select different percentages of words from the beginning of the list, and repeat the process of learning the neural network 10 times for each percentage and creating a correlation matrix and extracting the list of closest neighbors. Finally, we calculate the average accuracy, recall, and F-measure. We continue to do this until we get the best results in the evaluation, the results show that for the largest selection of 40% of the words from the beginning of the list of closest neighbors, the acceptable results are obtained. The algorithm has been tested on corpus with 800 news items that have been manually extracted by keywords, and laboratory results show that the accuracy of the suggested method will be 78%.&lt;/strong&gt;&lt;/div&gt;
&lt;strong&gt;&lt;span dir=&quot;RTL&quot;&gt;&lt;/span&gt;&lt;/strong&gt;</abstract>
	<keyword_fa>واژگان کلیدی, الگوریتم word2Vec, شبکه عصبی, وزن دهی ویژگی</keyword_fa>
	<keyword>keywords, word2vec algorithm, neural network, giving weight features</keyword>
	<start_page>60</start_page>
	<end_page>51</end_page>
	<web_url>http://jsdp.rcisp.ac.ir/browse.php?a_code=A-10-1502-1&amp;slc_lang=fa&amp;sid=1</web_url>


<author_list>
	<author>
	<first_name>Mohammad Reza</first_name>
	<middle_name></middle_name>
	<last_name>Hasni Ahangar</last_name>
	<suffix></suffix>
	<first_name_fa>محمدرضا</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>حسنی آهنگر</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>mrhasani@ihu.ac.ir</email>
	<code>10031947532846009884</code>
	<orcid>10031947532846009884</orcid>
	<coreauthor>Yes
</coreauthor>
	<affiliation>Imam Hossein University</affiliation>
	<affiliation_fa>دانشگاه جامع امام حسین (ع)</affiliation_fa>
	 </author>


	<author>
	<first_name>Ali</first_name>
	<middle_name></middle_name>
	<last_name>Amiri jezeh</last_name>
	<suffix></suffix>
	<first_name_fa>علی</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>امیری جزه</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>aamirij@ihu.ac.ir</email>
	<code>10031947532846009885</code>
	<orcid>10031947532846009885</orcid>
	<coreauthor>No</coreauthor>
	<affiliation>Imam Hossein University</affiliation>
	<affiliation_fa>دانشگاه جامع امام حسین (ع)</affiliation_fa>
	 </author>


</author_list>


	</article>
</articleset>
</journal>
