<?xml version="1.0" encoding="utf-8"?>
<journal>
<title>Signal and Data Processing</title>
<title_fa>پردازش علائم و داده‌ها</title_fa>
<short_title>JSDP</short_title>
<subject>Engineering &amp; Technology</subject>
<web_url>http://jsdp.rcisp.ac.ir</web_url>
<journal_hbi_system_id>1</journal_hbi_system_id>
<journal_hbi_system_user>admin</journal_hbi_system_user>
<journal_id_issn>2538-4201</journal_id_issn>
<journal_id_issn_online>2538-421X</journal_id_issn_online>
<journal_id_pii></journal_id_pii>
<journal_id_doi>10.61882/jsdp</journal_id_doi>
<journal_id_iranmedex></journal_id_iranmedex>
<journal_id_magiran></journal_id_magiran>
<journal_id_sid>1</journal_id_sid>
<journal_id_nlai>8888</journal_id_nlai>
<journal_id_science></journal_id_science>
<language>fa</language>
<pubdate>
	<type>jalali</type>
	<year>1403</year>
	<month>3</month>
	<day>1</day>
</pubdate>
<pubdate>
	<type>gregorian</type>
	<year>2024</year>
	<month>6</month>
	<day>1</day>
</pubdate>
<volume>21</volume>
<number>1</number>
<publish_type>online</publish_type>
<publish_edition>1</publish_edition>
<article_type>fulltext</article_type>
<articleset>
	<article>


	<language>fa</language>
	<article_id_doi></article_id_doi>
	<title_fa>طراحی شبکه بهینه‌ساز خودکار الهام گرفته از الگوریتم بهینه‌سازی BFGS با حافظه محدود</title_fa>
	<title>Designing L-BFGS inspired automatic optimizer network</title>
	<subject_fa>مقالات پردازش داده‌های رقمی</subject_fa>
	<subject>Paper</subject>
	<content_type_fa>بنیادی</content_type_fa>
	<content_type>بنیادی</content_type>
	<abstract_fa>&lt;strong&gt;امروزه علی&#8204;رغم توسعه مدل&#8204;های یادگیری ماشین برای استخراج ویژگی&#8204;ها به صورت خودکار، هنوز الگوریتم&#8204;های بهینه&#8204;سازی به صورت دستی طراحی می&#8204;شوند. یکی از اهداف فرایادگیری (&lt;/strong&gt;&lt;strong&gt;&lt;span dir=&quot;LTR&quot;&gt;meta-learning&lt;/span&gt;&lt;/strong&gt;&lt;strong&gt;)، خودکار کردن فرایند بهینه&#8204;سازی است. الگوریتم&lt;/strong&gt;&lt;strong&gt;&#8204;&lt;/strong&gt;&lt;strong&gt;های بهینه&#8204;سازی دستی مبتنی بر بردار گرادیان تنها براساس عملیات ضرب داخلی، ضرب اسکالر و جمع برداری بر روی بردارهای ورودی نوشته می شوند. بنابراین می توان گفت که این الگوریتمها در فضای هیلبرت بعد مساله بهینه&#8204;سازی اجرا می شوند. ما نیز قصد داریم با ایده گرفتن از این مطلب، فضایی برای یادگیری ورودی&#8204;ها ایجاد کنیم که مستقل از ابعاد ورودی باشد. بدین منظور با ایده گرفتن از الگوریتم &lt;/strong&gt;&lt;strong&gt;&lt;span dir=&quot;LTR&quot;&gt;BFGS&lt;/span&gt;&lt;/strong&gt; &lt;strong&gt;با حافظه محدود &lt;/strong&gt;&lt;strong&gt;(&lt;/strong&gt;&lt;strong&gt;&lt;span dir=&quot;LTR&quot;&gt;L-BFGS&lt;/span&gt;&lt;/strong&gt;&lt;strong&gt;)&lt;/strong&gt;&lt;strong&gt; و همچنین سلول &lt;/strong&gt;&lt;strong&gt;&lt;span dir=&quot;LTR&quot;&gt;LSTM&lt;/span&gt;&lt;/strong&gt; &lt;strong&gt;یک ساختار جدید با نام &lt;/strong&gt;&lt;strong&gt;&lt;span dir=&quot;LTR&quot;&gt;Hilbert LSTM&lt;/span&gt;&lt;/strong&gt;&lt;strong&gt; (&lt;/strong&gt;&lt;strong&gt;&lt;span dir=&quot;LTR&quot;&gt;HLSTM&lt;/span&gt;&lt;/strong&gt;&lt;strong&gt;) &lt;/strong&gt;&lt;strong&gt;معرفی می&#8204;کنیم که فرایند یادگیری در آن مستقل از ابعاد ورودی انجام می&#8204;شود. به عبارتی الگوریتم یادگیری در فضای هیلبرت مساله بهینه&#8204;سازی اجرا می&#8204;شود. برای رسیدن به این هدف از لایه ضرایب خطی استفاده می&#8204;کنیم که ترکیب خطی بردارهای ورودی را محاسبه می&#8204;کند و ضرایب این ترکیب خطی، با کمک ضرب داخلی بردارهای ورودی بدست می&#8204;آید. آزمایش&#8204;های ما نشان می&#8204;دهند که نتایج به&#8204;دست آمده توسط بهینه&#8204;ساز ارائه شده، به مراتب بهتر از نتایج الگوریتم&#8204;های بهینه&#8204;سازی دستی است.&lt;/strong&gt;</abstract_fa>
	<abstract>&lt;strong&gt;Nowadays using features learned by machines is common and these types of features have excellent quality in comparison with hand-designed features. While many machine learning models are developed to extract features automatically, however, the optimizing algorithms are still designed manually. In this paper, we propose a method to cast the optimizing algorithm as a machine learning problem. This is a branch of machine learning which is named meta-learning or learning to learn.&lt;/strong&gt;&lt;br&gt;
&lt;strong&gt;Gradient-based optimization algorithms (e.g. gradient descent and BFGS) receive the gradient vector in each step and, by using the information of the previous points and gradients, estimate the update vector at the current point. The inputs and outputs of these algorithms are vectors whose dimension is the same as the optimization problem. These algorithms are written solely based on vector addition, scalar-product, and inner-product operations. Therefore, we can say that these algorithms are executed in a Hilbert space whose dimension is determined by the optimization problem. In this paper, we propose a novel method for learning to optimize over a Hilbert space of unknown dimensionality.&lt;/strong&gt;&lt;br&gt;
&lt;strong&gt;We introduce a new neural network module named Hilbert LSTM (HLSTM) which is based on a novel LSTM cell whose learning process is independent of the input data dimension. This independency is the result of restricting the network to the operations on a Hilbert space, prohibiting the network to work directly with the entries within a vector. To achieve this goal, we use a linear coefficients layer that linearly combines the input vectors based on coefficients computed by their inner products. &lt;/strong&gt;&lt;strong&gt;Training the network based on the inner product between vectors leads to learning an optimization algorithm that is independent of the data dimension&lt;/strong&gt;&lt;strong&gt;. Our experiments show that the proposed optimizer achieves better results in comparison with hand-designed algorithms. &lt;/strong&gt;</abstract>
	<keyword_fa>Hilbert LSTM, LSTM, L-BFGS, فرایادگیری, بهینه‌سازی خودکار</keyword_fa>
	<keyword>Hilbert LSTM, LSTM, L-BFGS, meta-learning, automatic optimization</keyword>
	<start_page>89</start_page>
	<end_page>100</end_page>
	<web_url>http://jsdp.rcisp.ac.ir/browse.php?a_code=A-10-2042-1&amp;slc_lang=fa&amp;sid=1</web_url>


<author_list>
	<author>
	<first_name>Mohammad</first_name>
	<middle_name></middle_name>
	<last_name>Etesam</last_name>
	<suffix></suffix>
	<first_name_fa>محمد</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>اعتصام</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>etesam@mail.um.ac.ir</email>
	<code>100319475328460012805</code>
	<orcid>100319475328460012805</orcid>
	<coreauthor>No</coreauthor>
	<affiliation>Ferdowsi University of Mashhad</affiliation>
	<affiliation_fa>دانشگاه فردوسی مشهد</affiliation_fa>
	 </author>


	<author>
	<first_name>Ashkan</first_name>
	<middle_name></middle_name>
	<last_name>Sadeghi-Lotfabadi</last_name>
	<suffix></suffix>
	<first_name_fa>اشکان</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>صادقی لطف آبادی</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>sadeghia@mail.um.ac.ir</email>
	<code>100319475328460012806</code>
	<orcid>100319475328460012806</orcid>
	<coreauthor>No</coreauthor>
	<affiliation>Ferdowsi University of Mashhad</affiliation>
	<affiliation_fa>دانشگاه فردوسی مشهد</affiliation_fa>
	 </author>


	<author>
	<first_name>Kamaledin</first_name>
	<middle_name></middle_name>
	<last_name>Ghiasi-Shirazi</last_name>
	<suffix></suffix>
	<first_name_fa>سید کمال الدین</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>غیاثی شیرازی</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>k.ghiasi@um.ac.ir</email>
	<code>100319475328460012807</code>
	<orcid>100319475328460012807</orcid>
	<coreauthor>Yes
</coreauthor>
	<affiliation>Ferdowsi University of Mashhad</affiliation>
	<affiliation_fa>دانشگاه فردوسی مشهد</affiliation_fa>
	 </author>


</author_list>


	</article>
</articleset>
</journal>
