<?xml version="1.0" encoding="utf-8"?>
<journal>
<title>Signal and Data Processing</title>
<title_fa>پردازش علائم و داده‌ها</title_fa>
<short_title>JSDP</short_title>
<subject>Engineering &amp; Technology</subject>
<web_url>http://jsdp.rcisp.ac.ir</web_url>
<journal_hbi_system_id>1</journal_hbi_system_id>
<journal_hbi_system_user>admin</journal_hbi_system_user>
<journal_id_issn>2538-4201</journal_id_issn>
<journal_id_issn_online>2538-421X</journal_id_issn_online>
<journal_id_pii></journal_id_pii>
<journal_id_doi>10.61882/jsdp</journal_id_doi>
<journal_id_iranmedex></journal_id_iranmedex>
<journal_id_magiran></journal_id_magiran>
<journal_id_sid>1</journal_id_sid>
<journal_id_nlai>8888</journal_id_nlai>
<journal_id_science></journal_id_science>
<language>fa</language>
<pubdate>
	<type>jalali</type>
	<year>1402</year>
	<month>6</month>
	<day>1</day>
</pubdate>
<pubdate>
	<type>gregorian</type>
	<year>2023</year>
	<month>9</month>
	<day>1</day>
</pubdate>
<volume>20</volume>
<number>2</number>
<publish_type>online</publish_type>
<publish_edition>1</publish_edition>
<article_type>fulltext</article_type>
<articleset>
	<article>


	<language>fa</language>
	<article_id_doi></article_id_doi>
	<title_fa>مروری بر آسیب‌پذیری شبکه‌های عصبی عمیق نسبت به نمونه‌های خصمانه و رویکرد‌های مقابله با آن‌ها</title_fa>
	<title>A survey on vulnerability of deep neural networks to adversarial examples and defense approaches to deal with them</title>
	<subject_fa>مقالات پردازش تصویر</subject_fa>
	<subject>Paper</subject>
	<content_type_fa>كاربردي</content_type_fa>
	<content_type>Applicable</content_type>
	<abstract_fa>&lt;span style=&quot;font-size:10pt&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span style=&quot;direction:rtl&quot;&gt;&lt;span style=&quot;unicode-bidi:embed&quot;&gt;&lt;span new=&quot;&quot; roman=&quot;&quot; style=&quot;font-family:&quot; times=&quot;&quot;&gt;&lt;span style=&quot;font-weight:bold&quot;&gt;&lt;span lang=&quot;FA&quot; style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt;امروزه شبکه&#8204;های عصبی به&#8204;عنوان بارزترین ابزار مطرح در هوش&#8204;مصنوعی و یادگیری ماشین شناخته شده&#8204; و در حوزه&#8204;های مالی و بانکداری، کسب &#8204;و کار، تجارت، سلامت، پزشکی، بیمه، رباتیک، هواپیمایی، خودرو، نظامی و سایر حوزه&#8204;ها مورد استفاده قرار می&#8204;گیرند. در سال&#8204;های اخیر موارد متعددی از آسیب&#8204;پذیری شبکه&#8204;های عصبی عمیق نسبت به حملاتی مطرح شده که غالباً با افزودن اختلالات جمع&#8204;شونده و غیر جمع&#8204;شونده بر داده ورودی ایجاد می&#8204;شوند. این اختلالات با وجود نامحسوس بودن در ورودی از دیدگاه عامل انسانی، خروجی شبکه آموزش دیده را تغییر می&#8204;دهند. به اقداماتی که شبکه&#8204;های عصبی عمیق را نسبت به حملات مقاوم&#8204; می&#8204;نمایند، دفاع اطلاق می&#8204;شود. برخی از روش&#8204;های حمله مبتنی بر ابزارهایی نظیر گرادیان شبکه نسبت به ورودی، به دنبال شناسایی اختلال می&#8204;باشند و برخی دیگر به تخمین آن ابزارها می&#8204;پردازند و در تلاش هستند تا حتی بدون داشتن اطلاعاتی از آن&#8204;ها، به اطلاعات آن&#8204;ها دست پیدا کنند. رویکردهای دفاع نیز برخی روی تعریف تابع هزینه بهینه و همچنین معماری شبکه مناسب و برخی دیگر بر جلوگیری و یا اصلاح داده قبل از ورود به شبکه متمرکز می&#8204;شوند. همچنین برخی رویکردها به تحلیل میزان مقاوم&#8204;بودن شبکه نسبت به این حملات و ارائه محدوده اطمینان متمرکز شده&#8204;اند. در این مقاله سعی شده است تا جدیدترین پژوهش&#8204;ها در زمینه آسیب&#8204;پذیری شبکه&#8204;های عصبی عمیق&amp;nbsp; بررسی و مورد نقد قرار گیرند و کارایی آن&#8204;ها با انجام آزمایش&#8204;هایی مقایسه شود. در آزمایشات صورت گرفته در بین حملات محصور&#8204;شده به &lt;/span&gt;&lt;/span&gt;&lt;m:omath&gt;&lt;m:ssub&gt;&lt;m:ssubpr&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&lt;span style=&quot;font-weight:normal&quot;&gt;&lt;span style=&quot;font-style:italic&quot;&gt;&lt;m:ctrlpr&gt;&lt;/m:ctrlpr&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/m:ssubpr&gt;&lt;m:e&gt;&lt;m:r&gt;&lt;m:rpr&gt;&lt;m:scr m:val=&quot;roman&quot;&gt;&lt;m:sty m:val=&quot;bi&quot;&gt;&lt;/m:sty&gt;&lt;/m:scr&gt;&lt;/m:rpr&gt;&lt;i&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;l&lt;/span&gt;&lt;/span&gt;&lt;/i&gt;&lt;/m:r&gt;&lt;/m:e&gt;&lt;m:sub&gt;&lt;m:r&gt;&lt;m:rpr&gt;&lt;m:scr m:val=&quot;roman&quot;&gt;&lt;m:sty m:val=&quot;bi&quot;&gt;&lt;/m:sty&gt;&lt;/m:scr&gt;&lt;/m:rpr&gt;&lt;i&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&amp;infin;&lt;/span&gt;&lt;/span&gt;&lt;/i&gt;&lt;/m:r&gt;&lt;/m:sub&gt;&lt;/m:ssub&gt;&lt;/m:omath&gt;&lt;b&gt;&lt;span style=&quot;font-size:10.0pt&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span new=&quot;&quot; roman=&quot;&quot; style=&quot;font-family:&quot; times=&quot;&quot;&gt;&lt;span style=&quot;position:relative&quot;&gt;&lt;span style=&quot;top:3.0pt&quot;&gt;&lt;img alt=&quot;&quot; id=&quot;_x0000_i1025&quot; src=&quot;data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAABIAAAAVCAIAAADEqSm4AAAAAXNSR0IArs4c6QAAAAlwSFlzAAASdAAAEnQB3mYfeAAAAORJREFUOE+9lL0NwyAQhXFmiVNYmeC8QdJnBFgHtxkhlZvABpnAchHYhRy/IpIlc1KUq3wcn3joPdw55xi9DnTEEz/BrLWNp+PdnDMS0naQJqzsFMtzxQPI1R4R5vlu9r14Coa+SWXGzPry1O16pGB6vvvt51MblQwgSsy+ESUmjCoxYmSJyBSvG42Otn5l0mohphAvO42dr1Fo7LSou+BQFS3gUoVoYdbS2UZyDsBiZxSHlKISrjpTOC7RxNDVTfrefDj9wFbjxaLqywLs8dSxm5cciO3k5ieBolBe1aXt3V9/Ch+FRzRYrzQjSgAAAABJRU5ErkJggg==&quot; style=&quot;width:10.8pt; height:12.6pt&quot; &gt; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/b&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt;&amp;nbsp;و &lt;/span&gt;&lt;/span&gt;&lt;m:omath&gt;&lt;m:ssub&gt;&lt;m:ssubpr&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&lt;span style=&quot;font-weight:normal&quot;&gt;&lt;span style=&quot;font-style:italic&quot;&gt;&lt;m:ctrlpr&gt;&lt;/m:ctrlpr&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/m:ssubpr&gt;&lt;m:e&gt;&lt;m:r&gt;&lt;m:rpr&gt;&lt;m:scr m:val=&quot;roman&quot;&gt;&lt;m:sty m:val=&quot;bi&quot;&gt;&lt;/m:sty&gt;&lt;/m:scr&gt;&lt;/m:rpr&gt;&lt;i&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;l&lt;/span&gt;&lt;/span&gt;&lt;/i&gt;&lt;/m:r&gt;&lt;/m:e&gt;&lt;m:sub&gt;&lt;m:r&gt;&lt;m:rpr&gt;&lt;m:scr m:val=&quot;roman&quot;&gt;&lt;m:sty m:val=&quot;bi&quot;&gt;&lt;/m:sty&gt;&lt;/m:scr&gt;&lt;/m:rpr&gt;&lt;i&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;2&lt;/span&gt;&lt;/span&gt;&lt;/i&gt;&lt;/m:r&gt;&lt;/m:sub&gt;&lt;/m:ssub&gt;&lt;/m:omath&gt;&lt;b&gt;&lt;span style=&quot;font-size:10.0pt&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span new=&quot;&quot; roman=&quot;&quot; style=&quot;font-family:&quot; times=&quot;&quot;&gt;&lt;span style=&quot;position:relative&quot;&gt;&lt;span style=&quot;top:3.0pt&quot;&gt;&lt;img alt=&quot;&quot; id=&quot;_x0000_i1025&quot; src=&quot;data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAA4AAAAVCAIAAAD5O0jeAAAAAXNSR0IArs4c6QAAAAlwSFlzAAASdAAAEnQB3mYfeAAAANFJREFUOE+dk7ERgzAMRSGzQAqOCcwI6TOCKVnFtJkilZmATJBLEbSLEtmSgw+c+KIKfA99+X9RImKRV4c8jKi/UQD4ovKeFXExihFlFneyU4WcWe1gbVMkyqzwvBOpmjo5gaDL40bk+VT9QqfrhZD2mCbZrAx58TVDntEceY9u5GHsu6701fWjxBL8/5hPgfg3bzZ7He0ATD31qIYZ54G8qBtJkT5Zxaq0sVGsLu+gFoLd5unmWAWdQl3DeCH2UbqOCFvNT3soL1lYBm5e5v9bL1WeLMN+E21SAAAAAElFTkSuQmCC&quot; style=&quot;width:8.4pt; height:12.6pt&quot; &gt; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/b&gt;&lt;span lang=&quot;FA&quot; style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt;، &lt;/span&gt;&lt;/span&gt;&lt;span lang=&quot;FA&quot; style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt;روش &lt;/span&gt;&lt;/span&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span style=&quot;font-weight:normal&quot;&gt;AutoAttack&lt;/span&gt;&lt;/span&gt;&lt;span lang=&quot;FA&quot; style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt; کارایی بسیار بالایی دارد. البته باتوجه به برتری روش&#8204; &lt;/span&gt;&lt;/span&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span style=&quot;font-weight:normal&quot;&gt;AutoAttack&lt;/span&gt;&lt;/span&gt;&lt;span lang=&quot;FA&quot; style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt; نسبت به روش&#8204;هایی نظیر &lt;/span&gt;&lt;/span&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span style=&quot;font-weight:normal&quot;&gt;MIFGSM&lt;/span&gt;&lt;/span&gt;&lt;span lang=&quot;FA&quot; style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt;، &lt;/span&gt;&lt;/span&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span style=&quot;font-weight:normal&quot;&gt;PGD&lt;/span&gt;&lt;/span&gt;&lt;span lang=&quot;FA&quot; style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt; و &lt;/span&gt;&lt;/span&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span style=&quot;font-weight:normal&quot;&gt;DeepFool&lt;/span&gt;&lt;/span&gt;&lt;span lang=&quot;FA&quot; style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt; این روش برای اجرا، مدت زمان بیشتری به خاطر ترکیبی بودن ساختار درونی آن نسبت به سایر روش&#8204;های همردیف خود نیاز دارد. همچنین به مقایسه برخی از رویکردهای پرکاربرد دفاع در مقابل نمونه&#8204;های خصمانه نیز پرداخته شد و از بین روش&#8204;های مبتنی بر نواحی محصورشده به &lt;/span&gt;&lt;/span&gt;&lt;m:omath&gt;&lt;m:ssub&gt;&lt;m:ssubpr&gt;&lt;span style=&quot;font-size:12.0pt&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&lt;span style=&quot;font-style:italic&quot;&gt;&lt;m:ctrlpr&gt;&lt;/m:ctrlpr&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/m:ssubpr&gt;&lt;m:e&gt;&lt;m:r&gt;&lt;m:rpr&gt;&lt;m:scr m:val=&quot;roman&quot;&gt;&lt;m:sty m:val=&quot;bi&quot;&gt;&lt;/m:sty&gt;&lt;/m:scr&gt;&lt;/m:rpr&gt;&lt;i&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;l&lt;/span&gt;&lt;/span&gt;&lt;/i&gt;&lt;/m:r&gt;&lt;/m:e&gt;&lt;m:sub&gt;&lt;m:r&gt;&lt;m:rpr&gt;&lt;m:scr m:val=&quot;roman&quot;&gt;&lt;m:sty m:val=&quot;bi&quot;&gt;&lt;/m:sty&gt;&lt;/m:scr&gt;&lt;/m:rpr&gt;&lt;i&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&amp;infin;&lt;/span&gt;&lt;/span&gt;&lt;/i&gt;&lt;/m:r&gt;&lt;/m:sub&gt;&lt;/m:ssub&gt;&lt;/m:omath&gt;&lt;b&gt;&lt;span style=&quot;font-size:10.0pt&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span new=&quot;&quot; roman=&quot;&quot; style=&quot;font-family:&quot; times=&quot;&quot;&gt;&lt;span style=&quot;position:relative&quot;&gt;&lt;span style=&quot;top:4.0pt&quot;&gt;&lt;img alt=&quot;&quot; id=&quot;_x0000_i1025&quot; src=&quot;data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAABEAAAAZCAIAAABYXFLAAAAAAXNSR0IArs4c6QAAAAlwSFlzAAASdAAAEnQB3mYfeAAAAOtJREFUOE/dlDEOwjAMRVPOQhkQJ0iPwM7K5q4cpVk5AlMX0htwgoqB+C7BdpKqSBVNNoSn2PVXvuyXVt57VRibwn5u/28NIubMhGbtvet07NWdk8q3UOmjBVGBXVN4n2aNr5Elel+vm0sa93yw5HTcZmuG/sq9h12GJHJQ4iyxU+IsaoqcBU2ZMxJMC83ZZtjdx1vAoW0N04OmqSgaydC0MRsiWTNyNHSWySGSQA50AtBaaao7Z4HKXJ3YmSFjYSKIQZwlIDQuvdN6P/ZiA835okCFROH9psLOF5EkTwJ6MEOXSaQLqx/+77wB0Z8mIh7VyysAAAAASUVORK5CYII=&quot; style=&quot;width:10.2pt; height:15pt&quot; &gt; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/b&gt;&lt;span lang=&quot;FA&quot; style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt;&amp;nbsp; حول داده، روش آموزش خصمانه مبتنی بر مشتقات &lt;/span&gt;&lt;/span&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span style=&quot;font-weight:normal&quot;&gt;PGD&lt;/span&gt;&lt;/span&gt;&lt;span lang=&quot;FA&quot; style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt; با پارامترهای مشخص، از سایر روش&#8204;ها بهتر در مقابل اغلب روش&#8204;های حمله مقاوم بوده است. لازم به ذکر است که روش&#8204;های مختلف حمله خصمانه و دفاع نسبت به آن حملات که در این مقاله مورد بررسی قرار گرفت است در یک قالب مناسب و منعطف کدنویسی شده است. این قالب کدنویسی به عنوان یک پشتوانه پایدار ویژه تحقیق و پژوهش در حوزه یادگیری ماشین استاندارد و یادگیری ماشین خصمانه ویژه پژوهشگران و علاقه&#8204;مندان از طریق آدرس&lt;/span&gt;&lt;/span&gt;&lt;a href=&quot;https://github.com/khalooei/Robustness-framework&quot; style=&quot;color:#0563c1; text-decoration:underline&quot;&gt;&lt;span dir=&quot;LTR&quot; style=&quot;line-height:107%&quot;&gt;&lt;span style=&quot;font-weight:normal&quot;&gt;https://github.com/khalooei/Robustness-framework&lt;/span&gt;&lt;/span&gt;&lt;/a&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span b=&quot;&quot; nazanin=&quot;&quot; style=&quot;font-family:&quot;&gt; &amp;nbsp;در دسترس&amp;nbsp; قرار گرفته است.&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;</abstract_fa>
	<abstract>&lt;span style=&quot;font-size:10pt&quot;&gt;&lt;span style=&quot;text-justify:kashida&quot;&gt;&lt;span style=&quot;text-kashida:0%&quot;&gt;&lt;span style=&quot;unicode-bidi:embed&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span new=&quot;&quot; roman=&quot;&quot; style=&quot;font-family:&quot; times=&quot;&quot;&gt;&lt;span style=&quot;font-weight:bold&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;Nowadays the most commonly used method in various tasks of machine learning and artificial intelligence are neural networks. In spite of their different uses, neural networks and Deep neural networks (DNNs) have some vulnerabilities. A little distortion or adversarial perturbation in the input data for both additive and non-additive cases can be led to change the output of the trained model, and this could be a kind of DNN vulnerability. Despite the imperceptibility of the mentioned disturbance for human beings, DNN is vulnerable to these changes. &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;br&gt;
&lt;span style=&quot;font-size:10pt&quot;&gt;&lt;span style=&quot;text-justify:kashida&quot;&gt;&lt;span style=&quot;text-kashida:0%&quot;&gt;&lt;span style=&quot;unicode-bidi:embed&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span new=&quot;&quot; roman=&quot;&quot; style=&quot;font-family:&quot; times=&quot;&quot;&gt;&lt;span style=&quot;font-weight:bold&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;Creating and applying any malicious perturbation named &amp;ldquo;attack&amp;rdquo;, penetrates DNNs and &lt;/span&gt;makes them incapable of doing the duty assigned to them&lt;span style=&quot;line-height:107%&quot;&gt;. In this paper different attack approaches were categorized based on the signal applied in the attack procedure. Some approaches use the gradient signal for detecting the vulnerability of DNN and try to create a powerful attack. The other ones create a perturbation in a blind situation and change a portion of the input to create a potential malicious perturbation. Adversarial attacks include both black-box and White-box situations. White-box situation focuses on training loss function and the architecture of the model but black box situation focuses on the approximation of the main model and dealing with the restriction of the input-output model request. &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;br&gt;
&lt;span style=&quot;font-size:10pt&quot;&gt;&lt;span style=&quot;text-justify:kashida&quot;&gt;&lt;span style=&quot;text-kashida:0%&quot;&gt;&lt;span style=&quot;unicode-bidi:embed&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span new=&quot;&quot; roman=&quot;&quot; style=&quot;font-family:&quot; times=&quot;&quot;&gt;&lt;span style=&quot;font-weight:bold&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;Making a deep neural network &lt;/span&gt;resilient against&lt;span style=&quot;line-height:107%&quot;&gt; attacks is named &amp;ldquo;defense&amp;rdquo;. Defense approaches are divided into three categories. One of them tries to modify the input, the other one makes some changes in the developed model and also changes the loss function of the model. In the third defense approach some networks are first used for purification and refinement of the input before passing it to the main network. Furthermore, an analytical approach was presented for the entanglement and disentanglement representation of inputs of the trained model. The gradient is a very powerful signal usually used in learning and an attacking approaches. Besides, adversarial training is a well-known approach in changing a loss function method to defend against adversarial attacks. &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;br&gt;
&lt;span style=&quot;font-size:10pt&quot;&gt;&lt;span style=&quot;text-justify:kashida&quot;&gt;&lt;span style=&quot;text-kashida:0%&quot;&gt;&lt;span style=&quot;unicode-bidi:embed&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span new=&quot;&quot; roman=&quot;&quot; style=&quot;font-family:&quot; times=&quot;&quot;&gt;&lt;span style=&quot;font-weight:bold&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;In this study the most recent research on the vulnerability of DNN through a critical literature review was presented. Literature and our experiments indicate that the projected gradient descent (PGD) and AutoAttack methods are successful approaches in the &lt;/span&gt;&lt;m:omath&gt;&lt;m:ssub&gt;&lt;m:ssubpr&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&lt;span style=&quot;font-style:italic&quot;&gt;&lt;m:ctrlpr&gt;&lt;/m:ctrlpr&gt;&lt;/span&gt;&lt;/span&gt;&lt;/m:ssubpr&gt;&lt;m:e&gt;&lt;i&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&lt;m:r&gt;&lt;m:rpr&gt;&lt;m:scr m:val=&quot;roman&quot;&gt;&lt;m:sty m:val=&quot;bi&quot;&gt;&lt;/m:sty&gt;&lt;/m:scr&gt;&lt;/m:rpr&gt;l&lt;/m:r&gt;&lt;/span&gt;&lt;/span&gt;&lt;/i&gt;&lt;/m:e&gt;&lt;m:sub&gt;&lt;i&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&lt;m:r&gt;&lt;m:rpr&gt;&lt;m:scr m:val=&quot;roman&quot;&gt;&lt;m:sty m:val=&quot;bi&quot;&gt;&lt;/m:sty&gt;&lt;/m:scr&gt;&lt;/m:rpr&gt;2&lt;/m:r&gt;&lt;/span&gt;&lt;/span&gt;&lt;/i&gt;&lt;/m:sub&gt;&lt;/m:ssub&gt;&lt;i&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&lt;m:r&gt;&lt;m:rpr&gt;&lt;m:scr m:val=&quot;roman&quot;&gt;&lt;m:sty m:val=&quot;bi&quot;&gt;&lt;/m:sty&gt;&lt;/m:scr&gt;&lt;/m:rpr&gt; &lt;/m:r&gt;&lt;/span&gt;&lt;/span&gt;&lt;/i&gt;&lt;/m:omath&gt;&lt;b&gt;&lt;span style=&quot;font-size:10.0pt&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span new=&quot;&quot; roman=&quot;&quot; style=&quot;font-family:&quot; times=&quot;&quot;&gt;&lt;span style=&quot;position:relative&quot;&gt;&lt;span style=&quot;top:3.0pt&quot;&gt;&lt;img alt=&quot;&quot; id=&quot;_x0000_i1025&quot; src=&quot;data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAABIAAAAVCAIAAADEqSm4AAAAAXNSR0IArs4c6QAAAAlwSFlzAAASdAAAEnQB3mYfeAAAANlJREFUOE+tlM0RwiAQhYO1JB4yVgAleLcEOKYVcrUKT6SCWIHjQegFXf40ZpmA494IfNnHvpcQa21TX7t6BIi/YMaYwu6vu1mrJQ3HqdTuyUY1cV9xB3K1Rbj9eDfzuAFF+65IZcT0/QrU6djWYNPlDMcP+zIqGFApMfpWKTFgtRI9tpJoRsEY8cXEiEUgef02Gsz3K28m4uUik2YS8O52mO08wEy7Pqbn25aPaFEu1SJaLnNo3FK41plyWjNhy2GuUT6gOAajiOIUR2RiWPgY0hSQpuS3f8kToEmMY93DHgcAAAAASUVORK5CYII=&quot; style=&quot;width:10.8pt; height:12.6pt&quot; &gt; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/b&gt;&lt;span style=&quot;line-height:107%&quot;&gt;and &lt;/span&gt;&lt;m:omath&gt;&lt;m:ssub&gt;&lt;m:ssubpr&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&lt;span style=&quot;font-style:italic&quot;&gt;&lt;m:ctrlpr&gt;&lt;/m:ctrlpr&gt;&lt;/span&gt;&lt;/span&gt;&lt;/m:ssubpr&gt;&lt;m:e&gt;&lt;i&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&lt;m:r&gt;&lt;m:rpr&gt;&lt;m:scr m:val=&quot;roman&quot;&gt;&lt;m:sty m:val=&quot;bi&quot;&gt;&lt;/m:sty&gt;&lt;/m:scr&gt;&lt;/m:rpr&gt;l&lt;/m:r&gt;&lt;/span&gt;&lt;/span&gt;&lt;/i&gt;&lt;/m:e&gt;&lt;m:sub&gt;&lt;i&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span cambria=&quot;&quot; math=&quot;&quot; style=&quot;font-family:&quot;&gt;&lt;m:r&gt;&lt;m:rpr&gt;&lt;m:scr m:val=&quot;roman&quot;&gt;&lt;m:sty m:val=&quot;bi&quot;&gt;&lt;/m:sty&gt;&lt;/m:scr&gt;&lt;/m:rpr&gt;&amp;infin;&lt;/m:r&gt;&lt;/span&gt;&lt;/span&gt;&lt;/i&gt;&lt;/m:sub&gt;&lt;/m:ssub&gt;&lt;/m:omath&gt;&lt;b&gt;&lt;span style=&quot;font-size:10.0pt&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;&lt;span new=&quot;&quot; roman=&quot;&quot; style=&quot;font-family:&quot; times=&quot;&quot;&gt;&lt;span style=&quot;position:relative&quot;&gt;&lt;span style=&quot;top:3.0pt&quot;&gt;&lt;img alt=&quot;&quot; id=&quot;_x0000_i1025&quot; src=&quot;data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAABIAAAAVCAIAAADEqSm4AAAAAXNSR0IArs4c6QAAAAlwSFlzAAASdAAAEnQB3mYfeAAAAORJREFUOE+9lL0NwyAQhXFmiVNYmeC8QdJnBFgHtxkhlZvABpnAchHYhRy/IpIlc1KUq3wcn3joPdw55xi9DnTEEz/BrLWNp+PdnDMS0naQJqzsFMtzxQPI1R4R5vlu9r14Coa+SWXGzPry1O16pGB6vvvt51MblQwgSsy+ESUmjCoxYmSJyBSvG42Otn5l0mohphAvO42dr1Fo7LSou+BQFS3gUoVoYdbS2UZyDsBiZxSHlKISrjpTOC7RxNDVTfrefDj9wFbjxaLqywLs8dSxm5cciO3k5ieBolBe1aXt3V9/Ch+FRzRYrzQjSgAAAABJRU5ErkJggg==&quot; style=&quot;width:10.8pt; height:12.6pt&quot; &gt; &lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/b&gt;&amp;nbsp;&lt;span style=&quot;line-height:107%&quot;&gt;bounded attacks, respectively. Furthermore, our experiments indicate that AutoAttack is much more time-consuming than the other methods. In the defense concept, different experiments were conducted to compare different attacks in the adversarial training approaches. Our experimental results indicate that the PGD is much more efficient in adversarial training than the fast gradient sign method (FGSM) and its deviations like MIFGSM and covers a wider range of generalizations of the trained model on predefined datasets. Furthermore, AutoAttack integration with adversarial training works well, but it is not efficient in low epoch numbers. Aside from that, it has been proven that adversarial training is time-consuming. Furthermore, we released our code for researchers or individuals interested in extending or evaluating predefined models for standard and adversarial machine learning projects. A more detailed description of the framework can be found at &lt;/span&gt;&lt;a href=&quot;https://github.com/khalooei/Robustness-framework&quot; style=&quot;color:#0563c1; text-decoration:underline&quot;&gt;&lt;span style=&quot;line-height:107%&quot;&gt;https://github.com/khalooei/Robustness-framework&lt;/span&gt;&lt;/a&gt;&lt;span style=&quot;line-height:107%&quot;&gt; .&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;</abstract>
	<keyword_fa>آسیب‌پذیری شبکه‌های عصبی, مقاوم‌سازی, حمله, دفاع, شبکه‌های عصبی</keyword_fa>
	<keyword>vulnerability of neural network, robustness, attack, defense, neural network</keyword>
	<start_page>113</start_page>
	<end_page>144</end_page>
	<web_url>http://jsdp.rcisp.ac.ir/browse.php?a_code=A-10-31-6&amp;slc_lang=fa&amp;sid=1</web_url>


<author_list>
	<author>
	<first_name>Mohammad</first_name>
	<middle_name></middle_name>
	<last_name>khalooei</last_name>
	<suffix></suffix>
	<first_name_fa>محمد</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>خالوئی</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>khalooei@aut.ac.ir</email>
	<code>100319475328460012441</code>
	<orcid>100319475328460012441</orcid>
	<coreauthor>No</coreauthor>
	<affiliation>Amirkabir University of Technology</affiliation>
	<affiliation_fa>دانشگاه صنعتی امیرکبیر</affiliation_fa>
	 </author>


	<author>
	<first_name>Mohammad Mehdi</first_name>
	<middle_name></middle_name>
	<last_name>Homayounpour</last_name>
	<suffix></suffix>
	<first_name_fa>محمد مهدی</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>همایون پور</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>homayoun@aut.ac.ir</email>
	<code>100319475328460012442</code>
	<orcid>100319475328460012442</orcid>
	<coreauthor>Yes
</coreauthor>
	<affiliation>Amirkabir University of Technology</affiliation>
	<affiliation_fa>دانشگاه صنعتی امیرکبیردانشگاه صنعتی امیرکبیر</affiliation_fa>
	 </author>


	<author>
	<first_name>Maryam</first_name>
	<middle_name></middle_name>
	<last_name>Amirmazlaghani</last_name>
	<suffix></suffix>
	<first_name_fa>مریم</first_name_fa>
	<middle_name_fa></middle_name_fa>
	<last_name_fa>امیرمزلقانی</last_name_fa>
	<suffix_fa></suffix_fa>
	<email>mazlaghani@aut.ac.ir</email>
	<code>100319475328460012443</code>
	<orcid>100319475328460012443</orcid>
	<coreauthor>No</coreauthor>
	<affiliation>Amirkabir University of Technology</affiliation>
	<affiliation_fa>دانشگاه صنعتی امیرکبیر</affiliation_fa>
	 </author>


</author_list>


	</article>
</articleset>
</journal>
