در این مقاله با توسعه روشهای موجود و بر مبنای کمینهسازی خطا و حفظ تمایز بیشینه مابین نمونهها یک روش پیشتعلیم لایهبهلایه سریع و کارا جهت مقداردهی اولیه مناسب وزنها در شبکههای عصبی با ساختارهای عمیق ارائه شده است. تعلیم شبکههای عصبی عمیق بهدلیل مواجه با تعداد بالای کمینههای موضعی اغلب همگرا نمیگردد. درحالیکه با مقداردهی اولیه مناسب وزنهای شبکه بهجای مقادیر تصادفی در ابتدای مسیر تعلیم، میتوان از بسیاری از کمینههای موضعی اجتناب نمود. در این روش شبکه عصبی چند لایه به تعداد متناظری شبکه با یک لایه پنهان شکسته میشود و ابتدا این شبکههای تک لایه تعلیم داده میشوند. سپس مقادیر وزن حاصل از تعلیم اینها در شبکه عصبی اصلی قرار داده میشود و برای تنظیم دقیق وزنها، تعلیم یکپارچه صورت میگیرد. روش پیشنهادی برای پیشتعلیم شبکه عصبی خودانجمنی 5 لایه پنهان جهت استخراج مؤلفههای اساسی غیرخطی چهره برای دادگان بسفروس مورد استفاده قرار گرفت. مقایسه میانگین نتایج شبکههای عصبی با مقداردهی اولیه تصادفی و مقداردهی با روش پیشتعلیم لایهبهلایه نشان میدهد که این روش پیشتعلیم علاوه بر اینکه سرعت همگرائی تعلیم را بهبود میدهد، قدرت تعمیم شبکه را نیز بالا میبرد. بهگونهایکه با وجود خطای تعلیم یکسان، با بکارگیری روش پیشتعلیم لایهبهلایه برای مقداردهی اولیه وزنها، خطای بازسازی هر پیکسل %69/13 کاهش و درصد صحت بازشناسی تصاویر با استفاده از مؤلفههای استخراج شده حدود %10 رشد داشته است. |
بازنشر اطلاعات | |
![]() |
این مقاله تحت شرایط Creative Commons Attribution-NonCommercial 4.0 International License قابل بازنشر است. |