به طور خلاصه، اگر تابع هدف ندارید نمی توانید پس انتشار انجام دهید. اگر معیاری بین مقدار پیشبینیشده و مقدار برچسبگذاریشده (دادههای واقعی یا آموزشی) نداشته باشید، نمیتوانید تابع هدف داشته باشید. بنابراین برای دستیابی به "یادگیری بدون نظارت"، ممکن است توانایی محاسبه گرادیان را نداشته باشید.
محدودیت های انتشار پشتی چیست؟
معایب الگوریتم Back Propagation:
برای انجام یک مشکل خاص به ورودی متکی است. حساس به داده های پیچیده/نویز. به مشتقات توابع فعالسازی برای زمان طراحی شبکه نیاز دارد.
چگونه انتشار برگشتی را برطرف می کنید؟
فرایند پس انتشار در شبکه عصبی عمیق
- مقادیر ورودی. X1=0.05. …
- وزن اولیه. W1=0.15 w5=0.40. …
- ارزش های تعصب. b1=0.35 b2=0.60.
- مقدارهای هدف. T1=0.01. …
- پاس به جلو. برای یافتن مقدار H1 ابتدا مقدار ورودی را از وزن ها ضرب می کنیم. …
- عبور به عقب در لایه خروجی. …
- گذر به عقب در لایه پنهان.
آیا پس انتشار کارآمد است؟
انتشار پسزمینه کارآمد است، آموزش شبکههای چندلایه حاوی نورونهای بسیاری را امکانپذیر میکند و در عین حال وزنها را برای به حداقل رساندن کاهش بهروزرسانی میکند.
چه مشکلی را پس انتشار هنگام کار با شبکه های عصبی حل می کند؟
در برازش یک شبکه عصبی، پس انتشار گرادیانتابع از دست دادن با توجه به وزن شبکه برای یک مثال ورودی-خروجی منفرد، و این کار را به طور موثر انجام می دهد، برخلاف یک محاسبه مستقیم ساده شیب با توجه به هر وزن به صورت جداگانه.