سلام.
1- در یادگیری LMS ما نیاز به خطای واقعی شبکه داریم تا وزنها با توجه به اون کم وزیاد و در نهایت به مینیمم همگرا بشند اما اگه در یه مسئله ما به جای خطا اندازه اونو داشته باشیم (قدر مطلق خطا) باید قاونو یادگیری رو چطور اعمال کنیم (در واقع چون قدر مطلق خطا همواره مثبت هست اعمال اون به تنهایی فقط باعث بزرگ شدن وزنها میشه ولی هیچ وقت وزنها کوچیک نمیشن)
2- اگر خطا در یک نرون تنها به خروجی اون نرون ربط نداشته باشه مثلا در یه شبکه تک لایه با سه نرون خطای واقعی یه رابطه خطی از خروجی هر سه نرون هست اونوقت باید قانون یادگیری رو چطور تغییر بدیم
1- در یادگیری LMS ما نیاز به خطای واقعی شبکه داریم تا وزنها با توجه به اون کم وزیاد و در نهایت به مینیمم همگرا بشند اما اگه در یه مسئله ما به جای خطا اندازه اونو داشته باشیم (قدر مطلق خطا) باید قاونو یادگیری رو چطور اعمال کنیم (در واقع چون قدر مطلق خطا همواره مثبت هست اعمال اون به تنهایی فقط باعث بزرگ شدن وزنها میشه ولی هیچ وقت وزنها کوچیک نمیشن)
2- اگر خطا در یک نرون تنها به خروجی اون نرون ربط نداشته باشه مثلا در یه شبکه تک لایه با سه نرون خطای واقعی یه رابطه خطی از خروجی هر سه نرون هست اونوقت باید قانون یادگیری رو چطور تغییر بدیم