اطلاعیه

Collapse
No announcement yet.

یک سوال ساده در مورد لایه های مخفی شبکه

Collapse
X
 
  • فیلتر
  • زمان
  • Show
Clear All
new posts

    یک سوال ساده در مورد لایه های مخفی شبکه

    سلام . من درس شبکه رو نگذروندم الان دارم خودم می خونم
    تو بخش multi layer perceptron یه قسمت هست که گرادیان محلی(local gradient) رو برای لایه های مخفی پیدا می کنه ( همون جایی که خطا رو حساب می کنه و از روش مقدار تغییرات وزنها رو حساب می کنه) توی فرمول مربوط به لایه های مخفی معنی این سیگما رو نمی دونم چیه

    مثلا اگه دو لایه مخفی داشته باشیم مثل شکل زیر ، این فرمول دلتا برای دو لایه مخفی چی میشه ( منظورم اینه که سیگما باز بشه)


    ممنون میشم راهنماییم کنید

    #2
    پاسخ : یک سوال ساده در مورد لایه های مخفی شبکه

    فهمیدم انگار ، برای هر لایه فقط لایه بعدیشو نگا می کنیم. من فک کردم تا لایه آخری باید حساب بشه

    دیدگاه

    لطفا صبر کنید...
    X