سلام
من مي خواهم با يک شبکه MLP يک گيت exor دو ورودي درست کنم که دو نرون درورودي و يک نرون در خروجي گذاشته ام و ورودي را به هر دو نرون داده ام اما از انجايي که خروجي هر کدام از نرون ها در شبکه MLP بايد داراي Transfer Function تابع پله يا به اصطلاح Hardlim باشد بعد از اجراي برنامه بدون هيچ تکرار و اموزشي برنامه stop مي کند اما با Transfer Function هاي ديگر اين کار انجام مي شود که با عوض کردن Hardlim ديگر شبکه ما MLP نخواهد بود و فقط يک شبکه چند لايه مي باشد سوال من اين است ايا هيج الگوريتم اموزشي وجود ندارد که با hardlim سازگار باشد؟
با تشکر