مینیمم
۱۷۲
۱۴۳
۹۵
۵۷
۳۲
۸۵٫۵
ماکزیمم
۱۹۶
۱۶۰
۱۱۲
۷۵
۴۶
۸۷٫۴
۴-۷٫ نرمالیزه کردن اطلاعات ورودی
در مرحله بعدی باید داده ها را برای ورود به شبکه و انجام فرایند آموزش آماده نمود. در واقع باید ورودی و خروجی شبکه را نرمال نمود تا همگی دارای اندازه گیری یکسانی گردند. به عبارت دیگر میتوان گفت که نرمالسازی از مراحل موثر در انجام مدلسازی با شبکه عصبی میباشد. اگر اطلاعات ورودی و خروجی دارای یک اندازه بزرگی نباشند برخی متغیرها ممکن است اهمیت بسیار بیشتری از آنچه که دارند از خود نشان دهند. بنابراین الگوریتم آموزش مجبور میگردد تا تفاوت اندازه بزرگی را با بهره گرفتن از تنظیم وزنهای شبکه جبران نماید که در اکثر الگوریتمهای آموزش چندان مؤثر نیست.
به عنوان مثال اگر متغیر ورودی اول دارای مقدار ۱ و متغیر ورودی دوم مقدار ۱۰۰۰ داشته باشد وزن مربوط به متغیر اول هنگام ورود به نرون لایه اول باید بزرگتر از وزن مربوط به متغیر دوم باشد. همچنین برخی از تابع تبدیلها مانند توابع سیگموئیدی، تانژانت هیپربولیک نمی توانند تفاوت بین دو مقدار را در صورتیکه هر دو دارای مقدار زیاد باشند تشخیص دهند. زیرا حد بالای خروجی این توابع ۱ میباشد. برای اجتناب از این گونه مسائل بهتر است متغیرهای ورودی و خروجی نرمال گردند.
روش اول: نرمالسازی بهصورتیکه هر متغیر بین ۰ و ۱ قرار گیرد. متغیرهای نرمال شده از طریق رابطه زیر محاسبه میگردند. در رابطه زیر xi,max بیشترین مقدار هر متغیر و xi,norm مقدار نرمال شده میباشد.
(۴-۲)
به عنوان مثال فرض نماییم یک متغیر xi دارای توزیع نرمال بین ۵۰۰ تا ۹۰۰ و ضریب نرمالسازی ۱۰۰۰ باشد. با بهره گرفتن از رابطه بالا یک توزیع نرمال بین ۵/۰ تا ۹/۰ ایجاد میگردد. این روش تنها برای شبکه های ساده پیشنهاد میگردد و با پیچیدهتر شدن ساختار شبکه این روش دچار مشکل میگردد.
روش دوم: در این روش متغیر نرمال شده با بهره گرفتن از ماکزیمم و مینیمم داده های اصلی بین ۰ و ۱ قرار میگیرد. برای تعیین متغیر نرمال شده رابطه زیر مورد استفاده میگیرد.Xi,min کمترین مقدار متغیر مورد نظر میباشد. در این روش با بهره گرفتن از کل محدوده تابع انتقال نسبت به روش اول اصلاحاتی انجام گرفته است.
در نتیجه:
(۴-۲)
در این روش تمام متغیرهای ورودی در مجموعه داده ها، محدوده توزیع یکسانی خواهد داشت که این امر باعث بهبود بازده آموزش میگردد.
روش سوم :در این روش مجموعه اطلاعات در محدوده ۱ - تا ۱ و با مقدار میانگین صفر نرمال میگردند. این روش، روش نرمال سازی متوسط - صفر[۸۴] نامیده می شود. رابطه مورد نظر برای نرمالسازی داده ها با بهره گرفتن از این روش به صورت زیر می باشد. Xi avg میانگین هر متغیر را بیان می نماید.
(۴-۳)
که :
(۴-۴)
همانند روش دوم این روش نیز از تمامی محدوده تابع انتقال استفاده مینماید و هر متغیر ورودی هم دارای محدوده توزیع یکسانی است. این روش باعث میگردد فاکتورهای وزنی توزیع استانداردی داشته باشند. همچنین این روش به مقادیر نرمال شده معنی و مفهوم میبخشد. صفر بیان کننده حالت نرمال متوسط ، ۱- مقادیر بسیار کوچک متغیرها و ۱ مربوط به بزرگترین مقادیر مجموعه میباشد. علاوه بر این با تنظیم کردن تمام حالتهای نرمال متغیرها به صفر ، شبکه یک ساختار استاندارد خواهد داشت که فرایند آموزش را بسیار مؤثرتر می کند. با این روش تمام شبکه ها باید به طور معمول برای یکسری از مقادیر متغیرهای نرمال، خروجی صفر را پیش بینی نمایند. بنابراین شبکه در واقع تنها انحرافهای متغیرهای خروجی را به دلیل انحرافات مختلف متغیرهای ورودی پیش بینی مینماید. در این مطالعه از این روش نرمال سازی استفاده شده است [۳۰].
۴-۸٫ مدلسازی به روش شبکه های عصبی مصنوعی
در محاسبات شبکه عصبی پارامترهای مختلفی وجود دارند که تعیین بهینه آن ها در کارایی شبکه تأثیرگذار میباشد. این پارامترها باید با دقت زیادی تنظیم گردند.
۴-۸-۱٫ انتخاب الگوریتم آموزشی مناسب
الگوریتمهای متفاوتی در فصل سوم برای آموزش شبکه عصبی ارائه شدند که هرکدام از آنها دارای نکات ضعف و قوت هستند. در کل میتوان گفت برای شبکه های متوسط که تا چند صد وزن و بایاس دارند الگوریتم لونبرگ- مارکوارت همگرایی سریعتری را ایجاد مینماید. این مزیت زمانی قابل توجه میگردد که آموزش خیلی دقیق نیاز میباشد. در بسیاری از حالتها الگوریتم لونبرگ- مارکوارت قادر است به کمترین مربع میانگین خطا در میان سایر الگوریتمها دست یابد. اگر چه با افزایش تعداد نرونها در شبکه مزیت الگوریتم مذکور کاهش مییابد. در مجموع عملکرد الگوریتم لونبرک- مارکوارت در مسائل تشخیص الگو بسیار ضعیف میباشد. الگوریتم تطبیقی پس انتشار سریعترین الگوریتم در مسائل تشخیص الگو میباشد؛ اگرچه در مسائل تقریب تابع به خوبی عمل نمینماید. عملکرد این الگوریتم در مقایسه با الگوریتم تطبیقی پس انتشار با کاهش خطار کاهش مییابد. الگوریتم گرادیان مرکب نسبت به سایر الگوریتمها به حافظه کمتری نیاز دارد. الگوریتم شبهنیوتنی نیز مشابه الگوریتم لونبرک- مارکوارت بوده، اما نسبت به آن حافظه بیشتری دارد. روش الگوریتم یادگیری متغیر نسبت به دیگر روشها کندتر، اما حافظه مورد نظر در آن مشابه الگوریتم تطبیقی پسانتشار بوده، اما برای برخی مسائل مناسب میباشد. در واقع موقعیتهایی وجود دارد که بهتر است بسیار آرام همگرا گردند [۲۷]. با توجه به توضیحات ارائه شده، الگوریتم لونبرگ- مارکوات جهت استفاده در این مطالعه مناسب به نظر میرسد.
۴-۸-۲٫ انتخاب تعداد لایه های پنهان
تعیین تعداد لایه های پنهان و تعداد گرههای هر لایه یکی از مهمترین مراحل طراحی یک شبکه عصبی میباشد که بیشک به پیچیدگی شبکه و کاربرد آن بستگی دارد. برای تعیین بهینه تعداد لایه ها و گرهها، انتخاب ساختارهای مختلف و آموزش آنها مبنا میباشد. سپس بهترین ساختاری که با تعداد لایه ها و گرههای کمتر زودتر به مینیمم مقدار خطای مورد نظر رسیده باشد انتخاب میگردد.Baugham و Liu در سال ۱۹۹۵ بیان کردند که افزودن دومین لایهی پنهان بدون اینکه تأثیر زیانآوری در کاهش عمومیت بخشی داده ها مربوط به آزمایش داشته باشد توانایی پیش بینی شبکه را در پیش بینی نسبت به شبکه با دولایه چندان تغییر نمیدهد فقط به دلیل ایجاد ساختار پیچیده، زمان لازم برای همگرایی افزایش مییابد[۳۰].