۷
آستانه ای دو مقداره
۸
آستانه ای دو مقداره متقارن
۹
سینوسی
۱۰
کسینوسی
در اینجا به چند مورد از این توابع اشاره میشود:
۱-۸-۳-۱ تابع محرک خطی
خروجی این تابع برابر با ورودی آن است و میتوان آن را به صورت رابطه زیر نمایش داد:
از نورونهایی با توابع تبدیل فوق در شبکههای خاص مانند آدلاین[۱۳] استفاده میشود. این تابع در شکل (۱-۳) آورده شده است (منهاج، ۱۳۷۷(.
شکل ۱-۳ توابع محرک خطی
۱-۸-۳-۲ تابع محرک لگاریتمی زیگموئیدی
تابع زیگموئیدی را میتوان به صورت کلی بر اساس رابطه زیر نشان داد:
شکل این تابع به ازای c=1 در شکل ۱-۴ رسم شده است (منهاج، ۱۳۷۷(. مقدار c وسعت ناحیه خطی بودن تابع را تعیین می کند.
شکل ۱-۵ تابع محرک لگاریتمی زیگموئیدی
شبکه های عصبی مصنوعی با وجود اینکه با سیستم عصبی طبیعی قابل مقایسه نیستند ویژگیهایی دارند که آنها را در بعضی از کاربردها مانند تفکیک الگو، رباتیک، کنترل و به طور کلی در هر جا که نیاز به یادگیری یک نگاشت خطی و یا غیر خطی باشد، ممتاز مینماید. این ویژگیها به شرح زیر میباشند:
قابلیت یادگیری: استخراج نتایج تحلیلی از یک نگاشت غیرخطی که با چند مثال مشخص شده، کار سادهای نیست. زیرا نورون یک دستگاه غیرخطی است و در نتیجه یک شبکه عصبی که از اجتماع این نورونها تشکیل میشود نیز یک سیستم کاملا پیچیده و غیرخطی خواهد بود. به علاوه خاصیت غیرخطی عناصر پردازش در کل شبکه توزیع میگردد. پیاده سازی این نتایج با یک الگوریتم معمولی و بدون قابلیت یادگیری، نیاز به دقت و مراقبت زیادی دارد. در چنین حالتی، سیستمی که بتواند خود این رابطه را استخراج کند بسیار سودمند به نظر میرسد. قابلیت یادگیری یعنی توانایی تنظیم پارامترهای شبکه (وزنهای سیناپتیکی) در مسیر زمان که محیط شبکه تغییر میکند و شبکه شرایط جدید را تجربه میکند، با این هدف که اگر شبکه برای یک وضعیت خاص آموزش دید و تغییر کوچکی در شرایط محیطی آن رخ داد، شبکه بتواند با آموزشهای مختصر برای شرایط جدید نیز کارآیی داشته باشد.
پراکندگی اطلاعات: آنچه که شبکه فرا میگیرد، در وزنهای سیناپسی میباشد. رابطه یک به یک بین ورودیها و وزنهای سیناپتیکی وجود ندارد. میتوان گفت که هر وزن سیناپسی، مربوط به همه ورودی هاست ولی به هیچی یک از آنها به طور منفرد و مجزا مربوط نیست. به عبارت دیگر هر نورون در شبکه، از کل فعالیت سایر نورونها متاثر میباشد. بر این اساس چنانچه بخشی از سلولهای شبکه حذف شوند و یا عملکرد غلط داشته باشد، باز هم احتمال رسیدن به پاسخ صحیح وجود دارد. اگرچه این احتمال برای تمام ورودیها کاهش یافته ولی برای هیچ یک از آنها از بین نرفته است.
قابلیت تعمیم: پس از آنکه مثالهای اولیه به شبکه آموزش داده شد، شبکه میتواند در مقابل یک ورودی آموزش داده نشده قرار گیرد و یک خروجی مناسب ارائه نماید. این خروجی براساس مکانیسم تعمیم، که چیزی جز فرایند درونیابی نیست بدست میآید. به عبارت روشنتر، شبکه تابع را یاد میگیرد، الگوریتم را میآموزد و یا رابطه تحلیلی مناسبی را برای تعدادی نقاط در فضا به دست میآورد.
پردازش موازی: هنگامی که شبکهی عصبی در قالب سخت افزار پیاده میشود، نورونهایی که در یک تراز قرار میگیرند، میتوانند بطور همزمان به ورودیهای آن تراز پاسخ دهند. این ویژگی باعث افزایش سرعت پردازش میشود. در واقع در چنین سیستمی، وظیفهی کلی پردازش بین پردازندههای کوچکتر مستقل از یکدیگر توزیع میگردد.
مقاوم بودن: در یک شبکهی عصبی، هر سلول به طور مستقل عمل میکند و رفتار کلی شبکه، برآیند رفتارهای محلی نورونهای متعدد است. این ویژگی باعث میشود تا خطاهای محلی از چشم خروجی نهایی دور بمانند. به عبارت دیگر، نورونها در یک روند همکاری، خطاهای محلی یکدیگر را تصحیح میکنند. این خاصیت باعث افزایش قابلیت مقاوم بودن (تحمل پذیری خطاها) در سیستم میگردد (منهاج، ۱۳۸۴).
۱-۸-۴ الگوریتمهای آموزش شبکههای عصبی مصنوعی
الگوریتم آموزش شبکههای عصبی در واقع فرآیندی است که طی آن وزنهای ارتباطی بین لایهها و نرونهای متناظر اریب تعیین میشوند. چند نمونه متداول از این روشها عبارتند از:
الف. روش پس انتشار
ب. روش دلتا بار
پ. روش انتشار سریع
ت. روش لونبرگ مارکوات
الگوریتم یادگیری پس انتشار مبتنی بر قانون یادگیری اصلاح خطا میباشد. در این روش با بهره گرفتن از مجموعهی وزنهای تصادفی اولیه، آموزش آغاز میشود. پس از تعیین خروجی مدل برای هریک از الگوهای ارائه شده در مجموعه آموزش، خطای حاصل از تفاوت بین خروجی مدل و مقادیر مورد انتظار محاسبه شده و با برگشت به داخل شبکه در جهت عکس (خروجی به ورودی) تصحیح میشود این روش به دلیل نحوه تنظیم و تصحیح وزنها، الگوریتم انتشار برگشتی نامیده میشود (دلاور، ۱۳۸۴). جدول (۱-۲) الگوریتمهای آموزش شبکههای معمولی را نشان میدهد (جمالیزاده، ۱۳۸۷):
جدول ۱-۲ الگوریتمهای آموزش شبکههای معمولی
نام اختصاری
توصیف