مدل ریاضی شبکه‌های عصبی
 
 
 
نرون
نرون کوچک‌ترین واحد پردازشگر اطلاعات است، که اساس عملکرد شبکه‌های عصبی را تشکیل می‌دهد. شکل (۳-۳) ساختار یک نرون تک ورودی را نشان می‌دهد. اسکالرهای p و a به ترتیب ورودی و خروجی این نرون می‌باشند.
مدل نرون تک ورودی[۱۶] (Patterson, 1996)
میزان تأثیرp روی aبه وسیله مقدار اسکالر w تعیین می‌شود. ورودی دیگر که مقدار ثابت۱ می‌باشد در جمله بایاس b ضرب شده و سپس با W*P جمع می‌شود. این حاصل جمع، ورودی خالص[۲۷] برای تابع محرک (یا تابع تبدیل) f خواهد بود. بدین ترتیب خروجی نرون با معادله زیر تعریف می‌شود:
باید توجه داشت پارامترهای w و bقابل تنظیم هستند و تابع محرک f نیز توسط طراح انتخاب می‌شود. بر اساس انتخاب f و نوع الگوریتم یادگیری ، پارامترهای w و b تنظیم می‌شوند. یادگیری بدین معنی است که w و b طوری تغییر می‌کنند، که رابطه ورودی و خروجی نرون با هدف خاصی مطابقت نماید.
عموماً یک نرون بیش از یک ورودی دارد. شکل(۳-۴) یک مدل نرون با R ورودی را ارائه می‌دهد. بردار ورودی با p نمایش داده می‌شود. اسکالرهای pi(i=1,2,..R) عناصر بردار p هستند. مجموعه سیناپسهای w1,i، عناصر ماتریس وزن W را تشکیل می‌دهند.
مدل نرون با n ورودی را به همراه تابع تبدیل آن[۱۷] منهاج، ۱۳۷۷
در این حالت W یک بردار سطری با عناصر w1,j(j=1,..,R) است. هر عنصر از بردار ورودی p در عنصر متناظر از W ضرب می‌شود. نرون، یک جمله بایاس b دارد که با حاصل ضرب ماتریس وزنW با بردار ورودی p جمع می‌شود. ورودی تابع تبدیل (n)، مطابق رابطه زیر محاسبه می‌شود:
که در آن :
و
.
و در نهایت خروجی نرون به صورت زیر خواهد بود :
 
 
 
لایه‌های چند نرونی
باید توجه داشت که معمولاً نرونی با ورودی‌های زیاد، به تنهایی برای حل مسائل فنی- مهندسی کفایت نمی‌کند. مثلاً برای مدل سازی نگاشت‌هایی که دارای دو خروجی هستند احتیاج به دو نرون داریم، که بطور موازی عمل کنند. در این حالت یک لایه خواهیم داشت که از اجتماع چند نرون تشکیل شده است. یک شبکه تک لایه با S نرون در شکل (۳-۵) نشان داده شده است. ورودی شبکه با بردار p و خروجی آن با بردار a نشان داده شده است. باید توجه داشت که هر یک از ورودی‌ها به همه نرون ها متصل شده است. ماتریسW نیز در این حالت دارای S سطر و R ستون می‌باشد. همان‌طور که در شکل مشاهده می‌شود ، لایه‌ها شامل ماتریس وزن ، جمع کننده‌ها، بردار بایاس b (دارای S عنصر) و تابع تبدیل f هستند.
شبکه‌های چند لایه
در شبکه‌های چند لایه، هر لایه ماتریس وزنW ، بردار بایاس b، بردار ورودی خالص n و بردار خروجی مختص خود را دارد. جهت تمایز متغیرهای فوق و این که کدام متغیر به کدام لایه تعلق دارد ، نیاز داریم که علامت دیگری را هم به متغیرهای فوق تخصیص دهیم. از این رو از بالا نویس برای مشخص نمودن لایه استفاده می‌کنیم ، بنابراین ماتریس وزن را برای لایه‌ی اول با W1مشخص می‌نماییم. با در نظر گرفتن این نماد، یک شبکه پیش خور[۲۸] با سه لایه‌ی پنهان در شکل (۳-۶) ترسیم شده است.
مدل شبکه‌ای با یک لایه‌ی پنهان با S نرون و R ورودی[۱۶] (Patterson, 1996)
مدل شبکه‌ای با سه لایه‌ی پنهان به همراه R ورودی[۱۶] (Patterson, 1996)
 
 
 
توابع محرک (تابع تبدیل[۲۹])
تابع محرک f می‌تواند خطی یا غیر خطی باشد. یک تابع محرک بر اساس نیاز خاص حل یک مسئله‌ای که قرار است به وسیله شبکه عصبی حل شود، انتخاب می‌شود. در عمل تعداد محدودی از توابع محرک مورد استفاده قرار می‌گیرند، که در زیر به تعدادی از آن‌ها اشاره‌ میشود:
تابع محرک خطی
خروجی این تابع برابر ورودی آن است:
a = purelin(n) = n
نمودار تابع محرک خطی[۱۶] (Patterson, 1996)
تابع محرک آستانه‌ای دو مقداره حدی
این تابع در شکل (۳-۸) نشان داده شده است. همان‌گونه که مشاهده می‌شود ، مقدار خروجی ۰ یا ۱ است. اگر آرگومان n کوچک‌تر از صفر باشد مقدار تابع ۰ است و در غیر این صورت خروجی نرون برابر ۱ خواهد شد. عموماً تابع محرک، دامنه خروجی نرون را محدود می‌سازد و به همین علت آن را تابع محدود ساز[۳۰] نیز می‌نامند. خروجی نرون معمولاً برای این گونه توابع، در بازه متناهی[۰,۱] یا[-۱,۱] قرار دارد، که در این حالت، تابع را تابع محرک آستانه‌ای دو مقداره حدی گویند.

برای دانلود متن کامل پایان نامه به سایت  fotka.ir  مراجعه نمایید.