انواع شبکه های عصبی و کاربرد آنها PDF
Document Details
Uploaded by DedicatedChrysoprase92
دانشگاه آزاد اسلامی واحد نجفآباد
2018
شاهین بیرانوند, کیانا صحرائیان
Tags
Related
- Artificial Neural Network Enabled Capacitance Prediction for Carbon-Based Supercapacitors PDF
- Deep Learning and Artificial Neural Networks for Spacecraft Dynamics, Navigation and Control PDF
- 1_1_Artificial Neural Networks.pdf
- Artificial Neural Networks Lecture PDF
- Artificial Neural Networks Lec 6 2024 PDF
- Artificial Neural Networks Lecture 6 2024 PDF
Summary
This document is a paper on different types of artificial neural networks and their applications. It provides a review of these networks and discusses their functionalities and implementation methods. Artificial neural networks (ANNs) are a branch of machine learning that mimics the structure and function of the human brain.
Full Transcript
انواع شبکه های عصبی و کاربرد آنها شاهین بیرانوند D دانشجوی دکتری ،دانشکده مهندسی ،دانشگاه آزاد اسالمی ،واحد...
انواع شبکه های عصبی و کاربرد آنها شاهین بیرانوند D دانشجوی دکتری ،دانشکده مهندسی ،دانشگاه آزاد اسالمی ،واحد نجف آباد ،نجف آباد ،ایران I [email protected] S کیانا صحرائیان دانشجوی دکتری ،دانشکده مهندسی ،دانشگاه آزاد اسالمی ،واحد نجف آباد ،نجف آباد ،ایران f [email protected] 1 e o چکیده i v شبکههای عصبی مصنوعی که امروزه در کاربردهای فراوانی ارزش باالی خود را نشان دادهاند ،بر اساس مدل بيولوژیکی مغز جانوران بوجود آمدهاند.این شبکهها به واقع یك سيستم داده پردازی اطالعات است که دارای h خصوصيات اجرائی خاصی همانند شبکههای عصبی جانوری میباشد که از تعميم یافتن مدلهای ریاضی آن ها به وجود آمدهاند.شبکه های عصبی مصنوعی ،شاخه ای از هوش مصنوعی است که یك روش مناسب r c برای تشخيص الگوهای ناشناخته در داده می باشد که یکی از کاربردهای آن پيش بينی است.برای پيش بينی با استفاده از شبکه عصبی مصنوعی ،دو برنامه وجود دارد یکی مرحله آموزش می باشد و دیگری پيش بينی بر اساس داده آموزش داده شده است .همچنين از الگوریتم پس انتشار برای آموزش و از شبکه عصبی A مصنوعی feedforwardبرای پيش بينی تقاضا استفاده می شود.در این پژوهش در نظر است مروری بر شبکه های عصبی مصنوعی ،کارکرد و روش اجرای آن داشته باشيم. واژگان کلیدی :شبکه عصبی ،پيش بينی ،الگوریتم پس انتشار www.SID.ir مقدمه شبکههای عصبی مصنوعی سيستمهای دیناميکی هوشمند مدل-آزاد مبتنی بر دادههای تجربی هستند که نياز به برقراری هيچ پذیرهای ندارند و با پردازش روی دادههای تجربی ،دانش یا قانون نهفته در ورای دادهها را به ساختار شبکه منتقل میکنند. شبکههای عصبی مصنوعی بر اساس محاسبات روی دادههای عددی یا مثالها قوانين کلی را فرا میگيرند و در مدلسازی ساختار نرو-سيناپتيکی مغز بشر میکوشند (کوین .) 1999 ، در واقع در محاسبات نرونی تالش میشود تا از روش کار مغز تقليد شود که یکی از چندین روش آموزش ماشينی است. شبکههای عصبی پتانسيل ایجاد ویژگیهایی دارند که انسان برای حل مسائل سخت مانند شبيهسازی منطقی ،تکنيكهای I D آناليتيکال سيستمهای خبره و تکنولوژیهای نرم افزاری بکار میبرد.در واقع سيستم شبکه عصبی مصنوعی الهام گرفته شده از مغز و سيستم شبکه عصبی انسان میباشد و مانند مغز انسان از تعداد زیادی نورون تشکيل شده است.این شبکهها مانند مغز S انسان دارای قابليت یادگيری ،حفظ کردن و ایجاد ارتباط مابين دادهها را میباشند.پيادهسازی ویژگیهای شگفتانگيز مغز در یك سيستم مصنوعی (سيستم دیناميکی ساخته دست بشر) هميشه وسوسهانگيز و مطلوب بوده است.محققينی که طی سالها در این f زمينه فعاليت کردهاند بسيارند؛ ليکن نتيجه این تالشها ،صرف نظر از یافتههای ارزشمند ،باور هر چه بيشتر این اصل بوده است 2 o که مغز بشر دست نيافتنی است.این شبکهها در علوم بسياری از جمله فيزیك ،مهندسی برق ،مهندسی محيط زیست ،مهندسی شيمی ،علوم کامپيوتر ،رباتيك و ...کاربرد دارند (استوارت و همکاران.)2003 ، e v -1تشابهات و انتظارات h i با تمام اغراقها در مورد شبکههای عصبی مصنوعی ،این شبکهها اصال سعی در حفظ پيچيدگی مغز ندارند.اکنون موضوع یاد شده را تحت دو عنوان تشابهات و انتظارات مورد بررسی قرار میدهيم. r c -2جداول ،شکل ها و نمودارها )1بلوکهای ساختاری در هر دو شبکة مصنوعی و بيولوژیکی ،دستگاههای محاسباتی خيلی سادهای هستند و عالوه بر این، -2-1تشابهات A نرونهای مصنوعی از سادگی بيشتری برخوردار میباشند. )2ارتباط های بين نرون ها ،عملکرد شبکه را تعيين می کند. اگر چه نرونهای بيولوژیکی از نرونهای مصنوعی که توسط مدارهای الکتریکی ساخته میشوند ،بسيار کندتر هستند (یك ميليون بار) ،اما عملکرد مغز ،خيلی سریعتر از عملکرد یك کامپيوتر معمولی است.علت این پدیده ،بيشتر بخاطر ساختار کامال موازی نرونها میباشد و این یعنی این که «همه نرونها معموال بطور همزمان کار میکنند و پاسخ میدهند».شبکههای عصبی مصنوعی هم دارای ساختار موازی هستند.اگر چه بيشتر شبکه های عصبی مصنوعی هم اکنون توسط کامپيوترهای سری پياده سازی میشوند ،اما ساختار موازی شبکههای عصبی ،این امکان را فراهم می آورد که بطور سخت افزاری ،توسط پردازشگرهای موازی، سيستمهای نوری و تکنولوژی VLSI1پياده سازی شوند (محمودی و همکاران.)2010 ، 1 Very Large Scaled Integration www.SID.ir -2-2انتظارات شبکه های عصبی مصنوعی با وجود این که با سيستم عصبی طبيعی قابل مقایسه نيستند ویژگیهایی دارند که آنها را در بعضی از کاربردها مانند تفکيك الگو ،رباتيك ،کنترل ،و به طور کلی در هر جا که نياز به یادگيری یك نگاشت خطی و یا غير خطی باشد، ممتاز مینمایند.این ویژگیها به شرح زیر هستند: -2-2-1قابلیت یادگیری استخراج نتایج تحليلی از یك نگاشت غير خطی که با چند مثال مشخص شده ،کار سادهای نيست.زیرا نرون ،یك دستگاه غير خطی است و در نتيجه یك شبکه عصبی که از اجتماع این نرونها تشکيل میشود نيز یك سيستم کامال پيچيده و غير خطی I D خواهد بود.به عالوه ،خاصيت غير خطی عناصر پردازش ،در کل شبکه توزیع میگردد.پياده سازی این نتایج با یك الگوریتم معمولی و بدون قابليت یادگيری ،نياز به دقت و مراقبت زیادی دارد.در چنين حالتی سيستمی که بتواند خود این رابطه را S استخراج کند بسيار سودمند به نظر میرسد.خصوصا افزودن مثال های احتمالی در آینده به یك سيستم با قابليت یادگيری ،به مراتب آسانتر از انجام آن در یك سيستم بدون چنين قابليتی است ،چرا که در سيستم اخير ،افزودن یك مثال جدید به منزله 3 o f تعویض کليه کارهای انجام شده قبلی است (اویلينو.)2003 2، قابليت یادگيری یعنی توانایی تنظيم پارامترهای شبکه (وزن های سيناپتيکی) در مسير زمان که محيط شبکه تغيير میکند و شبکه شرایط جدید را تجربه می کند ،با این هدف که اگر شبکه برای یك وضعيت خاص آموزش دید و تغيير کوچکی در شرایط e محيطی آن (وض عيت خاص) رخ داد ،شبکه بتواند با آموزش مختصر برای شرایط جدید نيز کارآمد باشد.دیگر این که اطالعات در iv شبکههای عصبی در سيناپسها ذخيره می گردد و هر نرون در شبکه ،به صورت بالقوه از کل فعاليت سایر نرونها متأثر میشود.در نتيجه ،اطالعات از نوع مجزا از هم نبوده بلکه متأثر از کل شبکه میباشد (ژانگ.)2002 3، -2-2-2پراکندگی اطالعات "پردازش اطالعات به صورت متن" c h آنچه که شبکه فرا میگيرد (اطالعات یا دانش) 4،در وزنهای سيناپسی مستتر میباشد.رابطه یك به یك بين ورودیها و وزنهای سيناپتيکی وجود ندارد.میتوان گفت که هر وزن سيناپسی مربوط به همه ورودیهاست ولی به هيچ یك از آنها بطور منفرد و A r مجزا مربوط نيست.به عبارت دیگر هر نرون در شبکه ،از کل فعاليت سایر نرونها متاثر میباشد.در نتيجه ،اطالعات به صورت متن5توسط شبکههای عصبی پردازش میشوند.بر این اساس چنانچه بخشی از سلولهای شبکه حذف شوند و یا عملکرد غلط داشته باشند باز هم احتمال رسيدن به پاسخ صحيح وجود دارد.اگر چه این احتمال برای تمام ورودیها کاهش یافته برای هيچ یك از بين نرفته است(پرامانيك.)2004 6، 7 -3-2-2قابلیت تعمیم پس از آنکه مثالهای اوليه به شبکه آموزش داده شد ،شبکه می تواند در مقابل یك ورودی آموزش داده نشده قرار گيرد و یك خروجی مناسب ارائه نماید.این خروجی بر اساس مکانيسم تعميم ،که همانا چيزی جز فرآیند درونیابی8نيست به دست میآید. به عبارت روشنتر ،شبکه ،تابع را یاد میگيرد ،الگوریتم را میآموزد و یا رابطه تحليلی مناسبی را برای تعدادی نقاط در فضا به دست میآورد (پرامانيك.)2004 ، 2 . Avelino 3 . Zhang 4. Knowledge 5. Context 6. Pramanik 7 Generalization 8. Interpolation www.SID.ir -4-2-2پردازش موازی هنگامی که شبکه عصبی در قالب سخت افزار پياده میشود سلولهایی که در یك تراز قرار میگيرند میتوانند بطور همزمان به ورودی های آن تراز پاسخ دهند.این ویژگی باعث افزایش سرعت پردازش میشود.در واقع در چنين سيستمی ،وظيفه کلی پردازش بين پردازندههای کوچکتر مستقل از یکدیگر توزیع میگردد(استوارت و همکاران.)2003 ، 9 -5-2-2مقاوم بودن در یك شبکه عصبی هر سلول بطور مستقل عمل می کند و رفتار کلی شبکه ،برآیند رفتارهای محلی سلولهای متعدد است.این ویژگی باعث میشود تا خطاهای محلی از چشم خروجی نهایی دور بمانند.به عبارت دیگر ،سلولها در یك روند همکاری ،خطاهای I D محلی یکدیگر را تصحيح می کنند.این خصوصيت باعث افزایش قابليت مقاوم بودن (تحمل پذیری خطاها) در سيستم میگردد (استوارت و همکاران.)2003 ، S -2-3مدل نورون جان10، نورون کوچکترین واحد پردازشگر اطالعات است ،که اساس عملکرد شبکههای عصبی را تشکيل میدهد (دیميتری و 4 o f .)2013 -2-3-1مدل تک ورودی شکل ( )1ساختار یك نورون تك ورودی را نشان میدهد.اسکالرهای a , pبه ترتيب ورودی و خروجی میباشند. v e h i شکل ( :)1مدل نورون تک ورودی r c ميزان تأثير pروی aبه وسيله مقدار اسکالر wتعيين میشود.ورودی دیگر که مقدار ثابت است ،در جمله بایاس bضرب شده و سپس با wpجمع میشود ،این حاصل جمع ،ورودی خالص n11برای تابع محرک (یا تابع تبدیل) fخواهد بود.بدین ترتيب a f wp b A 12همکاران.) 2005 ، خروجی نرون با معادله زیر تعریف میشود (الکامل و فرمول 1 در مقایسه این مدل تك ورودی با یك نورون بيولوژیکی w ،معادل شدت سيناپس ،مجموعه جمع کننده و تابع محرک ،معادل هسته سلول و aمعادل سيگنال گذرنده از اکسون خواهد بود.نکته ای که باید به آن توجه شود اهميت و تاثير جمله بایاس b است.این جمله را میتوان مانند وزنه wدر نظر گرفت ،با این تصور که ميزان تاثير ورودی ثابت را روی نرون منعکس میسازد. اهميت جمله bبه مرور توضيح داده خواهد شد (الکامل و همکاران.)2005 ، 9. Robustness 1 0 . Dimitri and John 1. Net Input 1 1. Elkamel 2 www.SID.ir باید توجه داشت که پارامترهای w ،bقابل تنظيم هستند و تابع محرک fنيز توسط طراح انتخاب میشود.بر اساس انتخاب fو نوع الگوریتم یادگيری ،پارامترهای w،bورودی و خروجی نرون با هدف خاصی مطابقت نماید(الکامل و همکاران.)2005 ، -2-3-2توابع محرک تابع محرک fمی تواند خطی یا غير خ طی باشد.یك تابع محرک براساس نياز خاص حل یك مسئله – مسئلهای که قرار است به وسيله شبکه عصبی حل شود -انتخاب می شود.در عمل تعداد محدودی از توابع محرک مورد استفاده قرار میگيرند ،که در این جا 13همکاران.)2017 ، چند مورد از مهمترین آن ها اشاره میکنيم (لی و -2-3-2-1تابع محرک خطی :خروجی این تابع برابر ورودی آن است. a f1 (n) n I D فرمول 2 S تابع خطی در شکل ( )2نمایش داده شده است.از نرونهایی با تابع تبدیل فوق ،در شبکههای خاصی مانند آداالین استفاده شده است.اهميت جمله بایاس bرا در شکل ( )2میبينيم.اگر پاسخ نرون ،a ،بر حسب ورودی pرسم شده باشد ،جمله بایاس b f موجب جابه جایی منحنی در فضای ورودی میگردد و به عبارتی موجب می گردد که نرون زیر فضایی از فضای ورودی بایاس o گردد ،که خود انتخاب کلمه بایاس را برای ترم bتوجيه میکند (پرامانيك.)200414، 5 v e h i r c A شکل ( )2تابع محرک خطی 2-3-2-2تابع محرک آستانه ای دو مقداره حدی این تابع در شکل ( )3نشان داده شده است.همان گونه که مشاهده میشود ،مقدار خروجی صفر یا است.اگر آرگومان nکوچکتر b از صفر باشد و یا به عبارتی ورودی pکوچکتر از wباشد ،مقدار تابع ،صفر است و در غير این صورت خروجی نرون برابر خواهد شد.عموما تابع محرک ،دامنه خروجی نرون را محدود میسازد و به همين علت آن را تابع محدود ساز15نيز مینامند.خروجی نرون معموال برای اینگونه توابع ،در بازه متناهی [ ]0 , 1یا [ ]-1 ,1قرار دارد ،که در حالت اخير تابع را تابع محرک آستانهای دو مقداره حدی گویند(پرامانيك.) 2004 ، 1 3 .Li 1 4 .Pramanik 1 5 Hard Limitter or Squash www.SID.ir شکل ( )3تابع محرک آستانهای دو مقداره حدی I D f S 2-3-2-3تابع محرک سیگموئید این تابع با فرمول کلی زیر بيان میشود: 6 a f s ( n) 1 1 e cn , c0 e o (فرمول )3 v شکل این تابع به ازاء C=1در تصویر ( )-رسم شده است.مقدار Cوسعت ناحيه خطی بودن تابع را تعيين می کند.مثال اگر C i خيلی بزرگ باشد ،شکل منحنی به تابع محرک آستانهای دو مقداره حدی نزدیکتر میشود.این تابع در شکلهای عصبی مورد استفاده زیادی دارد که به عنوان مثال ،میتوان به شبکههای عصبی چند الیه با قانون یادگيری پس انتشار خطا ،اشاره کرد. h r c A شکل ( :)4تابع محرک سیگموئید -2-3-3مدل چند ورودی عموما یك نرون بيش از یك ورودی دارد.شکل ( )5یك مدل نرون با Rورودی را ارائه میدهد.بردار ورودی با Pنمایش داده pi i 1,2,...R عناصر بردار Pهستند.مجموعه سيناپسهای ،w1,iعناصر ماتریس وزن Wرا تشکيل می میشود.اسکالرهای w1,i , j 1,...R است.هر عنصر از بردار ورودی Pدر عنصر متناظر از W دهند.در این حالت Wیك بردار سطری با عناصر www.SID.ir ضرب میشود.نرون ،یك جمله بایاس bدارد که با حاصل ضرب ماتریس وزن Wبا بردار ورودی Pجمع میشود(اسيجو16و همکاران.)2009 ، شکل ( :)5مدل چند ورودی یک نرون I D S ورودی خالص ،nمطابق فرمول زیر محاسبه می شود: R n pi w1,i b Wp b f (فرمول )4 i 1 o که در آن: p p1 , p2 ,..., pR ,W w1,1 ,..., w1, R T 7 (فرمول )5 v e شبکههای عصبی را میتوان عموما به شکل ماتریسی مدل نمود.در انتخاب اندیسها قرارداد خاصی به کار رفته است ،که باید بيشتر درباره آن توضيح دهيم.دومين اندیس در نمایش ماتریسها ،مبدأ سيگنال ورودی نرون را نشان میدهد و اندیس اول به h i شماره خود نرون اشاره خواهد داشت.در این حالت چون فقط یك نرون داریم ،ماتریس وزن ،Wبه یك بردار سطری تبدیل میشود.مثال عنصر ، W1,2شدت سيناپس دومين عنصر ورودی به نرون اول را نمایندگی میکند.در حالت کلی هر سطر ماتریس Wمتناظر با یك نرون است. r c یك مدل خالصه شده نرون چند ورودی را میتوان به شکل 6نشان داد: A شکل ( :)6فرم ساده شده نرون با Rورودی همان گونه که در شکل فوق مشاهده میشود ،بردار ورودی P ،با یك ستون عمودی در سمت چپ نمایش داده میشود ابعاد Pدر زیر متغير Pبا R × 1مشخص شده است.این نماد نشان دهنده آن است که بردار ورودی Pدارای Rعنصر است.بردار Pدر یك ماتریس Wبا Rستون ،ضرب می شود.مقدار ثابت 1به عنوان یك ورودی به نرون اعمال شده و در جمله اسکالر بایاس bضرب 1 6 . Assidjo www.SID.ir می شود.ورودی خالص ،nبه تابع تبدیل fاعمال شده و خروجی مربوطه به وجود میآید a.عمال نشان دهندة خروجی شبکه تك نرونی است و در این حالت یك اسکار با ابعاد 1×1است که در شکل مشخص شده است (اولينو.)200317، -2-4ساختار شبکه های عصبی باید توجه داشت که معموال نرونی با ورودیهای زیاد نيز ،به تنهایی برای حل مسائل فنیمهندسی کفایت نمیکند.مثال برای مدلسازی نگاشتهایی که دارای دو خروجی هستند احتياج به دو نرون داریم ،که بطور موازی عمل کنند.در این حالت یك الیه خواهيم داشت که از اجتماع چند نرون تشکيل شده است. -2-4-1شبکه تک الیه I D یك شبکه تك الیه با Sنرون در شکل نشان داده شده است.شکل مذکور را میتوان به فرم فشرده تصویر( )7هم نمایش داد. ورودی شبکه با بردار Pو خروجی آن با بردار aن شان داده شده است.باید توجه داشت که هر یك از ورودیها به همه نرونها S متصل شده است.ماتریس Wنيز در این حالت دارای Sسطر و Rستون میباشد.همان گونه که در شکل مشاهده میشود ،الیهها شامل ماتریس وزن ،جمع کنندهها ،بردار بایاس ( bدارای Sعنصر) و تابع تبدیل fهستند(ژانگ.)2002 ، 8 o f v e h i r c A شکل ( :)7شبکه تک الیه با Sنرون -2-4-2شبکه های چند الیه به بردار a f W pb در شبکههای تك الیه ،بردار ورودی ( )pتوسط نرونهای الیه (عناصر محاسباتی) ،طبق رابطه خروجی مرتبط میشود.این شبکه شکل سادهای از شبکههای پيشخور18میباشد. در این بخش ،ایده شبکههای پيشخور را به شبکههای چند الیه تعميم میدهيم.هر الیه ماتریس وزن ،Wبردار بایاس ، bبردار ورودی خالص nو بردار خروجی مختص خود را دارد.جهت تمایز متغيرهای فوق و این که کدام متغير به کدام الیه تعلق دارد، نياز داریم که عالمت دیگری را هم به متغيرهای فوق تخصيص دهيم.از این رو از باالنویس برای مشخص نمودن الیه استفاده می کنيم ،بنابراین ماتریس وزن را برای الیه اول با W1مشخص می نمایيم.با به خاطر سپردن این نماد ،یك شبکه پيشخور دو الیه 1 7 . Avelino 1 8 . Feedforward www.SID.ir را می توان به شکل ( )8ترسيم نمود.همان گونه که از شکل پيداست ،تعداد Rورودی و تعداد S1نرون در الیه اول و تعداد S2 نرون در الیه دوم در شبکه چند الیه پيشخور موجود است (ژانگ.)2002 ، شکل ( :)8شبکه پیشخور دو الیه I D S -2-4-3الیه خروجی الیهای که خروجی آن ،نهایی شبکه باشد ،به الیه خروجی موسوم است.الیههای دیگر به الیههای ميانی موسومند.شبکه موجود 9 o f در شکل ( )-فرم ساده شده یك شبکه عصبی پيشخور را با دو الیه ميانی نمایش میدهد.در این جا الیه خروجی با ماتریس وزن ، W3بردار بایاس b3و تابع محرک f3مشخص می شود.الیه ميانی اول با ماتریس وزن ،W1بردار بایاس b2و تابع محرک f1و الیه ميانی دوم با ماتریس وزن ،W2بردار بایاس b2و تابع محرک f2مشخص میشوند (ژانگ.)2002 ، شبکههای عصبی چند الیه نسبت به شبکه های عصبی تك الیه دارای توانایی بيشتری هستند.همچنين شبکههای عصبی پيشخور v e دو الیه با توابع زیگموئيد در الیه اول ،قادرند هر تابعی را با دقت دلخواه تقریب بزنند ،در حالی که شبکههای عصبی تك الیه از چنين توانائی برخوردار نيستند. h i به نظر میرسد که تعداد درجات آزادی (مثال تعداد ورودیها ،خروجیها و نرونهای هر الیه) برای طراحی یك شبکه چند الیه پيشخور زیاد باشد.ولی باید توجه داشت که تعداد ورودیهای شبکه ( )Rو تعداد خروجیهای شبکه ( ،)Sبر اساس مسئله خاص c که شبکه قرار است حل کند ،به دست می آیند.به عبارت دیگر این دو پارامتر جزء پارامترهای آزاد طراح نيستند ،بلکه انتخاب آنها r بستگی دارد به مسئلهای که در حال بررسی است.مثال اگر میخواهيم سيستمی را که دارای چهار ورودی و سه خروجی است، توسط شبکه های عصبی تقریب بزنيم ،باید یك شبکه عصبی انتخاب کنيم که دارای چهار ورودی ( )R=4و سه خروجی ()S=3 A باشد (به عبارتی تعداد نرون های الیه خروجی برابر باشد).عالوه بر این ،ویژگیهای خروجی مطلوب شبکه نيز ،در انتخاب نوع تابع محرک الیه خروجی تاثير دارد.مثال اگر خروجی شبکه تنها یا -باشد ،بهتر است تابع محرک الیه خروجی ،تابع متقارن آستانهای دو مقداره حدی باشد.بنابراین میتوان گفت که ساختار شبکههای عصبی تك الیه پيشخور را ،کامال از روی ویژگیهای مسئله مورد بررسی ،میتوان مشخص نمود(ژانگ.)2002 ، در مورد شبکه عصبی چند الیه ،مطالب فوق صادق نيست.یعنی از روی ویژگیهای مسئله مورد بررسی ،نمیتوان اطالعاتی در مورد تعداد نرون های الیه ميانی کسب نمود.در واقع تعداد اندکی از مسائل وجود دارد که برای آنها با توجه به مسئله خاص ،امکان پيشبينی تعداد نرونهای الیه ميانی وجود داشته باشد. 19 -2-5شبکههای پسخور یا برگشتی تفاوت شبکههای پسخور با شبکههای پيشخور این است که در شبکه های پسخور ،حداقل یك سيگنال برگشتی از یك نرون به همان نرون یا نرونهای همان الیه و یا الیه قبل وجود دارد.جهت نمایش این گونه شبکهها ،بلوک ساده زیر تعریف میکنيم: 1 Recurrent or Feedback 9 www.SID.ir شکل ( :)9بلوک تاخیر زمانی شکل فوق معرف تأخير زمانی یك مرحلهای است.به عبارت واضحتر خروجی بلوک ( )aدر لحظه زمانی ،kبرابر ورودی بلوک در I D یك واحد زمانی عقبتر (یعنی مقدار aدر لحظه ) k-1است.واضح است که برای بدست آوردن رابطه ورودی و خروجی بلوک فوق، باید مقدار اوليه خروجی در لحظه نخست (صفر) معلوم باشد.این مقدار اوليه با ) a(0در شکل فوق نشان داده شده است.اکنون f S میتوانيم شبکه های پسخور را معرفی کنيم.یك نوع متداول از شبکه پسخور گسسته در حوزه زمان در شکل ( )10ترسيم شده 20همکاران.)2007 ، است (ایوانا و 10 e o i v c h شکل ( :)10شبکه پسخور A r برای این شکل خاص ،بردار ورودی ،pنشان دهنده شرایط اوليه شبکه است (به عبارتی .) a (0)=pرفتار شبکه به وسيله معادله ak Satl W ak l b , k 1,2 زیر بيان میشود: a0 p (فرمول )6 شبکه های پسخور از توانایی بالقوه بيشتری نسبت به شبکههای پيشخور برخوردارند و بهتر میتوانند رفتار مربوطه به ویژگیهای زمانی سيستمها را نشان دهند. 2 . Ivana 0 www.SID.ir جدول ( :)1توابع محرک با عالئم قراردادی (استوارت و همکاران) ، عالئم قراردادی تعریف تابع نام ردیف a 0 , n 0 آستانهای دو مقداره 1 a 1 , n 0 a 1 , n0 a 1 , n 0 I D آستانهای دو مقداره متقارن 2 an f S خطی 3 11 a 1 , n1 e a n , 1 n 1 o آستانهای خطی متقارن 4 i v a 1 , n1 c h a 0 , n 0 a n , 0 n 1 آستانهای خطی 5 A r a 1 , n1 a 1 سيگموئيدی 6 1 e n e n e n a n تانژانت هيپربوليکی 7 e e n a 0 , n 0 خطی مثبت 8 an , n0 www.SID.ir -2-6فرآیند یادگیری سيستمهای یادگيری سيستمهایی هستند که صرفاً با مشاهده عملکردشان ،می توانند رفتارهایشان را جهت دستيابی به هدف و مقصدی خاص بهبود بخشند.اگر مقاصد و اهداف بطور کامل تعریف شده باشند آنگاه دیگر به فرآیند یادگيری احتياجی نيست. زمانی که به پروسه یادگيری نياز است که اطالعات کامل در مورد اهداف موجود نباشد ،جایی که میدانيم به علت عدم قطعيت در شرایط محيطی ،سيستمی که دارای خواص و پارامترهای ثابت باشد نمیتواند بطور کامل عمل کند (اولينو.)2003 ، رفتار سيستمهای یادگير21توسط الگوریتمهای بازگشتی بيان می شود.به همين خاطر به این الگوریتمها قوانين یادگيری میگویند I D و عموماً تقریبی است از هدف خاص که مقصود پروسه یادگيری میباشد بهينه گردد و این کار تنها راه جبران نمودن نقصان اطالعات اوليه میباشد. S به پروسه یادگيری نياز است چون اطالعات (ارتباط ورودی و خروجی) کامالً مشخص نيستند.می دانيم که تجربه ها در مسير زمان حاصل می شوند و به عبارت دیگر هيچ کس آینده خود را تجربه نکرده است.ميزان یادگيری ما به درجه کامل بودن 12 22یادگيری بدون ناظر 23. o f اطالعات قبلی ما بستگی دارد.در حالت کلی دو نوع یادگيری موجود است :یادگيری با ناظر و در یادگيری با ناظر بر این است که در هر مرحله تکرار الگوریتم یادگيری ،جواب مطولب سيستم یادگيرنده از قبل ،آماده است ،و به عبارتی الگوریتم یادگيری به جواب واقعی و مطلوب دسترسی دارد.مثالً فرض کنيد سيستم یادگير می خواهد نگارش e y xرا بياموزد.اگر به سيستم مقدار /را بدهيم جواب مطلوب /را به دست می دهد.بطور کل جوابی را که سيستم یادگيری 2 i v با وضعيت فعلی پارام ترهایش می دهد به عنوان جواب واقعی در نظر می گيریم.در این جا الگوریتم یاد گيرنده که پارامترهای سيستم یاد گيرنده را تنظيم می کند ،هم به جواب مطلوب /و هم به جواب واقعی دسترسی دارد.به عبارتی به خطای یادگيری که h همان خطای بين مقدار مطولب و مقدار واقعی می باشد دسترسی خواهد داشت(استوارت و همکاران.)2003 ، در نگاه اول به نظر می رسد که یادگيری بدون ناظر بی فایده و غير ممکن باشد ،با طرح این سوال که "چگونه می توانيم یك r c سيستم یاد گيرنده را آموزش دهيم اگر ندانيم که این سيستم چه کاری قرار است انجام دهد؟" مثالً در مسئله گروه بندی ،هر گروه باید با یك ویژگی مشخص شود.به نظر نمی آید که یك سيستم یادگير به تنهایی بتواند مشخصههایی را که موجب گروهبندی میشوند بيابد و ویژگی های دیگر را نادیده انگارد.به عبارتی دیگر سيستم آموزش پذیر نمیتواند حدس بزند که کدام A گروه و یا طبقه مورد نظر فردی است که مسئله الگوبندی را ارزیابی میکند.خواهيم دید که بيشتر این الگوریتمهای بدون ناظر عمل خوشه بندی24را انجام میدهند.آنها می آموزند که الگوهای ورودی را به تعداد متناهی از گروه ها تقسيم بندی کنند.باید توجه داشته باشيم که در این حالت فرد طراح یا معلم است که هدف و مقصد نهایی ،یعنی چيزی را که باید به آن رسيد مشخص می کند.و به عبارتی یادگيری بدون معلم مفهوم نادرستی است که عموماً به حای یادگيری بدون ناظر مورد استفاده قرار میگيرد. خالصه در فرآیند یادگيری سه مورد زیر باید به ترتيب انجام شوند(محمودی و همکاران.)2010 ، -سيستم یادگيرنده توسط محيط تحریك شود. -قانون یادگيری ب ا رجوع به نتيجه تحریك پارامتر های سيستم یادگيری را تغيير دهد. )3سيستم یادگيرنده به خاطر تغييراتی که در ساختار داخلی آن اتفاق افتاده است ،پاسخ مناسبتری به محيط بدهد. 2 1 Learning Systems 2 2 Supervised Learning 2 3 Unsupervised Learning 2 4 Clustering www.SID.ir -2-6-1معادله یادگیری در حالت کلی دیدیم که یك نرون با یك بردار W w1, w2 ,...wR , bو بردار ورودی p p1,..., pR ,1متناظر است.هر نرون توانایی T T دارد که بردار وزن خود را بر اساس بردار ورودی و یك سيگنال دیگر موسوم به سيگنال معلم (در حالت کلی) یا سيگنال خطا (در یادگيری با ناظر) تغيير و بهبود دهد.در یادگيری بدون ناظر سيگنال معلم تغيير بردار حالت25خود نرون است. در حالت ،کلی محيط یا منبع اطالعاتی نرون را میتوانيم به صورت زیر مشخص کنيم: برای یادگيری با ناظر P, t, prob p, t I D برای یادگيری بدون ناظر P, prob p, s که در آن pبردار ورودی t ،جواب مطلوب prob ،تابع توضيع احتمال و sبردار حالت نرون است.بطور هندسی میتوانيم شکل ساده ( )11را داشته باشيم. w wt .l. pt f S قانون کلی یادگيری را برای یك نرون میتوان به صورت زیر نوشت: حالت پيوسته: o (فرمول )7 حالت گسسته: 13 wk l j wk .l. pk e (فرمول )8 که در این فرمول برادر وزن wمتناسب با حاصل ضرب برادر ورودی pدر سيگنال یادگيری lتغيير می کند و همزمان بطور i v خيلی کند کاهش می یابد ,.نيز مقادیر ثابت مثبت کوچکتر از lهستند.در حالت کلی سيگنال یادگيری تابعی از t,w,p (برای حالت یادگيری با ناظر) است.انواع قوانين یادگيری که ساختار کلی آنها گفته شد از قبيل همينگ ،رقابتی ،پس انتشار خطا h و غيره در فصول مختلف بطور کامل بحث خواهند شد.در ادامه خواهيم دید که قانون یادگيری پرسپترون همان قانون فوق برای حالت گسسته است ،جایی که oو سيگنال یادگيری برابر با سيگنال خطا l t aاست. c A r شکل ( :)11مدل یادگیری نرون -2-6-2یادگیری شبکه تمامی تواناییهای حيرت انگيز شبکههای عصبی بيولوژیکی انسان ،بطور مادرزادی ساخته نشدهاند.آن بخش از تواناییهای انسان از قبيل شناسایی ،محاسبه ،تفکرات تجریدی ،مهارت های فردی و هنری در طول زمان در انسان تکوین مییابند و از بدو تولد در انسان نهاده نشدهاند.یك روش یا دگيری در طول زمان ،شبکه عصبی را طوری تنظيم میکند که بر اساس اطالعات جدید و مشاهده عملکرد فعلی ،رفتار خود را بهبود بخشد ،مثالً چهره جدیدی را در ذهن بسپارد بدون این که چهرههای قبلی را از یاد ببرد (استوارت و همکاران.)2003 ، 2 5 State www.SID.ir در دهه چهل و بخصوص دهه پنجاه از قرن بيستم محققان تالش میکردند که ساختار شبکههای عصبی را با قانون یادگيری کامل کنند.قانون یادگيری یعنی این که پارامترهای شبکه بر اساس ارائه الگوها تنظيم شود.سرانجام در سال فرانك روزنبالت استاد روانشناسی دانشگاه کرنل آمریکا از طریق آناليز ریاضی و شبيه سازی کامپيوتری ،نشان داد که نوعی از شبکههای عصبی موسوم به پرسپترون را می توان برای حل مسئله طبقه بندی الگوها آموزش داد.نرونها در این شبکه شبيه نرونهایی بودند که مك کلوث و پيتز ارائه داده بودند(اولينو و همکاران.)2003 ، کار مهم روزنبالت در معرفی این شبکه نبود ،بلکه ابداع قانون یادگيری برای شبکه پرسپترون بود.او قانون یادگيری ساده و اتوماتيکی را مطرح نمود که قادر بود از هر شرط اوليه که شبکه انتخاب میکرد به جواب مسئله (در صورت وجود) همگرا شود.در I D اواسط دهه شصت روزنبالت عالقهمند به توصيف بيولوژیکی پروسه فراگيری (تاثير متقابل نرون شناسی و محاسبات مصنوعی نرون ی) شد.بطوری که در سال او تالش می کرد تا توضيح دهد چگونه رشته ای از تجربههای حسی پس از دورهای از زندگی S می توانند به یاد آورده شوند.متاسفانه شبکه پرسپترون روزنبالت از حل بسياری از مسائل و طبقه بندی الگوهایی که در فضای ورود بطور خطی از هم جداناپذیر ناتوان بود.در دهه هشتاد قرن بيستم این محدودیتها توسط الگوریتم یادگيری جدیدی مرسوم 14 f به پس انتشار خطا ،برای شبکههای عصبی پرسپترون چند الیه مرتفع شد(محمودی و همکاران.)2010 ، o در این جا برای یادگيری یك نرون ،محيط نرون ثابت در نظر گرفته شده است.اما زمانی که یك شبکه عصبی رفتار خود را به شکل اشتراکی ،نه بطور مستقل آن گونه که برای یك تك نرون دیدیم تغيير و بهبود میبخشد ،هر نرون بردار وزنهای متناظر e خود را مطابق با قانون یادگيری خاص خودش تغيير می دهد.محيط منبع اطالعاتی هر نرون در این حالت دیگر ثابت نيست ،بلکه v با تغيير وزنهای نرونهای دیگر تغيير می کند ،چون محيط منبع اطالعاتی یك نرون قائم به ذات نيست ،بلکه وابسته به رفتارهای i نرونهای دیگر در شبکه است.بنابراین معادالت زیر را میتوانيم برای نرونهای یك شبکه بنویسيم: حالت پيوسته: wij wij t wij t c h (فرمول )9 ترم wij r wij k l l wij k wij k A حالت گسسته: w (فرمول )10 که در آن ijوزن ترم اصالحی میباشد.سيناپس است که jامين عنصر بردار ورودی را به نرون iام متصل میکند و اصالحی میباشد. -2-6-3قانون یادگیری پرسپترون ()SLPR26 در این نوع یادگيری محرک ،پاسخ درست ،ورودی و خروجی مطلوب ،الگو و این که الگو به چه طبقهای تعلق دارد در اختيار میباشند.در این نوع یادگيری ها عمالً خطای یادگيری در اختيار است و از این رو در عمل مناسب است که در هر مرحله ،از خطای یادگيری در اختيار است و از این رو در عمل مناسب است که در هر مرحله ،از خطای یادگيری جهت تنظيم پارامترهای شبکه طوری استفاده شود که در صورت اعمال دوباره همان ورودی خطای یادگيری کمتر باشد.قانون یادگيری SLPRفقط برای شبکه عصبی تك الیه ای ،متشکل از نرونهای با تابع تبدیل از نوع آستانه حدی دو مقداره SSIGNیا ( )Hard Limiterبه وجود آمدهاند.شکل زیر یك شبکه پرسپترون تك الیه را نشان میدهد . 2 6 Single Layer Perceptron Rule www.SID.ir شکل ( :)12پرسپترون تک الیه I D Wi pi w2 p2 b 0 f S برای این که تصویر روشنتری از شبکه پرسپترون تك الیه فوق داشته باشيم ،حالتی را در نظر میگيریم که در آن S=1و R=2است.این نرون با معادله زیر تبيين میشود: (فرمول )11 o 27 -4-6-2الگوریتم پس انتشار خطا این الگوریتم که در سال 1986توسط روملهارت و مكکليالند پيشنهاد گردید ،در شبکههای عصبی پيشرو ()Feed-Forward 15 v e مورد استفاده قرار میگيرد.پيشرو بودن به این معناست که نرونهای مصنوعی در الیههای متوالی قرار گرفتهاند و خروجی (سيگنال) خود را رو به جلو میفرستند.واژه پسانتشار نيز به معنای این است که خطاها به سمت عقب در شبکه تغذیه میشوند تا i وزنها را اصالح کنند و پس از آن ،مجدداً ورودی مسير پيشرو خود تا خروجی را تکرار کند.روش پسانتشار خطا از روشهای با ناظر است؛ به این مفهوم که نمونههای ورودی برچسب خوردهاند و خروجی مورد انتظار هر یك از آنها از پيش دانسته است.لذا h خروجی شبکه با این خروجیهای ایدهآل مقایسه شده و خطای شبکه محاسبه میگردد.در این الگوریتم ابتدا فرض بر این است که r c وزنهای شبکه به طور تصادفی انتخاب شدهاند.در هر گام خروجی شبکه محاسبه شده و بر حسب ميزان اختالف آن با خروجی مطلوب ،وزنها تصحيح میگردند تا در نهایت این خطا مينيمم شود.در الگوریتم پسانتشار خطا ،تابع تحریك هر عصب به صورت جمع وزندار ورودیهای مربوط به آن عصب درنظر گرفته میشود.بدین ترتيب با فرض این که wوزنهای متناظر بين الیه n A n j ( p , w ) p i w j ,i i 0 28همکاران.)2015 ، ورودی و الیه بعد باشد میتوان نوشت (لوکاس و (فرمول )12 به وضوح میتوان دید که خروجی تابع تحریك عصب فقط به ورودی و وزنهای متناظر بستگی دارد.با فرض اینکه تابع خروجی، سيگموئيد باشد میتوان خروجی نرون jام را به صورت زیر نوشت: 1 a j ( p, w ) sgm(n j ( p, w )) (فرمول )13 1 e ) n j ( p,w تابع سيگموئيد به ازای اعداد منفی بزرگ ،بسيار نزدیك به صفر است و برای اعداد مثبت بزرگ ،مقداری بسيار نزدیك به 1دارد و در این بين به طور هموار تغيير می کند به نحوی که در x 0دقيقاً از حد واسط بازه [ ]1, 0یعنی /عبور می کند.همچنين با دقت در فرمول ( )13در مییابيم که خروجی فقط به مقدار تابع تحریك بستگی دارد که به نوبه خود به ورودی و وزنها مرتبط 2 )Back Propagation (BP 7 2 Lukas 8 www.SID.ir میشود.لذا برای تغيير خروجی باید وزنها تغيير کنند.آنچنان که پيش از این نيز بيان شد ،هدف فرآیند آموزش ،رسيدن به خروجی مطلوب (یا نزدیك به مطلوب) است.بدین ترتيب ابتدا باید تابع خطای هر نرون را تعریف کنيم.این خطا از اختالف خروجی واقعی شبکه و خروجی مورد انتظار به صورت زیر بدست میآید: E j ( p, w , t j ) ( a j ( p , w ) t j ) 2 (فرمول )14 ) (t ) (a انتخاب مربع تفاضل بين خروجی واقعی jو خروجی مطلوب jاز چندین جنبه قابل بحث است؛ اوالً با استفاده از توان دوم ،مقدار خطا همواره مثبت خواهد بود؛ ثانياً اگر اختالف بين خروجی واقعی و مطلوب زیاد باشد ،توان دوم منجر به بزرگتر شدن D این عدد میشود و بالعکس اگر اختالف بين خروجی واقعی و مطلوب کم باشد ،توان دوم منجر به کوچکتر شدن آن میگردد.بر این I اساس میتوان خطای کلی شبکه را به فرم مجموع خطای تك تك عصبهای الیه خروجی نوشت.لذا داریم (لو و ناکائی.)200129، ) E ( p , w , t ) E j ( p , w , t j ) ( a j ( p , w ) t j j j 2 f S (فرمول )15 حال بایستی به بررسی ارتباط خطا با ورودیها ،وزنها و خروجیها بپردازیم.برای این کار روشهای متفاوتی وجود دارد که برخی o از مهمترین آنها عبارتند از: )1روش گرادیان شيب ()Gradient Descent 16 e )2روش نيوتون )3روش اندازه حرکت ()Momentum v h i )4روش انتروپی متقابل ()Cross Entropy )5روش Levenberg-Marquarlt جهت توقف تکرار الگوریتم BPاز دو شاخص زیر بطور همزمان میتوان استفاده نمود: r c الف) ميانگين مربعات خطا در هر سيکل یا ( Epochجمع مربعات خطا برای تمامی الگوهای یادگيری) کمتر از مقدار از پيش تعيين شده ای باشد و یا اینکه فرم تغييرات در پارامترهای شبکه پس از هر سيکل خيلی کوچك باشد.باید توجه داشت که هر سيکل برابر با تعداد تکرار ،به اندازه تعداد نمونههای یادگيری میباشد.مثال اگر تا دادههای نمونه یادگيری موجود است ،سيکل A برابر با مرحله تکرار میگردد. ب) ترم گرادیان خطا خيلی کوچك باشد؛ ترم گرادیان خطا از یك مقدار از پيش تعيين شدهای کوچكتر گردد (محمودی و 30 همکاران.)2010 ، -2-7شبکههای عصبی پرسپترون شبکه های عصبی پرسپترون ،به ویژه پرسپترون چند الیه ،در زمره کاربردیترین شبکههای عصبی میباشند.این شبکهها قادرند با انتخاب مناسب تعداد الیهها و سلول های عصبی ،که اغلب زیاد هم نيستند ،یك نگاشت غير خطی را با دقت دلخواه انجام دهند. این همان چيزی است که در بسياری از مسائل فنی مهندسی به عنوان راه حل اصلی مطرح میباشد (ژانگ.)2010 ، 31 -2-8شبکههای پرسپترون چند الیه در شکل ( ) 13شبکه پرسپترون سه الیه ارائه گردیده است.که مدل مورد نظر در تحقيق حاضر می باشد.همان گونه که در شکل ( )13مالحظه میشود هر نورون در هر الیه ،به تمامی نورونهای الیه قبل متصل میباشد.به چنين شبکه هایی ،شبکه های کامالً 2 . Lou and Nakai 9 3 0 Perceptron 3 1 )Multy Layer Perceptron (MLP www.SID.ir مرتبط گویند.شبکه مذکور ،عمالً از به هم پيوستن سه شبکه پرسپترون تك الیه ایجاد شده است.یکی الیه خروجی و دو قسمت دیگر الیههای ميانی ناميده میشوند.خروجیهای الیه اول ،بردار ورودی الیه دوم را تشکيل میدهند ،و به همين ترتيب بردار خروجی الیه دوم ،ورودیهای الیه سوم را میسازند ،و خروجیهای الیه سوم ،پاسخ واقعی شبکه را تشکيل میدهند.به عبارتی روشنتر ،روند جریان سيگنالی در شبکه ،در یك مسير پيشخور صورت میگيرد (از چپ به راست از الیهای به الیه دیگر) (لوکاس و همکاران.)2015 ، همان گونه که قبال گفته شد ،هر الیه میتواند از تعدادی نرون های مختلف با توابع تبدیل متفاوت برخوردار باشد؛ یعنی مدلهای نرونها در الیهها میتوانند متفاوت در نظر گرفته شوند.اندیسهای فوقانی مبين شماره الیه و اندیسهای تحتانی مبدأ و مقصد 2 نمایش داده می شود.جهت بيان ساختار یك شبکه چند الیه ،از نمایش عبارتی کوتاه زیر استفاده I D اتصال سيناپسی را مشخص میکنند ،بنابراین ماتریس وزن برای الیه دوم با wو وزنه اتصالی بين نرون iام از الیه اول و ورودی wi1. j jام از بردار ورودی با ) (R S 1 S 2 S 3 f S i میکنيم: (فرمول )16 17 e o جایی که Rتعداد ورودیها و Sتعداد نرونها در الیه iام میباشند. در شبکه MLPعموماً دو نوع سيگنال استفاده میشوند که بهتر است از هم تميز داده شوند؛ یك نوع سيگنالهایی هستند که در مسير رفت حرکت می کنند (از سمت چپ به راست شبکه) و دسته دیگر سيگنالهایی هستند که در مسير برگشت حرکت v می کنند (از سمت راست به چپ).به دسته اول سيگنالهای تابعی و به دسته دوم سيگنالهای خطا گویند (اژار و همکاران، i دليل این نامگذاری این است که سيگنالهای دسته نخست ،بر اساس تابعی از ورودیهای هر نرون و پارامترهای شبکه متناظرش h با آن محاسبه میشوند و سيگنال های دسته دوم به خاطر منشعب شدن از سيگنال خطا و توزیع برگشت از الیه خروجی به .)2009 r c الیههای دیگر شبکه به سيگنالهای خطا موسومند ،و خالصه اینکه سيگنالهای تابعی در مسير رفت در شبکهای از الیهای به الیه دیگر توزیع میشود و سيگنالهای خطا در مسير برگشت در شبکه منتشر میگردند (اسيجو.)2009 ، هر نرون در شبکه MLPدو محاسبه انجام می دهد.درمحاسبه اول سيگنال تابعی و در محاسبه دوم تخمين لحظهای از گرادیان A منحنی خطا را نسبت به پارامترهایی که ورودی نرون را به خود نرون متصل میکند ،در اختيار قرار میدهد.این گرادیانها جهت پخش سيگنالهای خطا در شبکه مورد نياز میباشند. نتیجه گیری با عنایت به اینکه شبکه های عصبی از دو ویژگی اساسی یادگيری یا نگاشت پذیری بر اساس ارائه داده های تجربی (قدرت و توانایی تعميم پذیری) و ساختار پذیری موازی برخوردار می باشند ،این شبکه ها برای سيستم های پيچيده که مدلسازی این سيستم ها یا ميسر نيست و یا به سختی انجام می شود بسيار مناسب می باشند.شبکه های عصبی مصنوعی به علت استفاده از فرمول های ثابت شده با حداقل خطا ،صحت و اعتبار بيشتری دارند.با توجه به کاربرد های روز افزون شبکه های عصبی تالش های بسياری در راستای رفع نواقص این شبکه ها انجام شده است .یکی از دالیلی که باعث محدود شدن کاربرد شبکه های عصبی می شود مرحله آموزش می باشد .برای آموزش شبکه های عصبی همواره نياز به گروه بزرگی از اطالعات ورودی می باشد .در عين حال تنظيم پارامتر های آموزش شبکه کاری بسيار دشوار بوده و نياز به تجربه دارد .همچنين مشکالتی مانند مينيمم های محلی و همگرایی به یك پاسخ نامناسب ،حفظ کردن اطالعات ورودی به جای یادگيری آنها ،مهمتر از همه نياز به زمان زیاد www.SID.ir.برای مرحله آموزش از مشکالت شبکه های عصبی می باشد منابع 1- Assidjo, N., Malhotra, R., and Malhotra, D. (2009) A Hybrid Neural Network Approach for Batch Fermentation Simulation, Australian Journal of Basic and Applied Sciences, 3(4): pp. 3930-3936. 2- Avelino, C., Yong-Qi, C., and Xing-Hua., B. (2003) Neural networks for modelling of kinetic reaction data applicable to catalyst scale up and process control and optimisation in the frame of combinatorial catalysis, Applied Catalysis A: General 254: pp. 133–145. D 3- Azhar, A., El-sayed, D., and Peter, T. (2009) Production of Polyhydroxybutyrate (PHB) Using Batch and I Two-stage Batch Culture Strategies, Australian Journal of Basic and Applied Sciences 3(2): pp. 617-627. 4- Dimitri P. Bertsekas., and John N. Tsitsiklis. (2013). Neuro-Dynamic Programming, Athena Scientific, Ch. 1-3. to methanol, Chemical Engineering Journal (115), pp. 113–120. f S 5- Elkamel, H., Desai, V. S., and Crook, J. N. (2005) Hybrid artificial neural network—First principle model formulation for the unsteady state simulation and analysis of a packed bed reactor for CO2 hydrogenation 6- Ivana, C., Mantovaneli, L., and Hall, M. A. (2007). Hybrid neural network model for alcoholic o fermentation processes with multiple stages, 2nd Mercosur Congress on Chemical Engineering. 7- K Pramanik, (2004) Use of Artificial Neural Networks for Prediction of Cell Mass and Ethanol 18 Concentration in Batch Fermentation using Saccharomyces Cerevisiae Yeast, IE (I) Journal, (85). e 8- Kevin, Gurney. (1999) an Introduction to Neural Networks, UCL Press, Ch. 1-4, 6, 8. 9- Li, Pin Tan., and Kuan, Yew Wang. (2017) A Neural Network Approach for Predicting Manufacturing v Performance using Knowledge Management Metrics, Cybernetics and Systems Journal, 48(4). i 10- Lukas, F., Zuzana, S., Maria, D., Beata, H. and Tatian, P. (2015) Application of Neural Network Models in Modelling Economic Time Series with Non-Constant Volatility, Business Economics and Management 2015 Conference, BEM2015, Procedia Economics and Finance, (34), pp. 600 – 607. h 11- Mahmoudi, M., Najafpour, Gh., Sharifzadeh, M., and Eisazadeh, H. (2010) Kinetic model for polyhydroxybutyrate (PHB) production by Hydrogenophaga pseudoflava and verification of growth c conditions, African Journal of Biotechnology, 9(21): pp. 3151-3157. r 12- Stuart, J. R., and Peter, N. (2003) Artificial Intelligence: A Modern Approach, Pearson Education, Inc., Ch. 7. 13- Zhang, W.J. (2002) An artificial neural network approach to mechanism kinematic chain isomorphism A identification, Mechanism and Machine Theory (37), pp. 549–551. www.SID.ir