Podcast
Questions and Answers
پارامترهای w و b غیر قابل تنظیم هستند.
پارامترهای w و b غیر قابل تنظیم هستند.
False (B)
تابع محرک تنها میتواند غیر خطی باشد.
تابع محرک تنها میتواند غیر خطی باشد.
False (B)
خروجی تابع خطی برابر با ورودی آن است.
خروجی تابع خطی برابر با ورودی آن است.
True (A)
تابع محرک آستانهای دو مقداره حدی تنها میتواند خروجیهای مثبت داشته باشد.
تابع محرک آستانهای دو مقداره حدی تنها میتواند خروجیهای مثبت داشته باشد.
تابع محرک سیگموئید به صورت غیرخطی عمل میکند.
تابع محرک سیگموئید به صورت غیرخطی عمل میکند.
نرونها معمولاً تنها یک ورودی دارند.
نرونها معمولاً تنها یک ورودی دارند.
ضریب b تنها بر اساس ورودیها تعیین میشود.
ضریب b تنها بر اساس ورودیها تعیین میشود.
مدل نرون چند ورودی میتواند به صورت ماتریسی نمایش داده شود.
مدل نرون چند ورودی میتواند به صورت ماتریسی نمایش داده شود.
فرمول ورودی خالص یک نرون معروف به عنوان n نمایش داده میشود.
فرمول ورودی خالص یک نرون معروف به عنوان n نمایش داده میشود.
تعداد توابع محرک مورد استفاده در عمل بسیار زیاد است.
تعداد توابع محرک مورد استفاده در عمل بسیار زیاد است.
خروجی نرونها به حالت متناهی محدود میشود.
خروجی نرونها به حالت متناهی محدود میشود.
مدل نرون چند ورودی تنها با یک اسکریپت ساده قابل توصیف است.
مدل نرون چند ورودی تنها با یک اسکریپت ساده قابل توصیف است.
مقدار C در تابع محرک سیگموئید وسعت ناحیه خطی بودن تابع را تعیین میکند.
مقدار C در تابع محرک سیگموئید وسعت ناحیه خطی بودن تابع را تعیین میکند.
یک شبکه تک الیه برای حل مسائل پیچیده کافی است.
یک شبکه تک الیه برای حل مسائل پیچیده کافی است.
در یک شبکه تک الیه، ورودیها به همه نرونها متصل هستند.
در یک شبکه تک الیه، ورودیها به همه نرونها متصل هستند.
یک شبکه پیشخور فقط شامل یک الیه نرون است.
یک شبکه پیشخور فقط شامل یک الیه نرون است.
ماتریس وزن در شبکههای تک الیه دارای S سطر و R ستون است.
ماتریس وزن در شبکههای تک الیه دارای S سطر و R ستون است.
هر نرون در یک شبکه عصبی به ورودی خالص n متصل میشود.
هر نرون در یک شبکه عصبی به ورودی خالص n متصل میشود.
یک شبکه تک الیه تنها برای مدلسازی نگاشتهایی با یک خروجی کافی است.
یک شبکه تک الیه تنها برای مدلسازی نگاشتهایی با یک خروجی کافی است.
بردار خروجی در فرمول $a = f(Wp + b)$ مشخص میشود.
بردار خروجی در فرمول $a = f(Wp + b)$ مشخص میشود.
برنامهریزی شبکههای عصبی تنها با ورودیهای زیاد ممکن است.
برنامهریزی شبکههای عصبی تنها با ورودیهای زیاد ممکن است.
مدلسازی شبکههای عصبی با الیههای چندگانه اغلب به حل مسائل پیچیده کمک میکند.
مدلسازی شبکههای عصبی با الیههای چندگانه اغلب به حل مسائل پیچیده کمک میکند.
بردار بایاس b در شبکههای عصبی تنها دارای یک عنصر است.
بردار بایاس b در شبکههای عصبی تنها دارای یک عنصر است.
کتاب Neuro-Dynamic Programming توسط Dimitri P. Bertsekas و John N. Tsitsiklis نوشته شده است.
کتاب Neuro-Dynamic Programming توسط Dimitri P. Bertsekas و John N. Tsitsiklis نوشته شده است.
مقاله Chemical Engineering Journal در صفحات 113 تا 120 منتشر شده است.
مقاله Chemical Engineering Journal در صفحات 113 تا 120 منتشر شده است.
Dimitri P. Bertsekas یکی از نویسندگان مقاله در Chemical Engineering Journal است.
Dimitri P. Bertsekas یکی از نویسندگان مقاله در Chemical Engineering Journal است.
Elkamel، Desai و Crook در زمینه مهندسی شیمی فعالیت میکنند.
Elkamel، Desai و Crook در زمینه مهندسی شیمی فعالیت میکنند.
کتاب Neuro-Dynamic Programming توسط Athena Scientific منتشر شده است.
کتاب Neuro-Dynamic Programming توسط Athena Scientific منتشر شده است.
کتاب «هوش مصنوعی: رویکردی مدرن» را استوارت و پیتر نوشتهاند.
کتاب «هوش مصنوعی: رویکردی مدرن» را استوارت و پیتر نوشتهاند.
نویسندگان کتاب «هوش مصنوعی: رویکردی مدرن» همگی از دانشگاه هاروارد هستند.
نویسندگان کتاب «هوش مصنوعی: رویکردی مدرن» همگی از دانشگاه هاروارد هستند.
کتاب اشاره شده در سال 2003 منتشر شده است.
کتاب اشاره شده در سال 2003 منتشر شده است.
فصل 7 کتاب «هوش مصنوعی: رویکردی مدرن» به بررسی رباتیک پرداخته است.
فصل 7 کتاب «هوش مصنوعی: رویکردی مدرن» به بررسی رباتیک پرداخته است.
زنگ، و. ج. یکی از نویسندگان کتاب «هوش مصنوعی: رویکردی مدرن» است.
زنگ، و. ج. یکی از نویسندگان کتاب «هوش مصنوعی: رویکردی مدرن» است.
در شبکه های پیشخور، تعداد ورودی ها و خروجی ها به طور آزاد انتخاب می شوند.
در شبکه های پیشخور، تعداد ورودی ها و خروجی ها به طور آزاد انتخاب می شوند.
شبکه های عصبی چند الیه نسبت به شبکه های عصبی تک الیه عملکرد بهتری دارند.
شبکه های عصبی چند الیه نسبت به شبکه های عصبی تک الیه عملکرد بهتری دارند.
هر شبکه عصبی پیشخور به طور خاص قابلیت تقریب زدن هر تابعی را دارد.
هر شبکه عصبی پیشخور به طور خاص قابلیت تقریب زدن هر تابعی را دارد.
شبکه های پسخور به گونه ای طراحی شده اند که حداقل یک سیگنال برگشتی از یک نرون داشته باشند.
شبکه های پسخور به گونه ای طراحی شده اند که حداقل یک سیگنال برگشتی از یک نرون داشته باشند.
تعداد نرون های الیه میانی را می توان به راحتی با توجه به مشخصات مسئله تعیین کرد.
تعداد نرون های الیه میانی را می توان به راحتی با توجه به مشخصات مسئله تعیین کرد.
تابع محرک الیه خروجی با توجه به ویژگی های مطلوب خروجی تعیین می شود.
تابع محرک الیه خروجی با توجه به ویژگی های مطلوب خروجی تعیین می شود.
مقدار اولیه خروجی در شبکه های پسخور اهمیتی ندارد.
مقدار اولیه خروجی در شبکه های پسخور اهمیتی ندارد.
تعداد ورودی ها در شبکه های عصبی می تواند به صورت تصادفی انتخاب شود.
تعداد ورودی ها در شبکه های عصبی می تواند به صورت تصادفی انتخاب شود.
شبکه های عصبی تک الیه و چند الیه از نظر ساختاری تفاوتی ندارند.
شبکه های عصبی تک الیه و چند الیه از نظر ساختاری تفاوتی ندارند.
در شبکه های پیشخور، الیه خروجی مقدار نهایی شبکه را معرفی می کند.
در شبکه های پیشخور، الیه خروجی مقدار نهایی شبکه را معرفی می کند.
مقدار ورودی بلوک تاخیر زمانی در شبکه های پسخور برابر با ورودی یک واحد زمانی عقب تر است.
مقدار ورودی بلوک تاخیر زمانی در شبکه های پسخور برابر با ورودی یک واحد زمانی عقب تر است.
تابع متقارن آستانه ای برای خروجی هایی که تنها یک مقدار داشته باشند، مناسب نیست.
تابع متقارن آستانه ای برای خروجی هایی که تنها یک مقدار داشته باشند، مناسب نیست.
در شبکه های عصبی پیشخور، تعداد نرون های هر الیه میانی بر اساس داده ها انتخاب می شود.
در شبکه های عصبی پیشخور، تعداد نرون های هر الیه میانی بر اساس داده ها انتخاب می شود.
سیستمهای یادگیری تنها با مشاهده عملکرد خود میتوانند رفتارهایشان را بهبود بخشند.
سیستمهای یادگیری تنها با مشاهده عملکرد خود میتوانند رفتارهایشان را بهبود بخشند.
یادگیری بدون ناظر به معنی این است که هیچ هدفی برای سیستم یادگیرنده مشخص نشده است.
یادگیری بدون ناظر به معنی این است که هیچ هدفی برای سیستم یادگیرنده مشخص نشده است.
در یادگیری با ناظر، جواب مطلوب سیستم از قبل آماده است.
در یادگیری با ناظر، جواب مطلوب سیستم از قبل آماده است.
سیستمهای یادگیری میتوانند در شرایط محیطی پایدار به طور کامل عمل کنند.
سیستمهای یادگیری میتوانند در شرایط محیطی پایدار به طور کامل عمل کنند.
الگوریتمهای یادگیری بدون ناظر نمیتوانند الگوها را گروهبندی کنند.
الگوریتمهای یادگیری بدون ناظر نمیتوانند الگوها را گروهبندی کنند.
هر سیستم یادگیرنده باید به قوانین یادگیری برای بهینهسازی دسترسی داشته باشد.
هر سیستم یادگیرنده باید به قوانین یادگیری برای بهینهسازی دسترسی داشته باشد.
بازگشتی بودن الگوریتمهای یادگیری به اطلاعات دقیق پیرامون اهداف بستگی دارد.
بازگشتی بودن الگوریتمهای یادگیری به اطلاعات دقیق پیرامون اهداف بستگی دارد.
جمعآوری دادهها برای یادگیری ضروری است.
جمعآوری دادهها برای یادگیری ضروری است.
خطای یادگیری به اختلاف بین مقدار مطلوب و واقعی اشاره دارد.
خطای یادگیری به اختلاف بین مقدار مطلوب و واقعی اشاره دارد.
تعریف دقیق آموزش به الگوریتمها اجازه میدهد که عملکرد بهتری داشته باشند.
تعریف دقیق آموزش به الگوریتمها اجازه میدهد که عملکرد بهتری داشته باشند.
سیگنال خطا در یادگیری بدون ناظر وجود ندارد.
سیگنال خطا در یادگیری بدون ناظر وجود ندارد.
در یادگیری با ناظر، خروجی سیستم همیشه دقیق است.
در یادگیری با ناظر، خروجی سیستم همیشه دقیق است.
میزان یادگیری به درجه کامل بودن اطلاعات قبلی بستگی دارد.
میزان یادگیری به درجه کامل بودن اطلاعات قبلی بستگی دارد.
الگوریتمهای یادگیری به طور خودکار هدف خود را تعریف میکنند.
الگوریتمهای یادگیری به طور خودکار هدف خود را تعریف میکنند.
سیستم یادگیرنده برای پاسخدهی بهتر به محیط باید تغییرات داخلی خود را بهبود بخشد.
سیستم یادگیرنده برای پاسخدهی بهتر به محیط باید تغییرات داخلی خود را بهبود بخشد.
Flashcards
Single-layer neural network
Single-layer neural network
A neural network with one layer of neurons. Input is processed directly to output without an intermediate layer.
Multi-layer neural network
Multi-layer neural network
A neural network with multiple layers of neurons. Data passes through multiple layers for more complex processing.
Input vector (p)
Input vector (p)
A vector representing the input values to a neural network layer.
Output vector (a)
Output vector (a)
Signup and view all the flashcards
Weight matrix (W)
Weight matrix (W)
Signup and view all the flashcards
Bias vector (b)
Bias vector (b)
Signup and view all the flashcards
Activation function (f)
Activation function (f)
Signup and view all the flashcards
Feedforward network
Feedforward network
Signup and view all the flashcards
Neural network layer
Neural network layer
Signup and view all the flashcards
Input, Processing, Output
Input, Processing, Output
Signup and view all the flashcards
Activation function
Activation function
Signup and view all the flashcards
Linear activation function
Linear activation function
Signup and view all the flashcards
Bias
Bias
Signup and view all the flashcards
Hard-limit activation function
Hard-limit activation function
Signup and view all the flashcards
Sigmoid activation function
Sigmoid activation function
Signup and view all the flashcards
Multi-input neuron
Multi-input neuron
Signup and view all the flashcards
Input vector (p)
Input vector (p)
Signup and view all the flashcards
Weight matrix (W)
Weight matrix (W)
Signup and view all the flashcards
Net input (n)
Net input (n)
Signup and view all the flashcards
Neuron
Neuron
Signup and view all the flashcards
Input weights (w1,i)
Input weights (w1,i)
Signup and view all the flashcards
Output(a)
Output(a)
Signup and view all the flashcards
Learning Algorithm
Learning Algorithm
Signup and view all the flashcards
Parameter tuning
Parameter tuning
Signup and view all the flashcards
Parameters w and b
Parameters w and b
Signup and view all the flashcards
Neuro-Dynamic Programming
Neuro-Dynamic Programming
Signup and view all the flashcards
Dynamic Programming
Dynamic Programming
Signup and view all the flashcards
Bertsekas and Tsitsiklis (2013)
Bertsekas and Tsitsiklis (2013)
Signup and view all the flashcards
Chemical Engineering Journal
Chemical Engineering Journal
Signup and view all the flashcards
Elkamel, Desai, and Crook
Elkamel, Desai, and Crook
Signup and view all the flashcards
AI Book Author
AI Book Author
Signup and view all the flashcards
Book Title
Book Title
Signup and view all the flashcards
Publication Year
Publication Year
Signup and view all the flashcards
Publisher
Publisher
Signup and view all the flashcards
Chapter 7
Chapter 7
Signup and view all the flashcards
Learning Systems
Learning Systems
Signup and view all the flashcards
Supervised Learning
Supervised Learning
Signup and view all the flashcards
Unsupervised Learning
Unsupervised Learning
Signup and view all the flashcards
Clustering
Clustering
Signup and view all the flashcards
Activation Functions
Activation Functions
Signup and view all the flashcards
Threshold Functions
Threshold Functions
Signup and view all the flashcards
Linear Function
Linear Function
Signup and view all the flashcards
Sigmoid Function
Sigmoid Function
Signup and view all the flashcards
Hyperbolic Tangent Function
Hyperbolic Tangent Function
Signup and view all the flashcards
Linear Positive Function
Linear Positive Function
Signup and view all the flashcards
Training Data
Training Data
Signup and view all the flashcards
Target Variable
Target Variable
Signup and view all the flashcards
Error Signal
Error Signal
Signup and view all the flashcards
Weight Vector
Weight Vector
Signup and view all the flashcards
Learning Algorithm
Learning Algorithm
Signup and view all the flashcards
Input Vector
Input Vector
Signup and view all the flashcards
Feedforward Network
Feedforward Network
Signup and view all the flashcards
Output Layer
Output Layer
Signup and view all the flashcards
Hidden Layers
Hidden Layers
Signup and view all the flashcards
Weights (W)
Weights (W)
Signup and view all the flashcards
Bias (b)
Bias (b)
Signup and view all the flashcards
Activation Function
Activation Function
Signup and view all the flashcards
Multilayer Perceptron
Multilayer Perceptron
Signup and view all the flashcards
Recurrent Network
Recurrent Network
Signup and view all the flashcards
Input Layer
Input Layer
Signup and view all the flashcards
Input/Output Matching
Input/Output Matching
Signup and view all the flashcards
Hidden Layer Units
Hidden Layer Units
Signup and view all the flashcards
Feedback Connections
Feedback Connections
Signup and view all the flashcards
Time Delay
Time Delay
Signup and view all the flashcards
Network Design Flexibility
Network Design Flexibility
Signup and view all the flashcards
Problem Specific Structure
Problem Specific Structure
Signup and view all the flashcards
Sigmoid Function
Sigmoid Function
Signup and view all the flashcards
Study Notes
پایگاه داده SID
- SID یک مرکز اطلاعات علمی است.
- خدمات آموزشی مختلفی مانند فیلم های آموزشی، کارگاه های آموزشی و سرویس ترجمه تخصصی ارائه می دهد.
- پایگاه های اطلاعات علمی بین المللی و ترفندهای جستجو را آموزش می دهد.
- از نرم افزارهای SPSS و EndNote برای استناددهی مقالات استفاده می کند.
- کارگاه های آموزشی پروپوزال نویسی در علوم انسانی ارائه می دهد.
- گواهینامه نمایه مقالات نویسندگان را در SID صادر می کند.
همایش بین المللی پژوهش های مدیریت و علوم انسانی
- سومین همایش بین المللی در زمینه مدیریت و علوم انسانی در دانشگاه تهران برگزار شده است.
- تاریخ برگزاری: ۱۴ تیر ۱۳۹۷
- موضوع: انواع شبکه های عصبی و کاربرد آنها
- پژوهشگران: شاهین بیرانوند و کیانا صحرائیان (دانشجویان دکتری)
شبکه های عصبی مصنوعی
- شبکه های عصبی مصنوعی مدل هایی بر اساس مغز جانوران هستند.
- یک سیستم داده پرداز اطلاعات با ویژگی های مخصوص می باشند.
- از شاخه های هوش مصنوعی هستند تا الگوهای ناشناخته در اطلاعات را تشخیص داده و پیش بینی کنند.
- دو مرحله آموزش و پیش بینی دارند.
- از الگوریتم پس انتشار برای آموزش و شبکه عصبی feedforward برای پیش بینی استفاده می شود.
- ویژگی های شبیه به سیستم عصبی جانوری دارند که از تعمیم مدل های ریاضی شکل گرفته اند.
تشابهات و انتظارات شبکه های عصبی
- بلوک های ساختاری در هر دو شبکه مصنوعی و بیولوژیکی دستگاه های محاسباتی ساده ای هستند که نرون های مصنوعی از سادگی بیشتری برخوردارند.
- ارتباطات بین نرون ها عملکرد شبکه را تعیین می کنند.
- نرون های عصبی بیولوژیکی از نرون های مصنوعی بسیار کندتر هستند (یک میلیون بار). اما مغز به دلیل ساختار موازی نرون ها سریع تر از رایانه های معمولی عمل می کند.
- شبکه های عصبی مصنوعی هم ساختار موازی دارند.
- قابلیت یادگیری شامل تنظیم پارامترهای شبکه (وزن های سیناپسی) در مسیر زمان است.
- اطلاعات در شبکه های عصبی در سیناپس ها ذخیره می شوند. هر نرون در شبکه از فعالیت سایر نرون ها تحت تاثیر قرار می گیرد.
- پردازش اطلاعات متن گونه است.
- قابلیت تعمیم به معنای قابلیت ارائه خروجی مناسب برای ورودی های جدید است.
- قابلیت پردازش موازی در پیاده سازی سخت افزاری امکان می دهد.
- مقاومت یا تحمل پذیری خطاها که هر سلول مستقل عمل می کند و رفتار کلی شبکه برآیند رفتارهای محلی سلولهای متعدد است.
- خطاهای محلی از چشم خروجی نهایی دور می مانند و باعث افزایش قابلیت تحمل خطا در سیستم می شود.
مدل نورون
- نورون کوچکترین واحد پردازشگر اطلاعات در شبکه های عصبی است.
- انواع مدل نورون از جمله تک ورودی و چند ورودی وجود دارد.
- ساختار یک نورون تک ورودی در شکل نشان داده شده است.
- اسکالرهای (a, p) به ترتیب ورودی و خروجی هستند.
- میزان تأثیر p روی a به وسیله مقدار اسکالر w تعیین می شود.
- ورودی دیگر (بایاس) که با wp جمع می شود، برای تابع محرک استفاده می شود.
- خروجی نرون با معادله ( a = f(wp+b) ) تعریف می شود.
توابع محرک
- تابع محرک می تواند خطی یا غیر خطی باشد.
- انتخاب تابع محرک بر اساس نیاز مسئله انجام می شود.
- انواع توابع محرک (خطی، آستانه ای، سیگموئیدی) وجود دارد.
- تابع محرک خطی خروجی برابر ورودی آن است ( a=f₁(n)=n ).
- تابع محرک آستانه ای دو مقداره حدی (مقدار خروجی صفر یا یک است)
- فرمول تابع تحریک سیگموئیدی
ساختار شبکه های عصبی
- شبکه های عصبی تک لایه و چند لایه وجود دارند.
- شبکه های تک لایه از اجتماع چندین نرون ساخته شده است.
- شبکه های چند لایه که از چند لایه نرون تشکیل شده است، توانایی بیشتری برای انجام محاسبات پیچیده تر دارند.
فرآیند یادگیری
- سیستم های یادگیری به بهبود عملکرد خود براساس مشاهده عملکردشان می پردازند.
- دو نوع یادگیری وجود دارد (با ناظر و بدون ناظر)
- یادگیری با ناظر به این معنی است که جواب مطلوب از قبل شناخته شده است.
- یادگیری بدون ناظر، سیستمی است که در آن بدون دسترسی به جواب مطلوب باید عمل کند.
- در مورد یادگیری بدون ناظر، فرد طراح یا معلم است که هدف و مقصد نهایی یعنی چیزی را که باید به آن رسید مشخص می کند.
- در فرآیند یادگیری، سیستم یاد میگیرد، پارامترها را تغییر میدهد و به محیط واکنش مناسبتری نشان میدهد.
- قانون یادگیری، به تنظیم پارامترهای سیستم بر اساس اطلاعات جدید کمک می کند .
یادگیری شبکه
- یادگیری شبکه مربوط به تنظیم پارامترهای شبکه عصبی است تا عملکرد آن بهتر شود.
- در شبکه های عصبی، نحوه یادگیری نرونها به رفتارهای نرون های دیگر شبکهها بستگی دارد.
روش های آموزش شبکه های عصبی
- روشهای آموزش شبکه های عصبی (مانند گرادیان شیب، روش نیوتون، اندازه حرکت، انتروپی متقابل، Levenberg-Marquardt)
شبکه های عصبی پرسپترون
- شبکه های پرسپترون، به خصوص پرسپترون های چند لایه، از کاربردی ترین شبکه های عصبی هستند.
- این شبکهها با انتخاب مناسب تعداد لایهها و نرونها میتوانند یک نگاشت غیرخطی را با دقت بالا انجام دهند.
مفاهیم کلیدی
- وزن ها (Weights),
- ماتریس وزن (Weight Matrix),
- سیگنال خطا (Error Signal)
- لایه ها (Layers),
- توابع سیگموئید (sigmoid functions)
- مشکلات آموزش شبکه های عصبی (مینیمم های محلی، سرعت آموزش، تعداد ورودی ها)
Studying That Suits You
Use AI to generate personalized quizzes and flashcards to suit your learning preferences.
Related Documents
Description
این آزمون به بررسی مفهوم و کاربرد شبکه های عصبی مصنوعی می پردازد. شما با آشنایی با مدل ها و مراحل آموزش و پیش بینی در این سیستم ها، توانایی خود را در این زمینه آزمایش خواهید کرد. همچنین، اطلاعاتی درباره همایش بین المللی پژوهش های مدیریت و علوم انسانی ارائه می شود.