0% found this document useful (0 votes)
16 views3 pages

ANN

Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
0% found this document useful (0 votes)
16 views3 pages

ANN

Copyright
© © All Rights Reserved
We take content rights seriously. If you suspect this is your content, claim it here.
Available Formats
Download as PDF, TXT or read online on Scribd
You are on page 1/ 3

‫تفاوت یادگیری ماشین و یادگیری عمیق چیست ؟‬

‫روشهای یادگیری ماشین سنتی نظیر «درخت تصمیم» (‪« ،)Decision Tree‬ماشین بردار پشتیبان»‬
‫(‪« ،)Support Vector Machine | SVM‬دستهبند بیز ساده» (‪ )Naïve Bayes Classifier‬و‬
‫«رگرسیون لجستیک» (‪ )Logistic Regression‬را نمیتوان بهطور مستقیم بر روی دادههای خام نظیر‬
‫فایلهای ‪ ،CSV‬تصاویر و متون به منظور یادگیری دادهها اعمال کرد‪ .‬به عبارتی‪ ،‬باید با استفاده از مرحله‬
‫«پیشپردازش» (‪ ،)Preprocessing‬از دادههای خام‪ ،‬ویژگیهایی را به عنوان بازنمایی دادههای خام استخراج‬
‫کرد تا از این ویژگیها به عنوان ورودی الگوریتمهای یادگیری ماشین استفاده شود‪ .‬با ارائه روشهای یادگیری‬
‫عمیق‪ ،‬مشکل پیچیدگی فرآیند استخراج ویژگی و زمان استخراج آنها حل شده است‪ .‬به عبارتی‪ ،‬مدلهای‬
‫یادگیری عمیق نیازی به گام مجزا برای استخراج ویژگی ندارند و الیههای شبکههای عصبی قادر هستند‬
‫بازنماییهای ضمنی دادههای خام را در روال آموزش شبکه یاد بگیرند‪.‬‬

‫الگوریتمهای یادگیری عمیق از ساختارهای الیهای با نام شبکههای عصبی استفاده میکنند‪ .‬میتوان از آنها در‬
‫بسیاری از مسائل مختلف نظیر «تشخیص الگو» (‪« ،)Pattern Recognition‬کاهش بعد» ( ‪Dimension‬‬
‫‪ ،)Reduction‬ترجمه ماشین‪« ،‬تشخیص ناهنجاری» (‪« ،)Anomaly Detection‬بینایی ماشین»‬
‫(‪« ،)Computer Vision‬پردازش زبان طبیعی» (‪ ،)Natural Language Processing‬تشخیص بیماری‪،‬‬
‫پیشبینی قیمت سهام و سایر موارد استفاده کرد‪.‬‬

‫در حالت کلی‪ ،‬کاربردهای شبکه عصبی را میتوان به سه گروه «دستهبندی» (‪ )Classify‬دادهها‪،‬‬
‫«خوشهبندی» (‪ )Clustering‬دادهها و مسائل «رگرسیون» (‪ )Regression‬تقسیمبندی کرد‪.‬‬
‫یکی از اصول اصلی مدلهای یادگیری عمیق این است که هرچقدر تنوع و توزیع و حجم دادههای آموزشی مدل‬
‫بیشتر باشد‪ ،‬یادگیری مدل از دادهها بیشتر بوده و مدل در شناخت دادههای جدید و تصمیمگیری پیرامون‬
‫مسئله تعریف شده‪ ،‬عملکرد بهتری خواهد داشت‪ .‬از آنجا که میزان حجم دادههای بدون برچسب در مقایسه با‬
‫دادههای برچسب خورده بیشتر است‪ ،‬الگوریتمهای خوشهبندی دقت و عملکرد بهتری دارند‪.‬‬

‫در مسائل رگرسیون‪ ،‬از شبکه عصبی به منظور یافتن رابطه میان «متغیرهای مستقل ‪» (Independent‬‬
‫)‪Variables‬یا ویژگیها و «متغیرهای وابسته )‪» (Dependent Variables‬یا مقدار خروجی شبکه استفاده‬
‫میشود‪ .‬مقادیر خروجی مدل در مسائل رگرسیون‪ ،‬مقادیری «پیوسته )‪» (Continuous‬هستند‪ .‬رگرسیون‬
‫همانند روش دستهبندی‪ ،‬از رویکرد یادگیری نظارت شده بهره گرفته و به منظور آموزش مدل باید مجموعه‬
‫دادهای را فراهم کرد‪.‬‬

‫شبکه عصبی از چندین الیه تشکیل میشود که حداقل تعداد این الیهها‪ 3 ،‬الیه است که در ادامه فهرست‬
‫شدهاند‪:‬‬

‫«الیه ورودی)‪» (Input Layer‬‬

‫«الیه میانی | پنهان)‪» (Hidden Layer‬‬

‫«الیه خروجی)‪» (Output Layer‬‬

‫هر الیه شبکه عصبی شامل مجموعهای از گرهها یا «نود» (‪ )Nodes‬است که عملکردی مشابه با «نورونهای»‬
‫(‪ )Neurons‬مغز انسان دارند‪ .‬حداقل تعداد الیههای میانی شبکه عصبی‪ ،‬یک الیه است و بر اساس پیچیدگی و‬
‫نوع مسئله میتوان به تعداد الیههای میانی شبکه اضافه کرد‪ .‬هر چقدر تعداد الیههای میانی شبکه بیشتر باشد‪،‬‬
‫شبکه‪ ،‬عمیقتر بوده و بار محاسباتی آن بیشتر میشود‪ .‬الیههای میانی مسئولیت اعمال عملیات محاسباتی بر‬
‫روی دادههای دریافتی از الیه پیشین خود را برعهده دارند‪ .‬اصطالح «عمیق )‪» (Deep‬نیز برگرفته از نوع‬
‫ساختار شبکه عصبی است‪ .‬یکی از شبکههای عصبی قدیمی که «پرسپترون )‪» (Perceptron‬نام دارد‪ ،‬تنها‬
‫شامل یک الیه میانی است و به همین خاطر این نوع شبکه از نوع شبکههای عصبی «کمعمق )‪» (Shallow‬‬
‫محسوب میشود‪ .‬امروزه‪ ،‬شبکههای عصبی با تعداد بیش از ‪ 3‬الیه پنهان به عنوان شبکههای عمیق بهشمار‬
‫میروند‪.‬‬

‫وزنها میزان اهمیت ورودیهای گرهها را مشخص میکنند‪ .‬به عبارتی‪ ،‬با اعمال ضرب داخلی مقدار ورودی گره‬
‫و ماتریس وزن‪ ،‬میزان اهمیت هر ویژگی ورودی مشخص میشود‪ .‬به عنوان مثال‪ ،‬در مسئله عقیدهکاوی و تحلیل‬
‫احساسات‪ ،‬وزن کلمات منفی و مثبت از وزن سایر کلمات بیشتر است و شبکه عصبی با توجه به کلمات با‬
‫وزنهای بیشتر‪ ،‬تحلیل احساسات جمالت را انجام میدهد‪ .‬در هر مرحله از روال «پس انتشار»‬
‫(‪ )Backpropagation‬مقادیر وزنها بهروزرسانی شده تا مقدار نهایی «تابع زیان | هزینه» ( ‪Loss‬‬
‫‪ )Function‬کاهش پیدا کند‪.‬‬

‫انتشار رو به عقب خطاها که به اختصار «پس انتشار» (‪ )Backpropagation‬نامیده میشود‪ ،‬الگوریتمی برای‬
‫یادگیری نظارتی شبکه عصبی با استفاده از گرادیان کاهشی است‪ .‬در این روش‪ ،‬برای یک شبکه عصبی مصنوعی‬
‫و تابع خطای مشخص‪ ،‬گرادیان تابع خطا نسبت به وزنهای شبکه عصبی محاسبه میشود‪ .‬الگوریتم پس انتشار‬
‫تعمیمی از قانون دلتا برای پرسپترونها به شبکههای عصبی پیشخور چندالیه است‪.‬در واقع از این موضوع میآید‬
‫که محاسبه گرادیان به صورت رو به عقب در شبکه انجام میشود و گرادیان الیه خروجی وزنها در ابتدا و‬
‫گرادیان الیه ورودی در آخر انجام میشود؛ بدین صورت که از محاسبات مشتق جزئی گرادیان یک الیه برای‬
‫گرادیان الیه قبلی استفاده میشود‪ .‬این حرکت رو به عقب اطالعات خطا‪ ،‬منجر به محاسبه کارآمد گرادیان در‬
‫هر الیه نسبت به حالتی میشود که در آن گرادیان الیهها به صورت جداگانه به دست میآید‪.‬‬

You might also like