آموزش ریاضیات (Mathematics)
۲۳۸۵ آموزش
نمایش دسته بندی ها (۲۳۸۵ آموزش)

روش Nesterov Accelerated Gradient (انگلیسی : NAG)، در ریاضیات (Mathematics)

انواع روش های بهینه سازی (Optimization Methods) را در آموزش زیر شرح دادیم :

روش Nesterov Accelerated Gradient (انگلیسی : NAG) :

📌 معرفی

روش نستروف (Nesterov Accelerated Gradient - NAG) یک نسخه بهبود یافته از روش مومنتوم است که توسط یوری نستروف در سال ۱۹۸۳ ارائه شد. ایده اصلی این است که ابتدا با استفاده از مومنتوم به جلو حرکت کنیم و سپس گرادیان را در آن نقطه جدید محاسبه کنیم (نگاه به آینده).

📐 فرمول بندی

\[ v_{t+1} = \gamma v_t + \eta \nabla f(w_t - \gamma v_t) \] \[ w_{t+1} = w_t - v_{t+1} \]

تفاوت با مومنتوم معمولی در این است که گرادیان در نقطه

\[ w_t - \gamma v_t \]

(نقطه تقریبی آینده) محاسبه می شود، نه در

\[ w_t \]

.

🔧 مزایا

نرخ همگرایی سریع تر از مومنتوم معمولی برای توابع محدب.

کاهش نوسانات و پاسخ سریع تر به تغییرات جهت گرادیان.

در بسیاری از مسائل، عملکرد بهتری نسبت به مومنتوم کلاسیک دارد.

نویسنده علیرضا گلمکانی
شماره کلید 8813
گزینه ها
به اشتراک گذاری (Share) در شبکه های اجتماعی
نظرات 0 0 0

ارسال نظر جدید (بدون نیاز به عضو بودن در وب سایت)