آموزش ریاضیات (Mathematics)
۲۳۸۵ آموزش
نمایش دسته بندی ها (۲۳۸۵ آموزش)

روش های شبه-نیوتن (Quasi-Newton Methods)، در ریاضیات (Mathematics)

انواع روش های بهینه سازی (Optimization Methods) را در آموزش زیر شرح دادیم :

روش های شبه-نیوتن (Quasi-Newton Methods) :

📌 معرفی

روش های شبه-نیوتن (Quasi-Newton Methods) دسته ای از الگوریتم ها هستند که بین روش تندترین کاهش (همگرایی خطی) و روش نیوتن (همگرایی درجه دوم) قرار می گیرند. این روش ها بدون محاسبه مستقیم ماتریس هسین، یک تقریب از آن (یا معکوس آن) را به روزرسانی می کنند.

💡 ایده اصلی

در هر تکرار، با استفاده از تغییرات گرادیان و متغیرها، یک ماتریس

\[ B_k \]

(تقریب هسین) یا

\[ H_k \]

(تقریب معکوس هسین) به روزرسانی می شود. این ماتریس ها باید شرط سکانت (Secant Condition) را ارضا کنند:

\[ B_{k+1} (x_{k+1} - x_k) = \nabla f(x_{k+1}) - \nabla f(x_k) \]

🔧 معروف ترین روش ها

روش DFP (Davidon-Fletcher-Powell): اولین روش شبه-نیوتن که تقریب معکوس هسین را به روز می کند.

روش BFGS (Broyden-Fletcher-Goldfarb-Shanno): محبوب ترین و مؤثرترین روش شبه-نیوتن که تقریب هسین را به روز می کند. فرمول به روزرسانی BFGS:

\[ B_{k+1} = B_k - \frac{B_k s_k s_k^T B_k}{s_k^T B_k s_k} + \frac{y_k y_k^T}{y_k^T s_k} \]

که

\[ s_k = x_{k+1} - x_k \]

و

\[ y_k = \nabla f(x_{k+1}) - \nabla f(x_k) \]

.

روش L-BFGS (Limited-memory BFGS): برای مسائل بزرگ مقیاس که ذخیره ماتریس کامل ممکن نیست، فقط چند بردار از اطلاعات تکرارهای اخیر نگهداری می شود.

📈 ویژگی ها

همگرایی ابرخطی (Superlinear Convergence) – سریع تر از گرادیان کاهشی، کندتر از نیوتن خالص.

نیاز به حافظه کمتر نسبت به نیوتن (مخصوصا L-BFGS).

برای مسائل بزرگ و غیرخطی بسیار مؤثر هستند.

در بسیاری از کتابخانه های بهینه سازی (مانند scipy.optimize) به عنوان روش پیش فرض استفاده می شوند.

نویسنده علیرضا گلمکانی
شماره کلید 8765
گزینه ها
به اشتراک گذاری (Share) در شبکه های اجتماعی
نظرات 0 0 0

ارسال نظر جدید (بدون نیاز به عضو بودن در وب سایت)