تاثیر توزیع نرمال و روش کمترین حداقل مربعات در تئوری خطاها

نوع مقاله: مقاله پژوهشی

نویسنده

دانشجوی کارشناسی رشته نقشه برداری،دانشگاه پیام نور، تهران شمال

چکیده

     برازش منحنیبه برازش یک تابع  از پیش تعریف شده اطلاق می‌شود که متغیرهای مستقل و وابسته را به یکدیگر مربوط می‌کند. گام اول در محاسبه بهترین منحنی یا خط، پارامتری کردن تابع خطا با استفاده از متغیرهای اسکالر کمتر، محاسبه مشتق خطا نسبت به پارامترها و در نهایت محاسبه پارامترهایی است که تابع هزینه خطا را کمینه می‌کنند. در روش «برازش حداقل مربعات» (Least-Square Fitting)، به جای آنکه از قدر مطلق خطا استفاده کنیم، مربع آن را در نظر می‌گیریم بنابراین، کمینه‌سازی مجموع مربعات خطا منجر به برازشی می‌شود که خطاهای کوچک‌تری را در نظر می‌گیرد. رایج‌ترین روش برای تعیین پارامترهایی که منحنی را مشخص می‌کنند، تعیین جهت کاهش خطا و یک گام کوچک در آن جهت و تکرار فرایند تا جایی است که به همگرایی برسیم. این فرایند حل تکراری پارامترها به عنوان روش «گرادیان کاهشی» (Gradient Descent) نیز شناخته می‌شود. در این آموزش، از محاسبات ماتریسی پایه استفاده می‌کنیم و آن‌ها را برای به دست آوردن پارامترها به منظور بهترین برازش منحنی به کار می‌گیریم.

کلیدواژه‌ها


عنوان مقاله [English]

Effect of normal distribution and least squares method on error theory

نویسنده [English]

  • Mohammad Reza Majidi
Bachelor's degree student in mapping, Payame Noor University, North Tehran
چکیده [English]

In the Least-Square Fitting method, instead of using the absolute magnitude of the error, we consider its square. Therefore, minimizing the total number of error squares leads to the magnification, which considers smaller errors. The most common way to determine the parameters that determine the curve is to determine the direction of error reduction and a small step in that direction and repeat the process until we reach convergence. This process of resolving parameters repeatedly is also known as the "gradient descent" method. In this tutorial, we use basic matrix calculations and use them to get the parameters for the best fit of the curve.

کلیدواژه‌ها [English]

  • errors
  • Least squares
  • Regression
  • normal distribution
  • Measurement