نوع مقاله : مقاله پژوهشی
نویسنده
دانشجوی کارشناسی رشته نقشه برداری،دانشگاه پیام نور، تهران شمال
چکیده
برازش منحنیبه برازش یک تابع از پیش تعریف شده اطلاق میشود که متغیرهای مستقل و وابسته را به یکدیگر مربوط میکند. گام اول در محاسبه بهترین منحنی یا خط، پارامتری کردن تابع خطا با استفاده از متغیرهای اسکالر کمتر، محاسبه مشتق خطا نسبت به پارامترها و در نهایت محاسبه پارامترهایی است که تابع هزینه خطا را کمینه میکنند. در روش «برازش حداقل مربعات» (Least-Square Fitting)، به جای آنکه از قدر مطلق خطا استفاده کنیم، مربع آن را در نظر میگیریم بنابراین، کمینهسازی مجموع مربعات خطا منجر به برازشی میشود که خطاهای کوچکتری را در نظر میگیرد. رایجترین روش برای تعیین پارامترهایی که منحنی را مشخص میکنند، تعیین جهت کاهش خطا و یک گام کوچک در آن جهت و تکرار فرایند تا جایی است که به همگرایی برسیم. این فرایند حل تکراری پارامترها به عنوان روش «گرادیان کاهشی» (Gradient Descent) نیز شناخته میشود. در این آموزش، از محاسبات ماتریسی پایه استفاده میکنیم و آنها را برای به دست آوردن پارامترها به منظور بهترین برازش منحنی به کار میگیریم.
کلیدواژهها
عنوان مقاله [English]
Effect of normal distribution and least squares method on error theory
نویسنده [English]
- Mohammad Reza Majidi
Bachelor's degree student in mapping, Payame Noor University, North Tehran
چکیده [English]
In the Least-Square Fitting method, instead of using the absolute magnitude of the error, we consider its square. Therefore, minimizing the total number of error squares leads to the magnification, which considers smaller errors. The most common way to determine the parameters that determine the curve is to determine the direction of error reduction and a small step in that direction and repeat the process until we reach convergence. This process of resolving parameters repeatedly is also known as the "gradient descent" method. In this tutorial, we use basic matrix calculations and use them to get the parameters for the best fit of the curve.
کلیدواژهها [English]
- Errors
- Least Squares
- Regression
- Normal Distribution
- Measurement