최소제곱법 예제

여기서 실제 오차 분산 σ2는 제곱 총함수 S의 최소화된 값을 기준으로 추정값으로 대체됩니다. 분모, n – m, 자유의 통계 적 정도입니다; 일반화에 대한 자유도를 효과적으로 볼 수 있습니다. 최소 제곱 [6]의 방법은 또한 형식의 기능을 최소화하여 방정식 (1.95)의 대략적인 해액에 사용할 수있는 분산 방법입니다 :이 범위에서 추가 매개 변수 c / R이 있습니다. 따라서 로큰롤이 제공한 곡선 패밀리를 최소 제곱의 방법으로 두 변수의 함수에 맞춥습니다. 다음 함수는 데이터에 대한 대략적인 피팅을 제공하며, 이는 당사의 목적에 적합합니다. 여기서, 최소 정사각형의 방정식이 됩니다. 그것은 가능한 한 작은 오류의 사각형의 총을 만들어 작동 (즉, “최소 사각형”이라고하는 이유입니다): 조심! 최소 제곱은 이상값에 민감합니다. 이상한 값이 선을 그 쪽으로 당깁니다. 최소 제곱 방법은 제곱 잔차의 합계 S {displaystyle S}를 최소화하여 최적의 매개 변수 값을 찾습니다: 1960년, 루돌프 E.

칼만은 선형 최소 평균 제곱(MMS) 추정에 대한 첫 번째 논문 [6]을 발행했습니다. 이 접근법은 이미 개발 된 절차에 스토카틱 해석을주는 것이 아니라 스토스 제형으로 시작했다는 점에서 가우스의 근본적인 출발이었습니다. 이제 Kalman 필터 [7-10]로 알려진 결과는 재귀 최소 제곱을 우아하게 통일하고 많은 이전 결과를 확장하는 우아한 일반화입니다. 디지털 컴퓨터 구현에 특히 편리합니다. x** = A+b는 방정식에 대한 최소 규범 최소 제곱 솔루션이며, 이 경우 최소 정사각형 추정값(또는 무작위 표본의 컨텍스트에서 추정자)이 β {displaystyle {boldsymbol {beta}}}를 일부 컨텍스트에서 정규화됨으로 볼 수 있습니다. 최소 제곱 용액의 버전이 바람직할 수 있습니다. Tikhonov 정규화 (또는 능선 회귀) β 디스플레이 스타일 \베타 ^{2}} 매개 변수 벡터의 L2 규범이 지정된 값보다 크지 않다는 제약 조건을 추가합니다. 이와 동등하게, α {디스플레이 스타일 \\{2}}}를 첨가한 α로 최소 제곱 페널티의 제한되지 않은 최소화를 해결할 수 있으며, 여기서 α {displaystyle alpha}는 상수(이것은 제한된 문제의 라그랑기 형태)이다. 베이지안 컨텍스트에서 이는 매개변수 벡터 에 앞서 일반적으로 분포된 0평균을 배치하는 것과 같습니다.

두 차원의 모델의 예는 직선모델입니다. y-intercept를 β 0 {디스플레이 스타일 beta _{0}}로 표시하고 경사를 β 1 {디스플레이 스타일 beta _{1}}로 표시하며, 모델 함수는 f (x , β) = β 0 + β 1 x {디스플레이 스타일 f (x, {beta}})=beta _{0}={+1}에 의해 제공됩니다. 이 모델의 완전히 작동된 예제는 선형 최소 제곱을 참조하십시오.

Comments are closed