Метод наименьших квадратов

16.01.2023


Метод наименьших квадратов (МНК) — математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от экспериментальных входных данных. Он может использоваться для «решения» переопределенных систем уравнений (когда количество уравнений превышает количество неизвестных), для поиска решения в случае обычных (не переопределенных) нелинейных систем уравнений, для аппроксимации точечных значений некоторой функции. МНК является одним из базовых методов регрессионного анализа для оценки неизвестных параметров регрессионных моделей по выборочным данным.

История

До начала XIX в. учёные не имели определённых правил для решения системы уравнений, в которой число неизвестных меньше, чем число уравнений; до этого времени употреблялись частные приёмы, зависевшие от вида уравнений и от остроумия вычислителей, и потому разные вычислители, исходя из тех же данных наблюдений, приходили к различным выводам. Гауссу (1795) принадлежит первое применение метода, а Лежандр (1805) независимо открыл и опубликовал его под современным названием (фр. Méthode des moindres quarrés). Лаплас связал метод с теорией вероятностей, а американский математик Эдрейн (1808) рассмотрел его теоретико-вероятностные приложения. Метод распространён и усовершенствован дальнейшими изысканиями Энке, Бесселя, Ганзена и других.

Работы А. А. Маркова в начале XX века позволили включить метод наименьших квадратов в теорию оценивания математической статистики, в которой он является важной и естественной частью. Усилиями Ю. Неймана, Ф. Дэвида, А. Эйткена, С. Рао было получено множество немаловажных результатов в этой области.

Суть метода наименьших квадратов

Пусть y i {displaystyle y_{i}} , i = 1 , . . . n {displaystyle i=1,...n} набор скалярных экспериментальных данных, x i {displaystyle x_{i}} , i = 1 , . . . n {displaystyle i=1,...n} набор векторных экспериментальных данных и предполагается, что y {displaystyle y} зависит от x {displaystyle x} .

Вводится некоторая (в простейшем случае линейная) скалярная функция f ( x , β ) {displaystyle f(x,{oldsymbol {eta }})} , которая определяется вектором неизвестных параметров β {displaystyle eta } .

Ставится задача найти вектор β {displaystyle eta } такой, чтобы совокупность погрешностей r i = y i − f ( x i , β ) {displaystyle r_{i}=y_{i}-f(x_{i},{oldsymbol {eta }})} была в некотором смысле минимальной.

Согласно методу наименьших квадратов решением этой задачи является вектор β {displaystyle eta } , который минимизирует функцию

S ( β ) = ∑ i = 1 n ( y i − f ( x i , β ) ) 2 . {displaystyle S({oldsymbol {eta }})=sum _{i=1}^{n}(y_{i}-f(x_{i},{oldsymbol {eta }}))^{2}.}

В простейшем случае f ( x ) = β {displaystyle f(x)=eta } , и тогда результатом МНК будет среднее арифметическое входных данных.

Преимущество МНК перед минимизацией других видов ошибок состоит в том, что если f ( x , β ) {displaystyle f(x,{oldsymbol {eta }})} дифференцируема по β {displaystyle {oldsymbol {eta }}} , то S ( β ) {displaystyle S({oldsymbol {eta }})} тоже дифференцируема. Приравнивание частных производных к нулю сводит задачу к решению системы уравнений, причём если f ( x , β ) {displaystyle f(x,{oldsymbol {eta }})} зависит от β {displaystyle {oldsymbol {eta }}} линейно, то и система уравнений будет линейной.

Пример — система линейных уравнений

В частности, метод наименьших квадратов может использоваться для «решения» системы линейных уравнений

A x = b {displaystyle Ax=b} ,

где A {displaystyle A} прямоугольная матрица размера m × n , m > n {displaystyle m imes n,m>n} (то есть число строк матрицы A больше количества искомых переменных).

Такая система уравнений в общем случае не имеет решения. Поэтому эту систему можно «решить» только в смысле выбора такого вектора x {displaystyle x} , чтобы минимизировать «расстояние» между векторами A x {displaystyle Ax} и b {displaystyle b} . Для этого можно применить критерий минимизации суммы квадратов разностей левой и правой частей уравнений системы, то есть ( A x − b ) T ( A x − b ) → min x {displaystyle (Ax-b)^{T}(Ax-b) ightarrow min _{x}} . Нетрудно показать, что решение этой задачи минимизации приводит к решению следующей системы уравнений

A T A x = A T b ⇒ x = ( A T A ) − 1 A T b {displaystyle A^{T}Ax=A^{T}bRightarrow x=(A^{T}A)^{-1}A^{T}b} .

Используя оператор псевдоинверсии, решение можно переписать так:

x = A + b {displaystyle x=A^{+}b} ,

где A + {displaystyle A^{+}} — псевдообратная матрица для A {displaystyle A} .

Эту задачу также можно «решить», используя так называемый взвешенный МНК (см. ниже), когда разные уравнения системы получают разный вес из теоретических соображений.

Строгое обоснование и установление границ содержательной применимости метода даны А. А. Марковым и А. Н. Колмогоровым.

МНК в регрессионном анализе (аппроксимация данных)

Пусть имеется n {displaystyle n} значений некоторой переменной y {displaystyle y} (это могут быть результаты наблюдений, экспериментов и т. д.) и соответствующих переменных x {displaystyle x} . Задача заключается в том, чтобы взаимосвязь между y {displaystyle y} и x {displaystyle x} аппроксимировать некоторой функцией f ( x , b ) {displaystyle f(x,b)} , известной с точностью до некоторых неизвестных параметров b {displaystyle b} , то есть фактически найти наилучшие значения параметров b {displaystyle b} , максимально приближающие значения f ( x , b ) {displaystyle f(x,b)} к фактическим значениям y {displaystyle y} . Фактически это сводится к случаю «решения» переопределенной системы уравнений относительно b {displaystyle b} :

f ( x t , b ) = y t , t = 1 , … , n {displaystyle f(x_{t},b)=y_{t},t=1,ldots ,n} .

В регрессионном анализе и в частности в эконометрике используются вероятностные модели зависимости между переменными

y t = f ( x t , b ) + ε t {displaystyle y_{t}=f(x_{t},b)+varepsilon _{t}} ,

где ε t {displaystyle varepsilon _{t}} — так называемые случайные ошибки модели.

Соответственно, отклонения наблюдаемых значений y {displaystyle y} от модельных f ( x , b ) {displaystyle f(x,b)} предполагается уже в самой модели. Сущность МНК (обычного, классического) заключается в том, чтобы найти такие параметры b {displaystyle b} , при которых сумма квадратов отклонений (ошибок, для регрессионных моделей их часто называют остатками регрессии) e t {displaystyle e_{t}} будет минимальной:

b ^ O L S = arg ⁡ min b R S S ( b ) {displaystyle {hat {b}}_{OLS}=arg min _{b}RSS(b)} ,

где R S S {displaystyle RSS} — англ. Residual Sum of Squares определяется как:

R S S ( b ) = e T e = ∑ t = 1 n e t 2 = ∑ t = 1 n ( y t − f ( x t , b ) ) 2 {displaystyle RSS(b)=e^{T}e=sum _{t=1}^{n}e_{t}^{2}=sum _{t=1}^{n}(y_{t}-f(x_{t},b))^{2}} .

В общем случае решение этой задачи может осуществляться численными методами оптимизации (минимизации). В этом случае говорят о нелинейном МНК (NLS или NLLS — англ. Non-Linear Least Squares). Во многих случаях можно получить аналитическое решение. Для решения задачи минимизации необходимо найти стационарные точки функции R S S ( b ) {displaystyle RSS(b)} , продифференцировав её по неизвестным параметрам b {displaystyle b} , приравняв производные к нулю и решив полученную систему уравнений:

∑ t = 1 n ( y t − f ( x t , b ) ) ∂ f ( x t , b ) ∂ b = 0 {displaystyle sum _{t=1}^{n}(y_{t}-f(x_{t},b)){frac {partial f(x_{t},b)}{partial b}}=0} .

МНК в случае линейной регрессии

Пусть регрессионная зависимость является линейной:

y t = ∑ j = 1 k b j x t j + ε = x t T b + ε t {displaystyle y_{t}=sum _{j=1}^{k}b_{j}x_{tj}+varepsilon =x_{t}^{T}b+varepsilon _{t}} .

Пусть y — вектор-столбец наблюдений объясняемой переменной, а X {displaystyle X} — это ( n × k ) {displaystyle ({n imes k})} -матрица наблюдений факторов (строки матрицы — векторы значений факторов в данном наблюдении, по столбцам — вектор значений данного фактора во всех наблюдениях). Матричное представление линейной модели имеет вид:

y = X b + ε {displaystyle y=Xb+varepsilon } .

Тогда вектор оценок объясняемой переменной и вектор остатков регрессии будут равны

y ^ = X b , e = y − y ^ = y − X b {displaystyle {hat {y}}=Xb,quad e=y-{hat {y}}=y-Xb} .

соответственно сумма квадратов остатков регрессии будет равна

R S S = e T e = ( y − X b ) T ( y − X b ) {displaystyle RSS=e^{T}e=(y-Xb)^{T}(y-Xb)} .

Дифференцируя эту функцию по вектору параметров b {displaystyle b} и приравняв производные к нулю, получим систему уравнений (в матричной форме):

( X T X ) b = X T y {displaystyle (X^{T}X)b=X^{T}y} .

В расшифрованной матричной форме эта система уравнений выглядит следующим образом:

( ∑ x t 1 2 ∑ x t 1 x t 2 ∑ x t 1 x t 3 … ∑ x t 1 x t k ∑ x t 2 x t 1 ∑ x t 2 2 ∑ x t 2 x t 3 … ∑ x t 2 x t k ∑ x t 3 x t 1 ∑ x t 3 x t 2 ∑ x t 3 2 … ∑ x t 3 x t k ⋮ ⋮ ⋮ ⋱ ⋮ ∑ x t k x t 1 ∑ x t k x t 2 ∑ x t k x t 3 … ∑ x t k 2 ) ( b 1 b 2 b 3 ⋮ b k ) = ( ∑ x t 1 y t ∑ x t 2 y t ∑ x t 3 y t ⋮ ∑ x t k y t ) , {displaystyle {egin{pmatrix}sum x_{t1}^{2}&sum x_{t1}x_{t2}&sum x_{t1}x_{t3}&ldots &sum x_{t1}x_{tk}sum x_{t2}x_{t1}&sum x_{t2}^{2}&sum x_{t2}x_{t3}&ldots &sum x_{t2}x_{tk}sum x_{t3}x_{t1}&sum x_{t3}x_{t2}&sum x_{t3}^{2}&ldots &sum x_{t3}x_{tk}vdots &vdots &vdots &ddots &vdots sum x_{tk}x_{t1}&sum x_{tk}x_{t2}&sum x_{tk}x_{t3}&ldots &sum x_{tk}^{2}end{pmatrix}}{egin{pmatrix}b_{1}b_{2}b_{3}vdots b_{k}end{pmatrix}}={egin{pmatrix}sum x_{t1}y_{t}sum x_{t2}y_{t}sum x_{t3}y_{t}vdots sum x_{tk}y_{t}end{pmatrix}},} где все суммы берутся по всем допустимым значениям t {displaystyle t} .

Если в модель включена константа (как обычно), то x t 1 = 1 {displaystyle x_{t1}=1} при всех t {displaystyle t} , поэтому в левом верхнем углу матрицы системы уравнений находится количество наблюдений n {displaystyle n} , а в остальных элементах первой строки и первого столбца — просто суммы значений переменных: ∑ x t j {displaystyle sum x_{tj}} и первый элемент правой части системы — ∑ y t {displaystyle sum y_{t}} .

Решение этой системы уравнений и дает общую формулу МНК-оценок для линейной модели:

b ^ O L S = ( X T X ) − 1 X T y = ( 1 n X T X ) − 1 1 n X T y = V x − 1 C x y {displaystyle {hat {b}}_{OLS}=(X^{T}X)^{-1}X^{T}y=left({frac {1}{n}}X^{T}X ight)^{-1}{frac {1}{n}}X^{T}y=V_{x}^{-1}C_{xy}} .

Для аналитических целей оказывается полезным последнее представление этой формулы (в системе уравнений при делении на n вместо сумм фигурируют средние арифметические). Если в регрессионной модели данные центрированы, то в этом представлении первая матрица имеет смысл выборочной ковариационной матрицы факторов, а вторая — вектор ковариаций факторов с зависимой переменной. Если кроме того данные ещё и нормированы на СКО (то есть в конечном итоге стандартизированы), то первая матрица имеет смысл выборочной корреляционной матрицы факторов, второй вектор — вектора выборочных корреляций факторов с зависимой переменной.

Немаловажное свойство МНК-оценок для моделей с константой — линия построенной регрессии проходит через центр тяжести выборочных данных, то есть выполняется равенство:

y ¯ = b 1 ^ + ∑ j = 2 k b ^ j x ¯ j {displaystyle {ar {y}}={hat {b_{1}}}+sum _{j=2}^{k}{hat {b}}_{j}{ar {x}}_{j}} .

В частности, в крайнем случае, когда единственным регрессором является константа, получаем, что МНК-оценка единственного параметра (собственно константы) равна среднему значению объясняемой переменной. То есть среднее арифметическое, известное своими хорошими свойствами из законов больших чисел, также является МНК-оценкой — удовлетворяет критерию минимума суммы квадратов отклонений от неё.

Простейшие частные случаи

В случае парной линейной регрессии y t = a + b x t + ε t {displaystyle y_{t}=a+bx_{t}+varepsilon _{t}} , когда оценивается линейная зависимость одной переменной от другой, формулы расчёта упрощаются (можно обойтись без матричной алгебры). Система уравнений имеет вид:

( n ∑ t = 1 n x t ∑ t = 1 n x t ∑ t = 1 n x t 2 ) ( a b ) = ( ∑ t = 1 n y t ∑ t = 1 n x t y t ) {displaystyle {egin{pmatrix}n&sum _{t=1}^{n}x_{t}sum _{t=1}^{n}x_{t}&sum _{t=1}^{n}x_{t}^{2}end{pmatrix}}{egin{pmatrix}abend{pmatrix}}={egin{pmatrix}sum _{t=1}^{n}y_{t}sum _{t=1}^{n}x_{t}y_{t}end{pmatrix}}} .

Отсюда несложно найти оценки коэффициентов:

{ b ^ = n ∑ t = 1 n x t y t − ( ∑ t = 1 n x t ) ( ∑ t = 1 n y t ) n ∑ t = 1 n x t 2 − ( ∑ t = 1 n x t ) 2 , a ^ = ∑ t = 1 n y t − b ^ ∑ t = 1 n x t n . {displaystyle {egin{cases}{hat {b}}={frac {nsum _{t=1}^{n}x_{t}y_{t}-left(sum _{t=1}^{n}x_{t} ight)left(sum _{t=1}^{n}y_{t} ight)}{nsum _{t=1}^{n}x_{t}^{2}-left(sum _{t=1}^{n}x_{t} ight)^{2}}},{hat {a}}={frac {sum _{t=1}^{n}y_{t}-{hat {b}}sum _{t=1}^{n}x_{t}}{n}}.end{cases}}}

Несмотря на то, что в общем случае модели с константой предпочтительней, в некоторых случаях из теоретических соображений известно, что константа a {displaystyle a} должна быть равна нулю. Например, в физике зависимость между напряжением и силой тока имеет вид U = I ⋅ R {displaystyle U=Icdot R} ; замеряя напряжение и силу тока, необходимо оценить сопротивление. В таком случае речь идёт о модели y = b x {displaystyle y=bx} . В этом случае вместо системы уравнений имеем единственное уравнение

( ∑ x t 2 ) b = ∑ x t y t {displaystyle left(sum x_{t}^{2} ight)b=sum x_{t}y_{t}} .

Следовательно, формула оценки единственного коэффициента имеет вид

b ^ = ∑ t = 1 n x t y t ∑ t = 1 n x t 2 {displaystyle {hat {b}}={frac {sum _{t=1}^{n}x_{t}y_{t}}{sum _{t=1}^{n}x_{t}^{2}}}} .

Случай полиномиальной модели

Если данные аппроксимируются полиномиальной функцией регрессии одной переменной f ( x ) = b 0 + ∑ i = 1 k b i x i {displaystyle f(x)=b_{0}+sum limits _{i=1}^{k}b_{i}x^{i}} , то, воспринимая степени x i {displaystyle x^{i}} как независимые факторы для каждого i {displaystyle i} можно оценить параметры модели исходя из общей формулы оценки параметров линейной модели. Для этого в общей формуле достаточно учесть, что при такой интерпретации x t i x t j = x t i x t j = x t i + j {displaystyle x_{ti}x_{tj}=x_{t}^{i}x_{t}^{j}=x_{t}^{i+j}} и x t j y t = x t j y t {displaystyle x_{tj}y_{t}=x_{t}^{j}y_{t}} . Следовательно, матричные уравнения в данном случае примут вид:

( n ∑ n x t … ∑ n x t k ∑ n x t ∑ n x t 2 … ∑ n x t k + 1 ⋮ ⋮ ⋱ ⋮ ∑ n x t k ∑ n x t k + 1 … ∑ n x t 2 k ) [ b 0 b 1 ⋮ b k ] = [ ∑ n y t ∑ n x t y t ⋮ ∑ n x t k y t ] . {displaystyle {egin{pmatrix}n&sum limits _{n}x_{t}&ldots &sum limits _{n}x_{t}^{k}sum limits _{n}x_{t}&sum limits _{n}x_{t}^{2}&ldots &sum limits _{n}x_{t}^{k+1}vdots &vdots &ddots &vdots sum limits _{n}x_{t}^{k}&sum limits _{n}x_{t}^{k+1}&ldots &sum limits _{n}x_{t}^{2k}end{pmatrix}}{egin{bmatrix}b_{0}b_{1}vdots b_{k}end{bmatrix}}={egin{bmatrix}sum limits _{n}y_{t}sum limits _{n}x_{t}y_{t}vdots sum limits _{n}x_{t}^{k}y_{t}end{bmatrix}}.}

Статистические свойства МНК-оценок

В первую очередь отметим, что для линейных моделей МНК-оценки являются линейными оценками, как это следует из вышеприведённой формулы. Для несмещённости МНК-оценок необходимо и достаточно выполнения важнейшего условия регрессионного анализа: условное по факторам математическое ожидание случайной ошибки должно быть равно нулю. Данное условие, в частности, выполнено, если

  • математическое ожидание случайных ошибок равно нулю и
  • факторы и случайные ошибки — независимые случайные величины.
  • Первое условие для моделей с константой можно считать выполненным всегда, так как константа берёт на себя ненулевое математическое ожидание ошибок (поэтому модели с константой в общем случае предпочтительнее).

    Второе условие — условие экзогенности факторов — принципиальное. Если это свойство не выполнено, то можно считать, что практически любые оценки будут крайне неудовлетворительными: они не будут даже состоятельными (то есть даже очень большой объём данных не позволяет в этом случае получить качественные оценки). В классическом случае делается более сильное предположение о детерминированности факторов, в отличие от случайной ошибки, что автоматически означает выполнение условия экзогенности. В общем случае для состоятельности оценок достаточно выполнения условия экзогенности вместе со сходимостью матрицы V x {displaystyle V_{x}} к некоторой невырожденной матрице при увеличении объёма выборки до бесконечности.

    Для того, чтобы кроме состоятельности и несмещённости, оценки (обычного) МНК были ещё и эффективными (наилучшими в классе линейных несмещённых оценок), необходимо выполнение дополнительных свойств случайной ошибки:

    • Постоянная (одинаковая) дисперсия случайных ошибок во всех наблюдениях (отсутствие гетероскедастичности): V ( ε t ) = σ 2 = c o n s t {displaystyle V(varepsilon _{t})=sigma ^{2}=const} .
    • Отсутствие корреляции (автокорреляции) случайных ошибок в разных наблюдениях между собой c o v ( ε i , ε j ) = 0 ∀ 1 ≤ i < j ≤ n {displaystyle cov(varepsilon _{i},varepsilon _{j})=0quad forall 1leq i<jleq n} .

    Данные предположения можно сформулировать для ковариационной матрицы вектора случайных ошибок V ( ε ) = σ 2 I {displaystyle V(varepsilon )=sigma ^{2}I} .

    Линейная модель, удовлетворяющая таким условиям, называется классической. МНК-оценки для классической линейной регрессии являются несмещёнными, состоятельными и наиболее эффективными оценками в классе всех линейных несмещённых оценок (в англоязычной литературе иногда употребляют аббревиатуру BLUE (Best Linear Unbiased Estimator) — наилучшая линейная несмещённая оценка; в отечественной литературе чаще приводится теорема Гаусса — Маркова). Как нетрудно показать, ковариационная матрица вектора оценок коэффициентов будет равна:

    V ( b ^ O L S ) = σ 2 ( X T X ) − 1 {displaystyle V({hat {b}}_{OLS})=sigma ^{2}(X^{T}X)^{-1}} .

    Эффективность означает, что эта ковариационная матрица является «минимальной» (любая линейная комбинация оценок коэффициентов, и в частности сами оценки коэффициентов имеют минимальную дисперсию), то есть в классе линейных несмещённых оценок оценки МНК-наилучшие. Диагональные элементы этой матрицы — дисперсии оценок коэффициентов — важные параметры качества полученных оценок. Однако рассчитать ковариационную матрицу невозможно, поскольку дисперсия случайных ошибок неизвестна. Можно доказать, что несмещённой и состоятельной (для классической линейной модели) оценкой дисперсии случайных ошибок является величина:

    s 2 = R S S / ( n − k ) {displaystyle s^{2}=RSS/(n-k)} .

    Подставив данное значение в формулу для ковариационной матрицы, получим оценку ковариационной матрицы. Полученные оценки также являются несмещёнными и состоятельными. Важно также то, что оценка дисперсии ошибок (а значит и дисперсий коэффициентов) и оценки параметров модели являются независимыми случайными величинами, что позволяет получить тестовые статистики для проверки гипотез о коэффициентах модели.

    Необходимо отметить, что если классические предположения не выполнены, МНК-оценки параметров не являются наиболее эффективными оценками (оставаясь несмещёнными и состоятельными). Однако ещё более ухудшается оценка ковариационной матрицы: она становится смещённой и несостоятельной. Это означает, что статистические выводы о качестве построенной модели в таком случае могут быть крайне недостоверными. Одним из вариантов решения этой проблемы является применение специальных оценок ковариационной матрицы, которые являются состоятельными при нарушениях классических предположений (стандартные ошибки в форме Уайта и стандартные ошибки в форме Ньюи-Уеста). Другой подход заключается в применении так называемого обобщённого МНК.

    Обобщённый МНК

    Метод наименьших квадратов допускает широкое обобщение. Вместо минимизации суммы квадратов остатков можно минимизировать некоторую положительно определённую квадратичную форму от вектора остатков e T W e {displaystyle e^{T}We} , где W {displaystyle W} — некоторая симметрическая положительно определённая весовая матрица. Обычный МНК является частным случаем данного подхода, когда весовая матрица пропорциональна единичной матрице. Как известно, для симметрических матриц (или операторов) существует разложение W = P T P {displaystyle W=P^{T}P} . Следовательно, указанный функционал можно представить следующим образом: e T P T P e = ( P e ) T P e = e ∗ T e ∗ {displaystyle e^{T}P^{T}Pe=(Pe)^{T}Pe=e_{*}^{T}e_{*}} , то есть этот функционал можно представить как сумму квадратов некоторых преобразованных «остатков». Таким образом, можно выделить класс методов наименьших квадратов — LS-методы (Least Squares).

    Доказано (теорема Айткена), что для обобщённой линейной регрессионной модели (в которой на ковариационную матрицу случайных ошибок не налагается никаких ограничений) наиболее эффективными (в классе линейных несмещённых оценок) являются оценки т. н. обобщённого МНК (ОМНК, GLS — Generalized Least Squares) — LS-метода с весовой матрицей, равной обратной ковариационной матрице случайных ошибок: W = V ε − 1 {displaystyle W=V_{varepsilon }^{-1}} .

    Можно показать, что формула ОМНК-оценок параметров линейной модели имеет вид

    b ^ G L S = ( X T V − 1 X ) − 1 X T V − 1 y {displaystyle {hat {b}}_{GLS}=(X^{T}V^{-1}X)^{-1}X^{T}V^{-1}y} .

    Ковариационная матрица этих оценок соответственно будет равна

    V ( b ^ G L S ) = ( X T V − 1 X ) − 1 {displaystyle V({hat {b}}_{GLS})=(X^{T}V^{-1}X)^{-1}} .

    Фактически сущность ОМНК заключается в определённом (линейном) преобразовании (P) исходных данных и применении обычного МНК к преобразованным данным. Цель этого преобразования — для преобразованных данных случайные ошибки уже удовлетворяют классическим предположениям.

    Взвешенный МНК

    В случае диагональной весовой матрицы (а значит и ковариационной матрицы случайных ошибок) имеем так называемый взвешенный МНК. В данном случае минимизируется взвешенная сумма квадратов остатков модели, то есть каждое наблюдение получает «вес», обратно пропорциональный дисперсии случайной ошибки в данном наблюдении: e T W e = ∑ t = 1 n e t 2 σ t 2 {displaystyle e^{T}We=sum _{t=1}^{n}{frac {e_{t}^{2}}{sigma _{t}^{2}}}} . Фактически данные преобразуются взвешиванием наблюдений (делением на величину, пропорциональную предполагаемому стандартному отклонению случайных ошибок), а к взвешенным данным применяется обычный МНК.