3Шум, смещение и разброс

3.1Напоминание: постановка задачи

Пусть есть пара случайных величин и данные , являющиеся выборкой из . Иными словами, мы считаем, что каждая из пар распределена в соответствии с распределением и все пары независимы в совокупности. (При этом конечно не является независимым с .) Будем обозначать распределение через (распределение действительно является декартовой степенью распределения в силу независимости).

Пусть , . Чаще всего , где — количество признаков. Мы также сейчас будем считать, что , то есть мы рассматриваем задачу регрессии (предсказания числовой переменной).

Алгоритм машинного обучения принимает на вход данные и возвращает функцию , которая предсказывает значение по данному набору признаков . Функция называется обученным алгоритмом. Формально:

Для оценки качества предсказаний задана некоторая функция потерь
Величина измеряет, насколько нам плохо от того, что при правильном ответе мы предсказали . Сегодня на протяжении всей лекции мы будем рассматривать квадратичную функцию потерь:
На прошлой лекции мы показали, что для квадратичной функции потерь самое лучшее предсказание — это матожидание условного распределения:
Проблема состоит в том, что на практике мы никогда не знаем истинное распределение и таким образом не можем найти матожидание (3.1). Вместо этого мы используем данные для нахождения некоторого приближения .

3.2Ожидаемая ошибка

Пусть мы получили некоторые данные , обучили на них алгоритм и получили предсказывающую функцию . Мы хотим минимизировать ожидаемую ошибку предсказания на новом объекте , полученном из того же распределения . Однако, теперь нам необходимо учесть, что не только новый объект является случайной величиной, но и данные мы рассматриваем как случайную величину — разные обучающие выборки будут приводить к разным функциям , которые будут давать разные предсказания. Таким образом, нас интересует следующая ожидаемая ошибка:
где распределено как , распределено как и независимо от . Введём обозначения: Для фиксированного , — это некоторая случайная величина (т.к. она зависит от , которая также случайная величина). Обозначим распределение для фиксированного через .

С помощью леммы 1 из предыдущей лекции можно переписать (3.2) следующим образом:

где и независимы. Последнее следует из того факта, что мы считаем независимым от . Иными словами, то, какие данные мы имеем, само по себе никак не влияет на процесс генерирования нового объекта — это выглядит вполне реалистичным предположением.

Теперь мы будем оценивать внутреннее матожидание в (3.5) для фиксированного .

3.3Разложение ожидаемой ошибки

Теорема 1. Ожидаемая квадратичная ошибка представляется следующим образом:
где , , и независимы. Первое слагаемое в сумме называется смещением (bias), оно показывает систематическую ошибку алгоритма — отклонение усредненного предсказания от идеального предсказания . Второе слагаемое называется шумом (noise), оно не зависит от алгоритма, а зависит только от истинного распределения . Шум равен ожидаемой ошибке идеального предсказывающего алгоритма. Наконец, третье слагаемое назыается разбросом (variance), оно показывает, насколько разными могут получаться предсказания если обучать алгоритм на разных обучающих выборках. Иными словами, оно показывает чувствительность алгоритма по отношению к данным.

Доказательство. Начнём с алгебраических преобразований: Выражение является просто числом, не случайной величиной, поэтому его матожидание равно ему самому и его можно выносить за знак матожидания. Поэтому (3.7) совпадает с искомым разложением. (Напомним, что по определению дисперсия .) Остаётся доказать, что оставшиеся слагаемые нулевые.

В (3.8) вынесем за матожидание и заметим, что , т.к. матожидание матожидания равно матожиданию. Таким образом, слагаемое (3.8) равно нулю. Аналогично доказывается, что слагаемое (3.10) равно нулю. В слагаемом (3.9) записана (с точностью до знака) ковариация случайных величин и . Она равна нулю при условии, что случайные велиины независимы.

3.4Пример: метод k ближайших соседей (k-NN)

Метод k ближайших соседей (k nearest neighbors, k-NN) — простейший метод машинного обучения. Для задачи регрессии он основан на непосредственной оценке идеального предсказания по выборке:
где — множество индексов элементов , являющихся ближайшими соседями к .

Для примера, рассмотрим распределение , заданное следующим образом: Что можно сказать о смещении и разбросе для kNN при различных ? Рассмотрим экстремальные случаи — и . При предсказание равно одному из значений и разброс предсказания примерно равен разбросу условного распределения , то есть . При , предсказание в любой точке есть среднее от всех , ( — общий размер выборки). Разброс предсказаний теперь равен (см. параграф 1.4.3).

Что происходит со смещением? При предсказание не зависит от и его матожидание равно Таким образом, смещене в точках, далёких от , будет большим.

Наоборот, при , , где таково, что является ближайшим соседом . Матожидание предсказания в этом случае равно , а расстояние от до составляет примерно (т.к. точки распределены равномерно). Таким образом, смещение примерно равно и становится сколь угодно маленьким при больших .

В целом, увеличение приводит к тому, что при вычислении в оценку для среднего попадает больше более далёких точек. Это приводит к уменьшению разброса (потому что точек больше), но увеличению смещения (потому что участвуют более далёкие точки). Это означает, что ни слишком маленькие, ни слишком большие значения скорее всего не будут оптимальными. На практике находится путём подбора с помощью кросс-валидации (об этом подробнее на семинаре).

Это пример так называемого bias—variance tradeoff: модель может быть либо очень гибкой, но при этом слишком чувствительной к данным (маленькое смещение, большой разброс), либо слишком грубой, но зато устойчивой (большое смещение, маленький разброс).