Стохасти'ческая аппроксима'ция (от греч. stochastikos — умеющий угадывать, проницательный и лат. approximo — приближаюсь), метод решения широкого класса задач статистического оценивания , при котором каждое следующее значение оценки получается в виде основанной лишь на новом наблюдении поправки к уже построенной оценке. Основными чертами, обусловившими популярность С. а. в теоретических и прикладных работах, явились её непараметричность (применимость при весьма скудной информации об объекте наблюдения) и рекуррентность (простота пересчёта оценки при поступлении нового результата наблюдений). С. а. Применяется во многих прикладных задачах теории управления, обучения, в задачах техники, биологии, медицины. С. а. описана в 1951 американскими статистиками Г. Роббинсом и С. Монро, которые предложили рекуррентный план отыскания корня уравнения регрессии , т. е. корня q уравнения r (x) = a в ситуации, когда каждое измеренное значение у к функции R (x ) в точке X k содержит случайную ошибку. Процедура Роббинса — Монро даётся формулой x K+ i = X k +а к (у к — a). При некоторых условиях на функцию R (x ), последовательность a k , стремящуюся к нулю, и на характер случайных ошибок доказано, что X k ®¥ при увеличении к. Позже метод С. а. был применен и для решения др. задач: отыскания максимума функции регрессии, оценки неизвестных параметров распределения по наблюдениям и др. На основе изучения предельного распределения нормированной разности x k — q построены асимптотически наилучшие процедуры С. а., в которых последовательность а к нужно выбирать зависящей от наблюдений.
Лит.: Вазан М., Стохастическая аппроксимация. пер. с англ., М., 1972; Невельсон М. Б., Хасьминский Р. З., Стохастическая аппроксимация и рекуррентное оценивание, М., 1972.
Р. З. Хасьминский.