|
|
источник статьи: Большая Советская Энциклопедия (БСЭ) |
Стохастическая аппроксимация (от греч. stochastikos — умеющий угадывать, проницательный и лат. approximo — приближаюсь), метод решения широкого класса задач статистического оценивания, при котором каждое следующее значение оценки получается в виде основанной лишь на новом наблюдении поправки к уже построенной оценке. Основными чертами, обусловившими популярность С. а. в теоретических и прикладных работах, явились её непараметричность (применимость при весьма скудной информации об объекте наблюдения) и рекуррентность (простота пересчёта оценки при поступлении нового результата наблюдений). С. а. Применяется во многих прикладных задачах теории управления, обучения, в задачах техники, биологии, медицины. С. а. описана в 1951 американскими статистиками Г. Роббинсом и С. Монро, которые предложили рекуррентный план отыскания корня уравнения регрессии, т. е. корня q уравнения r (x) = a в ситуации, когда каждое измеренное значение ук функции R (x) в точке Xk содержит случайную ошибку. Процедура Роббинса — Монро даётся формулой xK+i = Xk +ак (ук — a). При некоторых условиях на функцию R (x), последовательность ak, стремящуюся к нулю, и на характер случайных ошибок доказано, что Xk ®¥ при увеличении к. Позже метод С. а. был применен и для решения др. задач: отыскания максимума функции регрессии, оценки неизвестных параметров распределения по наблюдениям и др. На основе изучения предельного распределения нормированной разности xk — q построены асимптотически наилучшие процедуры С. а., в которых последовательность ак нужно выбирать зависящей от наблюдений.
Лит.: Вазан М., Стохастическая аппроксимация. пер. с англ., М., 1972; Невельсон М. Б., Хасьминский Р. З., Стохастическая аппроксимация и рекуррентное оценивание, М., 1972. Р. З. Хасьминский.
|