Метод обучения нейронной сети
Среди известных алгоритмов обучения нейронной сети, как показали наши исследования, наиболее оптимальным как по времени, так и по ошибке обучения сети является алгоритм Лсвснбсрга Марквардта. Для описания этого метода представим целевую функцию в виде, отвечающем существованию единственной обучающей выборки,
где е, = [у/(и’)-dj]. При использовании обозначений
e(w) = |
e,(>v) e2(w) |
, J(w) = |
де^ de2 СИ’і |
де^ dw2 де2 dw2 |
de2 |
емМ |
|||||
SeM |
|||||
OHj |
dw2 |
dwn |
(2.4) вектор градиента и аппроксимированная матрица гессиана, соответствующие целевой функции (2.3), определяются в виде
g(w) = [j(w)]re(w), (2.5)
G(w) = [J(w)]r J(w) + R(w), (2.6)
где R(w) обозначены компоненты гессиана H(w), содержащие высшие производные относительно И'.
Сущность подхода Левенберга-Марквардта состоит в аппроксимации R(w) с помощью регуляризационного фактора vl, в котором переменная v, называемая параметром Левенберга-Марквардта, является скалярной величиной, изменяющейся в процессе оптимизации. Таким образом, аппроксимированная матрица гессиана на к-м шаге алгоритма приобретает вид
G(wJl) = p(n.)]rJ(>vi) + vjtl. (2.7)
В начале процесса обучения, когда фактическое значение wk еще далеко от искомого решения (велико значение вектора погрешности е), используется значение параметра, намного превышающее собственное значение матрицы. В таком случае гессиан фактически подменяется регуляризационным фактором:
G(*>) = v*l, (2.8)
а направление минимизации выбирается по методу наискорсйшсго спуска:
Рк =~g(wk')/vk ? (2-9)
По мере уменьшения погрешности и приближения к искомому решению величина параметра vk понижается и первое слагаемое в формуле (2.6) начинает играть все более важную роль.
На эффективность алгоритма влияет грамотный подбор величины vk . Слишком большое начальное значение vk по мере прогресса оптимизации должно уменьшаться вплоть до нуля при достижении фактического решения, близкого к искомому. Известны различные способы подбора этого значения, но мы ограничимся описанием только одной оригинальной методики, предложенной Д. Марквардтом. Пусть значения целевой функции на к-м и (к - 1)-м шагах итерации обозначаются соответственно Ек и Ек., а значения параметра v на этих же шагах -vA, и . Коэффициент уменьшения значения v обозначим причем г - 1. В соответствии с классическим алгоритмом Левенберга-Марквардта значение v изменяется по следующей схеме:
- - если Е(v*_| / г) < Ек , то принять vk = /у ;
- - если E(v^_| /г) > Ек и E(va._|) < Ек , то принять vk = ;
- если Е(Ук-і /г) > Ej. и , то увеличить последовательно
т раз значение v до достижения ?(vjfc_l/г,п) < Ек , одновременно принимая V4=V*.!/г"'.
Такая процедура изменения значения v выполняется до момента, в котором так называемый коэффициент верности отображения q, рассчитываемый по формуле
<7 = т---- --------? (2-Ю)
[Д‘П ] gk + 0,5 [Aw* ] Gkbwk
достигает значения, близкого к единице. При этом квадратичная аппроксимация целевой функции имеет высокую степень совпадения с истинными значениями, что свидетельствует о близости оптимального решения. В такой ситуации регуляризационный фактор в формуле (2.7) может быть опущен (vk = 0), процесс определения гессиана сводится к непосредственной аппроксимации первого порядка, а алгоритм Левенберга-Марквардта превращается в алгоритм Гаусса-Ньютона, характеризующийся квадратичной сходимостью к оптимальному решению.
Основные результаты и выводы но главе 2
- 1. Разработаны конструкции экспериментальных моделей стальных 11-образных рам и представлена методика проведения натурных испытаний.
- 2. Определены виды экспериментов с дефектами грунтового основания характерными для большинства фундаментов мелкого заложения.
- 3. Проведено экспериментальное исследование НДС стальных П-образ-ных рам на деформируемом основании с дефектами.
- 4. Рассмотрен и обоснован математический метод нейронных сетей для обработки экспериментальных данных и получения функциональных зависимостей.