Популярное

Мифы о звукоизоляции



Как построить дом из пеноблоков



Как построить лестницы на садовом участке



Подбираем краску для ремонта



Каркасные дома из дерева


Главная » Использование псевдообращения в

ИСПОЛЬЗОВАНИЕ ПСЕВДООБРАЩЕНИЯ В ЗАДАЧАХ ОБУЧЕНИЯ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ

Сараев П.В.(scorp@adm.les.lipetsk.ru)

Липецкий государственный технический университет

Введение

В настоящее время искусственные нейронные сети прямого распространения являются мощным инструментом анализа информации различного рода. Прежде чем использовать их для решения каких-либо задач, вначале необходимо произвести их обучение, то есть настроить веса по набору входных данных и соответствующих им указаний учителя. Веса сети определяются таким образом, чтобы минимизировать некоторый функционал качества, оценивающий меру близости указаний учителя и модельных откликов сети, в качестве которого в подавляющем большинстве случаев берется сумма квадратов их отклонений. В такой постановке задача обучения нейронной сети оказывается нелинейной задачей о наименьших квадратах. Для ее решения может применяться богатый аппарат теории оптимизации, что обычно и делается при обучении искусственных нейронных сетей.

Широко распространенные в обучении нейронных сетей методы сопряженных градиентов, хотя и являются эффективным средством решения задач оптимизации, рассчитаны на довольно большой класс оптимизируемых функций, а потому не учитывают то обстоятельство, что в качестве минимизируемого функционала выступает сумма квадратов. Существуют, однако, и методы, принимающие во внимание специфику задачи [1]. Одним из методов данного класса является метод Гаусса-Ньютона, при использовании которого приходится обращать некоторую матрицу. В случае вырожденности матрицы можно прибегнуть к одному из двух способов: использовать регуляризацию, что приводит к методу Левенберга-Маркварта, либо применять механизм псевдообращения [2]. В данной работе рассмотрены возможности использования псевдообратных матриц для обучения искусственных нейронных сетей прямого распространения. Предполагается знакомство читателя с базовыми понятиями теории нейронных сетей (структурой, методом обратного распространения ошибки), оптимизации и псевдообращением.

1 Блочные рекуррентно-итерационные алгоритмы

Рассмотрим m-слойную сеть прямого распространения, учитывая входной слой отдельно, то есть не включая его в m слоев. Пусть y(w,x) - выход сети, зависящий от вектора параметров (весов) w е Шп и входного вектора x е R1. Без существенного ограничения общности будем предполагать, что выход является скалярным, то есть y(w,x) е R1. Задачу обучения нейронной сети можно сформулировать следующим образом.

Пусть задано k обучающих пар вход-выход (xi,bi),i = 1,...,k, xi е Ш - некоторый входной вектор, а bi е R1 - соответствующий ему выход (указание учителя). Тогда ri(w) = y(w,xi) - bi,i = 1,...,k - ошибка работы сети на i-ом обучающем при-



мере, а R(w) = [ r\(w) r2(w) ... rk(w) ]T = y(w) - b - невязка нейронной сети, где y(w) = [ y(w,xi) y(w,x2) ... y(w,xk) ]T - вектор выходов сети на обучающих данных, а b - вектор указаний учителя. Требуется минимизировать квадратичный функционал

качества f (w) = R(w)2 = R(w)TR(w) = r (w), то есть решить нелинейную задачу о

наименьших квадратах: найти

w* = arg min f (w). (1)

Алгоритм Гаусса-Ньютона - модификация метода Ньютона, учитывающая квадратичность минимизируемого функционала - может быть получен двумя способами. Суть первого состоит в аппроксимации матрицы Гессе, возникающей в методе Ньютона, путем замены функционала качества f (w) на его квадратичную модель [3] и дальнейшим применением необходимого условия оптимума. Другой подход к построению подобных методов состоит в предварительной линеаризации функции невязки R(w) в окрестности текущей точки wc [1] итерационного процесса решения нелинейной оптимизационной задачи:

R(w) и R(wc) + VTWR(wc)Aw,

здесь VWR(wc) - транспонированная матрица Якоби. Задача (1) заменяется линейной: найти

w* = arg min y(wj - b + VWy(wc)Aw2,

где wc - вектор весов на текущей итерации, w+ - на следующей. В данной записи учтено, что VWR(w) = VTy(w). В соответствии с [4], решение данной задачи (эквивалентное псевдорешению уравнения Vy(wc)Aw = b - y(wc)), с использованием псевдообращения записывается в виде

Aw = (VW y(wc))+(b - y(wc)),w+ = wc + Aw. (2)

Вывод алгоритма Гаусса-Ньютона опирается на квадратичность функционала. Метод обратного распространения ошибки [3, 5], как хорошо известно, является по существу способом эффективного нахождения градиента минимизируемого функционала по вектору весов, учитывающим суперпозиционный характер сети. Нетрудно заметить, что для вычисления матрицы VWy(wc) может быть применена процедура, аналогичная методу обратного распространения ошибки. При этом процедура построения матрицы Якоби в (2) даже несколько упрощается, в связи с тем, что ищется производная не функционала, а выхода сети.

Дальнейшая реализация алгоритма (2) может быть выполнена без учета структуры сети: вычисляется псевдообратная матрица (VWy(wc))+ с последующей корректировкой весов сети. Однако подход, предложенный в [4], позволяет более полно использовать суперпозиционный характер структуры нейронной сети. В его основе лежит формула блочного псевдообращения матрицы - формула Клайна [2]:

[ A B ]+ =

Л+(1- BL-П

L = C+ + (I - C+C)KBT (A+)T A+(I - BC+), C = (I - AA+)B,K = (I + MT M )-l,M = A+B(I - C+C).



Формула Клайна может быть использована для рекуррентного нахождения блочной псевдообратной матрицы, что может рекомендоваться преимуществами вычислительного характера, имеющими место при псевдообращения небольших матриц. В [4] были рассмотрены алгоритмы, основанные на блочном псевдообращении, в применении к задачам пошаговой регрессии, связанным с добавлением новых параметров в регрессионную модель. В применении к нейронным сетям разработанные алгоритмы приобретают новые акценты. В то время как в [4] разбиение вектора параметров модели мотивировалось расширением модели путем суперпозиции исходной модели и новых параметров, нейронные сети по своей природе обладают суперпозиционной структурой, позволяющей естественным образом разбивать вектор сети на составные части.

В случае двухслойной сети (m = 2) формула (2) может быть представлена в следующем виде:

] = [ VWiy(wc)) VW2y(wc)) ]+ (b - y(wc)), а с учетом формулы Клайна:

Aw1 1 = г (VTwly(wc))+(I - (VW2y(wc))L) 1 (b y(w ))

Aw2 j = [ L \ (b y(wc))

где Aw1 - вектор весов 1-го (скрытого) слоя, а Aw2 - вектор весов 2-го (выходного) слоя. Тогда

Aw2 = L(b y(wc))

Aw1 = (VWi y(wc))+(b - y(wc) - (V2 y(wc))Aw2).

В принципе, вектор w может быть разбит на подвекторы произвольным образом. Рассмотрим один из вариантов разбиения, позволяющий эффективно организовать процесс добавления новых нейронов, то есть наращивания нейронной сети.

Рассмотрим случай стандартных нейронных сетей. Стандартной сетью прямого распространения, или полутораслойным предиктором, называется сеть с двумя слоями, у которой в скрытом слое у каждого нейрона одна и та же нелинейная функция активации, а в выходном слое, состоящем из одного элемента, имеется только адаптивный сумматор,

то есть его функция активации является линейной. Такая сеть реализует функцию вида

y(w,x) = wif (Y wijxj). Сети данной структуры, являющиеся универсальными аппрок-

симаторами нелинейных непрерывных функций, играют важную роль в мире нейронных сетей.

Предположим, что мы обучаем такую сеть и на определенном шаге обучения понимаем, что данная сеть не способна обеспечить желаемую точность. Возникает необходимость во введении дополнительных весов, что может быть реализовано добавлением нейрона в скрытый слой. Новый нейрон приводит к появлению аддитивной добавки

y(w,x) = wZ;q+1/(J] wq+1,j xj), где w = [ wq+1,1 ... wjq+1,1 wjq+1 ]. В результате

получившаяся сеть будет иметь вид ynew(w,w; x) = y(w,x) + y(w,x). Алгоритм Гаусса-Ньютона с псевдообращением для оптимизации новой сети примет вид:

All! = [ VWynew (wc,wl;c) VWynew (w0 ]+ (b - ynew (wc)).



Благодаря тому, что вводится аддитивная добавка, корректировка весов может быть представлена в следующей форме [4]:

Aw = L(b - yneW (wc,wbc)) = L(b - y(wc,wbc) - y(wc,wvc)), (4)

Aw = (Aw)y - (Vw y(wc,wjc))+(y(wc,iuc) + VW y(wc,iuc)Aiu),

где (Aw)y - приращение, полученное для первоначальной сети y(w,x), обозначенное так для отличия его от Aw.

Данные формулы легче понять, если иметь в виду те обстоятельства, что с одной стороны, у нас имеется одна сеть (с выходом ynew(w,wo,x)), а с другой - то, что она состоит из двух частей: исходной (y(w,x)) и добавочной (y(w,x)). На каждой итерации обучения производится следующая последовательность действий:

1) определяется вектор (Aw)y, считая, что существует только исходная сеть, а никаких нейронов не добавлялось; при этом никакие веса не корректируются;

2) определяется величина Aw для настройки весов добавленного нейрона (при вычислении которой необходимы, однако, и результаты работы исходной сети);

3) с учетом ранее найденных приращений (Aw)y и Aw рассчитывается величина Aw для настройки весов исходной сети, являющейся теперь частью совокупной сети;

4) вычисляется следующее значение весов [ w+ w+ ].

Следует обратить внимание на следующее: если исходная сеть была полностью обучена (то есть величина коррекции на определенном этапе получилась столь малой, что итерационный процесс обучения был прекращен), при добавлении нового нейрона может возникнуть желание считать, что всегда (Aw)y = 0. Данное предположение является, однако, неверным, так как корректировка весов составной сети осуществляется не после 1-го шага процесса, а после 3-го.

2 Метод Голуба-Перейры

В обучении нейронных сетей стандартной структуры аппарат псевдообращения может получить и другое интересное применение [6, 7]. Определяющим моментом является разделение весов стандартной сети на две части: линейно входящие в модель веса wi,i = 1,... ,q, и нелинейно входящие wij,i = 1,... ,n,j = 1,... ,l. Как указывалось в [1], задача параметрической идентификации такой линейно-нелинейной модели рассматривалась в [8]. В данной работе мы приведем вывод метода обучения нейронных сетей, использующего линейно-нелинейную структуру стандартной нейронной сети.

Введем следующие обозначения vi = [ vi0 Уц ... ьц ]T = [ wi0 wn ... wa ]T, i = 1,...,q - вектор весов i-го нейрона скрытого слоя, v = [ vT vT ... vT ]T e Rp - совокупный вектор весов скрытого слоя, u = [ u\ u2 ... uq ]T = [ w\ w2 ... wq ]T -вектор весов выходного нейрона. В приведенных обозначениях функционирование может быть представлено в виде

y(u, v; x) = ip(v, x)Tu,

i)(v,x)T =[ f(vi,x) f(v2,x) ... f(vl,x)},



здесь f (vi,x) - выход i-го нейрона скрытого слоя. Так как веса u входят в модель линейно, при минимизации квадратичного функционала f(u,v) = (v)u - Ъ|2, Ф(v) = [ (v,xi) (v,x2) ... V(v,xk) ]T - матрица, построенная из ф(ги,х) на массиве данных, то для любого фиксированного v* справедливо следующее:

min f (и, v*)

достигается при

u* = Ф(v*)+Ъ. (5)

При этом задача минимизации функционала f (u,v) = Ф(v)u-Ъ|2 является эквивалентной задаче минимизации

g(v) = Ф^)Ф^)+Ъ - Ъ|2. (6)

Как видно, можно настраивать лишь нелинейно входящие веса v для минимизации (6), веса u после этого получатся автоматически. Естественно, снижение размерности оптимизационной задачи не получается бесплатно: теперь мы должны оптимизировать более сложную, чем исходная, функцию.

Самая большая трудность при реализации алгоритма обучения состоит в нахождении матрицы Якоби функции H(v) = Ф^)Ф^)+Ъ - Ъ = (Ф^)Ф^)+ - I)Ъ по вектору v. Сложность состоит в том, что производную по вектору приходится брать от матрицы Ф^)Ф^)+. К счастью, для этого необязательно переходить в класс кубических матриц, для этого можно использовать обычные блочные матрицы, если воспользоваться операцией 0 тензорного произведения матриц. Так, в общем случае для производной произведения двух матриц по третьей, верна следующая формула [3]:

= И(/р 0 C + (Is 0 A)Iе = A(Ip 0 C) + (Is 0 A)C,

где B £ Rsxp, Ip - единичная матрица порядка p. Производную матрицы по вектору будем рассматривать как производную по вектор-строке, а не по вектор-столбцу. Это связано с характером вычисления матрицы Якоби - там градиенты элементов вектора заносятся в получающуюся матрицу транспонированными - для получения матрицы, а не вектора-столбца. Далее мы не будем указывать аргументы у матриц .

Вначале найдем производную обратной матрицы по вектору(-строке). Так как (ZZ= Z(Ip 0 Z-1) + Z(Z 1У = I = 0, следовательно,

(Z= -Z-1Z(Ip 0 Z(7)

Будем предполагать, что матрица Ф имеет полный столбцовый ранг. В этом случае Ф+ = (ФтФ)-1ФТ. Заметим, что данное предположение не является каким-либо ограничением при реализации нейронных сетей. Дело в том, что матрица Ф будет иметь хотя бы два линейно зависимых столбца, если на всех обучающих примерах хотя бы два нейрона скрытого слоя будут давать всегда одни и те же значения на выходе. А это возможно практически лишь в том случае, когда у этих нейронов все веса будут одинаковыми, но так как далее выходы нейронов скрытого слоя адаптивно суммируются, то оставив лишь один из таких нейронов, мы ничего не потеряем. Итак,

(Ф+) = [(ФтФ)-1ФТ] = [(ФтФ)-1](Ip 0 Фт) + (ФтФ)-1(ФТ).



Учитывая (7), получаем

(4+) = - (4T4)-1(4T)(Ip 0 4)(Ip 0 (4T4)-1 )(Ip 0 4T) -

- (4T4)-14T4(Ip 0 (4T4)-1)(Ip 0 4T) + (4T4)-1(4T).

Используя известное свойство (Л0B)(C0D) = (AC)0(BD), видим, что (Ip0B)(Ip0D) = (IPIP) 0 (BD) = Ip 0 (BD), и поэтому

(4+) = y+y+T(yT)(Ikp - (Ip 0 4)4)+)) - y+y(Ip 0

Но Ikp = Ip 0 Ik, тогда Ikp - (Ip 0 44+) = Ip 0 Ik - (Ip 0 44+) = Ip 0 (Ik - 44+), а значит,

(4+) = 4+4+T(4T)(Ip 0 (Ik - 44+)) - 4+4(Ip 0 4+). (8)

В случае, если ранг матрицы 4 меньше ее столбцового и строчного размеров, необходимо использовать скелетное разложение 4 = BC, где B - матрица полного столбцового, а C - матрица полного строкового ранга. Для B справедлива формула (8), для C можно аналогично вывести формулу

(C+) = (Ik - C+C)(CT)(Ip 0 (C+)TC+) - C+C(Ip 0 C+). (9)

Известно, что в случае скелетного разложения Л+ = C+ B+, а потому используя правило дифференцирования произведения, а также формулы (8) и (9), получается, что

(4+) = 4+(4+)T(4T)(Ip 0 (Ik - 44+))+ (10)

+ (Ik - 4+4)(4T)(Ip 0 (4+)T4+) - 4+4(Ip 0 4+).

Для решения задачи нам нужно знать производную не самой матрицы, а произведения; используя свойство 44+4+T = 4+T, получим

(44+) = (Ik - 44+)4(Ip 0 4+) + 4+T(4T)(Ip 0 (Ik - 44+)). (11)

Отметим интересный факт: выражение (11) справедливо и в том случае, если 4 является матрицей полного столбцового ранга! Теперь мы можем найти производную H(v):

H = (Ik - 4+)4(Ip 0 4+b) + 4+T(4T)(Ip 0 (Ik - 44+)b). (12)

Приведем полностью алгоритм Гаусса-Ньютона-Голуба-Перейры c псевдообращением:

v+ = vc + Q+(vc)P (vc)b, (13)

где

Q(vc) = P(vc)(4(vc))(Ip 0 4+ (vc)b) + (4+(vc))T(4T(vc))(Ip 0 P(vc)b),

P (vc) = Ik - 4(vc)4+(vc).



3 Синтез методов и их распространение на многослойные сети

Метод Голуба-Перейры можно модифицировать, использовав идею блочного псевдообращения. Так, алгоритм Гаусса-Ньютона для нейронной сети с разделяющимися параметрами u и v, можно записать в следующей форме:

= [ VTuc) VUy(vc, uc) ] + (Ъ - Ус)

или же, что аналогично, как

= [ VUy(vc,uc) VTy(vc,uc) ]+ (Ъ - yc).

Запишем формулу Клайна в более удобном для нас виде:

[ VIy(vc,uc) VTy(vc,uc) ]+ = [ [VTy(vc,uc)] + (I- (VTy(vc,uc))L) ,

где матрица L определена в (3). Заметим, что VUy(u,v) = Фт(v). Как видно, и в формуле Клайна, и в соотношении Голуба-Перейры требуется знать одну и ту же матрицу Ф+. Исходя из этого, определяющее соотношение переменных Голуба-Перейры можно использовать в следующем итерационном алгоритме:

1) i = 0: задается начальный вектор весов v0, S = Vuy(u0,v0)+ = Ф(vo)+ и следовательно, u0 = SЪ (из соотношения Голуба-Перейры);

2) с помощью ST (используемой для вычисления L) находится Av и модифицируется вектор весов vi до vi+1;

3) вычисляется S = Vuy(ui, vi+1)+ = Ф(vi+1)+ и определяется вектор ui+1;

4) если не достигнута заданная точность, полагаем i = i + 1 и переходим к пункту 3. Использование данного алгоритма позволяет:

двигаться по оптимальной траектории в том смысле, что на каждом этапе выполняется соотношение Голуба-Перейры;

вместо большой матрицы V[uv]y(u,v) мы псевдообращаем матрицу Ф^) меньшего размера.

Описанные выше блочные рекуррентно-итерационные алгоритмы для обучения нейронных сетей могут быть успешно распространены на многослойные сети. Рассматривая весовой вектор сети как составленный из векторов слоев, шаг алгоритма Гаусса-Ньютона с псевдообращением для оптимизации (2) можно представить в следующем виде:

Aw1 Aw2

= [ VWiy(wc) V2y(wc) ... VWmy(wc)]+(Ъ - y(wc)), (14)



где wi,i = \,...,m - вектор-столбец весов i-го слоя. Псевдообращение такой блочной матрицы производится на базе рекуррентного использования формулы Клайна. Подстройка весов может быть организована в виде последовательной корректировки подвекторов: сначала определяются величина коррекции Awm, затем - Awm-1, используя рассчитанное значение Awm и т.д.

Метод Голуба-Перейры также может быть применен не только к обучению нейронных сетей стандартного вида. Этот метод можно распространить и на многослойные сети с адаптивным суммированием в последнем слое. Функционирование сети данной структуры можно записать в таком виде:

y(u,v; х) = [ут~1 {v,x)]Tи = У?~l{v,x)uг,

где

[ym-1(v,x)]T =[ ym-1(v,x) yrW) ... y~l(v,x)},

а yia-1(v,x) - выход i-го нейрона m - 1-го слоя. Как видим, структура аналогично структуре стандартной сети. На массиве обучающих данных выходы ym-1(v,x) образуют все ту же матрицу Ф^). Таким образом, метод Голуба-Перейры для обучения стандартных сетей расширяется практически без изменений на область многослойных сетей. Изменения касаются только процесса нахождения производной матрицы Ф^) (и, соответственно, Фт(v)) по вектору весов v. В отличие от стандартных сетей, где дифференцирование этих матриц элементарно, в случае многослойных сетей опять приходится применять методику, схожую с методом обратного распространения ошибки.

Конечно, в случае обучения многослойных сетей метод Голуба-Перейры не является столь эффективным, как в случае стандартных. Связано это с тем, что доля линейно входящих весов в многослойных сетях при решении реальных задач обычно невелика по сравнению с количеством весов скрытых слоев.

Рассматриваемый метод Голуба-Перейры может быть использован и в случае, когда функция активации нейрона выходного слоя является нелинейной (вследствие того, что такие функции, как правило, имеют ограниченную область значений, на практике они редко применяются). Функционирование сети такой структуры может быть представлено в виде:

y(u,v, ; x) = (ym-1(v,x)Tu).

На практике в качестве функций активации наиболее часто берется сигмоидная функция вида <(x) = 1/(1 + e-x). Одним из ее свойств является то, что она является строго возрастающей, а потому существует обратная к ней функция ip-1 (y) = - ln(1/y - 1), определенная, правда, на интервале y е (0,1). Идея состоит в том, чтобы в качестве указаний учителя bk использовать преобразованные значения (p-1(bk) (для этого bk необходимо нормализовать для попадания в интервал (0,1)). После этого мы можем считать, что нейронная сеть не содержит нелинейности в выходном нейроне и применять приведенные выше алгоритмы.

4 Некоторые вопросы программной реализации

Рассмотрим получившиеся алгоритмы с точки зрения программной реализации. При организации вычислений блочных рекуррентно-итерационных алгоритмов с применением



формулы Клайна предварительно требуется псевдообратить некоторую матрицу меньших размеров. Для этого (впрочем, как и для обычного обращения) могут быть применены, например, алгоритмы Гревиля, Фаддеева, QR-алгоритм.

При реализации метода Голуба-Перейры для корректировки весов необходимо знать матрицы Ф(г>с), Ф'(г>с) и (Фт(vc)). Ф(г>с) - это матрица, каждая строка которой представляет вектор выходов нейронов скрытого слоя, полученный при входном векторе данной обучающей пары. У Ф'с) каждая строка представляет собой составной вектор - производные выходов нейронов скрытого слоя по всем весам скрытого слоя:

. (v1>x1)

... 0

(v2,x1)

. . . 0 .

. 0

... (v1,x1)

. (v1,x2)

... 0 =

/ /(v2,x2)

. . . 0 .

. (v1,xfc )

. . . 0

/ /(v2,xfc )

. . . 0 .

. [ 0

... (v1,xfc)

у (Фт(vc))/ эти элементарные блоки составляет не строку, а записываются в матрицу:

0 (v2,X1)

(v1,X2) 0 ... 0 0 (v2,X2) ... 0

(v1,xfc) 0

0 / /(v2,Xfc )

[0 0 ... (vi [0 0 ... (vi,X2 ... [0 0 ... (vi ,xfc)]

Заметим, что операции транспонирования матрицы по вектору и дифференцирования неперестановочны, то есть (Ф^))т = (Фт(v))/ в обычном смысле этого понятия. В данном случае применяется блочное транспонирование. Матрицы Ф^) и (Фт(v))/ получились весьма разреженными. При компьютерной реализации этот факт необходимо учитывать, чтобы уменьшить объем занимаемой памяти и сократить количество лишних операций.

Заключение

Псевдообращение является мощным инструментом решения задач оптимизации, в которых оптимизируемый функционал представляет собой сумму квадратов. Фактически, псевдообращение является эквивалентом понятия метод наименьших квадратов , позволяющее при этом записывать решение задачи о наименьших квадратах в аналитической, а не в алгоритмической форме.

Как показано в данной работе, псевдообращение имеет обширную область применения в обучении искусственных нейронных сетей прямого распространения. Учет структуры минимизируемого функционала, а также структуры самой сети приводит к эффективным алгоритмам настройки весов. Конечно, псевдообращение не является панацеей от всех бед: очень многое зависит от программной реализации алгоритмов, а также и от самой задачи (имеется в виду структура сети, множество обучающих пар, выбор начального вектора весов). Здесь есть следующие пути для дальнейшего развития:

реализация эффективного способа формирования и хранения матриц;

выбор эффективных методов псевдообращения в соответствии с решаемой задачей;

более тесный синтез блочных процедур псевдообращения и взаимозависимостей между весами сети (аналогичное соотношению, используемому в методе Голуба-Перейры);



исследование псевдообращения матриц, элементы которых является не числами, а функциями.

Выражаю благодарность профессору Блюмину С.Л., под руководством которого выполнена данная работа.

Список литературы

1. Дэннис Дж., Шнабель Р. Численные методы безусловной оптимизации и решения нелинейных уравнений.-М.: Мир, 1988.-440 с.

2. Алберт А. Регрессия, псевдоинверсия и рекуррентное оценивание /Пер. с англ.- М.: Наука, 1977.-224 с.

3. Аведьян Э.Д. Алгоритмы настройки многослойных нейронных сетей Автоматика и телемеханика.- 1995.- №4.- С. 106-118.

4. Блюмин С.Л., Погодаев А.К. Суперпозиционная регрессия Журнал вычислительной математики и математической физики.- 1995.- Том 35, №10.- С. 1576-1581.

5. Нейроинформатика/ Горбань А.Н., Дунин-Барковский В.Л., Кирдин А.Н. и др.- Новосибирск: Наука. Сибирское предприятие РАН, 1998.- 296 c.

6. Блюмин С.Л., Сараев П.В. Псевдообращение в обучении искусственных нейронных сетей Современные проблемы информатизации в непромышленной сфере и экономике: Труды V Международной электронной научной конференции.- Воронеж: ЦентральноЧерноземное книжное издательство, 2000.- С. 112-113.

7. Блюмин С.Л., Сараев П.В. Алгоритм Голуба-Перейры в обучении искусственных нейронных сетей Нейроинформатика и ее приложения: Материалы VIII Всероссийского семинара. Красноярск: ИПЦ КГТУ, 2000. С. 18-19.

8. Golub G.H., Pereyra V. The Differentiation of Pseudo-Inverses and Nonlinear Least Squares Problems Whose Variables Separate SIAM J. Num. Anal.- 1973.- V.10,- P.413-432.



© 2017 РубинГудс.
Копирование запрещено.