ФЭНДОМ


G - матрица перцептрона - используется для анализа перцептронов. Имеет следующий вид:

 G = \begin{pmatrix} g_{11} & g_{12} & ... & g_{1n} \\ g_{21} & g_{22} & ... & g_{2n} \\ ... & ... & ... & ... \\ g_{n1} & g_{n2} & ... & g_{nn} \\  \end{pmatrix}  ,

где n - число стимулов (величина обучаемой выборки, число примеров для запоминания);

g_{ij} - коэффициенты обобщения.

Смысл G - матрицы перцептрона Править

Коэффициент обобщения равен полному изменению веса (\sum \Delta w_k) всех А-элементов, реагирующих на стимул St_i, если на каждый А-элемент из множества, реагирующего на стимул St_j, подается сигнал подкрепления \eta.

Отсюда понятно, что коэффициент обощения показывает относительное число А-элементов, реагирующих как на стимул St_i, так и на стимул St_j.

Для простых перцептронов G - матрица не изменяется со временем и является симметричной.

Связь А и G - матриц перцептрона Править

Связь между А и G - матрицами перцептрона выражается следующими соотношением: G = A×AT, где AT транспонированная матрица. Поэтому G матрица является положительно определенной, либо положительно полуопределенной. Так же ранг матрицы G равен рангу матрицы А.

Важными является условия при которых G - матрица особенная, т.е. матрица не имеющая обратной, для квадратной матрицы это тогда когда определитель матрицы равен нулю.

Рассмотрим несколько случаев:

  1. Пусть матрица G = A×AT особенная, то есть |G| = 0; Рассмотрим |G| = |A×AT| = |A|×|AT| = |A|×|A| = |A|2, получаем что |A|2 = 0 → |A| = 0 → матрица А особенная.
  2. Пусть матрица G = A×AT не особенная, то есть |G| = ξ ≠ 0; Рассмотрим |G| = |A×AT| = |A|×|AT| = |A|×|A| = |A|2, получаем что |A|2 = ξ≠0 → |A| ≠ 0 → матрица А не особенная.
  3. Пусть |А|=0; Найдем |G|, |G|=|А|*|АT|=0*0=0.
  4. Пусть |А|=ξ≠0; Найдем |G|,|G|=|А|*|АT|=ξ*ξ=ξ²≠0.

Таким образом получаем, что Матрица G = A×AT особенна, тогда и только тогда, когда матрица А особенна.

Матрицы и вектора классификаций в перцептроне Править

Perceptron XOR3

Решение элементарным перцептроном «задачи XOR»

Ниже матрицы и вектора, характеризующие классификацию буду изложенны на примере решения перцептроном задачи XOR. Напомним, что стимулы и их принадлежность классам при решении задачи XOR следующие:

Вход 1 (X1) Вход 2 (X2) Класс
Стимул 0 0 0 -
Стимул 1 St_1 1 1 -
Стимул 2 St_2 0 1 +
Стимул 3 St_3 1 0 +


D матрица перцептрона Править

Диагональная матрица, элементы которой d_{ii} = \rho_i , где \rho_i задает принадлежность стимулов к классам в некоторой классификации C(W) следующим образом:

\rho_i = \begin{cases}+1, & if \ St_i \in C^+ , \\ -1 & if \ St_i \in C^- \\ \end{cases},

т.е. \rho_i = +1, если стимул St_i принадлежит к положительному классу, и \rho_i = -1, если стимул St_i принадлежит к отрицательному классу.

D матрица перцептрона при решении задачи XOR имеет вид:

D = \begin{pmatrix} -1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\  \end{pmatrix}  ;


B матрица перцептрона Править

B матрица перцептрона отражает активность А-элементов, так же как и A - матрица перцептрона, но в отличии от нее еще показывает принадлежность стимулов к классам классификации, поэтому получается перемножением матриц А и D, т.е. B = DA. При решении задачи XOR будет иметь вид:

B = \begin{pmatrix} 0 & 0 & -1 \\ 1 & 0 & 1 \\ 0 & 1 & 1 \\  \end{pmatrix} .

H матрица перцептрона Править

H матрица перцептрона очень близка по сути к матрицы G, но так же как и матрица B показывает еще принадлежность стимулов к классам классификации, и получается следующим образом H = BB^T. При решении задачи XOR будет иметь вид:

H = \begin{pmatrix} 1 & -1 & -1 \\ -1 & 2 & 1 \\ -1 & 1 & 2 \\  \end{pmatrix} .

V вектор перцептрона Править

Z вектор перцептрона Править

Z вектор имеет размерность n, где n - число стимулов. Компонента вектора Z равна полной велечине подкрепления, введенного во время всех коррекций реакций на стимул St_i, т.е. z_i=\sum {\rho_i \Delta x_i}, где \Delta x_i - величина подкрепления (равно единице в методе коррекции ошибки с квантованием)

X матрица перцептрона Править

См. также Править

Литература Править



Это основополагающая версия, написанная участниками этого проекта. Но содержимое этой страницы очень близкое по содержанию предоставлено для раздела Википедии на русском языке. Так же, как и в этом проекте, текст этой статьи, размещённый в Википедии, доступен на условиях CC-BY-SA . Статью, размещенную в Википедии можно найти по адресу: G - матрица перцептрона.


Обнаружено использование расширения AdBlock.


Викия — это свободный ресурс, который существует и развивается за счёт рекламы. Для блокирующих рекламу пользователей мы предоставляем модифицированную версию сайта.

Викия не будет доступна для последующих модификаций. Если вы желаете продолжать работать со страницей, то, пожалуйста, отключите расширение для блокировки рекламы.

Также на ФЭНДОМЕ

Случайная вики