Redes neurais baseadas em competição

Introdução

Em diversos exemplos estudados, as redes às vezes decidiam por mais de um valor como resposta em vez de um único valor correto, como aconteceu quanto a classificação de letras e a rede retornava como resposta a uma entrada que ela tanto poderia ser um E como um K.
Para resolver esse tipo de problema, pode-se forçar a rede a tomar uma decisão por meio de alguma estrutura adicional, mecanismo esse conhecido como competição.
A forma mais extrema de competição é conhecida como “o vencedor leva tudo”, na qual somente um neurônio deve possuir saída diferente de zero ao final da competição.
Algumas redes desse tipo são a Maxnet, Chapéu Mexicano, Quantização do Vetor de Aprendizagem (do inglês, Learning Vector Quantization – LVQ) e Mapeamentos Auto-Organizáveis de Kohonen (cuja abreviação em inglês é SOM).
Além da característica competitiva, podemos destacar o fato de que as redes de Kohonen utilizam-se de aprendizado não supervisionado, buscando similaridades nos vetores de entrada a fim de agrupá-los em clusters.
Várias das redes apresentadas no livro utilizam-se da regra de aprendizado conhecida como “aprendizado Kohonen”. Nesta forma de aprendizado, as unidades que atualizam seus pesos o fazem de forma a determinar o novo vetor de pesos como sendo a combinação linear do antigo vetor peso e do vetor de entrada atual, tomando-se o cuidado de escolher como unidade a ser atualizada aquela cujo vetor peso esteja mais próximo do vetor de entrada a ser aprendido.
Há duas principais abordagens para determinar o vetor peso mais próximo ao vetor padrão em redes auto-organizáveis.
A primeira delas emprega o cálculo do quadrado da distância Euclidiana (Dj) entre o vetor de entrada e o vetor peso, escolhendo o vetor peso de menor valor Dj como sendo o mais próximo.
O segundo método usa o produto escalar (dot product, em inglês) do vetor de entrada e do vetor peso, que é o valor de entrada (y_inj) para cada unidade. Quanto maior o produto escalar menor o ângulo entre os vetores peso e entrada (se o comprimento de ambos for um), podendo assim ser interpretado como a correlação entre esses vetores.

Mapeamentos Auto-Organizáveis de Kohonen

As redes neurais auto-organizáveis propostas por Kohonen possuem a característica de preservar topologias, aspecto esse não identificado em outras redes. Desta forma, assumem uma estrutura topológica entre as unidades de agrupamento (clusters). Essa característica também é observada no cérebro.
Algumas das observações a respeito do funcionamento de um mapa auto-organizável são:

  • Dados p sinais de entrada, cada qual formado por n-tuplas, são capazes de agrupá-los em m clusters;
  • Atualiza somente os vetores peso da unidade j e seus vizinhos (em uma vizinhança de raio R), sendo j a unidade cujo vetor peso está mais próximo do vetor entrada;
  • Seu aprendizado é não supervisionado.

Arquitetura
A figura abaixo apresenta a arquitetura de uma rede de Kohonen:

Já a figura abaixo ilustra as vizinhanças R = 0, 1 e 2 para unidades de uma rede dispostas em um array bidimensional em uma grade retangular:

Em uma grade hexagonal, teríamos a seguinte disposição gráfica:

Algoritmo

  • Inicialize pesos
  • Estabeleça parâmetros de vizinhança topológica
  • Estabeleça parâmetros de taxa de aprendizado
  • Enquanto condição de parada for falsa, faça
    • Para cada vetor de entrada x, faça
      • Para cada j
        • Dj = 0
        • Para cada i
          • Dj = Dj + (wij – xi)2
      • Encontre índice J tal que DJ seja mínimo
      • Para todas as unidades j na vizinhança especificada de J
        • Para todos os i
          • wij = wij + α[xi – wij]
    • Atualize taxa de aprendizado
  • Reduza raio da vizinhança topológica em tempos determinados

Observações:

  • A taxa de aprendizado decresce lentamente em função do tempo;
  • O raio de vizinhança também decresce enquanto o processo de clustering progride;
  • Valores aleatórios podem ser estabelecidos para os pesos inicialmente.

[Conteúdo pertencente ao Material do curso de Redes Neurais Artificiais]

Share and Enjoy

  • Facebook
  • Twitter
  • Delicious
  • LinkedIn
  • StumbleUpon
  • Add to favorites
  • Email
  • RSS
 

Leave a Reply

Your email address will not be published. Required fields are marked *

Email
Print