Teoria da Evolução Lamarckiana:

A teoria lamarckiana afirma que as características adquiridas pelo indivíduo ao longo da vida as transmitem aos filhos. Esta teoria tem o nome do biólogo francês Jean Baptiste Lamarck. De acordo com a teoria de Lamarck, o aprendizado é uma parte importante da evolução das espécies (ou para nosso propósito no algoritmo evolucionário). Esta teoria está desacreditada em um contexto biológico, mas pode ser usada em algoritmos genéticos em aprendizado de máquina.

Efeito Baldwin :

Baldwin propôs que a aprendizagem individual pode explicar fenômenos evolutivos que parecem exigir a herança lamarckiana de características adquiridas. A capacidade de aprendizagem dos indivíduos pode guiar o processo evolutivo. Com efeito, o aprendizado suaviza o panorama do condicionamento físico, facilitando assim a evolução.

 Baldwin efeito é demonstrado pela primeira vez por Hinton e Nolan no contexto de aprendizagem de máquina em 1987. Eles levam simples Redes Neurais (NNS). Em um experimento, eles pegam NNs de pesos fixos, enquanto outros NNs são definidos como treináveis. Eles concluíram que:

  • Quando não há aprendizagem individual, a população (coleção de RNs) não melhorou com o tempo.
  • Quando o aprendizado é aplicado nos estágios iniciais, a população contém muitos indivíduos com muitos pesos treináveis, mas nos estágios posteriores, alcançou alta aptidão com a diminuição do número de pesos treináveis ​​nos indivíduos.

Algoritmo G-prop:

 G-Prop é um algoritmo híbrido evolutivo. É um híbrido de Backpropagation (BP) e Multi-layer Perceptron (MLP). Abaixo está o algoritmo G-Prop.

  • Gere o modelo inicial com valores de peso aleatórios e tamanhos de camadas ocultas uniformemente distribuídos de 2 a um máximo de um determinado valor.
  • Para gerações G:
    • Avalie os novos indivíduos: treine-os usando o conjunto de treinamento e obtenha sua aptidão de acordo com o número de classificações corretas no conjunto de validação e o tamanho da camada oculta.
    • Selecione os n melhores indivíduos na população com base na função de adequação de valor e combine-os, usando mutação, cruzamento, adição, eliminação e substituição de neurônios ocultos.
    • Substitua os n piores indivíduos pelos novos indivíduos.
  • Use os melhores indivíduos no conjunto de teste para obter um erro de teste.

Função de fitness: A função de fitness é definida como a capacidade de classificar / aproximar o conjunto de validação para segregar o melhor indivíduo durante o treinamento para cada geração. No caso de dois indivíduos com a mesma função de aptidão, o indivíduo com o parâmetro da camada oculta mais baixo tem melhor desempenho porque o número de parâmetros é proporcional à velocidade do treinamento.

  • A abordagem Lamarckiana não usa nenhuma função de aptidão especial; em vez disso, usa um operador genético de pesquisa local (semelhante à Propagação Rápida) que é projetado para melhorar os indivíduos, salvando os pesos individuais treinados de volta para a população.
  • Para o efeito Baldwin, o processo de uso da função de adequação é seguido:
    • Na primeira etapa, calculamos a capacidade de classificação / aproximação de um indivíduo no conjunto de validação antes do treinamento.
    • Em seguida, ele é treinado e sua capacidade é calculada usando os seguintes critérios:
      • O melhor indivíduo (MLP / ANN) é aquele com maior capacidade de classificação / aproximação após o treinamento.
      • Se ambas as MLPs mostrarem a mesma precisão. Então o melhor é aquele cuja capacidade de classificação / aproximação antes do treino seja maior, isso porque a intuição é que o MLP tem maior probabilidade de ter alta precisão quando treinado novamente.
      • Se ambas as MLPs tiverem a mesma precisão antes e depois do treinamento, o melhor modelo é o menor (o modelo que tem menos parâmetros treináveis).

Resultados e Conclusão :


Resultados no conjunto de dados Glass1a


Erro e comparação de tamanho b / w Lamarckiano e efeito Baldwin quando aprendido por 300 gerações

  • O autor concluiu que a estratégia Lamarckiana encontra um indivíduo adequado (MLP) nas primeiras gerações que permanece o melhor durante toda a simulação, portanto a evolução pára. Embora o efeito Baldwin possa ser melhor do que a abordagem lamarckiana, ele requer mais gerações.
  • Percebe-se também a partir da conclusão acima que as redes neurais geradas pela estratégia Lamarckiana são pequenas, portanto requer menos tempo para treinar, predizer e também projetá-la.
  • Outro resultado importante é que o operador Lamarckiano melhora a função de aptidão nas primeiras gerações. Isso se deve ao algoritmo elitista em que alguma parte do indivíduo mais apto é copiada para a próxima geração. Os indivíduos (nos quais os dados individuais mais aptos copiados) podem obter uma vantagem em relação aos demais membros da população e continuarão a ser os melhores indivíduos da população até o final da simulação

Referências: