TrabalhosGratuitos.com - Trabalhos, Monografias, Artigos, Exames, Resumos de livros, Dissertações
Pesquisar

AS Redes Neurais

Por:   •  10/1/2019  •  Seminário  •  3.885 Palavras (16 Páginas)  •  212 Visualizações

Página 1 de 16

REDES NEURAIS

  1. Introdução

O conceito fundamental contido nos sistemas classificados atualmente como RNA’s (Redes Neurais Artificiais) foi introduzido através do famoso trabalho de McCULLOCH e PITTS (1943) que, partindo do princípio de que o cérebro é constituído de unidades básicas, os neurônios, propuseram um modelo matemático para representar essas unidades: o neurônio artificial. No entanto, a classe denominada de RNA’s reúne atualmente diversos modelos matemáticos distintos e com domínios de aplicação variados.

Este capítulo dedica-se a apresentar as redes neurais de uma forma clara e objetiva de tal forma a facilitar o entendimento das estratégias de controle desenvolvidas e/ou implementadas nesta tese.

As redes neurais artificiais são ferramentas computacionais que têm sua origem na inteligência artificial. São formadas por elementos de processamento, análogos aos neurônios biológicos, chamados neurônios artificiais.

Os neurônios artificiais são emulações dos neurônios biológicos, os quais recebem informações de sensores ou de outros neurônios artificiais, produzindo operações sobre estes dados, e passam o resultado para outros neurônios artificiais. As redes neurais processam seus dados usando paralelismo lógico para todos os neurônios da mesma camada, combinado com operações seriais, quando a informação de uma camada é transferida para neurônios de outra camada.

As redes neurais possuem a habilidade de aproximar funções complexas. O conhecimento inerente da rede é dado por pesos nas conexões entre os neurônios artificiais. A computação de uma rede neural é executada, numa primeira etapa, em paralelo por todos os neurônios de uma determinada camada e, posteriormente, em série quando as informações são propagadas de uma camada para outra. Esta coletividade e conectividade de operações resulta em um alto grau de processamento paralelo, que habilita a rede à resolver problemas complexos.

  1. Arquitetura de Rede

A Figura 2.1 mostra uma típica rede neural formada pelas interconexões entre os neurônios. Estes neurônios são dispostos em camadas altamente interconectadas e elaboram somatórios ponderados de determinados sinais de entrada para gerar uma saída. As camadas da rede podem ser categorizadas como camada de entrada, onde informações disponíveis são apresentadas à rede; camadas intermediárias ou ocultas (no mínimo uma, porém normalmente de uma a três), onde os neurônios interagem entre si; e camada de saída, a qual contém a resposta a uma determinada entrada.

Quanto ao fluxo de propagação das informações, as redes neurais podem ser do tipo feedback ou feedforward (BAUGHMAN & LIU, 1995). As conexões do tipo feedback são usualmente utilizadas em rede neurais recorrentes, a exemplo da rede de Hopfield (NARENDRA, 1990). Já nas redes com conexões do tipo feedforward, todos os sinais propagam através das camadas para “frente”. Não há conexões laterais ou como o sinal retroceder. Este tipo de rede possui a capacidade de generalização, ou seja, é capaz de classificar corretamente um padrão complexo mesmo quando este não pertencer ao conjunto de treinamento da rede. As conexões feedforward são apropriadas para a modelagem dinâmica, onde se deseja mapear uma resposta de saída baseada em um sinal de entrada (BAUGHMAN & LIU, 1995). No contexto desta tese foram usadas redes neurais com conexões feedforward e feedback. Na sua maioria foram utilizadas redes feedforward, porém conexões do tipo feedback foram utilizadas em predições ao longo de um horizonte de tempos de amostragem em estratégias de controle.

Os pesos das conexões entre os neurônios são os detentores da maior parte das informações que uma rede neural pode acumular. Isto implica que a fase de ajuste destes pesos tem fundamental importância no sucesso da rede.

A operação de uma rede neural é dividida em 3 fases: a aprendizagem, a representação e a generalização. Na aprendizagem, padrões de entrada e saída são apresentados à rede neural para fins de ajustes em todas as interconexões entre os elementos de processamento (neurônios artificiais). A representação é a fase onde somente padrões de entrada, utilizados na aprendizagem, são apresentados e cabe a rede neural estimar a(s) saída(s) desejada(s). Na fase de generalização, a rede gera a(s) resposta(s) para padrões novos e similares às entrada.

[pic 1]

Figura 2.1. - Arquitetura típica de uma rede neural feedfoward.

  1. Neurônio Artificial

O fundamento das redes neurais artificiais são os neurônios artificiais ou elementos de processamento. São nos neurônios artificiais que os cálculos inerentes são processados. O neurônio artificial recebe sinais de entrada, processa estes sinais e os transmite  para as próximas camadas, o qual pode ser excitatório ou inibitório.

Os neurônios da primeira camada têm a única função de distribuir as entradas para as camadas subseqüêntes. A partir da segunda camada as informações são processadas e propagadas até a camada de saída, de acordo com as equações apresentadas a seguir.

Considerando que um neurônio “i” qualquer da camada “k”, recebe um conjunto de informações [pic 2] (j=1, ..., nk-1), correspondentes as saídas dos nk-1 neurônios da camada anterior, ponderadas, cada uma, pelo correspondente peso da conexão [pic 3]. O neurônio soma essas entradas ponderadas e o valor resultante é por sua vez somado a um limite interno de ativação, um “bias” que pode ser descrito por [pic 4]. A este sinal resultante, o neurônio “i”, produz uma resposta [pic 5], de acordo com uma função limite ou função de ativação [pic 6] (DE SOUZA JR., 1993), conforme mostrado na Figura 2.2. Matematicamente pode-se expressar por:

[pic 7]        (2.1)

[pic 8]        (2.2)

Segundo DE SOUZA JR. (1993), dois tipos de função de ativação são comumente usados para a ativação dos neurônios: global e local.

A função de ativação global produz uma saída ativa para um largo intervalo de entradas (BAKSHI & STEPHANOPOULOS, 1993). São exemplos de funções globais:

  • linear: [pic 9]        (2.3)

  • degrau limiar: [pic 10]        (2.4)

[pic 11]

Fig. 2.2 - Anatomia do i-ésimo neurônio artificial da k-ésima camada

Freqüentemente [pic 12] é de natureza binária, emitindo 1 se [pic 13] e 0, para os demais casos (Simpson, 1990);

...

Baixar como (para membros premium)  txt (23.3 Kb)   pdf (1.5 Mb)   docx (944.7 Kb)  
Continuar por mais 15 páginas »
Disponível apenas no TrabalhosGratuitos.com