Desenvolvimento

28 dez, 2012

Melhores de 2012 – Rede neural artificial trivial na linguagem Assembly

Publicidade

O que tivemos de mais interesse em 2012? Quais foram melhores artigos, as opiniões que geraram maiores discussões? Isso é o que você vai encontrar nessa seleção de artigos que fizemos especialmente para você: os melhores conteúdos de 2012. Já que final e início de ano é sempre um tempo propício para fazer um balanço do que passou e o planejamento para o que ainda virá, esperamos que os artigos publicados aqui te ajudem nisso!

Boas festas e feliz 2013! Um abraço da equipe de Redação do iMasters!

 

Recentemente, eu estava revirando minhas fontes e me deparei com uma pequena biblioteca RNA (rede neural artificial) que escrevi há alguns meses em linguagem de 64 bits Intel Assembly (sintaxe FASM) e decidi compartilhá-la na esperança de que possa ser útil em alguns casos.

Rede neural artificial

A Internet está cheia de artigos sobre este tópico em geral ou em profundidade. Pessoalmente, prefiro não criar um clone com imagens de sinapses etc. Em resumo, RNA é um modelo computacional inspirado na forma como nosso cérebro parece funcionar. Há umartigo na Wikipedia (inglês) muito bom que dá várias explicações. Parece ser importante mencionar que, ao dizer “RNA”, as pessoas costumam pensar em perceptron ou perceptron multi-camadas, mas há muito mais tipos por aí. Você deveria conferir este artigo (inglês) da Wikipedia se estiver interessado.

No entanto, este artigo aborda a implementação de perceptron multi-camadas na linguagem Assembly, o que é mais fácil do que parece. A biblioteca é adequada para a criação de perceptron multi-camadas com qualquer número de camadas ocultas, qualquer número de neurônios de entrada e de saída, embora ele esteja vinculado ao Linux de 64 bits, vou tentar explicar como você pode alterar o código para torná-lo compatível com Windows 64, mas seria necessário muito mais esforço para reescrever a coisa toda para rodar em plataformas de 32 bits.

Continue lendo este artigo.