Este Livro Descreve De Forma Detalhada E Didática Mostrando Passo-A-Passo Como Fazer O Treinamento De Uma Rede Neural Artificial Usando Vários Algoritmos E Arquiteturas Empregadas Em Packages E Toolboxes Dos Principais Softwares De Machine Learning São Apresentados Diversos Exemplos Para Entender Os Conceitos E Fundamentos Da Aprendizagem De Um Neurônio Artificial Background Matemático Como É Necessário Conhecimento Prévio De Determinados Resultados De Cálculo No Capítulo 2 São Apresentados Os Conceitos De Derivada Derivada Direcional E O Método Do Gradiente Descendente Que Servem De Base Para O Entendimento Do Algoritmo De Backpropagation Perceptron É O Primeiro Modelo E O Mais Simples Proposto Por Rosenblatt Em 1958 utilizado Para Representar Matematicamente Um Neurônio No Capítulo 3 O Percetron É Explorado E Suas Limitações São Expostas Perceptrons De Múltiplas Camadas Após Vários Anos De Estagnação Décadas De 1960 E 1970 As Rna Voltam A Receber Atenção Com Os Perceptrons De Múltiplas Camadas Mlp Treinados Com O Algoritmo De Backpropagation Apresentado No Capítulo 4 Nessa Sequência Este Livro Explora Variantes Do Mlp Sendo Examinadas Detalhamente As Variantes Qprop Rprop Delta-Bar-Delta E Lmbp Para Mostrar Que Os Cálculos Correspondem Exatamente Ao Que É Programado Os Resultados São Comparados Com Importantes Funções Do Matlab E A Seguir São Mostradas Todas As Linhas De Programação Usando Comandos Do Pythontm