Referência 2



Baixar 85,09 Kb.
Encontro06.06.2018
Tamanho85,09 Kb.

Revisão Bibliográfica ( IA-353 - Redes Neurais)
Alunos: André Vital RA: 961954

Thaís Gama RA: 963320

Professor: Fernando Von Zuben

Data de entrega: 26/09/01


Aprendizado Construtivo:
Para o caso de redes neurais não-paramétricas podem-se ser usados dois procedimentos: métodos construtivos e métodos de poda(pruning). Comparando-se esses dois métodos, fica verificado que o método puramente construtivo apresenta inúmeras vantagens sobre o método puramente de poda, mas ambos são superados pelos métodos híbridos predominantemente construtivos, que envolve etapas de construção e de poda.

O processo de aproximação de uma rede neural não-paramétrica é predominantemente construtivo, visto que parte de uma rede neural com apenas um neurônio na camada intermediária e realiza adição ou eliminação de neurônios até que uma estrutura de aproximação suficientemente flexível seja encontrada. Pode-se entender esse processo como uma otimização do número de neurônios da camada intermediária da rede neural.

Abaixo é apresentada uma lista de referências relacionadas aos métodos de aprendizado construtivo, métodos de poda e outras abordagens não paramétricas.
Referência 1


        • Autor: Lehtokangas, M.a

        • Título: Modelling with constructive backpropagation

        • Vol: 12, Issue: 4-5, June, 1999 - pp. 707-716

        • Tipo de publicação: artigo (periódico eletrônico -BAE)

        • Fonte do material: www.probe.br

        • Palavras-chave: Multilayer feedforward networks; Cascade-correlation learning; Constructive backpropagation

Referência 2




        • Autores: Ganesh Murthy, C. N. S.a; Venkatesh, Y. V.a

        • Título: Encoded pattern classification using constructive learning algorithms based on learning vector quantization

        • Vol: 11, Issue: 2, March 31, 1998 - pp. 315-322

        • Tipo de publicação: artigo (periódico eletrônico -BAE)

        • Fonte do material: www.probe.br

        • Palavras-chave: Kohonen network; Learning; Learning vector quantization; Pattern classification; Pattern encoding; Self-organization

Referência 3




        • Autores: Windeatt, Terrya; Tebbs, Roberta

        • Título: Spectral technique for hidden layer neural network training

        • Vol: 18, Issue: 8, August, 1997 - pp. 723-731

        • Tipo de publicação: artigo (periódico eletrônico -BAE)

        • Fonte do material: www.probe.br

        • Palavras-chave: Multi-layer perceptrons; Sequential learning systems; Rademacher-Walsh spectrum; Spectrum synthesis; k-Monotonic check

Referência 4




        • Autor: Draghici, Sorina

        • Título: The constraint based decomposition (CBD) training architecture

        • Vol: 14, Issue: 4-5, May, 2001 - pp. 527-550

        • Tipo de publicação: artigo (periódico eletrônico -BAE)

        • Fonte do material: www.probe.br

        • Palavras-chave: classical benchmark problems

Referência 5




        • Autores: Lengellé, Régis; Denœux, Thierry

        • Título: Training MLPs Layer by Layer Using an Objective Function for Internal Representations

        • Vol: 9, Issue: 1, 1996 - pp. 83-97

        • Tipo de publicação: artigo (periódico eletrônico -BAE)

        • Fonte do material: www.probe.br

        • Palavras-chave: Multilayer perceptrons; Learning algorithm; Internal representation; Architecture; Constructive algorithm; Classification; Approximation; Discriminant analysis

Referência 6




        • Autor: C. Campbell

        • Título: Constructive Learning Techniques for Designing Neural Network Systems

        • Tipo de publicação: livro

        • Fonte do material: ResearchIndex citeseer.nj.nec.com/campbell97constructive.html

        • Palavras-chave: Constructive Learning, Designing Neural Network

Referência 7




        • Autores: J. Yang and R. Parekh and V. Honavar

        • Título: An inter-pattern distance-based constructive learning algorithm

        • Tech. Rep. ISU-CS-TR 97-05, Iowa State University, 1997

        • Tipo de publicação: artigo

        • Fonte do material: ResearchIndex citeseer.nj.nec.com/article/yang97distal.html

        • Palavras-chave: Multi-layer networks

Referência 8




        • Autores: D. Chen and C. Lee Giles and G. Z. Sun and H. H. Chen and Y. C. Lee and M. W. Goudreau

        • Título: Constructive Learning of Recurrent Neural Networks

        • Título do livro: Computational Learning Theory and Natural Learning Systems {III}

        • MIT Press, Cambridge, Ma- 1993

        • Tipo de publicação: livro

        • Fonte do material: ResearchIndex citeseer.nj.nec.com/chen93constructive.html

        • Palavras-chave: Recurrent Cascade Correlation

Referência 9




        • Autores: Tsaptsinos, D and Leigh, James Ron

        • Título: Modelling of a fermentation process using multi-layer perceptrons:Epoch vs Pattern learning, Sigmoid vs Linear transfer function

        • Vol: 16, pp 125-136, 1993

        • Tipo de publicação: jornal

        • Fonte do material: www.google.com

        • Palavras-chave: Multi-layer perceptron, back-propagation, fermentation

Referência 10




        • Autor: Simon, N

        • Título: Constructive Supervised Learning Algorithms for Artificial Neural Networks

        • Delft University of Technology, 1993

        • Tipo de publicação: Thesis

        • Fonte do material: ftp://archive.cis.ohio-state.edu/pub/neuroprose/Thesis/simon.thesis.ps.Z

        • Palavras-chave: artificial neural networks, supervised learning, constructive algorithms

Referência 11




        • Autores: Bengio, Y and Frasconi, P

        • Título: Credit assignment through Time: Alternatives to Backpropagation

        • Título do livro: Advances in Neural Information Processing Systems 6

        • Ano de 1994

        • Tipo de publicação: livro

        • Fonte do material: ftp://ftp-dsi.ing.unifi.it/pub/tech-reports/alternatives.nips93.ps.Z

        • Palavras-chave: sequence prediction, neural networks, learning algorithms, architectures

Referência 12




        • Autor: Burkitt, A.N

        • Título: Constructing feed-forward neural networks using back-propagation

        • Australian National University, 1992

        • Tipo de publicação: artigo

        • Fonte do material: ftp://dcssoft.anu.edu.au/pub/techreports/tr-cs-92-07

        • Palavras-chave: feed-forward neural nets, constructive techniques, back-propagation

Referência 13




        • Autores: Gentric, P. and Withagen, H.

        • Título: Constructive methods for a new classifier based on a Radial-Basis-Function neural network accelerated by tree

        • Eidhoven University of Technology, 1993

        • Tipo de publicação: artigo

        • Fonte do material: file://ftp.urc.tue.nl/pub/neural/ctrbf.ps.gz

        • Palavras-chave: neural networks, Radial basis functions, constructive algorithm, hand-written character recognition

Referência 14




        • Autor: Omohundro, S.M

        • Título: Geometric Learning Algorithms

        • International Computer Science Institute, Berkeley , 1989

        • Tipo de publicação: artigo

        • Fonte do material: ftp://icsi-ftp.berkeley.edu/pub/techreports/1989/tr-89-047.ps.Z

        • Palavras-chave: learning algorithms, neural networks, computational geometry, emergent computation, robotics

Referência 15




        • Autores: Parekh, R. G., Yang, J., and Honavar, V.

        • Título: Constructive Neural Network Learning Algorithms for Multi-Category Pattern Classification

        • Tech. Rep. ISU-CS-TR 95-15, 1995

        • Tipo de publicação: artigo

        • Fonte do material: http://www.cs.iastate.edu/~honavar/Papers/TR95-15.ps

        • Palavras-chave: constructive algorithms, pattern recognition, inductive learning, machine learning, neural networks

Referência 16




        • Autores: Torres Moreno and Juan Manuel

        • Título: Apprentissage et generalisation par des Reseaux de Neurones: etude de nouveaux algorithmes constructifs

        • Institut National Polytechnique de Grenoble, France, 1997

        • Tipo de publicação: thesis

        • Fonte do material: http://www.lania.mx/~torres/Publicaciones/these.ps.gz

        • Palavras-chave: Neural Networks; Learning; Generalization; Multilayer perceptrons; Incremental architectures; Applications. Overfitting

Referência 17




        • Autores: Chen, D. and C.L. Giles

        • Título: Constructive learning of recurrent neural networks - limitations of recurrent cascade correlation and a simple solution – reply

        • volume 7 (1996), number 4, pp. 1049-1051

        • Tipo de publicação: artigo

        • Fonte do material: IEEE Transactions on Neural Networks

        • Palavras-chave: recurrent neural networks

Referência 18




        • Autor: Kremer, S.C.

        • Título: Constructive learning of recurrent neural networks - limitations of recurrent cascade correlation and a simple solution - comment

        • volume 7 (1996), number 4, pp. 1047-1049

        • Tipo de publicação: artigo

        • Fonte do material: IEEE Transactions on Neural Networks

        • Palavras-chave: recurrent neural networks

Referência 19




        • Autor: C. Campbell

        • Título: Constructive Algorithms for Structure Learning in Feedforward Neural Networks for Regression Problems

        • Ano de 1997

        • Tipo de publicação: artigo

        • Fonte do material: ResearchIndex citeseer.nj.nec.com/campbell97constructive.html

        • Palavras-chave: Constructive algorithm, structure learning, state space search, dynamic node creation, projection

Referência 20




        • Autores: C. Campbell and S. Coombes

        • Título: Determining the Optimal Number of Hidden Nodes in a Feed-Forward Neural Network

        • Tipo de publicação: artigo

        • Fonte do material: ResearchIndex - citeseer.nj.nec.com/371325.html

        • Palavras-chave: heuristic method, optimal architectures

Referência 21




        • Autor: S. Waugh

        • Título: Dynamic Learning Algorithms

        • Ano de 1994

        • Tipo de publicação: artigo

        • Fonte do material: ResearchIndex citeseer.nj.nec.com/waugh94dynamic.html

        • Palavras-chave: connection pruning

Referência 22




        • Autor: Smieja, F. J.

        • Título: Neural Network Constructive Algorithms: Trading Generalization for Learning Efficiency?

        • Ano de 1991

        • Tipo de publicação: artigo

        • Fonte do material: ResearchIndex citeseer.nj.nec.com/smieja91neural.html

        • Palavras-chave: multi-layer perceptron

Referência 23




        • Autores: Honavar, V., Balakrishnan, K., Chen, C., Parekh, R. & Yang, J.

        • Título: Constructive Learning: Associative Processing, Pattern Classification, Automata Induction, Cognitive Modeling, and Intelligent Agents. To appear.

        • Ano de 2001

        • Tipo de publicação: livro

        • Fonte do material: http://www.cs.iastate.edu/~honavar/publist.html

Referência 24




        • Autores: Bhatt, R., Balakrishnan, K., and Honavar, V.

        • Título: A Constructive Neural Network Algorithm for place learning

        • Proceedings of the International Joint Conference on Neural Networks. Washington, D.C.

        • Ano de 1999

        • Tipo de publicação: artigo

        • Fonte do material: http://www.cs.iastate.edu/~honavar/Papers/ijcnn99b.pdf

Referência 25




        • Autores: Chen, C-H., Parekh, R., Yang, J., Balakrishnan, K. and Honavar, V.

        • Título: Analysis of Decision Boundaries Generated by Constructive Neural Network Learning Algoritms

        • Proceedings of the World Congress on Neural Networks

        • Ano de 1995

        • Tipo de publicação: artigo

        • Fonte do material: http://www.cs.iastate.edu/~honavar/publist.html

        • Palavras-chave:


Métodos de Poda:
Um dos problemas mais importantes encontrados na aplicação prática de redes neurais é encontrar uma adequada ou, idealmente, mínima topologia da rede neural. Umas das principais razões são que uma topologia inadequada aumenta o tempo de treinamento ou até mesmo causa não-convergência, e que normalmente diminui a capacidade de generalisação de uma rede. Além disso, há argumentos econômicos e técnicos para preferir redes pequenas: o preço de implementações em hardware está diretamente relacionado com o tamanho da rede. De forma similar, implementações de software para uma rede mal dimensionada são muito menos eficientes.

Uma abordagem básica para encontrar topologias mínimas é, além da abordagem construtiva, os métodos de poda, que diminuem o tamanho da rede durante o processo de treinamento. Muitos algoritmos de poda já foram propostos. Nesta revisão bibliográfica é possível encontrar referências para textos de introdução ao tema como também algoritmos de poda para problemas específicos.


Referência 1


  • Autores: Asriel U. Levin and Todd K. Leen and John E. Moody

  • Título: Fast Pruning Using Principal Components

  • Tipo de Publicação: Livro

  • Nome do Livro: Advances in Neural Information Processing Systems

  • Volume 6, páginas 35-42, 1994, Morgan Kaufmann Publishers, Inc.

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/levin94fast.html

Referência 2




  • Autores: T. Lundin and P. Moerland

  • Título: Quantization and Pruning of Multilayer Perceptrons: Towards Compact Neural Networks

  • Tipo de publicação: Artigo

  • Evento: IDIAP-Com 97-02, IDIAP, Martigny, Switzerland

  • Ano: 1997

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/lundin97quantization.html

Referência 3




  • Autor: L. Prechelt

  • Título: Connection pruning with static and adaptive pruning schedules

  • Tipo de publicação: Artigo

  • Periódico: Neurocomputing, 16:49--61, 1997

  • Ano: 1997

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/prechelt97connection.html

  • Comentários: Este artigo complementa o artigo "Comparing adaptive and non-adaptive connection pruning with pure early stopping" e o artigo "Adaptive Parameter Pruning in Neural Networks", ambos do mesmo autor. Este é o terceiro artigo de uma seqüência.

Referência 4




  • Autor: L. Prechelt

  • Título: Comparing adaptive and non-adaptive connection pruning with pure early stopping

  • Tipo de publicação: Artigo

  • Periódico: Progress in Neural Information Processing, 46-52, 1996

  • Ano: 1996

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/prechelt96comparing.html

  • Comentários: Este artigo complementa o artigo "Adaptive Parameter Pruning in Neural Networks" e precede "Connection pruning with static and adaptive pruning schedules", ambos do mesmo autor. Este é o segundo artido de uma seqüência de três aqui citados.

Referência 5




  • Autor: Lutz Prechelt

  • Título: Adaptive Parameter Pruning in Neural Networks

  • Tipo de publicação: Relatório Técnico

  • Número TR-95-009, Berkeley, CA, 1995

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/prechelt95adaptive.html

  • Comentários: Comentários: Este artigo precede dois artigos do mesmo autor também aqui citados. São eles: "Comparing adaptive and non-adaptive connection pruning with pure early stopping" e "Connection pruning with static and adaptive pruning schedules".

Referência 6




  • Autores: Leung, Chi-Sing; Wong, Kwok-Wo; Sum, Pui-Fai; Chan, Lai-Wan

  • Título: A pruning method for the recursive least squared algorithm.

  • Tipo de publicação: artigo

  • Periódico: Neural Networks

  • Vol: 14, Issue: 2, March, 2001, pp. 147-174Vol:

  • Fonte do material: ProBE, Fapesp, Elsevier Science, http://e5500.fapesp.br/cgi-bin/sciserv.pl?collection=journals&journal=08936080&issue=v14i0002&article=147_apmftrlsa&form=pdf&file=file.pdf

  • Palavras-chave: Recursive least squared algorithm; Extended Kalman filtering; Pruning; Error covariance matrix.

  • Comentários: As citações "Extended Kalman Filter-Based Pruning Method for Recurrent Neural Networks" e "Several aspects of pruning methods in recursive least square algorithms for neural networks" que seguem são do mesmo grupo de pesquisadores e foram publicadas antes.

Referência 7




  • Autores: John Sum and Lai-wan Chan and Chi-sing Leung and Gilbert H. Young

  • Título: Extended Kalman Filter-Based Pruning Method for Recurrent Neural Networks

  • Tipo de publicação: Artigo

  • Periódico: Neural Computation

  • Volume 10, número 6, páginas 1481--1505, 1998

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/sum98extended.html

  • Comentários: As citações "A pruning method for the recursive least squared algorithm" e "Several aspects of pruning methods in recursive least square algorithms for neural networks" são do mesmo grupo de pesquisadores e complementam este artigo.

Referência 8




  • Autores: C. Leung and L. P-F

  • Título: Several aspects of pruning methods in recursive least square algorithms for neural networks

  • Tipo de publicação: Livro

  • Dados do Livro: Theoretical Aspects of Neural Computation : A Multidisciplinary Perspective, K. Wong et al. (eds.) Springer-Verlag, p.71-80, 1997

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/leung97several.html

  • Comentários: As citações "A pruning method for the recursive least squared algorithm" e "Extended Kalman Filter-Based Pruning Method for Recurrent Neural Networks" que são também citadas aqui são do mesmo grupo de pesquisadores e foram publicadas depois deste.

Referência 9




  • Autor: C. Goutte

  • Título: On the use of a pruning prior for neural networks

  • Tipo de publicação: Artigo

  • Evento: Neural Networks for Signal Processing VI -- Proceedings of the 1996 IEEE Workshop

  • number VI in NNSP, pages 52--61, Piscataway, New Jersey. IEEE

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/goutte96use.html

  • Comentário: Este artigo mostra um caso específico de utilização dos métodos de poda.

Referência 10




  • Autor: Cyril Goutte

  • Título: The effect of a pruning prior

  • Tipo de publicação: Capítulo de Tese

  • Tese: Statistical learning and regularisation for regression, PhD thesis.

  • Capítulo 6, 1997

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/35005.html

  • Palavras-chave: Statistical Learning, Non parametric modelling, Pruning, Neural Networks.

  • Comentários: Este capítulo cita o "On The Use Of A Pruning Prior For Neural Networks (1996)" que é do mesmo autor e parece ser muito bom e compreensível.

Referência 11




  • Autores: G. Thimm and E. Fiesler

  • Título: Evaluating pruning methods

  • Tipo de publicação: Artigo

  • Evento: 1995 International Symposium on Artificial Neural Networks (ISANN'95)

  • p. A2 20--25, 1995

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/thimm95evaluating.html

  • Comentários: Muito bom! Acho que essencial para o curso. Cita varios metodos de poda e os compara. É dos mesmos autores e está relacionado com "Pruning of Neural Networks" e "Neural Network Pruning and Pruning Parameters".

Referência 12




  • Autores: G. Thimm and E. Fiesler

  • Título: Pruning of Neural Networks

  • Tipo de publicação: Relatório Técnico

  • Número IDIAP-RR, 97-03, Fevereiro de 1997

  • IDIAP/Martigny/Valals/Suisse

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/thimm97pruning.html

  • Palavras-chave: optimal network size, generalization performance, pruning, network topology, neural network optimization, high order perceptron.

  • Comentários: Artigo do mesmo autor e relacionado com os artigos "Evaluating Pruning Methods (1995)" e "Neural Network Pruning and Pruning Parameters", também citados aqui.

Referência 13




  • Autores: G. Thimm and E. Fiesler

  • Título: Neural Network Pruning and Pruning Parameters

  • Tipo de publicação: artigo

  • Evento: The 1st Workshop on Soft Computing

  • 1996, agosto

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/78628.html

  • Palavras-chave: neural network, pruning, parameters, neural network optimization, network size, generalization

  • Comentários: Artigo do mesmo autor e relacionado com os artigos "Evaluating Pruning Methods (1995)" e "Pruning of Neural Networks", também citados aqui.

Referência 14




  • Autores: T. G. Dietterich and G. Bakiri

  • Título: Solving multiclass learning problems via error-correcting output codes

  • Tipo de publicação: artigo

  • Periódico: Journal of Artificial Intelligence Research

  • Volume 2, p. 263--286, 1995

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/dietterich95solving.html

Referência 15




  • Autores: M. Mehta and R. Agrawal and J. Rissanen

  • Título: SLIQ: A Fast Scalable Classifier for Data Mining

  • Tipo de publicação: artigo

  • Periódico: Lecture Notes in Computer Science

  • Volume 1057, p. 18--??, 1996

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/mehta96sliq.html

  • Comentários: Bom exemplo de aplicação de métodos de poda.

Referência 16




  • Autores: Henrique, Humberto M.; Lima, Enrique L.; Seborg, Dale E.

  • Título: Model structure determination in neural network model

  • Vol: 55, Issue: 22, November, 2000, pp. 5457-5469

  • Tipo de publicação: artigo

  • Periódico: Chemical Engineering Science

  • Fonte do material: Fapesp, ProBE, Elsevier Service, http://e5500.fapesp.br/cgi-bin/sciserv.pl?collection=journals&journal=00092509&issue=v55i0022&article=5457_msdinnm&form=pdf&file=file.pdf

  • Palavras-chave: Neural networks; Pruning of neural networks; Model structure determination; System identification; Dynamic systems; Nonlinear modeling.

Referência 17




  • Autores: Poppi, R.J.; Massart, D.L.

  • Título: The optimal brain surgeon for pruning neural network architecture applied to multivariate calibration.

  • Tipo de Publicação: Artigo

  • Periódico: Analytica Chimica Acta

  • Fonte do material: Fapesp, ProBE, Elsevier Science, http://e5500.fapesp.br/cgi-bin/sciserv.pl?collection=journals&journal=00032670&issue=v375i1-2&article=187_tobsfpnaatmc&form=pdf&file=file.pdf

  • Vol: 375, Issue: 1-2, November 27, 1998, pp. 187-195

  • Palavras-chave: Multivariate calibration; Neural networks; Pruning; Optimal brain surgeon

Referência 18


  • Autor: Yasui, Syozo

  • Título: Convergence Suppression and Divergence Facilitation: Minimum and Joint Use of Hidden Units by Multiple Outputs.

  • Periódico: Neural Networks

  • Vol: 10, Issue: 2, March, 1997, pp. 353-367

  • Tipo de publicação: artigo

  • Fonte do material: Elsevier Science, ProBE, Fapesp, http://e5500.fapesp.br/cgi-bin/sciserv.pl?collection=journals&journal=08936080&issue=v10i0002&article=353_csadfmohubmo&form=pdf&file=file.pdf

  • Palavras-chave: Pruning; Multiple outputs; Backpropagation; Hidden unit; Modularization; Structural compatibility; Classifier; Auto-encoder

Referência 19




  • Autores: Hintz-Madsen, Mads; Kai Hansen, Lars; Larsen, Jan; With Pedersen, Morten; Larsen, Michael

  • Título: Neural classifier construction using regularization, pruning and test error estimation

  • Tipo de publicação: artigo

  • Periódico: Neural Networks

  • Vol: 11, Issue: 9, December, 1998, pp. 1659-1670

  • Fonte do material: ProBE, Fapesp, Elsevier Science, http://e5500.fapesp.br/cgi-bin/sciserv.pl?collection=journals&journal=08936080&issue=v11i0009&article=1659_nccurpatee&form=pdf&file=file.pdf

  • Palavras-chave: Neural classifiers; Architecture optimization; Regularization; Generalization estimation

Referência 20




  • Autor: Almuallim, H.

  • Título: An efficient algorithm for optimal pruning of decision trees

  • Tipo de publicação: artigo

  • Periódico: Artificial Intelligence

  • Vol: 83, Issue: 1, May, 1996, pp. 191

  • Fonte do material: ProBE, Fapesp, Elsevier Science, http://e5500.fapesp.br/cgi-bin/sciserv.pl?collection=journals&journal=00043702&issue=v83i0001&article=191_aeafopodt&form=pdf&file=file.pdf


Outras abordagens não-paramétricas:
A rede neural apresenta um modelo paramétrico sempre que sua arquitetura (estrutura de conexão e número de neurônios) for definida previamente, independente do problema de aproximação. Por outro lado, se a arquitetura da rede neural puder ser definida em função do problema de aproximação, ela representa um modelo não-paramétrico. Os métodos construtivos e os métodos de poda são exemplos de abordagens não-paramétricas e os mais usados. Nesta seção tentamos apresentar referências que tratam de maneira mais geral as abordagens não-paramétricas, não se prendendo nem aos métodos construtivos nem aos métodos de poda.
Referência 1


        • Autores: Friedman, Jerome H. and Jacobson, Mark and Stuetzle, Werner

        • Título: Projection Pursuit Regression

        • Vol: 76 , 1997

        • Tipo de publicação: jornal ("J. Am. Statist. Assoc.")

        • Fonte do material: www.slac.stanford.edu/pubs/slacpubs/2000/slac-pub-2466.html

        • Palavras-chave: nonparametric multiple regression

Referência 2




  • Autores: R. Insua and D. Muller

  • Título: Feedforward neural networks for nonparametric regression

  • Tipo de publicação: Relatório Técnico

  • Número 98--02, Institute of Statistics and Decision Sciences, Duke University.

  • Ano, 1998

  • Fonte do material: ResearchIndex, http://citeseer.nj.nec.com/insua98feedforward.html

Referência 3




  • Autores: Emile Fiesler and Russell Beale

  • Título: Handbook of neural computation

  • Tipo de publicação: Livro

  • Editora: Bristol :Institute of Physics ;New York :Oxford University

  • Ano: 1997

  • Fonte do material: Base Acervus, Sistema de Bibliotecas da Unicamp.

  • Comentários: Disponível na BAE (Biblioteca da Área de Engenharia), Unicamp.

Referência 4




  • Autores: Fernando José Von Zuben

  • Título: Redes Neurais Como Modelos de Aproximação de Funções

  • Tipo de publicação: Tese de Doutorado

  • Título da Tese: Modelos Paramétricos e Não-paramétricos de Redes Neurais e Aplicações.

  • Capítulo 5, fevereiro de 1996

  • Fonte do material: Página Pessoal do Autor, http://www.dca.fee.unicamp.br/~vonzuben/research/vonzuben_dout.html




©livred.info 2017
enviar mensagem

    Página principal