GP Dincon 2009
GP Dincon 2009
GP Dincon 2009
O método de treinamento proposto neste documento rep- [3] César Daltoé Berci and Celso Pascoli Bottura. Mod-
resenta uma nova abordagem para aplicação de métodos ulação de velocidade em otimização por enxame de
meta-heurísticos, em especial o método PSO, no treinamento partículas. Proceedings of 7th Brazilian Conference on
de redes neurais artificiais tipo MLP. Dynamics, Control and Applications. Presidente Pru-
As aplicações desses métodos de busca cega na otimiza- dente, Brasil, 7:241–248, 2008.
ção dos parâmetros de redes neurais, não geravam até en- [4] César Daltoé Berci and Celso Pascoli Bottura. Ob-
tão resultados competitivos com aqueles obtidos por méto- servador inteligente adaptativo neural não baseado em
dos de otimização procedurais de ordens 1 e 2, com relação modelo para sistemas não lineares. Proceedings of 7th
a taxa de convergência do treinamento. Esta limitação foi Brazilian Conference on Dynamics, Control and Appli-
superada pelo método proposto PG, que tem uma eficiência cations. Presidente Prudente, Brasil, 7:209–215, 2008.
comparável com os métodos mais rápidos conhecidos atual-
mente, preservando, por outro lado, características intrínse- [5] César Daltoé Berci and Celso Pascoli Bottura. Speed
cas de métodos meta-heurísticos de busca cega, como a tol- modulation: A new approach to improve pso perfor-
erância a ruídos e a não necessidade do cálculo do vetor gra- mance. Accepted Article: IEEE Swarm Intelligence
diente. Symposium 2008, Sheraton Westport at St. Louis, Mis-
Dentre essas características encontra-se uma das princi- souri, 2008.
pais vantagens do método proposto, a possibilidade de treinar [6] F. den van Bergh. An Analysis of Particle Swarm Op-
a rede mesmo quando não se pode calcular o gradiente do timization. PhD thesis, Departament of Computer Sci-
erro desta. Isto torna o método PG passível de ser aplicado ence, University of Pretoria, 2002.
a um número maior de problemas, dentre os quais pode-se
citar: [2, 4], onde uma rede neural é utilizada na estimação [7] Jürgen Branke. Evolutionary algorithms for neural net-
de componentes desconhecidos do vetor de estado de um sis- work design and training. In 1st Nordic Workshop on
tema dinâmico, não sendo possível conhecer as saídas de- Genetic Algorithms and its Applications, 1995. Vaasa,
sejadas da rede para criar um conjunto de treinamento, po- Finland, January 1995.
dendo apenas ser avaliada a qualidade da solução apresen- [8] D.J. Chalmers. The evolution of learning: An ex-
tada perante um dado critério.
periment in genetic connectionism. Proceedings of
the 1990 Connectionist Summer School, pages 81–90,
1990.
[9] A. Fiszelew, P. Britos, A. Ochoa, H. Merlino, E. Fer-
nández, and R. García-Martínez. Finding optimal neu-
ral network architecture using genetic algorithms. Soft-
ware & Knowledge Engineering Center. Buenos Aires
Institute of Technology. Intelligent Systems Laboratory.
School of Engineering. University of Buenos Aires.,
2004.
[10] C. Fyfe. Artificial Neural Networks. Department of
Computing and Information Systems, The University
of Paisley, Edition 1.1, 1996.
[11] F. Heppner and U. Grenander. A Stochastic Nonlinear
Model For Coordinate Bird Flocks. AAAS Publica-
tions, Washington, DC, 1990.
[12] J. Kennedy and R.C Eberhart. Particle swarm optimiza-
tion. Proceedings of IEEE Int. Conf. on Neural Net-
work, Piscataway, NJ:1942–1948, 1995.
[13] D.G. Luenberger. Linear and Nonlinear Programming.
Addison-Wesley, 2nd edition, 1984.
[14] M.F. Møller. Learning by conjugate gradients. The
6th International Meeting of Young Computer Scien-
tists, 1990.
[15] M.F. Møller. A scaled conjugate gradient algorithm
for fast supervised learning. Computer Science Depart-
ment, University of Aarhus Denmark, 6:525–533, 1990.
[16] D. Montana and L. Davis. Training feedforward neu-
ral networks using genetic algorithms. Proceedings of
the International Joint Conference on Artificial Intelli-
gence, pages 762–767, 1989.
[17] C.W. Reynolds. Flocks, herds, and schools: A
distributed behavior model. Computer Graphics,
21(4):25–34, 1987.
[18] D. E. Rumelhart, R. Durbin, R. Golden, and Y. Chau-
vin. Backpropagation: The basic theory. Lawrence
Erlbaum Associates, Inc., 1995.
[19] D. E. Rumelhart, G. E. Hinton, and R. J. Williams.
Learning internal representations by error propagation,
in: Parallel distributed processing: Exploration in the
microstructure of cognition. Eds. D.E. Rumelhart, J.L.
McClelland, MIT Press, Cambridge, MA., pages 318–
362, 1986.
[20] Udo Seiffert. Multiple layer perceptron training using
genetic algorithms. ESANN’2001 proceedings - Euro-
pean Symposium on Artificial Neural Networks, pages
159–164, 2001.
[21] Zhi-Hua Zhou, Jian-Xin Wu, Yuan Jiang, and Shi-Fu
Chen. Genetic algorithm based selective neural net-
work ensemble. Proceedings of the 17th International
Joint Conference on Artificial Intelligence., 2:797–802,
2001.