On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm

  • Enrique Carlos Segura Universidad de Buenos Aires

Resumen

Se utiliza el algoritmo SAGA para aproximar la dinámica inversa de un manipulador robótico con dos juntas rotacionales. SAGA (Simulated Annealing + Gradiente + Adaptación) es una estrategia estocástica para la construcción aditiva de una red neuronal artificial de tipo perceptrón de dos capas, basada en tres elementos esenciales: a) actualización de los pesos de la red por medio de información del gradiente de la función de costo; b) aceptación o rechazo del cambio propuesto por una técnica de recocido simulado (simulated annealing) clásica; y c) crecimiento progresivo de la red neuronal, en la medida en que su estructura resulta insuficiente, usando una estrategia conservadora para agregar unidades a la capa oculta. Se realizan experimentos y se analiza la eficiencia en términos de la relación entre error relativo medio -en los conjuntos de entrenamiento y de testeo-, tamaño de la red y tiempos de cómputo. Se hace énfasis en la habilidad de la técnica propuesta para obtener buenas aproximaciones, minimizando la complejidad de la arquitectura de la red y, por lo tanto, la memoria computacional requerida. Además, se discute la evolución del proceso de minimización a medida que la superficie de costo se modifica. Palabras clave: red neuronal, manipulador robótico, perceptrón multicapa, aprendizaje estocástico, dinámica inversa.

Palabras clave: Red neuronal, Manipulador robótico, Perceptrón multicapa, Aprendizaje estocástico, Dinámica inversa.

Referencias

[1] V. I. Arnold, “On Functions of three Variables”, Dokl. Akad. Nauk, no.114, pp. 679-681, 1957.

[2] G. Cybenko, “Approximation by superpositions of a sigmoidal function”, Math. Control, Signals and Systems, vol.2, no.4, pp. 303-314, 1989.

[3] K. Funahashi, “On the approximate realization of continuous mappings by neural networks”, Neural Networks, vol.2, no.3, pp. 183-92, 1989.

[4] S. Haykin, Neural Networks and Learning Machines. Upper Saddle River, Pearson-Prentice Hall, 2009.

[5] Y. Ito, “Extension of Approximation Capability of Three Layered Neural Networks to Derivatives”, Proc. IEEE Int. Conf. Neural Networks, San Francisco, 1993, pp. 377-381.

[6] S. Kirkpatrick, C. D. Gelatt, and M. P. Vecchi, “Optimization by Simulated Annealing”, Science, vol. 220, pp. 671-680, 1983.

[7] A. N. Kolmogorov, On the Representation of Functions of Many Variables by Superposition of Continuous Functions of one Variable and Addition (1957), Am. Math. Soc. Tr., vol.28, pp. 55-59, 1963.

[8] P. J. Van Laarhoven and E. H. Aarts, Simulated Annealing: Theory and Applications. Dordrech: Kluwer, 2010.

[9] M. Leshno, V. Y. Lin, A. Pinkus and S. Schocken, “Multilayer Feedforward Networks with a Nonpolynomial Activation Function Can Approximate Any Function”, Neural Networks, vol.6, no 6, pp. 861-867,
1993.

[10] A. B. Martínez, R. M. Planas, and E. C. Segura, “Disposición anular de cámaras sobre un robot móvil”, en Actas XVII Jornadas de Automática Santander96, Santander, 1996.

[11] N. Metropolis, A. Rosenbluth, M. Rosenbluth, A. H. Teller, and E. Teller, “Equation of State Calculations by Fast Computing Machines”, J. Chem. Phys, vol. 21, no 6, pp. 1087-91, 1953.

[12] D. E. Rumelhart, G. E Hinton, and R. J. Williams, “Learning representations by back-propagating errors”, Nature no.323, pp. 533-536, 1986.

[13] P. Salamon, P. Paolo Sibani, and R. Frost, Facts, Conjectures and Improvements for Simulated Annealing. SIAM Monographs on Mathematical Modeling and Computation, 2002.

[14] E. C. Segura, A non parametric method for video camera calibration using a neural network, Int. Symp. Multi-Technology Information Processing, Hsinchu, Taiwan, 1996.

[15] E. C. Segura, Optimisation with Simulated Annealing through Regularisation of the Target Function, Proc. XII Congreso Arg. de Ciencias de la Computación, Potrero de los Funes, 2006.

[16] D. A. Sprecher, “On the Structure of Continuous Functions of Several Variables”, Tr. Am. Math. Soc., vol.115, pp. 340-355, 1963.

Descargas

La descarga de datos todavía no está disponible.

Biografía del autor/a

Enrique Carlos Segura, Universidad de Buenos Aires
Doctor en Ciencias Matemáticas, Universidad de Buenos Aires. Buenos Aires, Argentina. esegura@dc.uba.ar
Publicado
2013-12-31
Cómo citar
Segura, E. (2013). On the approximation of the inverse dynamics of a robotic manipulator by a neural network trained with a stochastic learning algorithm. INGE CUC, 9(2), 39-43. Recuperado a partir de https://revistascientificas.cuc.edu.co/ingecuc/article/view/4