Aprendiendo Redes Neuronales y Deep Learning

Published on Author lopez

Ayer viernes 12 de octubre, tuve la oportunidad de dar una charla sobre redes neuronales y aprendizaje profundo (“deep learning”). La charla fue organizada por el Centro de Graduados de la Facultad de Ingeniería de la Universidad de Buenos Aires.

Fue muy interesante para mí volver a estos temas, desde los perceptrones de Rosenblatt hasta las “nuevas” redes (convolucionales, recurrentes, residuales….) y mostrar algo de AlphaGo y AlphaGoZero.

Lo que fui consultando va quedando en el repositorio público:

https://github.com/ajlopez/AprendiendoDeepLearning

Hacia el final de esa página está el enlace a la presentación que usé. Hay muchos enlaces ahí para recomendar. pero prácticamente todos me sirvieron para preparar la charla.

Agregaría algo que se comentó en la charla pero no es tema de redes neuronales: el trabajo notable de Douglas Lenat, y sus proyectos AM (Automated Mathematician) y Eurisko. Ver:

Eurisko
Why AM and EURISKO appear to work
Invention and exploration in discovery donde se ve otra aproximación, el programa Cyrano
Cyc sobre codificación del sentido común
http://www.opencyc.org/
http://www.cyc.com/

Espero poder grabar video sobre la charla, para compartir, ir agregando más recursos y ejemplos, y algo escrito como leve curso.

Nos leemos!

Angel “Java” Lopez
http://www.ajlopez.com
https://github.com/ajlopez
https://twitter.com/ajlopez