Tesis profesional presentada por David Isaí Rojas Baez [david.rojasbz@udlap.mx]

Miembro del Programa de Honores. Licenciatura en Actuaría. Departamento de Actuaría, Física y Matemáticas. Escuela de Ciencias, Universidad de las Américas Puebla.

Jurado Calificador

Director: Dr. Gerardo Arizmendi Echegaray
Presidente: Dr. Gibran Etcheverry Doger
Secretario: Dr. Marco Antonio Pérez de la Rosa

Cholula, Puebla, México a 18 de mayo de 2020.

Palabras clave: Geometría Diferencial, Redes Neuronales, Gradiente Natural, Perceptrón, Información.

Índice de contenido

Portada

Índices

Introducción

Capítulo 1. Conceptos Báicos

  • 1.1 Variedad Diferenciable
  • 1.2 Espacios Tangentes
  • 1.3 Variedad Riemmaniana
  • 1.4 Conexiones

Capítulo 2. Geometría de la Información

  • 2.1 Variedad Estadística
  • 2.2 Métrica de Fisher
  • 2.3 La α-conexión en la geometría de la información
  • 2.4 La familia exponencial

Capítulo 3. Redes Neuronales

  • 3.1 El Perceptrón
  • 3.2 Backpropagation
  • 3.3 La máquina de Boltzmann

Capítulo 4. El gradiente natural

  • 4.1 La Neurovariedad
  • 4.2 Aprendizaje con el Gradiente Natural

Capítulo 5. Estructura geométrica de las máquinas de Boltzmann

  • 5.1 La variedad de Boltzmann
  • 5.2 Aprendizaje de las máquinas de Boltzmann

Capítulo 6. Conclusiones

Referencias

Rojas Baez, D. I. 2020. Geometría de la información en el uso de Redes Neuronales. Tesis Licenciatura. Actuaría. Departamento de Actuaría, Física y Matemáticas, Escuela de Ciencias, Universidad de las Américas Puebla. Mayo. Derechos Reservados © 2020.