Logotipo del repositorio
  • Español
  • English
  • Iniciar sesión
    Ayuda

    Instrucciones:

    El Repositorio Institucional Académico (RIA) de la Universidad Andrés Bello, es un recurso de acceso abierto. No obstante, y de acuerdo con la ley chilena vigente sobre propiedad intelectual, mantiene en acceso restringido diversos documentos, los cuales sólo pueden ser consultados por la comunidad universitaria registrada. Para poder acceder a éstos, verificar el tipo de usuario y método de acceso, siguiendo las instrucciones que se detallan a continuación:

    • Si eres investigador, docente o funcionario con correo @unab.cl, ingresa utilizando tu usuario de computador o intranet (nombre de usuario sin incluir @unab.cl) y clave.
    • Si eres alumno, profesor adjunto o exalumno con correo @uandresbello.edu, debes registrarte primero, pinchando donde dice Nuevo usuario. Una vez registrado y obtenida el alta, ingresa con el correo electrónico institucional y la clave elegida. El registro se debe realizar utilizando la cuenta de correo institucional, no serán válidas cuentas gmail, hotmail o cualquier otro proveedor.
    • Si eres usuario externo, contactar directamente a repositorio@unab.cl
    o
    ¿Nuevo Usuario? Pulse aquí para registrarse¿Has olvidado tu contraseña?
  • Comunidades
  • Todo RIA
  • Contacto
  • Procedimientos de publicaciónDerecho de autorPolíticas del Repositorio
  1. Inicio
  2. Buscar por autor

Examinando por Autor "Chabert, Sterena"

Mostrando 1 - 1 de 1
Resultados por página
Opciones de ordenación
  • Cargando...
    Miniatura
    Ítem
    Self-improving generative artificial neural network for pseudorehearsal incremental class learning
    (Algorithms, 2019) Mellado, Diego; Saavedra, Carolina; Chabert, Sterena; Torres, Romina; Salas, Rodrigo
    Deep learning models are part of the family of artificial neural networks and, as such, they suffer catastrophic interference when learning sequentially. In addition, the greater number of these models have a rigid architecture which prevents the incremental learning of new classes. To overcome these drawbacks, we propose the Self-Improving Generative Artificial Neural Network (SIGANN), an end-to-end deep neural network system which can ease the catastrophic forgetting problem when learning new classes. In this method, we introduce a novel detection model that automatically detects samples of new classes, and an adversarial autoencoder is used to produce samples of previous classes. This system consists of three main modules: a classifier module implemented using a Deep Convolutional Neural Network, a generator module based on an adversarial autoencoder, and a novelty-detection module implemented using an OpenMax activation function. Using the EMNIST data set, the model was trained incrementally, starting with a small set of classes. The results of the simulation show that SIGANN can retain previous knowledge while incorporating gradual forgetfulness of each learning sequence at a rate of about 7% per training step. Moreover, SIGANN can detect new classes that are hidden in the data with a median accuracy of 43% and, therefore, proceed with incremental class learning.