Logotipo del repositorio
  • Español
  • English
  • Iniciar sesión
    Ayuda

    Instrucciones:

    El Repositorio Institucional Académico (RIA) de la Universidad Andrés Bello, es un recurso de acceso abierto. No obstante, y de acuerdo con la ley chilena vigente sobre propiedad intelectual, mantiene en acceso restringido diversos documentos, los cuales sólo pueden ser consultados por la comunidad universitaria registrada. Para poder acceder a éstos, verificar el tipo de usuario y método de acceso, siguiendo las instrucciones que se detallan a continuación:

    • Si eres investigador, docente o funcionario con correo @unab.cl, ingresa utilizando tu usuario de computador o intranet (nombre de usuario sin incluir @unab.cl) y clave.
    • Si eres alumno, profesor adjunto o exalumno con correo @uandresbello.edu, debes registrarte primero, pinchando donde dice Nuevo usuario. Una vez registrado y obtenida el alta, ingresa con el correo electrónico institucional y la clave elegida. El registro se debe realizar utilizando la cuenta de correo institucional, no serán válidas cuentas gmail, hotmail o cualquier otro proveedor.
    • Si eres usuario externo, contactar directamente a repositorio@unab.cl
    o
    ¿Has olvidado tu contraseña?
  • Comunidades
  • Todo RIA
  • Contacto
  • Procedimientos de publicaciónDerecho de autorPolíticas del Repositorio
  1. Inicio
  2. Buscar por autor

Examinando por Autor "Saavedra, Ariel"

Mostrando 1 - 1 de 1
Resultados por página
Opciones de ordenación
  • Cargando...
    Miniatura
    Ítem
    Mixture of experts with entropic regularization for data classification
    (MDPI AG, 2019-02) Peralta, Billy; Saavedra, Ariel; Caro, Luis; Soto, Alvaro
    Today, there is growing interest in the automatic classification of a variety of tasks, such as weather forecasting, product recommendations, intrusion detection, and people recognition. "Mixture-of-experts" is a well-known classification technique; it is a probabilistic model consisting of local expert classifiers weighted by a gate network that is typically based on softmax functions, combined with learnable complex patterns in data. In this scheme, one data point is influenced by only one expert; as a result, the training process can be misguided in real datasets for which complex data need to be explained by multiple experts. In this work, we propose a variant of the regular mixture-of-experts model. In the proposed model, the cost classification is penalized by the Shannon entropy of the gating network in order to avoid a "winner-takes-all" output for the gating network. Experiments show the advantage of our approach using several real datasets, with improvements in mean accuracy of 3-6% in some datasets. In future work, we plan to embed feature selection into this model. © 2019 by the authors.