• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
  • Contacto
  • Sugerencias
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.
    Gredos. Repositorio documental de la Universidad de SalamancaUniversidad de Salamanca
    Consorcio BUCLE Recolector

    Listar

    Todo GredosComunidades y ColeccionesPor fecha de publicaciónAutoresMateriasTítulosEsta colecciónPor fecha de publicaciónAutoresMateriasTítulos

    Mi cuenta

    AccederRegistro

    Estadísticas

    Ver Estadísticas de uso
    Estadísticas totales de uso y lectura

    ENLACES Y ACCESOS

    Derechos de autorPolíticasGuías de autoarchivoFAQAdhesión USAL a la Declaración de BerlínProtocolo de depósito, modificación y retirada de documentos y datosSolicitud de depósito, modificación y retirada de documentos y datos

    COMPARTIR

    Ver ítem 
    •   Gredos Principal
    • Repositorio Científico
    • Publicaciones periódicas EUSAL
    • ADCAIJ: Advances in Distributed Computing and Artificial Intelligence Journal
    • ADCAIJ - 2020
    • ADCAIJ, Vol.9, n.2
    • Ver ítem
    •   Gredos Principal
    • Repositorio Científico
    • Publicaciones periódicas EUSAL
    • ADCAIJ: Advances in Distributed Computing and Artificial Intelligence Journal
    • ADCAIJ - 2020
    • ADCAIJ, Vol.9, n.2
    • Ver ítem

    Compartir

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Título
    Enhancing Performance of a Deep Neural Network: A Comparative Analysis of Optimization Algorithms
    Autor(es)
    Fatima, Noor
    Palabras clave
    Adadelta
    Adagrad
    Adam
    Adamax
    Deep Learning
    Neural Networks
    Nadam
    Optimization algorithms
    RMSprop
    SGD
    Adadelta
    Adagrad
    Adam
    Adamax
    Deep Learning
    Neural Networks
    Nadam
    Optimization algorithms
    RMSprop
    SGD
    Fecha de publicación
    2020-06-20
    Editor
    Ediciones Universidad de Salamanca (España)
    Citación
    ADCAIJ: Advances in Distributed Computing and Artificial Intelligence Journal, 9 (2020)
    Resumen
    Adopting the most suitable optimization algorithm (optimizer) for a Neural Network Model is among the most important ventures in Deep Learning and all classes of Neural Networks. It's a case of trial and error experimentation. In this paper, we will experiment with seven of the most popular optimization algorithms namely: sgd, rmsprop, adagrad, adadelta, adam, adamax and nadam on four unrelated datasets discretely, to conclude which one dispenses the best accuracy, efficiency and performance to our deep neural network. This work will provide insightful analysis to a data scientist in choosing the best optimizer while modelling their deep neural network.
    URI
    https://hdl.handle.net/10366/146093
    ISSN
    2255-2863
    Aparece en las colecciones
    • ADCAIJ, Vol.9, n.2 [9]
    Mostrar el registro completo del ítem
    Ficheros en el ítem
    Nombre:
    Enhancing_Performance_of_a_Deep_Neural_N.pdf
    Tamaño:
    842.7Kb
    Formato:
    Adobe PDF
    Thumbnail
    Visualizar/Abrir
     
    Universidad de Salamanca
    AVISO LEGAL Y POLÍTICA DE PRIVACIDAD
    2024 © UNIVERSIDAD DE SALAMANCA
     
    Universidad de Salamanca
    AVISO LEGAL Y POLÍTICA DE PRIVACIDAD
    2024 © UNIVERSIDAD DE SALAMANCA