• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
  • Kontakt
  • Feedback abschicken
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.
    Gredos. Repositorio documental de la Universidad de SalamancaUniversidad de Salamanca
    Consorcio BUCLE Recolector

    Stöbern

    Gesamter BestandBereiche & SammlungenErscheinungsdatumAutorenSchlagwortenTitelnDiese SammlungErscheinungsdatumAutorenSchlagwortenTiteln

    Mein Benutzerkonto

    EinloggenRegistrieren

    Statistiken

    Benutzungsstatistik
    Estadísticas totales de uso y lectura

    ENLACES Y ACCESOS

    Derechos de autorPolíticasGuías de autoarchivoFAQAdhesión USAL a la Declaración de BerlínProtocolo de depósito, modificación y retirada de documentos y datosSolicitud de depósito, modificación y retirada de documentos y datos

    COMPARTIR

    Dokumentanzeige 
    •   Gredos Startseite
    • Wissenschaftliches Repository
    • Publicaciones periódicas EUSAL
    • ADCAIJ: Advances in Distributed Computing and Artificial Intelligence Journal
    • ADCAIJ - 2020
    • ADCAIJ, Vol.9, n.2
    • Dokumentanzeige
    •   Gredos Startseite
    • Wissenschaftliches Repository
    • Publicaciones periódicas EUSAL
    • ADCAIJ: Advances in Distributed Computing and Artificial Intelligence Journal
    • ADCAIJ - 2020
    • ADCAIJ, Vol.9, n.2
    • Dokumentanzeige

    Compartir

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Título
    Enhancing Performance of a Deep Neural Network: A Comparative Analysis of Optimization Algorithms
    Autor(es)
    Fatima, Noor
    Palabras clave
    Adadelta
    Adagrad
    Adam
    Adamax
    Deep Learning
    Neural Networks
    Nadam
    Optimization algorithms
    RMSprop
    SGD
    Adadelta
    Adagrad
    Adam
    Adamax
    Deep Learning
    Neural Networks
    Nadam
    Optimization algorithms
    RMSprop
    SGD
    Fecha de publicación
    2020-06-20
    Editor
    Ediciones Universidad de Salamanca (España)
    Citación
    ADCAIJ: Advances in Distributed Computing and Artificial Intelligence Journal, 9 (2020)
    Resumen
    Adopting the most suitable optimization algorithm (optimizer) for a Neural Network Model is among the most important ventures in Deep Learning and all classes of Neural Networks. It's a case of trial and error experimentation. In this paper, we will experiment with seven of the most popular optimization algorithms namely: sgd, rmsprop, adagrad, adadelta, adam, adamax and nadam on four unrelated datasets discretely, to conclude which one dispenses the best accuracy, efficiency and performance to our deep neural network. This work will provide insightful analysis to a data scientist in choosing the best optimizer while modelling their deep neural network.
    URI
    https://hdl.handle.net/10366/146093
    ISSN
    2255-2863
    Aparece en las colecciones
    • ADCAIJ, Vol.9, n.2 [9]
    Zur Langanzeige
    Dateien zu dieser Ressource
    Nombre:
    Enhancing_Performance_of_a_Deep_Neural_N.pdf
    Tamaño:
    842.7Kb
    Formato:
    Adobe PDF
    Thumbnail
    Öffnen
     
    Universidad de Salamanca
    AVISO LEGAL Y POLÍTICA DE PRIVACIDAD
    2024 © UNIVERSIDAD DE SALAMANCA
     
    Universidad de Salamanca
    AVISO LEGAL Y POLÍTICA DE PRIVACIDAD
    2024 © UNIVERSIDAD DE SALAMANCA