• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
  • Entre em contato
  • Deixe sua opinião
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.
    Gredos. Repositorio documental de la Universidad de SalamancaUniversidad de Salamanca
    Consorcio BUCLE Recolector

    Navegar

    Todo o repositórioComunidades e ColeçõesPor data do documentoAutoresAssuntosTítulosEsta coleçãoPor data do documentoAutoresAssuntosTítulos

    Minha conta

    EntrarCadastro

    Estatísticas

    Ver as estatísticas de uso
    Estadísticas totales de uso y lectura

    ENLACES Y ACCESOS

    Derechos de autorPolíticasGuías de autoarchivoFAQAdhesión USAL a la Declaración de BerlínProtocolo de depósito, modificación y retirada de documentos y datosSolicitud de depósito, modificación y retirada de documentos y datos

    COMPARTIR

    Ver item 
    •   Página inicial
    • Repositório Científico
    • Publicaciones periódicas EUSAL
    • ADCAIJ: Advances in Distributed Computing and Artificial Intelligence Journal
    • ADCAIJ - 2020
    • ADCAIJ, Vol.9, n.2
    • Ver item
    •   Página inicial
    • Repositório Científico
    • Publicaciones periódicas EUSAL
    • ADCAIJ: Advances in Distributed Computing and Artificial Intelligence Journal
    • ADCAIJ - 2020
    • ADCAIJ, Vol.9, n.2
    • Ver item

    Compartir

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Título
    Enhancing Performance of a Deep Neural Network: A Comparative Analysis of Optimization Algorithms
    Autor(es)
    Fatima, Noor
    Palabras clave
    Adadelta
    Adagrad
    Adam
    Adamax
    Deep Learning
    Neural Networks
    Nadam
    Optimization algorithms
    RMSprop
    SGD
    Adadelta
    Adagrad
    Adam
    Adamax
    Deep Learning
    Neural Networks
    Nadam
    Optimization algorithms
    RMSprop
    SGD
    Fecha de publicación
    2020-06-20
    Editor
    Ediciones Universidad de Salamanca (España)
    Citación
    ADCAIJ: Advances in Distributed Computing and Artificial Intelligence Journal, 9 (2020)
    Resumen
    Adopting the most suitable optimization algorithm (optimizer) for a Neural Network Model is among the most important ventures in Deep Learning and all classes of Neural Networks. It's a case of trial and error experimentation. In this paper, we will experiment with seven of the most popular optimization algorithms namely: sgd, rmsprop, adagrad, adadelta, adam, adamax and nadam on four unrelated datasets discretely, to conclude which one dispenses the best accuracy, efficiency and performance to our deep neural network. This work will provide insightful analysis to a data scientist in choosing the best optimizer while modelling their deep neural network.
    URI
    https://hdl.handle.net/10366/146093
    ISSN
    2255-2863
    Aparece en las colecciones
    • ADCAIJ, Vol.9, n.2 [9]
    Mostrar registro completo
    Arquivos deste item
    Nombre:
    Enhancing_Performance_of_a_Deep_Neural_N.pdf
    Tamaño:
    842.7Kb
    Formato:
    Adobe PDF
    Thumbnail
    Visualizar/Abrir
     
    Universidad de Salamanca
    AVISO LEGAL Y POLÍTICA DE PRIVACIDAD
    2024 © UNIVERSIDAD DE SALAMANCA
     
    Universidad de Salamanca
    AVISO LEGAL Y POLÍTICA DE PRIVACIDAD
    2024 © UNIVERSIDAD DE SALAMANCA