Mostrar el registro sencillo del ítem

dc.contributor.advisorPrieto Adánez, Gerardo Alfonso 
dc.contributor.advisorDelgado González, Ana Rosa 
dc.contributor.authorCecilio Fernandes, Débora
dc.date.accessioned2011-12-02T09:02:24Z
dc.date.available2011-12-02T09:02:24Z
dc.date.issued2011
dc.identifier.urihttp://hdl.handle.net/10366/110650
dc.description.abstract[ES] El objetivo de esta investigación fue construir y validar con el Modelo de Rasch dos subtests de memoria de reconocimiento transmodal de figuras y palabras. El subtest individual incluye una lista de codificación de 32 ítems individuales y un test de reconocimiento de 64 ítems, de los cuales 32 son estudiados y 32 distractores; el subtest de pares comprende una lista de estudio de 40 pares de estímulos y un test de reconocimiento con los 40 pares estudiados y 24 pares reagrupados. La elaboración de estos instrumentos se basó en las teorías de doble proceso de la memoria de reconocimiento que sostienen la existencia de dos procesos subyacentes: la familiaridad y la recuperación. Ambos subtests se aplicaron en una muestra de 217 estudiantes universitarios brasileños de los cuales el 53,5% eran varones y el 46,5% mujeres. Los subtests se analizaron mediante el modelo de Rasch y los programas de ordenador WINSTEPS y SPSS. Los análisis demostraron que ambos subtests poseen propiedades psicométricas óptimas para la medición del constructo. En el caso de las categorías de ítems del subtest individual se obtuvo el orden de dificultad esperado. Las correlaciones entre las subescalas individuales fueron altas y muy altas, salvo la correlación entre la de figuras y la de palabras. En el caso del subtest de pares se mostró que los pares codificados como figuras eran significativamente más fáciles que los de codificación de palabras, que los pares asociados eran significativamente más fáciles que los no asociados y que los pares modales mostraron una tendencia no significativa de ser más fáciles que los transmodales. Las correlaciones entre las subescalas de pares fueron altas o muy altas, mientras que las correlaciones entre los dos subtests y entre las subescalas individuales y de pares fueron moderadas. El escalamiento común de los dos subtests se ajustó al modelo de Rasch y se observó que los ítems individuales poseen un nivel de dificultad similar a los pares asociados y que ambas clases de ítems son significativamente más fáciles que los pares no asociados. Las correlaciones entre los subtests y el ajuste de los ítems individuales y de pares cuando se incluyen en una misma escala podrían indicar la existencia de un factor general de reconocimiento, un rasgo latente dominante que posee subprocesos asociados, la familiaridad y la recuperación, que actúan en conjunto para producir respuestas de reconocimiento.es_ES
dc.description.abstract[EN] The objective of this research was to construct and validate with the Rasch model two subtests-modal recognition memory of pictures and words. The individual subtest includes a list of 32 items encoding individual and a recognition test of 64 items, of which 32 are studied and 32 distractors, the peer subtest contains a list of study of 40 pairs of stimuli and a recognition test 40 pairs with 24 pairs studied and grouped. The development of these instruments is based on dual process theories of recognition memory that support the existence of two underlying processes: familiarity and recovery. Both subtests were applied in a sample of 217 Brazilian university students of which 53.5% were male and 46.5% women. The subtests were analyzed using the Rasch model and computer programs Winsteps and SPSS. The analysis showed that both subtests have excellent psychometric properties for measuring the construct. In the case of the categories of individual subtest items was expected order of difficulty. The correlations between individual subscales were high and very high, except the correlation between figures and words. In the case of pairs subtest that the couple was coded as figures were significantly easier than coding of words, which were significantly associated pairs easier than non-members and manners pairs showed a nonsignificant trend to be easier than modal. The correlations between pairs subscales were high or very high, while correlations between the two subtests and between individual and peer subscales were moderate. Common scaling of the two subtests was adjusted to the Rasch model and found that the individual items have a similar level of difficulty associated pairs and both classes of items are significantly easier than unassociated pairs. The correlations between the subtests and the adjustment of individual items and peers when they are included in the same scale may indicate the existence of a general recognition factor, a dominant latent trait has associated threads, familiarity and recovery, which act together to produce recognition responses.
dc.format.extent274 p.
dc.format.mimetypeapplication/pdf
dc.languageEspañol
dc.language.isospaes_ES
dc.relation.requiresAdobe Acrobat
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 Unported
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/3.0/
dc.subjectTesis y disertaciones académicases_ES
dc.subjectUniversidad de Salamanca (España)es_ES
dc.subjectTesis Doctorales_ES
dc.subjectAcademic dissertationses_ES
dc.subjectNeuropsicologíaes_ES
dc.subjectNeuropsychologyes_ES
dc.subjectMemoriaes_ES
dc.subjectMemoryes_ES
dc.subjectTests de memoriaes_ES
dc.subjectMemory Testinges_ES
dc.subjectModelo de Rasches_ES
dc.subjectRasch modelses_ES
dc.titleConstrucción de un test informatizado transmodal de memoria de reconocimientoes_ES
dc.typeinfo:eu-repo/semantics/doctoralThesises_ES
dc.typeinfo:eu-repo/semantics/doctoralThesises_ES
dc.subject.unesco61 Psicologíaes_ES
dc.identifier.doi10.14201/gredos.110650
dc.rights.accessRightsinfo:eu-repo/semantics/openAccess


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 Unported
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 Unported