Directrices para la traducción y adaptación de los testssegunda edición

  1. Muñiz Fernández, José 1
  2. Elosua Oliden, Paula
  3. Hambleton, Ronald K.
  1. 1 Universidad de Oviedo
    info

    Universidad de Oviedo

    Oviedo, España

    ROR https://ror.org/006gksa02

Revista:
Psicothema

ISSN: 0214-9915

Año de publicación: 2013

Volumen: 25

Número: 2

Páginas: 151-157

Tipo: Artículo

Otras publicaciones en: Psicothema

Resumen

Antecedentes: en los últimos años la adaptación de los tests de unas culturas a otras se ha incrementado en todos los ámbitos evaluativos. Vivimos en un entorno cada vez más multicultural y multilingüe en el que los tests se utilizan como apoyo en la toma de decisiones. El objetivo de este trabajo es presentar la segunda edición de las directrices de la Comisión Internacional de Tests (ITC) para la adaptación de los tests de unas culturas a otras. Método: un grupo de seis expertos internacionales revisaron las directrices originales propuestas por la Comisión Internacional de Tests, teniendo en cuenta los avances habidos en el campo desde su formulación inicial. Resultados: la nueva edición está compuesta por veinte directrices agrupadas en seis apartados: directrices previas, desarrollo del test, confirmación, aplicación, puntuación e interpretación y documentación. Se analizan los diferentes apartados, y se estudian las posibles fuentes de error que pueden influir en el proceso de traducción y adaptación de los tests. Conclusiones: se proponen veinte directrices para guiar la traducción y adaptación de los tests de unas culturas a otras. Se discuten las perspectivas futuras de las directrices en relación con los nuevos desarrollos en el ámbito de la evaluación psicológica y educativa.

Referencias bibliográficas

  • Abad, F.J., Olea, J., Ponsoda, V., y García, C. (2011). Medición en Ciencias Sociales y de la Salud. Madrid: Síntesis.
  • Bartram, D., y Hambleton, R.K. (Eds.) (2006). Computer-based testing and the Internet: Issues and advances. Chichester: Wiley.
  • Bennett, R.E. (1999). Using new technology to improve assessment. Educational Measurement: Issues and Practice, 18(3), 5-12.
  • Bennett, R.E. (2006). Inexorable and inevitable: The continuing story of technology and assessment. En D. Bartram y R.K. Hambleton (Eds.), Computer-based testing and the Internet: Issues and advances. Chichester: Wiley.
  • Binet, A., y Simon, T. (1905). Méthodes nouvelles pour le diagnostic du niveau intellectual des anormaux. L'Année Psychologique, 11, 191-336.
  • Breithaupt, K.J., Mills, C.N., y Melican, G.J. (2006). Facing the opportunities of the future. En D. Bartram y R.K. Hambleton (Eds.), Computerbased testing and the Internet (pp. 219-251). Chichester: John Wiley and Sons.
  • Brislin, R.W. (1986). The wording and translation of research instruments. En W.J. Lonner y J.W. Berry (Eds.), Field methods in cross-cultural psychology (pp. 137-164). Newbury Park, CA: Sage Publications.
  • Byrne, B. (2008). Testing for multigroup equivalence of a measuring instrument: A walk through the process. Psicothema, 20, 872-882.
  • Byrne, B.M., Leong, F.T., Hambleton, R.K., Oakland, T., van de Vijver, F.J., y Cheung, F.M. (2009). A critical analysis of cross-cultural research and testing practices: Implications for improved education and training in psychology. Training and Education in Professional Psychology, 3(2), 94-105.
  • Calvo, N., Gutiérrez, F., Andión, O., Caseras, X., Torrubia, R., y Casas, M. (2012). Psychometric properties of the Spanish version of the selfreport personality diagnostic questionnaire-4+ (PDQ-4+) in psychiatric outpatients. Psicothema, 24(1), 156-160.
  • De Ayala, R.J. (2009). The theory and practice of item response theory. New York: The Guilford Press.
  • Downing, S.M. (2006). Twelve steps for effective test development. En S.M. Downing y T.M. Haladyna (Eds.), Handbook of test development (pp. 3-25). Mahwah, NJ: Lawrence Erlbaum Associates.
  • Downing, S.M., y Haladyna, T.M. (Eds.) (2006). Handbook of test development. Mahwah, NJ: LEA.
  • Drasgow, F., Luecht, R.M., y Bennett, R.E. (2006). Technology and testing. En R.L. Brennan (Ed.), Educational measurement. Westport, CT: ACE/ Praeger.
  • Elosua, P. (2003). Sobre la validez de los tests. Psicothema, 15(2), 315-321.
  • Elosua, P. (2005). Evaluación progresiva de la invarianza factorial entre las versiones original y adaptada de una escala de autoconcepto. Psicothema, 17(2), 356-362.
  • Elosua, P. (2012). Tests publicados en España: usos, costumbres y asignaturas pendientes. Papeles del Psicólogo, 33(1), 12-21.
  • Elosua, P., Bully, P., Mujika, J., y Almeida, L. (2012, julio). Practical ways to apply the ITC precondition, and development guidelines in adapting tests. Spanish adaptation of "Bateria de Provas de Raciocinio". Paper presented at the V European Congress of Methodology, Santiago de Compostela.
  • Elosua, P., Hambleton, R., y Muñiz, J. (in press). Teoría de la Respuesta al ítem aplicada con R. Madrid: La Muralla. Elosua, P., e Iliescu, D. (2012). Tests in Europe. Where we are and where we should to go? International Journal of Testing, 12, 157-175.
  • Elosua, P., y Muñiz, J. (2010). Exploring the factorial structure of the selfconcept: A sequential approach using CFA, MIMIC and MACS models, across gender and two languages. European Psychologist, 15, 58-67.
  • Evers, A., Muñiz, J., Bartram, D., Boben, D., Egeland, J., Fernández-Hermida, J.R., et al. (2012). Testing practices in the 21st century: Developments and European psychologists's opinions. European Psychologist, 17(4), 300-319.
  • Goodman, D.P., y Hambleton, R.K. (2004). Student test score reports and interpretive guides: Review of current practices and suggestions for future research. Applied Measurement in Education, 17, 145-220.
  • Hambleton, R.K. (1994). Guidelines for adapting educational and psychological tests: A progress report. European Journal of Psychological Assessment, 10(3), 229-244.
  • Hambleton, R.K. (1996). Adaptación de tests para su uso en diferentes idiomas y culturas: fuentes de error, posibles soluciones y directrices prácticas. En J. Muñiz (Ed.), Psicometría (pp. 207-238). Madrid: Universitas.
  • Hambleton, R.K. (2001). The next generation of the ITC test translation and adaptation guidelines. European Journal of Psychological Assessment, 17(3), 164-172.
  • Hambleton, R.K. (2004). Theory, methods, and practices in testing for the 21st century. Psicothema, 16(4), 696-701.
  • Hambleton, R.K. (2006). Testing practices in the 21st century. Key Note Address, University of Oviedo, Spain, March 8th.
  • Hambleton, R.K. (2009, julio). International Test Commission Guidelines for Test Adaptation, second edition. Paper presented at the 11th European Congress of Psychology, Oslo
  • Hambleton, R.K., y Bollwark, J. (1991). Adapting tests for use in different cultures: Technical issues and methods. Bulletin of the International Test Commission, 18, 3-32.
  • Hambleton, R.K., Merenda, P., y Spielberger, C. (Eds.) (2005). Adapting educational and psychological tests for cross-cultural assessment. Hillsdale, NJ: Lawrence Erlbaum Publishers.
  • Hambleton, R.K., Swaminathan, H., y Rogers, J. (1991). Fundamentals of item response theory. Beverly Hills, CA: Sage.
  • Hambleton, R.K., y Zenisky, A.L. (2011). Translating and adapting tests for cross-cultural assessments. En D. Matsumoto y F.J.R. van de Vijver (Eds.), Cross-cultural research methods in psychology. Nueva York: Cambridge University Press (pp. 46-70).
  • ISO (2011). Procedures and methods to assess people in work and organizational settings (part 1 and 2). Ginebra: ISO.
  • Irvine, S., y Kyllonen, P. (Eds.) (2002). Item generation for test development. Mahwah, NJ: Lawrence Erlbaum.
  • Iturbide, L.M., Elosua, P., y Yenes, F. (2010). Medida de la cohesión en equipos deportivos. Adaptación al español del Group Environment Questionnaire (GEC). Psicothema, 22, 482-488.
  • Leeson, H.V. (2006). The mode effect: A literature review of human and technological issues in computerized testing. International Journal of Testing, 6, 1-24.
  • Lissitz, R.W. (Ed.) (2009). The concept of validity: Revisions, new directions, and applications. Charlotte, NC: Information Age Publishing.
  • Matsumoto, D., y van de Vijver, F.J.R. (Eds.) (2011). Cross-cultural research methods in psychology. Nueva York: Cambridge University Press.
  • Mills, C.N., Potenza, M.T., Fremer, J.J., y Ward, W.C. (Eds.) (2002). Computer-based testing: Building the foundation for future assessments. Hillsdale, NJ: LEA.
  • Muñiz, J. (2003). Teoría clásica de los tests. Madrid: Pirámide.
  • Muñiz, J. (1997). Introducción a la teoría de respuesta a los ítems. Madrid: Pirámide.
  • Muñiz, J. (2012). Perspectivas actuales y retos futuros de la evaluación psicológica. En C. Zúñiga (Ed.), Psicología, sociedad y equidad. Santiago de Chile: Universidad de Chile.
  • Muñiz, J., y Fernández-Hermida, J.R. (2010). La opinión de los psicólogos españoles sobre el uso de los tests. Papeles del Psicólogo, 31, 108-121.
  • Muñiz, J., y Hambleton, R.K. (1996). Directrices para la traducción y adaptación de tests. Papeles del Psicólogo, 66, 63-70.
  • Nogueira, R., Godoy, A., Romero, P., Gavino, A., y Cobos, M.P. (2012). Propiedades psicométricas de la versión española del Obssesive Belief Questionnaire-Children VersiOn (OBQ-CV) en una muestra no clínica. Psicothema, 24(4), 674-679.
  • Olea, J., Abad, F., y Barrada, J.R. (2010). Tests informatizados y otros nuevos tipos de tests. Papeles del Psicólogo, 31(1), 94-107.
  • Ortiz, S., Navarro, C., García, E., Ramis, C., y Manassero, M.A. (2012). Validación de la versión española de la escala de trabajo emocional de Frankfurt. Psicothema, 24(2), 337-342.
  • Parshall, C.G., Spray, J.A., Kalohn, J.C., y Davey, T. (2002). Practical considerations in computer-based testing. New York: Springer.
  • Phelps, R. (Ed.) (2005). Defending standardized testing. Londres: LEA.
  • Phelps, R. (Ed.) (2008). Correcting fallacies about educational and psychological testing. Washington: APA.
  • Prieto, G., y Muñiz, J. (2000). Un modelo para evaluar la calidad de los tests utilizados en España. Papeles del Psicólogo, 77, 65-71.
  • Rodríguez, M.S., Martínez, Z., Tinajero, C., Guisande, M.A., y Páramo, M.F. (2012). Adaptación española de la Escala de Aceptación Percibida (PAS) en estudiantes universitarios. Psicothema, 24(3), 483-488.
  • Shermis, M.D., y Burstein, J.C. (Eds.) (2003). Automated essay scoring: A cross-disciplinary perspective. Hillsdale, NJ: LEA.
  • Schmeiser, C.B., y Welch, C. (2006). Test development. En R.L. Brennan (Ed.), Educational measurement (4th edition). Westport, CT: American Council on Education/Praeger.
  • Sireci, S., y Zenisky, A.L. (2006). Innovative items format in computer-based testing: In pursuit of construct representation. En S.M. Downing y T.M. Haladyna (Eds.), Handbook of test development. Hillsdale, NJ: LEA.
  • Van de Vijver, F.J.R., y Tanzer, N.K. (1997). Bias and equivalence in crosscultural assessment: An overview. European Review of Applied Psychology, 47(4), 263-279.
  • Westbury, I. (1992). Comparing American and Japanese achievement: Is the United States really a low achiever? Educational Researcher, 21, 10-24.
  • Williamson, D.M., Mislevy, R.J., y Bejar, I. (2006). Automated scoring of complex tasks in computer based testing. Mahwah, NJ: LEA.
  • Williamson, D.M., Xi, X., y Breyer, J. (2012). A framework for evaluation and use of automated scoring. Educational Measurement: Issues and Practice, 31(1), 2-13.
  • Wilson, M. (2005). Constructing measures: An item response modeling approach. Mahwah, NJ: LEA.
  • Zenisky, A.L., y Sireci, S.G. (2002). Technological innovations in largescale assessment. Applied Measurement in Education, 15, 337-362.