(EMOCIONADA) Me he enamorado.

Llevo casi dos semanas sin pasarme por aquí. Pero tengo una buena excusa: me he enamorado.

Amor

Así es. Por si mi pasión por la traducción para el doblaje y la subtitulación fuera poca, ahora he descubierto los encantos de la accesibilidad. La subtitulación para sordos, el rehablado, la audiodescripción… cada una de estas modalidades es especial, y me encanta. Lamentablemente, si no quiero escribir una entrada de 50 páginas, tengo que ser muy breve al describirlas.

Todo empezó el pasado 23 de febrero, cuando asistí al curso de subtitulación para sordos impartido por MultiSignes, con el que se nos entregaba la licencia del programa EZTitles durante un mes. El programa no está mal, tiene sus pros y sus contras, pero en cualquier caso no estoy aquí para hacer publicidad 😉

La subtitulación para sordos en un reto más allá del reto, pues presenta todas las restricciones espaciales de la subtitulación para oyentes con el añadido de tener que incluir mucha más información aparte del diálogo.Vayamos por partes:

– La Norma UNE 153010 establece la velocidad de lectura en 15 caracteres por segundo como máximo y un máximo de 37 caracteres por línea.

Aparte del diálogo, hay dos tipos de informaciones que hay que añadir:

– Efectos sonoros. La banda sonora y los sonidos ambientales que sean necesarios para seguir la trama de la película o serie que se esté subtitulando. Se escriben en minúscula y entre paréntesis en forma de sustantivos. Algunas empresas los prefieren en la esquina superior derecha de la pantalla; otras en la primera línea del subtítulo, siendo toda esa línea únicamente para el efecto sonoro: (Aplausos)

– Información contextual. Se trata de los matices del habla, de la expresión de los sentimientos no verbales: la entonación, el volumen, etc. Se indican con mayúsculas y entre paréntesis justo antes de la intervención, en forma de adjetivos o verbos conjugados: (EMOCIONADA) Me he enamorado.

– La colocación del sonido. Hay que indicar si el diálogo que estamos subtitulando viene del otro lado del teléfono, de la calle, de la radio. También en mayúsculas y entre paréntesis.

Por último, mencionar que, aunque no parece que haya un consenso al respecto, los diferentes personajes se identifican con colores, con guiones, o con sus nombres o iniciales*.

Podría contaros mucho más, pero en ese caso le quitaría toda la emoción al curso 😉 Así que pasaré ahora a hablaros de un tema que está íntimamente relacionado: el rehablado.

Yo no sé a vosotros, pero a mí, antes de empezar el máster, nadie me había hablado jamás de esta maravillosa especialidad que aúna la subtitulación para sordos y la interpretación simultánea. A grandes rasgos, con ayuda de un software de reconocimiento de voz, se interpreta lo que aparece en pantalla, el programa genera los subtítulos, estos se revisan y se lanzan a pantalla con unos segundos de desfase respecto de la emisión original (todo ello mientras se continúa interpretando, revisando, lanzando, interpretando, revisando, lanzando…). Es un reto dentro del reto más allá del reto.

Tuve la oportunidad de aprender mucho más al respecto en el “4th International Symposium on Live Subtitling” que organizaron el Centre d’Accessibilitat i Intel·ligència Ambiental de Catalunya y el grupo de investigación TransMedia Catalonia el pasado día 12.

Cerca de veinte ponentes de diferentes partes del mundo vinieron a presentar sus productos y proyectos, que abarcaban temas tan interesantes como la mejora de los problemas de transcripción de los programas de reconocimiento de voz (Andrew Lambourne) , la introducción del rehablado de vídeos de clases magistrales (Yota Georgakopoulou), o el modelo NER para la evaluación de la calidad de los subtítulos (Pablo Romero-Fresco y Juan Martínez). Espero poder hablaros de algunos de estos proyectos con más detenimiento pronto.

Después de las ponencias, fuimos casi todos a cenar. Ahí me pude reunir con mis adorados metaveros 🙂

Metaveros

Los dos días siguientes se celebró el “4th Advanced Research Seminar on Audio Description” (ARSAD) gracias a los mismos organizadores. Unos cuarenta especialistas vinieron a contarnos los avances que se están dando, en unos países más chiquititos que en otros, en el campo de la audiodescripción.

¿Y qué es eso de la audiodescripción? Se trata de una narración, entre diálogo y diálogo, de todos los elementos visuales que una persona invidente o con problemas de visión se pierde al ver la televisión o ir al cine, al teatro, a un museo. De las presentaciones que más me impactaron, destacaría la de Andrew Duchowski, que hablaba del proyecto de su compañera Nicole Snell, sobre la aplicación de su proyecto sobre la recepción de los elementos denotativos y connotativos de los subtítulos para sordos a la de los guiones de audiodescripción; la de Louise Fryer, sobre el complejo arte de identificar lo que un audiodescriptor debe incorporar incondicionalmente a su audiodescripción; la de Katerina Tsaousi y Estel·la Oncins sobre el programa de sensibilización en forma de curso de subtitulación para sordos y audiodescripción para adolescentes en el “Campus Itaca“; los innovadores estudios de recepción de Elena SV Flys, que proponía un teatro accesible a través de herramientas poco convencionales (aromas o la introducción de audiodescripción en el propio diálogo, por ejemplo); la preciosa presentación de Agnieszka Walczak sobre audiodescripción para niños como herramienta pedagógica tanto para videntes como para invidentes, y por supuesto como medio de integración; o las interesantísimas reflexiones de Agnieszka Szarkowska sobre la audiodescripción de las metáforas visuales en el cine de autor.

Foto con mis compañeras y amigas Yolanda y Emilia (UMU y METAV), con el fundador de Aptent, y con la ponente Elena SV Flys. Gente maravillosa.

Foto con mis compañeras y amigas Yolanda y Emilia (UMU y METAV), con el fundador de Aptent, y con la ponente Elena SV Flys. Gente maravillosa.

Siento dejaros con la miel en los labios. La verdad es que ambas conferencias y el curso fueron tan interesantes que, de verdad, me faltaría nube para explicaros todo. Como compensación aquí os dejo otros blogs que tratan con mayor profundidad estos temas:

Memorias de un subtitulari. (Blog de mi profesor del curso de MultiSignes, Jota Martínez Galiana)

El pez naranja.

Lluís Translations.

En la luna de Babel.

Bellas traducciones.

Red Bee.

También os dejo aquí la página web de Aptent, la empresa de accesibilidad de uno de los increíbles profesionales que conocí en estos maravillosos días de aprendizaje, Javier J. Dorado. ¡Que los disfrutéis!

____________________________________________________________________________________________

*”Curso de subtitulación para sordos”, pp. 3-14. MultiSignes – Fundació Universitat de Girona. Banyoles, 23 de febrero de 2013.

Anuncios

4 pensamientos en “(EMOCIONADA) Me he enamorado.

  1. Es curioso, pero últimamente he estado traduciendo unos subtítulos para sordos. Simplemente quería intentarlo. No los he hecho de cero, sino a partir de unos subtítulos de DVD que ya llevaban las anotaciones para sordos.

    Tampoco se parecen a otros subtítulos para sordos que he visto; no indican el nombre del personaje que habla y contienen líneas que parecen ser notas del director. ^^U

    Además, al ser una película japonesa no siempre ponen notas como “se oye deslizar la puerta”, sino que a menudo escriben cosas como “raaas-raas”, y eso he querido mantenerlo. Dicen que el español no tiene tanta capacidad de crear onomatopeyas como el japonés, pero eso está por ver. ò_ó

    Me gusta

  2. Pingback: Subtitulación para sordos | Español (con virgulilla, por favor)

We need to talk...

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s