 Visen Sanchis es consultor de accesibilidad web especialista en ciencias de la visión y divulgador. Siempre explica la importancia de la accesibilidad en meetups, congresos nacionales e internacionales y organiza eventos gratuitos como el WordPress Accessibility Day. Le gusta Eurovisión, la inclusión y la diversidad. Sabemos que actualmente el formato vídeo es el contenido estrella, pero también es el que presenta los mayores problemas de accesibilidad de forma ignata. Una solución sería subtitular todos los vídeos. Visen nos va a hablar de esto. Gracias. Bueno, lenguas cooficiales está de moda el tema. Yo lo propuse antes de que estuviese de moda, pero bueno, bien. La cuestión es que yo he estado viendo y en redes sociales cada vez me encuentro más contenido en lenguas cooficiales y también observo que es una tendencia subtitular los vídeos. Entonces he estado empapándome de los subtítulos en todas las plataformas y en todas las opciones y he descubierto que hay ciertas tendencias, que los subtítulos son todo un mundo y que los subtítulos los hacemos para todo el mundo. Entonces, aunque sea un poco redundante, hay que definirlos. Un subtítulo es texto sincronizado con el audio y el vídeo. ¿Y qué necesitamos? Pues obviamente necesitamos el vídeo, pero en otras ocasiones también necesitaremos el audio, porque del audio extraemos lo que se dice y cuando se dice, por lo que subtitulares conseguir una transcripción de lo que se está diciendo y los tiempos en los que se está diciendo. ¿Cómo podemos subtitular? Pues la primera opción es a mano. De hecho, es lo que WordPress TV te sugiere cuando te metes en un vídeo de WordPress TV, bajo a la derecha tienes la sección subtitles, subtitle el vídeo y te lleva al formulario para subir los subtítulos de un vídeo. Bajo de este formulario, tenemos las instrucciones para subtitular. WordPress TV te recomienda usar una herramienta en la que tú tienes que subir el vídeo. Tienes que indicar de aquí a aquí, se dice esto que te voy a escribir. Es una forma, no es la más óptima. Usábamos una trámpita que es el método YouTube. YouTube, subes un vídeo, le indicas en qué idioma está y te genera una transcripción. Bastante bien, sobre todo los tiempos, YouTube te los marca perfectos y desde la interfaz de YouTube puedes solucionarlo, los errores que detectes, después te bajas el archivo y lo puedes subir a WordPress TV, fenomenal. Pero así todo, YouTube tiene unas desventajas y es que su transcripción es ciertamente mejorable. No identifica los hablantes y eso en algunos vídeos es necesario que quede claro quién dice cada cosa. Recordemos que los subtítulos para las personas que nos están escuchando tienen que dejar claro a quién le atribuye esas palabras. No añade signos de puntuación. Cuando estás leyendo la transcripción de YouTube es un rollo empatatero porque es un mazacote de texto. No soporta idiomas cooficiales y eso es un handicap para hoy en día. Y lo que más me molesta es que censura la transcripción. Si yo digo un taco, ese taco se tiene que poder leer. ¿No somos niños pequeños? Entonces, ¿por qué lo podemos oír pero no lo podemos leer? Entonces como alternativa yo usaba esta trámpita, el método YouTube más Word. ¿Por qué? Porque Word en el desplegable dictar bajo tiene la opción de transcribir. A Word le subes un audio y te hace una transcripción que te cagas. Porque te identifica los hablantes. Añade signos de puntuación. No tiene problemas con que metas palabras en inglés o en otros idiomas. Normalmente lo detecta bastante, bastante bien. Agregas al documento después de corregirlo y si quieres le pasas el corrector. Qué mejor programa que Word para corregir texto. Entonces entre sus ventajas es que la transcripción es muy buena, que te añade los signos de puntuación, que lo ejecuta muy rápido, cosa que con YouTube no. Con YouTube tú subes el vídeo y igual en 15 minutos, que en 3 horas, que en 4 días en algún momento te hace la transcripción si quiere. Entonces el método Word te permite hacerlo bajo demanda. Pero como desventajas tienes que tener el archivo de audio por separado y eso para algunas personas con menos nivel técnico pues puede ser una barrera. No es gratuito y necesitas la última versión de Word. Y nos soporta idiomas cooficiales al menos a principios de verano que es cuando lo volví a mirar. Opción 3, lo que está en moda. La IA y añadimos Open Source. Como IA usaremos Whisper que es la red neuronal de Open Eye, ya GPT. Y como Open Source usaremos Subtitle Edit, que tiene una licencia GPL como la de nuestro querido Wordpress. Ventajas de esta combinación, que la transcripción es buena, que te añade los signos de puntuación, que soporta idiomas cooficiales. Eso es un plus tremendo. Tienes diferentes formas de ejecutarlo. Si tienes mucho nivel técnico te puedes montar tus historias y solamente sabes hacer click, click, click, click, también tenemos opciones. Y que lo puedes instalar tanto en Windows como en Linux. Desventajas que la calidad de transcripción es variable. Ahora veremos de qué depende. Que no te identifica los hablantes de momento. Hay alguna prueba en la que sí que está funcionando. Que consume recursos de hardware y bastantes. Y que los usuarios de Mac no pueden utilizar exactamente lo que voy a explicar. Pero se pueden instalar bas y después, con otro programa, editar los subtítulos. Estas son algunas de las características de Subtitle Edit. Soporta más de 300 formatos diferentes. Puede hacer transcripción, perdón, traducción via Google Translate. Soporta el control Z. Adobe Acrobat no soporta el control Z, por ejemplo, entre muchas más cosas. Y este es el aspecto que tiene este programa. A un lado tienes el vídeo. La parte inferior, la onda de audio con la que tú puedes ajustar cuando empieza y cuando acaba cada frase. Y arriba a la izquierda, los subtítulos propiamente dichos. Cuando cargas un vídeo en Subtitle Edit, lo que tienes que hacer lo primero es generar la transcripción. Menú vídeo, audio texto. Y esto te abre otra ventana, en la que lo primero que tienes que hacer es elegir el idioma. Declaras el idioma y tienes que elegir un motor, cpp o constme. Uno se ejecuta en el procesador, el otro se ejecuta en la tarjeta gráfica. Y elegir un modelo, hay varios modelos. Tiny, Base, Small, Medium, Large, etc. Cada uno tiene un tamaño y da unos resultados diferentes. Esto es un ejemplo que he ejecutado yo con mi portátil, la transcripción de un vídeo que dura 32 minutos. Con el motor cpp tarda más que con el motor de la gráfica. La gráfica ahí tiene ventaja. Y yo considero que para un vídeo de 32 minutos invertido entre 6 y 11 minutos no está mal. De todos los modelos, esto es información de chat gpt. De todos los modelos el que es más óptimo en nivel de errores y peso y complejidad es el modelo Medium. O sea que con unos tiempos de entre 6 y 32 pues oye, tampoco está mal del todo. Y también información de la propia OpenEye. Estos son el porcentaje de errores que se encuentran de media para cada idioma. El español es el idioma en el que tiene más precisión, seguido del inglés, el catalán 7.3, el galego 15.4 y en Euskera no tenemos información. Pero funciona con Euskera también. Una vez tenéis los subtítulos, los habéis corregido y está todo perfecto traducirlos es cuestión de segundos. Le das clic a la herramienta, se conecta a Google Translator y lo hace automáticamente y desde este asistente puedes comparar los subtítulos y ir haciendo pequeñas correcciones que es lo normal. Incluso desde la propia interfaz te añade una segunda columna y una segunda caja para el segundo idioma o los que añadas. Problema, WordPress, TV solamente soporta subtítulos en TTML y Certified Edit no es compatible. 300 formatos y este que es el que nos interesa no es compatible. ¿Qué pasa? Este formato en TTML en realidad es un archivo de XML y lo importante es que los subtítulos son barrazos en los que tienen un atributo de empieza en este momento, acaba en este momento y tiene una ID. Solución, pues lo exportamos a otro formato al TimeText 1.0 en XML. ¿Le cambiáis la extensión? Lo subís a WordPress TV porque ahora el formulario sí que aceptará el subtítulo y muy importante, después vais al canal de Slack, WordPress TV y pedís que os validen los subtítulos y no aparecen. Bien, un vídeo accesible por narices tiene subtítulos pero que un vídeo tenga subtítulos no significa que sea accesible. ¿Por qué? Pues porque los subtítulos tienen muchísimas características en el artículo de Wikipedia, los tenéis todas bien definidas. Es bastante interesante leer. Pero a modo de resumen, para accesibilidad, los subtítulos tienen que ser de mediación, ser creados directamente como herramienta de accesibilidad. Me da igual si son activables o fijos, si ya están quemados en el vídeo o los activas tu voluntariamente, en directo o en diferido o en función del tipo de contenido. Intra o extra lingüístico significa en el mismo idioma del vídeo o en otro idioma. Los subtítulos son la forma más fácil de traducir el contenido del vídeo, que no ha visto juego de tronos, subtitulado. Y pueden ser manuales o automáticos en función de las posibilidades. Pues bien, WordPress TV no te exige que cumples con ningún tipo de norma, pero estaría bien tener una norma que nos dé una referencia y generar una uniformidad a la hora de generar los subtítulos y esa norma podría ser perfectamente la UNE 153010 subtitulado para personas sordas y personas con discapacidad auditiva. Hay una excepción en esta norma y es las limitaciones técnicas de la herramienta. El reproductor de WordPress TV básicamente no acepta nada, ninguna floritura. Los aspectos visuales, como os digo, no se aplican a WordPress TV, pero sí que se aplican a otros programas. En resumen, los subtítulos tienen que estar centrados como mucho ocupar dos líneas y tienen que ser estáticos. Es un vídeo, no es un karaoke. Las animaciones en el 99,9999999% de la web son totalmente innecesarias y las tiene que activar el usuario si le interesa. El máximo de caracteres por línea e incluyendo espacios son 37. Esto es una imposición del teletexto. Hay que usar una fuente elegible, sea lo que sea eso, y respetar unos mínimos de contraste. 4, 5 sobre 1 que podéis encontrar en cualquier calculadora de contraste. Este es el aspecto que podrían tener unos subtítulos perfectamente válidos. A nivel temporal, la velocidad a la que la persona tiene que leer los subtítulos tiene que ser adecuada para que permita una lectura cómoda y importante, tienen que estar sincronizados. Si están desfasados es un rollo, si están adelantados son spoilers. Sobre temas de identificación es muy importante identificar a la persona que habla si no queda claro. ¿Cómo lo podemos hacer? A través del uso de color, a través de uso de etiquetas especificar el nombre de quien está hablando o a través del uso de guiones como pasan las novelas y cuando hay un diálogo. Por ejemplo, esto sería el uso de etiquetas entre paréntesis, en mayúscula, el nombre o alguna característica que te permita identificar a la persona que está hablando. Sobre el texto tiene que ser literal si es posible. Importante, no hay que censurar y no hay que interpretar. Si se edita el texto es para reducir la velocidad de lectura que se le exige al usuario. En una situación como esta, en la que yo estoy hablando y esto no está guionizado, los errores, a la hora de que yo me ponga subtitular el vídeo, las muletillas, etcétera, las voy a quitar y si tengo dudas, tengo que aplicar las narrativas de la RAE. Por ejemplo, en este vídeo famoso, el meme, la suficie que lo subtitularon en mayúsculas. Lo correcto sería entre comillas, así queda claro. Si hay efectos sonoros, arriba a la derecha si es posible, si no, abajo. La información contextual, la forma en la que estamos hablando, gritando, susurrando, etcétera, lo pondremos entre paréntesis y mayúscula antes del texto, de forma que, como esta mujer estaba molesta, molesta la suficie que es. Y cantan almohadilla verso y al final de la canción cerramos con la almohadilla. Y de esta forma, generaremos unos subtítulos que como os he intentado resumir, son todo un mundo, son para todo el mundo y lo que queremos en este mundo es que no hayan fronteras. Yo soy Vincent Sanchez, consultor de accesibilidad, aquí tenéis mis redes, la del pajarito, la del mastodonte, la de Blue Sky, mi web y soy embajador de Rayola Networks, a quienes agradezco el apoyo para poder venir a Work on Ponte Vedra y daros esta charla. Y ahora sí.