Lector de pantalla


Un lector de pantalla es una forma de tecnología de asistencia ( AT ) [1] que representa el contenido de texto e imagen como salida de voz o braille. Los lectores de pantalla son esenciales para las personas ciegas , [ 2] y son útiles para las personas con discapacidad visual , [2] analfabetas o con problemas de aprendizaje . [3] Los lectores de pantalla son aplicaciones de software que intentan transmitir lo que las personas con visión normal ven en una pantalla a sus usuarios a través de medios no visuales, como texto a voz , [4] íconos de sonido,[5] o un dispositivo braille . [2] Lo hacen mediante la aplicación de una amplia variedad de técnicas que incluyen, por ejemplo, la interacción con API de accesibilidad dedicadas , el uso de variasfunciones del sistema operativo (como la comunicación entre procesos y la consulta de propiedades de la interfaz de usuario ) y el empleo de técnicas de enganche . [6]

Los sistemas operativos Microsoft Windows han incluido el lector de pantalla Microsoft Narrator desde Windows 2000 , aunque los productos independientes, como el lector de pantalla JAWS y la lupa de pantalla ZoomText disponibles comercialmente de Freedom Scientific , y el lector de pantalla gratuito y de código abierto NVDA de NV Access son más populares por eso. Sistema operativo. [7] macOS , iOS y tvOS de Apple Inc. incluyen VoiceOver como un lector de pantalla integrado, mientras que Android de Google proporciona el lector de pantalla Talkback y su sistema operativo Chrome puede usar ChromeVox. [8] Del mismo modo, los dispositivos basados ​​en Android de Amazon ofrecen el lector de pantalla VoiceView. También hay lectores de pantalla gratuitos y de código abierto para sistemas similares a Linux y Unix , como Speakup y Orca .

En los primeros sistemas operativos , como MS-DOS , que empleaba interfaces de línea de comandos ( CLI ), la visualización de la pantalla consistía en la asignación de caracteres directamente a un búfer de pantalla en la memoria y una posición del cursor . La entrada fue por teclado. Por lo tanto, toda esta información podría obtenerse del sistema conectando el flujo de información alrededor del sistema y leyendo el búfer de la pantalla o usando un conector de salida de hardware estándar [9] y comunicando los resultados al usuario.

En la década de 1980, el Centro de Investigación para la Educación de los Discapacitados Visuales ( RCEVH ) de la Universidad de Birmingham desarrolló un lector de pantalla para BBC Micro y NEC Portable. [10] [11]

Con la llegada de las interfaces gráficas de usuario ( GUI ), la situación se volvió más complicada. Una GUI tiene caracteres y gráficos dibujados en la pantalla en posiciones particulares y, por lo tanto, no hay una representación puramente textual de los contenidos gráficos de la pantalla. Por lo tanto, los lectores de pantalla se vieron obligados a emplear nuevas técnicas de bajo nivel, recopilando mensajes del sistema operativo y usándolos para construir un "modelo fuera de pantalla", una representación de la pantalla en la que se almacena el contenido de texto requerido. [12]

Por ejemplo, el sistema operativo podría enviar mensajes para dibujar un botón de comando y su título. Estos mensajes se interceptan y se utilizan para construir el modelo fuera de pantalla. El usuario puede cambiar entre los controles (como botones) disponibles en la pantalla y los subtítulos y el contenido de los controles se leerán en voz alta y/o se mostrarán en una pantalla braille actualizable .


Un ejemplo de alguien que usa un lector de pantalla que muestra documentos que son inaccesibles, legibles y accesibles