Internet no es fácil para quienes tienen desequilibrios visuales. Cuando hay aplicaciones de lectores de pantalla para ayudarlos, la mayoría de las veces, los sitios web o los usuarios no agregarán texto alternativo Para fotos. A su vez, el lector no puede describir al usuario cómo se verá la imagen.

Afortunadamente, hemos visto mucho Modelos de IA Los últimos años han facilitado esta tarea subtitulando automáticamente las fotos. Facebook presentó el modelo Texto de reemplazo automático (AAT) en 2016, actualizó su modelo para identificar objetos 10 veces más eficiente y detallado que nunca en una foto.

Cosas como el modelo actualizado se pueden identificar fácilmente Actividades, símbolos y tipos de animales en una imagen. El nuevo modelo también puede indicarle si hay personas delante o detrás de una escena.

Un modelo anterior de Facebook habría descrito la foto de abajo como una “imagen de 5 personas”. Pero el modelo actualizado lo describe como “m”Imagen de 5 personas tocando instrumentos musicales, personas de pie, 2 sombreros y 5 tambores. “

Crédito: Facebook

Un modelo anterior de Facebook utilizaba datos probados y con nombres humanos. Pero para ampliar su alcance y reducir el tiempo de entrenamiento, el equipo entrenó al nuevo modelo en imágenes públicas con subtítulos y hashtags como fotos de Instagram. La compañía también afirma que la IA garantiza la comprensión de diferentes géneros, colores de piel y contextos culturales.

El nuevo modelo permite a los usuarios obtener una descripción detallada de todas las fotos o ciertos intereses, como imágenes de amigos y familiares en Facebook Newsfeet.

Hay mucho Soluciones organizativas Le permite subtitular automáticamente sus imágenes a su alrededor. Sin embargo, el modelo de Facebook es una de las pocas soluciones a gran escala para este problema.

READ  Google Maps agrega los detalles de calles más precisos en 4 ciudades

Puede obtener más información sobre la muestra de título de imagen actualizada de Facebook aquí.

Publicado el 20 de enero de 2021-07: 16 UTC