segunda-feira, 21 de outubro de 2019

Chrome introduz funcionalidade para cegos “verem” imagens enquanto navegam na internet

Através de IA e machine learning, o browser vai passar a descrever as
imagens para ajudar cegos ou pessoas com problemas de visão a navegarem
com maior eficácia na internet.
Considerando que a componente multimédia, sobretudo as imagens, fazem
parte de toda a experiência online, quando se navega pela internet, as
pessoas com problemas de visão e os cegos passam ao lado dos conteúdos
ilustrados. A Google pretende oferecer uma solução baseada em
inteligência artificial e machine learning para gerar automaticamente
descrições para essas pessoas. Até aqui, as descrições mostradas em
Braille dependem sempre dos web designers em obedecer às normas e criar
o chamado texto alternativo para as imagens.
A equipa da Google, responsável pela divisão de acessibilidade do
Chrome, produziu uma funcionalidade que tira partido do sistema de
reconhecimento de imagens, ligando-o a um algoritmo para gerar as tais
descrições alternativas das imagens. Isto porque segundo Laura Allen,
programadora sénior e gestora da equipa, citada pela Fast Company,
existem muitos milhões de imagens online sem qualquer descrição, uma má
conduta que a afeta diretamente, visto que tem uma visão reduzida.
“Quando se está a navegar e se depara com estas imagens, basicamente
ouve-se “imagem” ou “gráfico” ou simplesmente um gigantesco número,
referente ao nome do ficheiro da imagem, que são totalmente irrelevantes”.
É explicado que a tecnologia vai permitir oferecer algumas descrições
mais detalhadas, nomeadamente explicar que uma imagem com bananas e
cocos numa bancada se trata de “uma banca de frutas e vegetais no
mercado”. Para tal recorre à sua base de dados do Google Photos,
reconhecendo os objetos e aprende a gerar descrições assertivas para os
utilizadores com visão reduzida. O importante da tecnologia parece ser a
contextualização das imagens, e não uma descrição direta dos elementos
que as compõem.
Invés de referir bananas e cocos, a ferramenta pode referer o contexto
"frutas e legumes numa banca de venda" aos utilizadores cegos.
Ainda assim, e considerando que o algoritmo não é perfeito, sempre que
tenha dúvida do teor da imagem, a decisão é fazer com que não a traduza,
de todo, para evitar confundir os utilizadores. E no processo de testes,
a Google afirma que a ferramenta já identificou 10 milhões de mensagens
em poucos meses.
Para já, o recurso começou a ser disponibilizado aos utilizadores de
forma faseada, sobretudo aos que utilizam os tais leitores de ecrã.
Esses utilizadores vão poder controlar o sistema, se apenas querem
utilizar numa página, ou manter ligado durante a navegação. A Google
adianta que neste momento apenas está disponível em inglês, mas em breve
vai chegar a outros idiomas.

Fonte:Sapo,10 out 2019 14:03 

Sem comentários:

Enviar um comentário