Select Page

O Aipoly, nome dado ao aplicativo, foi pensado pelo engenheiro Italiano Alberto Rizzoli e desenvolvido com seu colega Simon Edwardsson, ambos da Singularity University, na Califórnia. O aplicativo reconhece comidas, animais, plantas, objetos em geral e até pessoas.

O Aipoly funciona de forma bem simples, basta baixa-lo, apontar a câmera do celular para algo e o aplicativo explica em áudio e texto, o que está vendo – tudo em tempo real.

Hoje, o vocabulário do app equivale ao de uma criança de 5 anos, e ele ainda não consegue descrever cenas com muitos elementos. Mas essa capacidade deve dobrar a cada dois anos.

A inspiração para o projeto

Rizzoli conta que quando teve contato com as primeiras pesquisas sobre inteligência artificial, se lembro de Giacomo, um amigo de sua adolescência que acabou ficando cego em um acidente de caça. Segundo Alberto, o amigo lhe pedia para descrever o cenário onde eles estavam. Ele tentava responder em detalhes: “À nossa direita tem uma árvore com flores. À esquerda, uma estátua. Ao nosso lado, uma fonte”.

O engenheiro não via problemas em descrever cenas ao amigo, mas pensou em desenvolver uma tecnologia que pudesse ajudar a milhares de outros deficientes visuais, um “narrador” que ficasse dentro do bolso.

Já havia tecnologia para isso. A “aprendizagem profunda” (campo da inteligência artificial que explora o potencial de aprendizado das máquinas) estava avançando. Computadores já conseguiam interpretar imagens. Exemplo: o usuário fazia o upload de uma foto e o software descrevia, em texto, os elementos contidos naquela imagem. Levar essa funcionalidade para o celular passou a ser o objetivo de Alberto.

“Em 2018, provavelmente, ele será capaz de descrever cenas mais complexas, como ´homem andando a cavalo`”, diz Alberto. O aplicativo já foi usado por 400 mil pessoas e tem versão em português. Para iPhone e Android.

O aplicativo pode ser baixado em Android e IOS.