full screen background image
Últimas notícias

Entenda como a inteligência artificial do Google classifica imagens


Se você já sentiu a pressão de selecionar “todos os quadrados com faixa de pedestres” e ficou em pânico pensando se clicava ou não naquela imagem que tinha só a pontinha de uma faixa de pedestres, provavelmente também já se perguntou como funcionam esses classificadores de imagem. Em uma tentativa de tornar as decisões da inteligência artificial mais transparente, uma equipe do Google recentemente explorou um modelo de aprendizado de máquina chamado Automated Concept-Based Explication (ACE), que extrai automaticamente os conceitos visuais “humanamente significativos”.

O ACE segmenta imagens com várias resoluções para capturar diferentes níveis de textura e objetos. Para testar o ACE, a equipe utilizou o modelo classificador de imagens Inception-V3 do Google. Eles observam que os conceitos marcados como importantes tendem a seguir a intuição humana — por exemplo, que um logotipo da polícia é mais importante para detectar uma van da polícia do que o asfalto no chão. Nem sempre foi assim, no entanto. Em um exemplo menos óbvio, o conceito mais importante para prever imagens de basquete acabou sendo o uniforme dos jogadores, e não a bola de basquete.

O classificador de imagens reconhece que a bola de basquete não é o mais importante, e sim o uniforme

Os pesquisadores admitem que o ACE não está nem perto de ser perfeito, mas luta para extrair significativamente conceitos excepcionalmente complexos ou difíceis. Eles acreditam que as ideias que ele fornece sobre as correlações aprendidas dos modelos podem promover um uso mais seguro do aprendizado de máquina.

A inteligência artificial reconhece as partes da imagem que são mais importantes

“Verificamos o significado e a coerência por meio de experimentos em humanos e validamos ainda que eles realmente transmitem sinais importantes para a previsão. Nosso método agrupa automaticamente os recursos de entrada em conceitos de alto nível; conceitos significativos que aparecem como exemplos coerentes e são importantes para a previsão correta das imagens em que estão presentes”, escreveram os pesquisadores. “Os conceitos descobertos revelam insights sobre correlações potencialmente surpreendentes que o modelo aprendeu”.

Fonte: Canaltech

Trending no Canaltech:



Fonte




Deixar uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *