Inteligência Artificial - Machine Intelligence - Google - DeepMind - Unreal

Inteligência Artificial - Machine Intelligence - Google - DeepMind - Unreal



Uma das principais missões da DeepMind, uma divisão do Google, é empurrar as fronteiras da IA - Inteligência Artificial, desenvolvendo programas que possam aprender a resolver qualquer problema complexo sem a necessidade de ser ensinado.

Seu agente de Reforço de Aprendizagem têm conseguido isso, como pode ser visto em avanços no Atari 2600 jogos e no jogo de Go

Tais sistemas, no entanto, podem exigir uma grande quantidade de dados, num longo tempo para aprender. Por isso sempre estão à procura de maneiras de melhorem seus algoritmos de aprendizagem genéricos.

Reforço de Aprendizagem Sem Supervisão Em Tarefas Auxiliares - é desenvolvido no projeto UnrealO mais novo sistema de Inteligência Artificial da DeepMind.

Os pesquisadores da DeepMind escreveram um artigo científico publicado na internet no dia 17|11|16, que dizia terem dado um salto na velocidade e no desempenho do seu sistema de aprendizagem de máquina.

Isso foi possível, entre outras coisas, dando à tecnologia atributos que funcionam de maneira similar à forma como se imagina que os animais sonham.

O artigo explica como o novo sistema da DeepMind — chamado de agente Unsupervised Reinforcement and Auxiliary Learning, ou Unreal — que aprendeu a dominar um jogo de labirinto tridimensional chamado Labyrinth dez vezes mais rapidamente que o melhor software de IA existente. Ele pode jogar esse jogo a 87% do desempenho de seres humanos especialistas. Esse agente é muito mais rápido de treinar e requer muito menos experiência do mundo, por isso utiliza os dados com muito mais eficiência.

A primeira tarefa envolve o agente aprender a controlar os pixels na tela, o que enfatiza o aprendizado como suas ações afetam o que verá em vez de apenas ter uma previsão. Esta é semelhante à forma como um bebê pode aprender a controlar suas mãos, movendo-as e observando seus movimentos. Ao aprender a mudar diferentes partes da tela, o agente aprende características de entrada visual que são úteis para jogar o jogo e obter pontuações mais altas.

Na segunda tarefa o agente é treinado para prever o aparecimento de recompensas imediatas a partir de um contexto histórico curto. A fim de melhor lidar com o cenário onde as recompensas são raras apresentamos o agente a um gratificante passado, onde as histórias não-gratificantes tenham uma proporção igual. Ao aprender sobre as histórias gratificantes com muito mais freqüência, o agente pode descobrir as características visuais de previsão de recompensa muito mais rápido.


A combinação dessas tarefas auxiliares, juntamente com a o papel anterior será o novo agente Unreal (sem supervisão de reforço e auxílio de aprendizagem). Testa-se este agente num conjunto de 57 jogos de Atari, bem como no ambiente 3D chamado Labirinto com 13 níveis. Em todos os jogos, o mesmo agente Unreal é treinado da mesma forma, desde a saída crua de imagemdo jogo, para produzir ações que maximizem sua pontuação ou recompense o agente no jogo. O comportamento necessário para obter recompensas do jogo é incrivelmente variado. De pegar maçãs no Labirinto 3D a jogar Space Invaders este mesmo algoritmo aprende a jogar estes jogos, muitas vezes num nível humano e até mesmo além. Alguns resultados e visualizações podem ser vistos no vídeo abaixo no vídeo acima.





Leia a matéria completa publicada aqui.


Leia também:


Envie seus comentários e sugestões e compartilhe este artigo!

brazilsalesforceeffectiveness@gmail.com

✔ Brazil SFE®✔ Brazil SFE®´s Facebook´s Profile  Google+   Author´s Professional Profile  ✔ Brazil SFE®´s Pinterest       ✔ Brazil SFE®´s Tweets

Vitrine

Related Posts Plugin for WordPress, Blogger...