segunda-feira, 9 de dezembro de 2013

Boffins Google conceber o legado: Um Frankenbrain pic classificação


Guia rápido para a recuperação de desastres na nuvem


Você acha que a adivinhação e ciência avançada seria inimigos naturais, mas não no Google, onde um time de pesquisadores estão tentando acasalar os dois juntos.


Em um documento apresentado na segunda-feira em uma conferência de inteligência artificial na Califórnia, sete pesquisadores do Google delineou seu classificador imagem, o software que rotula fotos , identificando o que há neles. Foi criado pela fusão de duas abordagens distintas de aprendizagem de máquina em conjunto.







Em suma, o sistema pode fazer um palpite de identificar uma imagem desconhecida com base nos rótulos de texto oferecidos a ele. Por exemplo, se foi mostrado uma foto de uma cartola vitoriana negro não tinha visto antes, e perguntou se era uma cartola vitoriana preto ou um abriu-peddle preto de lixo bin - ambos os rótulos que também não tinha ouvido falar de antes - poderia adivinhar corretamente porque ele sabe o que vários outros chapéus e cestos de lixo semelhante e sabe as relações entre seus rótulos.


O Devise: Um papel Visual-semântica profunda Embedding Modelo [ PDF ] descreve uma tecnologia que se esforça para combinar os recursos de reconhecimento de imagem fantasmagóricos de sistemas fracos de AI tradicionais do Google com as grandes capacidades de modelagem semânticas de seus " Ir-gram "classificadores de texto.


Esta abordagem é chamada de "aprendizagem de zero-shot", e é visto pela confiança cérebro Google (que inclui MapReduce-criador Jeff Dean) como uma das melhores chances de concepção de sistemas que podem lidar com conjuntos de dados mutáveis ​​com classificações pobres - em outras palavras , a informação crescente frota do Google de olhos eletrônicos portáteis ou roda-limite são susceptíveis de sorver a partir do mundo que os rodeia.


"Os objetivos deste trabalho são desenvolver um modelo de visão que faz previsões semanticamente relevantes, mesmo quando comete erros e generaliza a aulas fora do seu conjunto de treinamento rotulado", escrevem eles.


Elaborar contém dois elementos: um classificador de texto que rotula texto baseado em seu conteúdo, e um reconhecedor objeto que estuda imagens.


O classificador de texto treina um modelo de linguagem neural usando 5,7 milhões de documentos que compõem 5,4 bilhões de palavras slurped da Wikipedia. A abordagem permite que a tecnologia converter o mundo confuso da linguagem em um gráfico numérico em que cada palavra é definida por suas relações com os outros.


O reconhecedor de imagem, entretanto, é uma "rede neural profunda state-of-the-art para o reconhecimento de objeto visual", que foi treinado para reconhecer cerca de 1.000 categorias de imagens.


Armado com essas duas tecnologias de potência, os pesquisadores descobriram uma maneira de fundir os dois juntos para que o modelo poderia utilizar ambas as abordagens ao tentar classificar uma nova imagem.


Este modelo é ligeiramente mais preciso do que os sistemas atuais state-of-the-art e é inerentemente mais flexíveis. Os investigadores hipótese:



Um modelo de inventar que foi treinado em imagens com rótulos como "tubarão-tigre", "tubarão-touro" e "tubarão azul", mas nunca com imagens marcadas simplesmente "tubarão", provavelmente teria a capacidade de generalizar a isso mais de granulação grossa descritor, porque o modelo de linguagem que aprendeu uma representação do conceito geral de "Tubarão", que é semelhante a todos os tubarões específicos. Da mesma forma, se testado em imagens de aulas altamente específicos que o modelo passa a nunca ter visto antes, por exemplo, uma foto de um tubarão whitecap oceânica, e perguntou se o rótulo correto é mais provável "tubarão oceânico whitecap" ou algum outro rótulo desconhecido ( digamos, "submarino nuclear"), o nosso modelo significa uma chance de adivinhar corretamente, porque o modelo de linguagem garante que a representação de "tubarão oceânico whitecap" está mais próxima da representação de tubarões a modelo viu, enquanto que a representação do "submarino nuclear" está mais próximo aos de outras embarcações marítimas.



Experimentos subsequentes detalhadas no papel suportou a esta teoria.


Google acredita que o sistema tem uma ampla gama de aplicações em algumas das áreas da gigante de busca mais difíceis problemas.


"Acreditamos que a compatibilidade incomum do nosso modelo com conjuntos de dados maiores, menos cuidados irá revelar-se uma grande força a avançar", escreveu o nove. "Ainda que aqui nós treinamos em um conjunto de dados de imagem acadêmico curadoria, arquitetura de nosso modelo presta-se naturalmente para ser treinado em todas as imagens disponíveis que podem ser anotados com qualquer termo texto contido no (maior) vocabulário. Acreditamos que grande formação" imagem aberta " conjuntos de dados desta forma irá melhorar dramaticamente a qualidade dos sistemas de categorização de objetos visuais. "


E uma vez que o Google aperfeiçoou as capacidades desta tecnologia ainda, ele poderia ser usado para uma variedade de problemas, tais como a distinção entre categorias como cães, gatos e cortadores de grama, e também entidades específicas, como dizer a diferença entre os carros, como um " Honda Civic, Ferrari F355, Tesla Model-S ", eles observam - capacidades que são ingredientes cruciais para um maior desenvolvimento em negócios-chave do Google altamente segmentados, publicidade automatizado.


Como o óleo é para a indústria de plásticos, os dados são para o Google: é o recurso fundamental em que a empresa depende, e quanto mais ele pode refiná-la, mais dinheiro ele pode fazer a partir dele. Por esta razão, aprendizado de máquina e outras abordagens analíticas profundas são uma prioridade para o Google como as tentativas ad-lançador para automatizar a classificação e marcação de um mundo em constante inchaço de dados digitais, com este sistema, ele criou uma outra abordagem para deixá-lo sorver mais dinheiro do mundo digital etéreo. ®







via Alimentação (Feed)

Nenhum comentário:

Postar um comentário