segunda-feira, 8 de setembro de 2014

Nvidia CUDA constrói biblioteca de programação GPU para aprendizado de máquina - assim você não tem que


Novas soluções de armazenamento híbrido


Nvidia lançou um conjunto de rotinas de software para acelerar algoritmos de aprendizado de máquina em seus processadores gráficos paralelizadas.


No fim de semana, a fabricante de GPU carregado cuDNN - Redes Neurais Profundas CUDA - que é uma biblioteca de primitivas para a construção de software que treina redes neurais.







O componente é otimizado para processadores da Nvidia e deve, em teoria, salvar os programadores tempo: usando a biblioteca, os desenvolvedores não terão que reinventar a roda quando afinação parallelized algoritmos de aprendizado de máquina para GPUs - descarregando o trabalho matemático de CPU de aplicativo do host .


Anunciando cuDNN, Nvidia apontou para exemplos de aprendizado de máquina e redes neurais estão sendo usados ​​por empresas financeiras, empresas de web e organismos de investigação em áreas como a detecção de fraudes e jogos.


Em particular, a Nvidia destacou a tentativa de executar essas tarefas de processamento de fotos e imagens, olhando para coisas como caligrafia e reconhecimento facial.


"O sucesso da DNNs tem sido muito acelerado usando GPUs, que se tornaram a plataforma de escolha para a formação de complexos sistemas de grande porte, baseados em DNN ML", arquiteto de soluções da empresa Larry Brown tem um blog .


Brown acrescentou que Nvidia foi a introdução da biblioteca primitivos devido à "crescente importância" de DNNs eo papel fundamental desempenhado pela GPUs. ®







via Alimentação (Feed)

Nenhum comentário:

Postar um comentário