Novas soluções de armazenamento híbrido
Nvidia lançou um conjunto de rotinas de software para acelerar algoritmos de aprendizado de máquina em seus processadores gráficos paralelizadas.
No fim de semana, a fabricante de GPU carregado cuDNN - Redes Neurais Profundas CUDA - que é uma biblioteca de primitivas para a construção de software que treina redes neurais.
O componente é otimizado para processadores da Nvidia e deve, em teoria, salvar os programadores tempo: usando a biblioteca, os desenvolvedores não terão que reinventar a roda quando afinação parallelized algoritmos de aprendizado de máquina para GPUs - descarregando o trabalho matemático de CPU de aplicativo do host .
Anunciando cuDNN, Nvidia apontou para exemplos de aprendizado de máquina e redes neurais estão sendo usados por empresas financeiras, empresas de web e organismos de investigação em áreas como a detecção de fraudes e jogos.
Em particular, a Nvidia destacou a tentativa de executar essas tarefas de processamento de fotos e imagens, olhando para coisas como caligrafia e reconhecimento facial.
"O sucesso da DNNs tem sido muito acelerado usando GPUs, que se tornaram a plataforma de escolha para a formação de complexos sistemas de grande porte, baseados em DNN ML", arquiteto de soluções da empresa Larry Brown tem um blog .
Brown acrescentou que Nvidia foi a introdução da biblioteca primitivos devido à "crescente importância" de DNNs eo papel fundamental desempenhado pela GPUs. ®
via Alimentação (Feed)
Nenhum comentário:
Postar um comentário