O Bing aceita o Google e exibe os resultados da pesquisa 10 vezes mais rápido

Índice:

Vídeo: Como prever o espalhamento de uma doença 2024

Vídeo: Como prever o espalhamento de uma doença 2024
Anonim

O hardware especializado da Microsoft para computação em IA é chamado Brainwave, e foi criado para executar uma rede neural o mais rápido possível com latência mínima.

A empresa anunciou que, desde o uso do Brainwave, conseguiu obter um desempenho dez vezes mais rápido com a IA do Bing. O modelo de aprendizado de máquina basicamente potencializa a funcionalidade do mecanismo de pesquisa.

O objetivo da Microsoft que deve ser alcançado via Brainwave é fornecer previsões de IA em tempo real para aplicativos como os recursos mais recentes do Bing.

Bing recebe novos recursos

A Microsoft também fornece ao Bing alguns novos recursos, e os mais importantes, que valem a pena mencionar, estão oferecendo mais respostas a perguntas com instruções e suporte para definir palavras que não são usadas com tanta frequência quando os usuários colocam o ponteiro do mouse sobre eles. Esses recursos são alimentados pelo Brainwave.

A Microsoft está usando os FPGA da Intel para alimentar a computação de IA

Os FPGAs são uma espécie de telas em branco para os desenvolvedores usarem quando desejam implantar vários circuitos enviando um novo software. Isso envolve uma potente mistura de desempenho e capacidade de programação.

Agora, a Microsoft pode fazer mais do que criar modelos mais rápidos com o hardware; a empresa também pode construir sistemas de IA mais sofisticados. Por exemplo, o Turing Prototype 1 do Bing agora é dez vezes mais complexo e mais rápido, graças à capacidade de computação adicionada via Brainwave.

Os FGAs implantados pela Microsoft vêm com processadores de sinal digital dedicados, aprimorados para matemática complexa de IA.

O principal benefício dos FPGAs

A vantagem mais significativa dos FPGAs sobre as GPUs (que se tornaram a escolha preferida para o cálculo da IA) é que eles não exigem o uso extensivo de cálculos em lotes.

Uma inovação importante que permite à Microsoft obter resultados tão bem-sucedidos via FPGAs é o uso de tipos de dados de ponto flutuante de 8 e 9 bits que aumentam radicalmente o desempenho.

Os chips FPGA da Intel permitem que o Bing leia e analise rapidamente bilhões de documentos em toda a web e forneça a melhor resposta para sua pergunta em menos de uma fração de segundo.

De fato, os FPGAs da Intel nos permitiram diminuir a latência de nossos modelos em mais de 10x, além de aumentar o tamanho do modelo em 10x.

O uso de FPGAs para acelerar o cálculo da IA ​​remonta a 2012

A Microsoft começou a usar FPGAs para aumentar a velocidade do cálculo da IA ​​há mais de seis anos, quando a equipe do Bing começou a usar os chips. Tudo isso também é uma ótima notícia para a Intel. A empresa comprou a Altera, fabricante de FPGA em 2015 e o acordo de 16, 7 bilhões de dólares forneceu à Intel o poder necessário para abastecer as necessidades da Microsoft até hoje.

Estamos ansiosos para ver o Brainwave disponível via Microsoft Azure para oferecer aos clientes a chance de implantar seus modelos.

O Bing aceita o Google e exibe os resultados da pesquisa 10 vezes mais rápido