Qualcomm Cloud AI 100 visa melhorar a inteligência digital

A Qualcomm procura destilar parte da magia da nuvem e de seus processadores Snapdragon em um processador de IA, e Microsoft e Facebook já estão integrados ao novo Cloud AI 100. Um chip personalizado projetado para levar o processamento de IA no estilo da nuvem para o data center, o novo acelerador promete aplicações de realidade mista, jogos e personalização.

Embora já tenhamos visto aceleradores de IA baseados em chips móveis, o Qualcomm Cloud AI 100 não utiliza os chipsets móveis Snapdragon existentes. Em vez disso, é um chip totalmente novo, criado para o propósito, diz a Qualcomm.

O resultado é um desempenho máximo de IA superior a 50x o que você obteria de um Snapdragon 820. Ele é construído em processos de 7 nm e deve ter capacidade para mais de 10x o desempenho, afirma a Qualcomm, em relação a outras soluções de inferência de IA atualmente no mercado, com base em CPUs, GPUs ou FPGAs. O fator de forma é decidido pelo próprio cliente, com cartões diferentes projetados para diferentes data centers.

O Cloud AI 100 suporta os tempos de execução Glow, ONNX e XLA, juntamente com estruturas como PyTorch, Caffe2, Keras e TensorFlow. Ele virá com um conjunto completo de compiladores, debatedores, criadores de perfil e muito mais, tornando a velocidade mais simples. E, embora possa não usar explicitamente os chips Snapdragon, a Qualcomm diz ter mergulhado nos desenvolvedores de consumo de energia, escala e processamento de sinais nos quais confiou nos chipsets móveis para tornar a Cloud AI 100 mais eficiente.

Por que tudo isso é importante? Principalmente porque os requisitos que faremos da inteligência artificial nos próximos anos exercerão uma pressão séria sobre os sistemas baseados em nuvem atualmente predominantes. Numerosas empresas – todas as grandes fabricantes de chips dentre elas – buscam a chamada computação de ponta para ajudar a resolver isso.

A computação de borda compensa parte da carga de trabalho da nuvem, executando pelo menos parte do processamento localmente primeiro. A vantagem óbvia é que a nuvem tem menos trabalho pesado a fazer. No entanto, também existem grandes vantagens potenciais em latência e largura de banda.

Como você não está transferindo grandes quantidades de dados brutos, a taxa de transferência pode ser melhorada e as redes ficam menos estressadas. A IDC está prevendo que, até 2025, a soma coletiva dos dados do mundo chegará a 175 zettabytes, e uma parte considerável deles dependerá da nuvem. A latência envolvida na transferência de dados para a nuvem, no processamento dos mesmos e no recebimento de algo significativo em troca também pode ser considerável. Fazê-lo na borda pode reduzir essa latência significativamente.

Isso pode render dividendos quando se trata de desenvolver assistentes pessoais que podem processar e traduzir em idiomas naturais, além de pesquisar imagens avançadas. Também poderá ser melhor dimensionado com conteúdo e recomendações personalizadas, promete a Qualcomm. Outros aplicativos de computação de ponta comumente discutidos incluíam coisas como processamento autônomo de carro, com sistemas de baixa latência usados ​​para oferecer reconhecimento de imagem mais rápido e muito mais. No entanto, não será tão extremo quanto os carros que dirigem sozinhos: a Qualcomm está falando sobre como a IA de ponta ajudará o monitoramento da percepção do motorista, além de recursos como configurações personalizadas do motorista que aprendem com as preferências individuais do usuário.

Para os consumidores, obviamente, o Cloud AI 100 não é algo que eles desejam colocar no próximo PC ou telefone. No entanto, os benefícios obtidos podem ser notáveis, dependendo dos serviços que eles usam e assinam. Saberemos mais quando a Qualcomm começar a amostrar o novo chip para os consumidores, que deve ocorrer no segundo semestre de 2019.

Artigos Relacionados

Back to top button