Qualcomm Cloud AI 100 visa melhorar a inteligência digital

Qualcomm Cloud AI 100 visa melhorar a inteligência digital

A Qualcomm procura destilar parte da magia da nuvem e de seus processadores Snapdragon em um processador de IA, e Microsoft e Facebook j√° est√£o integrados ao novo Cloud AI 100. Um chip personalizado projetado para levar o processamento de IA no estilo da nuvem para o data center, o novo acelerador promete aplica√ß√Ķes de realidade mista, jogos e personaliza√ß√£o.

Embora já tenhamos visto aceleradores de IA baseados em chips móveis, o Qualcomm Cloud AI 100 não utiliza os chipsets móveis Snapdragon existentes. Em vez disso, é um chip totalmente novo, criado para o propósito, diz a Qualcomm.

O resultado √© um desempenho m√°ximo de IA superior a 50x o que voc√™ obteria de um Snapdragon 820. Ele √© constru√≠do em processos de 7 nm e deve ter capacidade para mais de 10x o desempenho, afirma a Qualcomm, em rela√ß√£o a outras solu√ß√Ķes de infer√™ncia de IA atualmente no mercado, com base em CPUs, GPUs ou FPGAs. O fator de forma √© decidido pelo pr√≥prio cliente, com cart√Ķes diferentes projetados para diferentes data centers.

O Cloud AI 100 suporta os tempos de execução Glow, ONNX e XLA, juntamente com estruturas como PyTorch, Caffe2, Keras e TensorFlow. Ele virá com um conjunto completo de compiladores, debatedores, criadores de perfil e muito mais, tornando a velocidade mais simples. E, embora possa não usar explicitamente os chips Snapdragon, a Qualcomm diz ter mergulhado nos desenvolvedores de consumo de energia, escala e processamento de sinais nos quais confiou nos chipsets móveis para tornar a Cloud AI 100 mais eficiente.

Por que tudo isso é importante? Principalmente porque os requisitos que faremos da inteligência artificial nos próximos anos exercerão uma pressão séria sobre os sistemas baseados em nuvem atualmente predominantes. Numerosas empresas Рtodas as grandes fabricantes de chips dentre elas Рbuscam a chamada computação de ponta para ajudar a resolver isso.

A computação de borda compensa parte da carga de trabalho da nuvem, executando pelo menos parte do processamento localmente primeiro. A vantagem óbvia é que a nuvem tem menos trabalho pesado a fazer. No entanto, também existem grandes vantagens potenciais em latência e largura de banda.

Como você não está transferindo grandes quantidades de dados brutos, a taxa de transferência pode ser melhorada e as redes ficam menos estressadas. A IDC está prevendo que, até 2025, a soma coletiva dos dados do mundo chegará a 175 zettabytes, e uma parte considerável deles dependerá da nuvem. A latência envolvida na transferência de dados para a nuvem, no processamento dos mesmos e no recebimento de algo significativo em troca também pode ser considerável. Fazê-lo na borda pode reduzir essa latência significativamente.

Isso pode render dividendos quando se trata de desenvolver assistentes pessoais que podem processar e traduzir em idiomas naturais, al√©m de pesquisar imagens avan√ßadas. Tamb√©m poder√° ser melhor dimensionado com conte√ļdo e recomenda√ß√Ķes personalizadas, promete a Qualcomm. Outros aplicativos de computa√ß√£o de ponta comumente discutidos inclu√≠am coisas como processamento aut√īnomo de carro, com sistemas de baixa lat√™ncia usados ‚Äč‚Äčpara oferecer reconhecimento de imagem mais r√°pido e muito mais. No entanto, n√£o ser√° t√£o extremo quanto os carros que dirigem sozinhos: a Qualcomm est√° falando sobre como a IA de ponta ajudar√° o monitoramento da percep√ß√£o do motorista, al√©m de recursos como configura√ß√Ķes personalizadas do motorista que aprendem com as prefer√™ncias individuais do usu√°rio.

Para os consumidores, obviamente, o Cloud AI 100 não é algo que eles desejam colocar no próximo PC ou telefone. No entanto, os benefícios obtidos podem ser notáveis, dependendo dos serviços que eles usam e assinam. Saberemos mais quando a Qualcomm começar a amostrar o novo chip para os consumidores, que deve ocorrer no segundo semestre de 2019.

0 Shares