O Pixel Visual Core deve fazer com que as fotos tiradas no Instagram não sejam uma merda

O Pixel Visual Core no Pixel 2 e Pixel 2 XL já lida com o processamento de imagens de aplicativos de câmera dos dispositivos para o que o Google gosta de chamar de “HDR +” ou pós-processamento computacional de alta faixa dinâmica.
Foi anunciado que aplicativos de terceiros que utilizam a API de câmera do Android poderiam eventualmente utilizar o coprocessador em toda a sua glória na próxima atualização do Android 8.1, mas aqueles que testam a segunda visualização de desenvolvedor dessa atualização agora podem optar por ter o Core trabalhar nesses aplicativos.
Se você possui um dispositivo Pixel 2, precisará acessar as configurações do desenvolvedor, alternar para a opção “Camera HAL HDR +” – Android Central observa que o acrônimo HAL significa camada de abstração de hardware. Depois de reiniciar o dispositivo, inicie o Instagram (apenas um dos muitos usando a API da câmera do Android) e tire uma foto no aplicativo.
Observamos que levou apenas uma batida para a nossa unidade Pixel 2 ajustar a composição desafiadora que vimos no visor. A borda desse canto do monitor estava acesa um pouco, pois o contraste foi ajustado para várias regiões. O resultado geral mais brilhante permitiu que os detalhes da parede pintada aparecessem melhor.
Será interessante ver como os resultados são ajustados com o tempo, pois o Pixel Visual Core também usa a linguagem TensorFlow do Google para aprendizado de máquina.