Google explica como o modo de astrofotografia do Pixel 4 funciona
Recurso é fruto da combinação de várias técnicas, como longa exposição, múltiplas exposições, processamento de sinais e algoritmos de inteligência artificial
by Rafael RiguesO Google explicou em seu blog sobre inteligência artificial como o modo de astrofotografia, que estreou no Pixel 4, funciona. Com este modo o aparelho pode ser usado para tirar fotos muito nítidas de um céu estrelado, algo que normalmente é muito difícil, ou até impossível, com um smartphone comum.
Tudo começa com uma “longa exposição”: até 4 minutos no Pixel 4 ou 1 minuto no Pixel 3 e Pixel 3a. Na verdade, durante este tempo o smartphone não tira uma única foto, mas sim várias fotos com tempos de exposição menores. No caso do Pixel 4 são até 15 fotos com exposição de 16 segundos cada.
O tempo máximo de exposição de cada imagem é limitado pelo movimento das estrelas. Se ele for de mais de 16 segundos elas se parecerão com “riscos” no céu em vez de pontos luminosos, o que não seria aceitável pelo usuário.
O problema com esta técnica é a alta probabilidade do smartphone se mover durante a captura, o que resulta em uma imagem borrada. Para resolver isto as imagens são primeiro alinhadas, compensando a trepidação da câmera e o movimento na cena, e depois é calculada uma média dos pixels, com tratamento cuidadoso dos casos em que o alinhamento perfeito não é possível. Embora as imagens individuais possam ser bastante granuladas, pela pouca luz, a imagem combinada é muito mais limpa.
Pixels “quentes”, que aparecem na imagem como pontos luminosos causados por defeitos ou ruído no sensor, são outro problema. Para eliminá-los eles são substituídos pelo valor médio dos pixels vizinhos. Os engenheiros reconhecem que com isto há “perda” de informação, mas que ela não afeta visivelmente a qualidade de imagem. Pelo contrário, ela é aumentada.
O foco é feito captando duas imagens de referência com exposição de um segundo. Com isso elas têm 250 vezes mais luz que uma imagem comum, o que facilita a detecção dos detalhes e decisão de onde focar. Se isso não resolver, o foco é ajustado para o infinito.
Por fim é feito um processamento especial do céu. Uma rede neural é usada para detectar o que é parte do céu na imagem, e essa região tem cores e brilho ajustados com um algoritmo específico, que também aplica redução de ruído. A paisagem ou outros elementos da cena (como pessoas) são tratados separadamente, de forma que ambos estejam visíveis na imagem final.
A equipe reconhece que nenhum sistema é perfeito e há pontos onde os algoritmos podem melhorar, mas se diz bastante satisfeita com os resultados. E para ajudar os usuários a fazer fotos ainda melhores do céu noturno, compartilhou um documento com várias dicas de astrofotografia.
Fonte: Google AI Blog