O guia AP para fotografia computacional

O hardware da câmera do smartphone está ficando interessante. Da câmera principal de 200 megapixels do Samsung Galaxy S23 Ultra ao Xioami 13 Ultra, que possui uma abertura variável em um sensor de uma polegada, é um momento emocionante para ser um geek da fotografia móvel. Mas mesmo nos melhores telefones Android, o poder de computação e as proezas do software desempenham um papel tão importante na obtenção de ótimas fotos de nossas câmeras de bolso quanto o hardware. Os smartphones empregam o que é chamado de fotografia computacional para compensar seu hardware comparativamente escasso. O que a maioria das câmeras de telefone não tem em força em comparação com o hardware de câmera dedicado, elas compensam com uma computação inteligente.

ANDROIDPOLIC VÍDEO DO DIAROLE PARA CONTINUAR COM O CONTEÚDO

Ilustração para o evento Android Police Mobile Photography Week com o logotipo da AP e uma ilustração de uma pilha de câmeras de smartphone.


Fotografia computacional: o básico

É difícil definir um ponto tão amplo em um termo tão amplo, mas a fotografia computacional é, em poucas palavras, o que parece. A fotografia é aprimorada por meio do poder do computador. Embora toda câmera digital empregue tecnicamente software para fazer imagens, em fotos tiradas com técnicas de fotografia computacional, o software desempenha um papel importante na aparência do produto final antes que o fotógrafo aplique filtros prontos ou pós-processamento manual após o fato.

Supondo que você tire fotos com seu telefone, provavelmente você está familiarizado com a fotografia computacional de alguma forma. Praticamente tudo que a câmera do seu telefone faz (como modos de pouca luz, desfoque de retrato e reconhecimento de cena) depende da fotografia computacional para moldar automaticamente a imagem que você obtém ao tocar no botão do obturador.

Aplicações da fotografia computacional

Existem diferentes casos de uso para a fotografia computacional, desde a câmera do seu telefone reconhecendo que está apontada para um pôr do sol até os controversos filtros de beleza em aplicativos de mídia social. Aqui estão algumas aplicações comuns.

HDR e modos de pouca luz

“” data-modal-id=”single-image-modal” data-modal-container-id=”single-image-modal-container” data-img-caption=”null”>

Uma ilustração de vários quadros se fundindo para criar uma imagem HDR


Você provavelmente já viu as visualizações que os fabricantes de smartphones usam para ilustrar a fotografia HDR. São pilhas de quadros individuais que se fundem automaticamente em uma única imagem que parece melhor do que as muitas imagens das quais é feita. Esta é uma aplicação comum da fotografia computacional. Embora seja possível tirar fotos manualmente em várias exposições e mesclá-las em uma imagem de alto alcance dinâmico, nossos telefones podem fazer isso com o toque de um único botão, graças ao poder de computação móvel cada vez maior e software inteligente.

Como o Google explicou em 2021, o processo de criação de uma foto HDR em um smartphone envolve a captura rápida de vários quadros subexpostos para preservar os detalhes dos destaques e, em seguida, combinar as informações desses quadros com uma exposição mais longa para preservar o alcance dinâmico da cena. Ele faz isso destacando os detalhes das fotos subexpostas e sombreando os detalhes da exposição mais longa. O modo de pouca luz Night Sight dos telefones Pixel funciona de maneira semelhante, mas requer tempos de exposição mais longos para capturar detalhes em cenas escuras.

Realidade aumentada

“” data-modal-id=”single-image-modal” data-modal-container-id=”single-image-modal-container” data-img-caption=”null”>

Arte promocional de vários monstros fofos em um campo gramado


A realidade aumentada (AR) é a camada em tempo real de gráficos adicionais sobre seu ambiente físico. No contexto dos smartphones, isso significa reconhecer os ambientes vistos pelos sensores da câmera e sobrepor coisas de forma realista sobre esses ambientes na tela do seu telefone.

Existem muitos aplicativos comuns para AR: filtros que sobrepõem efeitos que reagem a objetos da vida real no quadro em aplicativos de mídia social como TikTok e Snapchat, personagens e efeitos de realidade aumentada em jogos como Pokémon Go e simulando novos itens domésticos em seu espaço com aplicativos de compras como Amazon e Wayfair. Esses casos de uso dependem de seu telefone ser capaz de interpretar o que vê por meio de suas câmeras e reagir a essa entrada em tempo real por meio de cálculos bastante complexos.

Temos uma lista de ótimos aplicativos para tirar fotos AR, se você quiser aumentar sua própria realidade.

Modo retrato

“” data-modal-id=”single-image-modal” data-modal-container-id=”single-image-modal-container” data-img-caption=”null”>

Uma ilustração de como o modo retrato funciona em smartphones Pixel


O desfoque artificial imposto pelos modos de retrato é outro exemplo cotidiano de fotografia computacional. Ao tirar uma foto no modo retrato, seu dispositivo calcula onde e até que ponto aplicar o efeito de desfoque no quadro para imitar naturalmente a aparência de profundidade de campo que câmeras com sensores grandes e grandes aberturas produzem sob condições semelhantes.

As implementações variam, mas o Google entrou em detalhes sobre como aprimorou a experiência do modo retrato na série Pixel 6 em 2022. O modelo de software que determina quais partes de uma foto no modo retrato devem aparecer em foco foi treinado em fotos tiradas de pessoas diferentes por uma matriz esférica de centenas de câmeras individuais e sensores de profundidade em conjunto com fotos selvagens tiradas em telefones Pixel. Quando você tira uma foto no modo retrato no seu Pixel, o telefone alimenta a foto e uma “máscara” rápida e suja do que ele acha que deveria estar em foco por meio desse modelo, idealmente resultando em uma fotografia convincente no estilo retrato, desfoque de fundo , e mais.

Zoom de software

“” data-modal-id=”single-image-modal” data-modal-container-id=”single-image-modal-container” data-img-caption=”null”>

Uma animação ilustrando o zoom de software em smartphones Pixel


O zoom digital, em sua forma mais básica, é recortar uma imagem para fazer com que a parte que você deseja ampliar pareça maior no quadro. Se você mesmo fez isso depois do fato, saberá que os resultados podem ser menos que espetaculares, especialmente ao lidar com uma imagem relativamente pequena (como as fotos de 12 ou mais megapixels que a maioria dos telefones tira por padrão). Mas, por meio da fotografia computacional, o zoom de software pode produzir imagens mais nítidas e realistas.

No Pixel 7 Pro, o algoritmo Fusion Zoom do Google, ilustrado acima, “alinha e mescla imagens de várias câmeras, garantindo que suas fotos continuem ótimas quando tiradas entre a câmera principal e a câmera telefoto”. Então, em qualquer ampliação entre 1x e 5x. Em níveis de zoom de ampliação de 20x ou superior, o Pixel 7 Pro se baseia em um upscaler de aprendizado de máquina “que inclui uma rede neural para aprimorar os detalhes de suas fotos”, ajudando a entender os detalhes à distância.

A Samsung recentemente causou alvoroço quando as pessoas perceberam que as fotos supertelefoto tiradas nos telefones de última geração da empresa dependem fortemente da fotografia computacional para recriar detalhes na face da lua. Se as fotos resultantes são “reais” está em debate. No entanto, eles não poderiam existir sem técnicas de fotografia computacional. Câmeras de telefone não podem resolver detalhes a centenas de milhares de quilômetros de distância por conta própria.

Mais fotografia móvel

Nós apenas arranhamos a superfície aqui, mas esperamos que isso tenha lhe dado uma ideia melhor do que é a fotografia computacional. Interessado em mergulhar mais fundo na fotografia móvel? Confira nossos guias sobre os melhores aplicativos Android para fotógrafos e como tirar e editar fotos raw no Android.

[ad_2]

Deixe uma resposta