A câmera Deep Fusion do iPhone 11 chega com a versão beta do desenvolvedor do iOS 13.2


  

O sistema de fotografia Deep Fusion da Apple chegou como parte do mais novo desenvolvedor beta da Apple, iOS 13, versão 13.2 beta 1, sugerindo que será lançado em breve para o iPhone 11 e 11 Pro.

Atualização em 2 de outubro, 13:32 ET: Este artigo disse originalmente que o próximo beta do desenvolvedor do iOS 13 seria lançado em 1º de outubro, antes que a Apple esclarecesse um navio incerto data para essa versão beta. O software foi lançado como parte do iOS 13.2 beta 1. O Deep Fusion agora está disponível para os desenvolvedores experimentarem, enquanto um beta público é esperado em breve.

Para atualizar sua memória, o Deep Fusion é um novo canal de processamento de imagens para imagens de luz média, que o vice-presidente sênior da Apple, Phil Schiller, chamou de “ciência louca da fotografia computacional” quando a apresentou no palco. Mas, como grande parte do iOS 13, o Deep Fusion não estava pronto quando os telefones chegaram, há duas semanas. E embora o iPhone 11 e 11 Pro possuam câmeras extremamente impressionantes o Deep Fusion destina-se a oferecer um grande avanço em situações internas e de iluminação média. E como muitas fotos são tiradas em ambientes fechados e com luz média, estamos ansiosos para testá-las. Aqui está uma amostra de amostra compartilhada pela Apple:

  


    
      
         Uma foto do Deep Fusion de uma mulher de suéter "data-upload-width =" 4032 "src =" https://cdn.vox-cdn.com/thumbor/rB1NBdIm8U78qvveJWk6YZbZdUI=/0x0 : 4032x3024 / 1200x0 / filtros: focal (0x0: 4032x3024): no_upscale () / cdn.vox-cdn.com/uploads/chorus_asset/file/19249876/DeepFusion_example_2.jpg"/>[19459017[[19459018[</picture/>]<br />     <br />   </picture></span><br />   <br />     <span class=
      
        
A Apple adora exibir o Deep Fusion com fotos de pessoas em blusas.

  

Com o Deep Fusion, as câmeras do iPhone 11 e 11 Pro terão três modos de operação que são ativados automaticamente com base nos níveis de luz e nas lentes que você está usando:

  • A lente grande angular padrão usará o Smart HDR aprimorado da Apple para cenas claras a médias, com o Deep Fusion entrando para luz média a baixa e o modo noturno em cenas escuras.
  • A lente tele usa principalmente o Deep Fusion, com o Smart HDR assumindo apenas cenas muito claras e o modo noturno para cenas muito escuras.
  • O ultra-amplo sempre usará o Smart HDR, pois não oferece suporte ao modo Deep Fusion ou Night.

Ao contrário do modo noturno, que possui um indicador na tela e pode ser desligado, o Deep Fusion é totalmente invisível para o usuário. Não há indicador no aplicativo da câmera ou no rolo de foto e ele não aparece nos dados EXIF. A Apple me diz que é muito intencional, pois não quer que as pessoas pensem em como obter a melhor foto. A idéia é que a câmera resolva o problema para você.

Mas, em segundo plano, o Deep Fusion está trabalhando bastante e operando de maneira muito diferente do Smart HDR. Aqui está o detalhamento básico:

  1. Quando você pressiona o botão do obturador, a câmera já capturou quatro quadros em uma velocidade rápida do obturador para congelar o movimento na foto e quatro quadros padrão. Quando você pressiona o obturador, ele captura uma foto com exposição mais longa para capturar detalhes.
  2. Essas três fotos regulares e de longa exposição são mescladas ao que a Apple chama de "longa sintética". Essa é uma grande diferença do Smart HDR.
  3. O Deep Fusion seleciona a imagem de exposição curta com mais detalhes e a funde com a exposição longa sintética. Diferentemente do Smart HDR, o Deep Fusion mescla esses dois quadros, não mais – embora o comprimento sintético já seja composto por quatro quadros mesclados anteriormente. Todos os quadros de componentes também são processados ​​para ruído de maneira diferente do Smart HDR, de uma maneira melhor para o Deep Fusion.
  4. As imagens são executadas em quatro etapas de processamento de detalhes, pixel por pixel, cada uma adaptada a quantidades cada vez maiores de detalhes – o céu e as paredes estão na faixa mais baixa, enquanto a pele, o cabelo, os tecidos etc. são os mais altos. Isso gera uma série de ponderações sobre como mesclar as duas imagens – obtendo detalhes de uma e tom, cor e luminosidade da outra.
  5. A imagem final é gerada.

Tudo isso demora mais que uma imagem Smart HDR normal – algo em torno de um segundo total. Portanto, se você tirar várias fotos e pular imediatamente para o rolo da câmera, verá primeiro uma imagem de proxy enquanto o Deep Fusion é executado em segundo plano e depois aparece na versão final com mais detalhes, um processo da Apple não deve demorar mais de um quarto a meio segundo na mudança de horário para o rolo da câmera.

Mas tudo isso significa que o Deep Fusion não funcionará no modo burst. Você notará que o próprio modo burst foi desatualizado em todo o aplicativo da câmera no iOS 13, pois todos esses novos modos exigem que a câmera faça várias exposições e as mescle, e o novo modo de vídeo da Apple é um pouco mais útil de qualquer maneira .

Aqui está outra imagem do Deep Fusion de uma pessoa bonita em um suéter da Apple. Certamente é impressionante. Mas teremos que ver como o Deep Fusion funciona na prática, pois as pessoas colocam suas mãos nele com o desenvolvedor beta. Se for tão impressionante quanto a Apple afirma, a câmera do iPhone 11 saltará ainda mais à frente da concorrência atual e definirá um alto nível para o próximo Pixel 4 do Google limpar.

  


    
      
         Uma foto do Deep Fusion de outra pessoa em um suéter "data-upload-width =" 4032 "src =" https://cdn.vox-cdn.com/thumbor/xpHO4m4fq_sT1bSzPFIun-JFtK4= /0x0:4032x3024/1200x0/filters:focal(0x0:4032x3024):no_upscale()/cdn.vox-cdn.com/uploads/chorus_asset/file/19249938/DeepFusion_example_1.jpg"/>[19459017[45451917901[19459017✓]
    
  </span/><br />   <br />     <span class=
      
        
Fusão profunda: modo de suéter

  



Source link



Os comentários estão desativados.