Apple testează funcția de cameră Deep Fusion în iPhone 11 și iPhone 11 Pro în iOS 13 dezvoltator beta

Apple a actualizat iOS 13 într-un ritm record, în parte pentru a adăuga noi funcții, dar, mai ales, pentru a remedia bug-uri.

Dar asta nu înseamnă că funcțiile suplimentare nu sunt încă la orizont. De exemplu, funcția de cameră Deep Fusion, pe care Apple a anunțat-o la evenimentul „doar prin inovație” la începutul acestui an, alături de iPhone 11 și iPhone 11 Pro. Apple a spus întotdeauna că funcția se va lansa la o dată ulterioară, cu o actualizare software ulterioară la iOS 13, iar acum funcția este în versiune beta.

Verge prezintă astăzi raportul, prezentând modul în care Apple lucrează la viitoarea lansare publică a Deep Fusion și modul în care funcția va face camerele deja impresionante din cele mai noi smartphone-uri pilot ale Apple.

În imaginea din partea de sus a acestui articol puteți vedea rezultatul unei fotografii capturate cu Deep Fusion.

Deep Fusion este o caracteristică importantă pentru imaginile cu „lumină medie-mică”. Este, de asemenea, o caracteristică care rulează în întregime în fundal, care lucrează pentru a optimiza și îmbunătăți imaginile în timp ce proprietarul iPhone 11/11 Pro face fotografii din mers.

Raportul prezintă o detaliere a modului în care ar trebui să funcționeze în fundal:

  1. În momentul în care apăsați butonul declanșator, aparatul foto a apucat deja trei cadre cu o viteză rapidă a obturatorului pentru a îngheța mișcarea în cadrul fotografierii. Când apăsați obturatorul, este nevoie de trei fotografii suplimentare, apoi de o expunere mai lungă pentru a capta detaliile.
  2. Aceste trei fotografii obișnuite și fotografii cu expunere lungă sunt contopite cu ceea ce Apple numește „lungul sintetic” - aceasta este o diferență majoră față de Smart HDR.
  3. Deep Fusion alege imaginea de expunere scurtă cu cele mai multe detalii și o contopește cu expunerea sintetică lungă - spre deosebire de Smart HDR, Deep Fusion nu contine decât aceste două cadre, nu mai mult. Aceste două imagini sunt, de asemenea, procesate pentru zgomot diferit de Smart HDR, într-un mod care este mai bun pentru Deep Fusion.
  4. Imaginile sunt difuzate prin patru etape de procesare a detaliilor, pixel pe pixel, fiecare adaptat la cantități din ce în ce mai mari de detaliu - cerul și pereții se află în cea mai joasă bandă, în timp ce pielea, părul, țesăturile ș.a.m.d. Acest lucru generează o serie de ponderi pentru modul de amestecare a celor două imagini - luând detalii de la una și tonul, culoarea și luminozitatea de la cealaltă..
  5. Imaginea finală este generată.

Conform raportului, teleobiectivul va folosi în mare parte Deep Fusion, funcția Smart HDR preluând doar o fotografie atunci când există scene foarte luminoase. Între timp, obiectivul standard cu unghi larg, se va baza mai ales pe funcția Smart HDR pentru scene luminoase până la medii luminoase, iar Deep Fusion va începe cu scenele de lumină medie-mică. Obiectivul ultra lat nu va folosi niciodată Deep Fusion sau Night Mode, deoarece acceptă doar funcția Smart HDR și niciuna dintre celelalte funcții.

Modul Noapte va începe întotdeauna și va fi caracteristica principală, într-un scenariu cu lumină scăzută.

După cum s-a menționat în raport, Apple testează în prezent funcția într-o versiune beta a iOS 13. Cu toate acestea, acea versiune beta nu este disponibilă în prezent pentru dezvoltatori și nici testatori beta publici. Apple va însemna probabil acea primă versiune beta, cu Deep Fusion, cândva curând, posibil chiar mai târziu astăzi, ca iOS 13.2.

Aștepți cu nerăbdare sosirea Deep Fusion?