FotoVideoRynek

Profesjonalny blog edukacyjny opisujący nowoczesne belusterkowce, lustrzanki, obiektywy, lampy błyskowe, lampy studyjne, kamery video, kamery sportowe, filtry fotograficzne oraz aktualne promocje.

fototografia smartfonowasmartfony

Jak działa algorytm Super Resolution Google?

Projektanci aparatów fotograficznych do najnowszych smartfonów borykają się z fizycznymi ograniczeniami przy produkcji matryc. Piksele w matrycach do smartfonów mają mniejsze rozmiary niż piksele w matrycach do lustrzanek cyfrowych (DSLR). Mniejsze piksele mają mniejszą czułość na światło oraz mniejszy stosunek sygnału do szumu. Z drugiej strony korzystanie z technologii macierzy filtrów (CFAs) obniża rozdzielczość tworzonych obrazów. Inżynierowie z firmy Google zaproponowali obliczeniowe rozwiązanie tego problemu za pomocą algorytmu Super Resolution Google.

Zamiast łączenia pikseli w macierze i algorytmu demozaikowania zaproponowali oni algorytm obliczeniowy, który scala kilka seryjnych zdjęć o niższej rozdzielczości w jedno o dużej rozdzielczości.Kilka surowych zdjęć seryjnych minimalnie przesuniętych względem siebie zostaje obliczeniowo połączone w jeden obraz z wartościami trzech kolorów składowych (RGB) dla każdego piksela. Algorytm Super Resolution Google nie tylko zwiększa rozdzielczość generowanego obrazu ale także zwiększa stosunek sygnału do szumu. Algorytm działa z szybkością około 100 milisekund dla matrycy o rozdzielczości 12 MPix. Funkcja Super-Res Zoom oraz tryb Night Sight w flagowym smartfonie Googla korzystają z algorytmu Super Resolution.

źródło: https://sites.google.com/view/handheld-super-res

error: Content is protected !! Treści są chronione!!!