Jak działa algorytm Super Resolution Google?
Projektanci aparatów fotograficznych do najnowszych smartfonów borykają się z fizycznymi ograniczeniami przy produkcji matryc. Piksele w matrycach do smartfonów mają mniejsze rozmiary niż piksele w matrycach do lustrzanek cyfrowych (DSLR). Mniejsze piksele mają mniejszą czułość na światło oraz mniejszy stosunek sygnału do szumu. Z drugiej strony korzystanie z technologii macierzy filtrów (CFAs) obniża rozdzielczość tworzonych obrazów. Inżynierowie z firmy Google zaproponowali obliczeniowe rozwiązanie tego problemu za pomocą algorytmu Super Resolution Google.
Zamiast łączenia pikseli w macierze i algorytmu demozaikowania zaproponowali oni algorytm obliczeniowy, który scala kilka seryjnych zdjęć o niższej rozdzielczości w jedno o dużej rozdzielczości.Kilka surowych zdjęć seryjnych minimalnie przesuniętych względem siebie zostaje obliczeniowo połączone w jeden obraz z wartościami trzech kolorów składowych (RGB) dla każdego piksela. Algorytm Super Resolution Google nie tylko zwiększa rozdzielczość generowanego obrazu ale także zwiększa stosunek sygnału do szumu. Algorytm działa z szybkością około 100 milisekund dla matrycy o rozdzielczości 12 MPix. Funkcja Super-Res Zoom oraz tryb Night Sight w flagowym smartfonie Googla korzystają z algorytmu Super Resolution.