Granie

Rewolucyjne monitory dla graczy

To będzie największa zmiana w jakości obrazu monitorów komputerowych od czasu zastąpienia kineskopu przez ekran LCD. Rok 2017 przejdzie do historii gier wideo jako początek ery monitorów HDR.

Czy chcielibyście wreszcie zobaczyć na ekranie monitora przecinającą niebo błyskawicę tak jasną, że niemal oślepia, a nie zaledwie jej blady substytut, jak to ma miejsce teraz? Pełną gamę odcieni i bogactwo detali w mrocznym zaułku po zmroku? Bardziej żywe, nasycone kolory ze wszystkich zakresów widzialnego dla człowieka spektrum promieniowania elektromagnetycznego? Reasumując: czy chcielibyście, aby obraz wyświetlany przez monitor w większym stopniu przypominał to, co widzimy na własne oczy w świecie wokół nas?

Jeśli tak, zacznijcie już odkładać na monitor z technologią HDR (ang. High Dynamic Range). Gdy zobaczycie w bezpośrednim porównaniu, jaką to robi różnicę, przepadliście. Kto raz spróbuje obrazu HDR, nie uniknie refleksji, że właśnie tak wygląda przyszłość grania. Po prostu kolorowo.

 

Wielki skok w jakości obrazu

Czym jest HDR i dlaczego zmienia tak wiele? Najprościej rzecz ujmując, technologia ta w porównaniu do stosowanej obecnie w klasycznych ekranach LCD zapewnia znacznie większą rozpiętość tonalną barw na skali wyznaczonej z jednej strony przez najciemniejszy, z drugiej – przez najjaśniejszy punkt wyświetlany na ekranie. Dzięki dużym możliwym różnicom jasności, można wyświetlić więcej odcieni kolorów, co przekłada się na bardziej naturalny obraz, w tym bogactwo barw, a także więcej widocznych detali. Zakres jasności obrazu HDR jest zbliżony do zakresu jasności postrzeganego przez ludzkie oko.

W tradycyjnych monitorach skala jasności jest znacznie mniejsza, można by rzec: „spłaszczona”. Nie zobaczymy na nich jednocześnie oślepiającego, wznoszącego się nad horyzontem słońca i siatki zmarszczek na twarzy staruszka kryjącego się w głębokim cieniu drzewa. I nie zobaczymy wszystkich obecnych w takiej scenie barw, równie intensywnych jak te, które widzimy w rzeczywistości. Obraz wyświetlany na tradycyjnym monitorze w zależności od ustawień będzie albo zbyt jasny w ciemnych rejonach, albo zbyt ciemny w jasnych. W praktyce większość powierzchni będzie dotknięta albo jedną, albo drugą wadą optyczną wynikającą z nieadekwatnego poziomu jasności.

Jeśli są wśród Was szczęśliwcy podpinający komputer pod telewizor HDR  4K, zachęcamy do obejrzenia poniższego porównania obrazów z technologią HDR i bez niej (SDR).  Zapisy pochodzą ze zremasterowanej gry  „The Last of Us” wydanej na konsolę PlayStation 4. Wyświetlanie poniższego filmu na monitorze nie obsługującym tej technologii i rozdzielczości nie pozwoli na w pełni realistyczne porównanie różnic.

 

 

HDR + 4K = uczta dla oka

Technologia HDR dopiero od niedawna jest stosowana w telewizorach, pierwsze modele wyposażone w to rozwiązanie trafiły do sprzedaży w ubiegłym roku. W roku bieżącym możemy spodziewać się natomiast realnej rynkowej premiery tej technologii w monitorach komputerowych projektowanych już specjalnie z myślą o miłośnikach gier wideo. Jest na co czekać! Zmiany w jakości obrazu będą zdecydowanie bardziej spektakularne i atrakcyjne dla widza niż w przypadku podbicia rozdzielczości z popularnego Full HD (1920 x 1080) do WQHD (2560 x 1440), panoramicznego UWQHD (3440 x 1440), a nawet 4K (3840 x 2160).

Czy to znaczy, że namawiamy do wyboru raczej nowego monitora z HDR niż z WQHD lub 4K? Nie, na szczęście nie musicie stawać przed takim dylematem. Producenci, którzy zapowiedzieli swoje pierwsze gamingowe monitory z HDR, postanowili połączyć tę technologię z wysoką rozdzielczością obrazu. I tak na horyzoncie widać już modele HDR UWQHD, jak i HDR 4K – i to z bogactwem tak cenionych przez graczy technologicznych bonusów, jak bardzo wysoka częstotliwość odświeżania ekranu czy synchronizacja z kartą graficzną (G-Sync, Free-sync), by obraz był wyświetlany płynnie, bez „rwania”.

Jeśli w tym momencie przyszło Wam na myśl, że monitory o rozdzielczości większej niż Full HD nie są dla Was, bo karta graficzna zdolna wyświetlić „Wiedźmina 3” w 4K kosztuje małą fortunę, uspokajamy: widać światełko w tunelu, będzie dobrze!

 

Tak, komputery ze średniej półki też dadzą radę!

Komputery skorzystają tu na osiągnięciach programistów wyciskających ostatnie soki z elektroniki montowanej w konsolach do gier najnowszej generacji: obecnej już na rynku PlayStation 4 Pro i dopiero zapowiedzianej Xbox One X. Producenci obu tych urządzeń (odpowiednio Sony i Microsoft) deklarują, że skonstruowali je z myślą o generowaniu obrazu o rozdzielczości 4K. Wiadomo, że droga od deklaracji do realizacji obietnic bywa długa, kręta i nierzadko wiedzie na manowce, znamy to niestety dobrze zarówno z historii konsol, jak i kart graficznych do pecetów. Zresztą już dziś wiadomo, że nie w przypadku każdej gry tworzonej z myślą o PS4 Pro i XOX uda się słowa dotrzymać. Rubikon został jednak przekroczony – rozdzielczość 4K została ogłoszona nowym standardem w grach wideo i od tej zmiany nie ma już odwrotu.

No dobrze – zapytacie – ale co to ma wspólnego z tym, że także dzisiejszy komputer PC nawet z przyzwoitą kartą graficzną ze średniej półki (a nawet z wyższej średniej półki) kapituluje w zderzeniu z nową grą, gdy podbijemy rozdzielczość do 4K?

Otóż ma, i to sporo. Co bowiem znaczące, układy graficzne obu wspomnianych zaawansowanych konsol: PlayStation 4 Pro i Xboksa One X, mają relatywnie umiarkowaną moc obliczeniową, znacznie mniejszą niż najnowsze karty graficzne montowane w komputerach. Nawet biorąc poprawkę na zoptymalizowaną pod kątem przetwarzania gier architekturę konsol, pozwalającą wycisnąć z elektroniki więcej niż w przypadku podobnych układów w komputerze, nie jest to moc pozwalająca na zapewnienie płynnego obrazu 4K w najnowszych, bogatych w detale i zaawansowane efekty wizualne grach.

O wszystkim decydują sztuczki technologiczne. Korzystając z wyrafinowanych narzędzi programistycznych, można, podbijając sztucznie obraz do 4K, „oszukać” ludzkie oko na tyle skutecznie, że nie zauważa istotnej różnicy między obrazem 4K generowanym w sposób naturalny, dzięki czystej mocy obliczeniowej, a jego efektownym substytutem.

Mamy zatem prawo oczekiwać, że podobne rozwiązania zaczną być z czasem stosowane w komputerach do gier. Dzięki temu będziemy mogli się cieszyć obrazem HDR i, hmm… „4K” bez konieczności brania kredytu na zakup nowej karty graficznej.

A co zresztą elektroniki?

Spokojnie, obecnie wykorzystywane w komputerach do gier procesory Intela mają wystarczająco dużą moc obliczeniową, by nie stanowić wąskiego gardła w przetwarzaniu obrazów HDR o wysokiej rozdzielczości – WQHD, UWQHD, czy nawet 4K. Komputer jest napędzany przez potężny Intel Core i7? Znakomicie! A może niewiele mniej wydajny Intel Core i5? Również powinien podołać wyzwaniu bez najmniejszego problemu – gratulujemy dobrego wyboru! Być może trzeba będzie dokupić trochę pamięci RAM, ale jeżeli ktoś ma dziś w komputerze 16 GB, na pewno może spać spokojnie. Wystarczy z nawiązką.

 

Przed nami imponujące premiery

Pierwsze monitory z HDR co prawda już trafiły na rynek, ale to przede wszystkim oferta dla profesjonalnych grafików komputerowych – jak choćby 31,5-calowy BENQ SW320 za ponad sześć tysięcy złotych. Najciekawsze modele zaprojektowane z myślą specjalnie o graczach dopiero są szykowane do sprzedaży, najbardziej imponujące konstrukcje już mogliśmy podziwiać na tegorocznej wystawie Computex. Monitory z HDR i G-Sync zapowiedzieli na ten rok kluczowi producenci, jak Acer i Asus. Spójrzmy, co szykuje dla nas druga z tych firm:

 

ROG Swift PG35VQ

Lubicie panoramiczne, zakrzywione ekrany? ROG Swift PG35VQ powinien trafić w Wasze gusta! To 35-calowy monitor z wklęsłym ekranem o rozdzielczości UWQHD (3440 x 1440), czyli proporcjach 21:9, oczywiście wyposażony w technologię High Dynamic Range (HDR). Pozostałe atuty: odświeżanie do 200 Hz, szczytowa luminacja nawet do 1000 cd/m² (jak pamiętamy, duża maksymalna jasność to w monitorach HDR rzecz niezbędna). Podświetlenie LED jest dynamicznie kontrolowane w 512 strefach, aby – jak deklaruje producent – dodatkowo podkreślić subtelne różnice między jasnymi a ciemnymi odcieniami. Monitor wykonano w technologii kropki kwantowej (Quantum Dot), co zapewnia szerszą niż w tradycyjnych monitorach LCD przestrzeń barw i obsługę gamy kolorów DCI-P3 w standardzie kinowym. Posiadaczy komputerów z kartami graficznymi Nvidii ucieszy obsługa standardu G-Sync.

 

ROG Swift PG27UQ

Nie będziemy stopniować napięcia, powiemy to wprost: ROG Swift PG27UQ jest pierwszym zapowiedzianym monitorem gamingowym z HDR i 4K. Kropka.

Ta 27-calowa bestia, wyróżniona tytułem Computex 2017 Best Choice Golden Award, potrafi odświeżać obraz o rozdzielczości 3840 x 2160 z częstotliwością 144 Hz. Podświetlenie LED jest dynamicznie kontrolowane w 384 strefach. Tu też zastosowano technologię Quantum Dot z obsługą standardowej gamy kolorów DCI-P3. Monitor, z matrycą IPS, wyświetla kolory w spektrum o 25 proc. większym niż sRGB. ROG Swift PG27UQ to również gratka dla użytkowników kart Nvidii, ze względu na obsługę technologii G-Sync.

Można rzec: całkiem obiecujący początek. Teraz czekamy, aż obsługa HDR stanie się obowiązującym standardem dla producentów gier. Trudno sobie jednak wyobrazić, aby w przyszłości najważniejsze, wysokobudżetowe gry wideo nie wykorzystywały możliwości nowoczesnych telewizorów i monitorów. High Dynamic Range może się stać codziennością w świecie gier szybciej, niż się nam dzisiaj wydaje. My już nie możemy się doczekać!

Udostępnij ten artykuł

Podobne tematy

Granie Innowacje techniczne

Przeczytaj w następnej kolejności

Read Full Story