Technologia w służbie oświaty

Intel Pure Performance #2: Krótka historia ewolucji grafiki

Intel SFF

Usiądźcie wygodnie przed monitorami. Opowiem Wam historię, która ciągle jest spisywana, lecz posiada już wystarczająco dużo rozdziałów, aby szczelnie wypełnić stronice niejednej księgi. Lubicie gry? Pytanie retoryczne. Pewnie że lubicie! Inaczej nie zawracalibyście sobie głowy tym artykułem. Dobrze trafiliście. Nieważne, ile macie lat, jakie platformy preferujecie, skąd przybywacie i dlaczego akurat tutaj. Poniższa opowieść będzie dotyczyła Was wszystkich. Zapraszam na krótką historię ewolucji grafiki w grach, sentymentalną wycieczkę w przeszłość, teraźniejszość oraz przyszłość. Niechaj tylko wytrę oczy łzawiące od nadmiaru fajkowego dymu… Ach… zaczynamy!

Dawno, dawno temu, w czasach, kiedy Europa była podzielona żelazną kurtyną, elektroniczna rozrywka wyglądała zupełnie inaczej niż dzisiaj. Jesteście skłonni uwierzyć, że ludzie spędzali długie godziny przed ekranami telewizorów kineskopowych, aby dwoma prostokątami odbijać kwadratową piłeczkę? Właśnie tak wyglądał „Pong” z 1972 roku, powszechnie uznawany za pierwszą grę wideo, która odniosła komercyjny sukces. Chociaż trudno dostrzec w niej znamiona rewolucji, wówczas stanowiła szczytowe osiągnięcie techniki, podobnie jak zaprezentowany dwanaście miesięcy wcześniej czterobitowy procesor Intel 4004.

Kolejną barierę przełamała dopiero gra „Space Invaders” (1978) pokazująca rozpikselowane sylwetki obcych – dziś już kultowe i wciąż powielane jako ikony w kulturze masowej. Musiało upłynąć trochę wody w rzekach, zanim grafika wykonała wyraźny krok naprzód. Poważne zmiany przyniósł rok 1982, gdy pojawiło się „Pole Postion”. Czegoś takiego gawiedź jeszcze nie widziała – były to wyścigi wyświetlane w różnych kolorach, z widokiem zza pojazdu (tzw. perspektywa trzeciej osoby). Podobne, lecz zdecydowanie bardziej zaawansowane rozwiązania wykorzystywał też słynny „After Burner” (1987), megahit z automatów konsumujący międzynarodowy sukces filmu „Top Gun”. Zręcznościowa strzelanina za sterami samolotu F-14 Tomcat. widowiskowe wybuchy, często zmieniająca się perspektywa i warunki atmosferyczne, stworzyły spektakularne dzieło. Procesory Intel 386/486 osiągały wtedy zawrotne 16-25 MHz.

HISTORIA_GRAFIKI_1
Początek lat 90. przyniósł gwałtowny wzrost wydajności komputerów, pozwalając deweloperom systematycznie przesuwać granice jakości oprawy wizualnej, czego efektem było „Alone in the Dark” (1992). Przygodowy survival horror garściami czerpiący inspiracje z prozy H.P. Lovecrafta, jako pierwszy wprowadził trójwymiarowe postacie bohaterów oraz interaktywne elementy otoczenia. Chociaż plansze nadal pozostawały statycznymi obrazami, „Alone in the Dark” jest oficjalnie uznawane za prekursora grafiki 3D – grę, która położyła kamień węgielny pod budowę przyszłych standardów. Jednak prawdziwe fajerwerki strzelały w salonach z automatami.

Kiedy mordobiciami rządziły jeszcze dwa wymiary, Sega znokautowała wszystkich konkurentów, wypuszczając grę „Virtua Fighter” (1993). Okrutnie kanciastą, ubogą w szczegóły, ale całkowicie trójwymiarową produkcję, pod względem technologicznym zostawiającą „Street Fightera” i „Mortal Kombat” w opuszczonych gatkach. Obydwa tytuły nieprzypadkowo trafiły do Księgi rekordów Guinnessa. W tamtym okresie narodził się również legendarny Intel Pentium (następca serii 486), którego popularność uczyniła go niemalże synonimem słowa procesor.

Rok 1995 przyniósł kolejne wielkie wydarzenie – premierę „Descenta”, symulatora małego wahadłowca krążącego po sieciach bezkresnych tuneli. Trójwymiarowy silnik pozwalał manewrować we wszystkich kierunkach (również góra / dół), zaś perspektywa pierwszoosobowa powodowała, że wrażenie przestrzenności było miażdżące. Niektórym osobom, przyzwyczajonym do tradycyjnych rozwiązań – jak choćby w grze „Doom” – utrudniało to wręcz orientację w terenie.

HISTORIA_GRAFIKI_2
Jeśli dotychczas za pierwszą strzelaninę wykonaną w pełnym 3D uznawaliście „Quake’a”, to powyższa wzmianka o lataniu we wszystkich kierunkach musiała Was odrobinę zaskoczyć. Mimo pierwszeństwa „Descenta”, wielkość megahitu id Software jest niepodważalna. „Quake” wyglądał oszałamiająco, przenosił trójwymiarowe shootery na wyższy poziom zaawansowania, onieśmielał konstrukcją lokacji. Podobne wrażenie w 1996 roku wywierał tylko „Tomb Raider”, rozpoczynający karierę Lary Croft, która pierwotnie miała być… facetem udającym Indianę Jonesa. Zręcznościowo-platformowy charakter gry połączony z doskonałą oprawą audiowizualną, a także anatomiczne walory pani archeolog, okazały się przepustką do sukcesu.

Warto nadmienić, że kilka miesięcy po debiucie „Quake” i „Tomb Raider” doczekały się wsparcia akceleratorów (głównie 3Dfx VooDoo), kończących epokę surowych pikseli. Ludzie wreszcie zobaczyli przezroczystą wodę, rozmyte tekstury, spektakularne wybuchy. Chwilę później pojawiły się procesory Intel Pentium II (1997), Celerony (1998) oraz superszybkie układy graficzne. Nic dziwnego, że niespełna 24 miesiące wystarczyły, aby dokonał się następny przełom. „Unreal” wszedł i pozamiatał towarzystwo, zasłużenie zgarniając tytuł najładniejszej strzelaniny za sprawą widowiskowego oświetlenia, filtrowania trilinearnego oraz otwartych przestrzeni. Za ciosem poszło studio id Software, opracowując „Quake III Arena” (1999), bezsprzecznie najbardziej wychuchany tytuł zaprezentowany w ubiegłym millenium, kuszący dynamicznymi cieniami, skomplikowanymi modelami postaci, wolumetrycznym oświetleniem. Działo się!

HISTORIA_GRAFIKI_3
Wbrew przepowiedniom, w grudniu 1999 roku koniec świata nie nastąpił. Technologie graficzne dalej ewoluowały, rosła wydajność komputerów. Dzięki temu powstał „Max Payne” (2001), trzecioosobowa strzelanina utrzymana w mrocznym klimacie. Gra zabłysnęła pokaźną gamą efektów z pakietu DirectX 8.1, będącego zbiorem nowoczesnych instrukcji. Gra robiła piorunujące wrażenie – wyjątkowo wiarygodnie odzwierciedlono sylwetkę Maksa, a wśród rozwiązań mechanicznych znalazło się innowacyjne spowolnienie czasu zapożyczone z trylogii filmowej „Matrix” (bullet time), ułatwiające eliminowanie przeciwników. Później ruszyła lawina. Pojawiły się m.in. takie produkcje, jak „Grand Theft Auto III”, „Mafia”, „Unreal II: The Awakening”, ale prawdziwa bomba wybuchła dopiero w 2004 roku. Egzotyczny „Far Cry” wyprzedził pod względem implementacji bibliotek DirectX 9.0 długo wyczekiwane gry „Half-Life 2” oraz „Doom 3”, szybko dorabiając się również aktualizacji dodającej m.in. obsługę HDR (iluminacji ostrego światła). Trzeba przyznać, że dżungla przygotowana na potrzeby „Far Cry” wyglądała olśniewająco.

Pozostała dwójka nie musiała się jednak niczego wstydzić. „Doom 3” przyniósł rewelacyjne oświetlenie i mapowanie wypukłości, znakomicie oddające atmosferę klaustrofobicznej bazy kosmicznej, zaś „Half-Life 2” deklasował konkurencję różnorodnością scenerii oraz zaawansowaną fizyką obiektów. Zaiste, rok 2004 zapisał się złotymi literami w annałach historii elektronicznej rozgrywki.

HISTORIA_GRAFIKI_4

Rok 2005 zaowocował premierą pierwszego dwurdzeniowego procesora desktopowego (Pentium Extreme Edition 840) oraz konsoli Microsoft Xbox 360, której potencjał postanowiło spożytkować studio Epic Games, dysponujące już silnikiem Unreal Engine trzeciej generacji. Dynamiczna trzecioosobowa strzelanina „Gears of War” (2006) graficznie prezentowała się bardzo okazale, wprowadzając efekt głębi ostrości, wolumetryczne efekty środowiskowe czy zaawansowaną animację szkieletową. W międzyczasie Intel opracował jednostki Core 2 Duo, chwilę później zaś czterordzeniowe Core 2 Quad, ciągle napędzające setki komputerów. Jednak kiedy pojawił się „Crysis” (2007), blask wszelkiej konkurencji został przyćmiony, a sprzęt wystawiony na ciężką próbę. Równie sugestywnej dżungli, wypełnionej drzewami, zaroślami i krzakami, skąpanej w promieniach wschodzącego słońca odbijającego się w wodach bezkresnego oceanu, jeszcze nigdy nie widziałem. Oprawa wizualna „Crysis” była rozkosznie drobiazgowa, ale wielki szacunek wzbudzała także realizowana programowo fizyka obiektów. „Unreal Tournament III” napędzany usprawnioną technologią „Gears of War”, wypuszczony prawie równolegle, pomimo niekwestionowanych atutów musiał uznać wyższość „Crysisa”.

Kolejnym kamieniem milowym było „Metro 2033” (2010), inspirowane powieścią D. Glukhovskiego, opowiadającej historię mieszkańców Moskwy, którzy cudem przetrwali wojnę nuklearną. Klimat miażdżył, warstwa wizualna miażdżyła jeszcze bardziej, zwłaszcza w zatęchłych tunelach podziemnej kolejki, z cudownie wyglądającymi światłami, cieniami, oparami i refleksami.

HISTORIA_GRAFIKI_5
Jesienią 2011 roku zadebiutował „Battlefield 3” będący swego rodzaju precedensem, gdyż deweloper zrezygnował ze wsparcia systemu Windows XP oraz DirectX 9, oddzielając kłopotliwą przeszłość grubą kreską. Wśród rozwiązań ulepszających grafikę zaimplementowano morfologiczny antyaliasing (MLAA), oświetlenie radiosity i rozpraszanie podpowierzchniowe, dlatego „Battlefield 3” wyglądał lepiej niż jakakolwiek inna strzelanina. Wersje konsolowe nie dorównywały jakością pecetowej, a żeby wszystko wyglądało podobnie, programiści DICE musieli się nieźle natrudzić. Rynkiem rządziły wówczas procesory Intel Sandy Bridge.

Kilkanaście miesięcy później gracze znów przeżywali chwile zachwytu, bowiem „Crysis 3” (2013) konsolidował prawie wszystkie nowoczesne technologie w jednym miejscu, długo utrzymując tytuł najładniejszej produkcji wszech czasów. Część efektów specjalnych nie była wcześniej nigdzie wykorzystywana. Nawet dzisiaj, przy maksymalnych ustawieniach, „Crysis 3” wygląda oszałamiająco.

Rok 2014 moim zdaniem zdominowały dwie pozycje: „Zaginięcie Ethana Cartera” oraz „Assassin’s Creed: Unity”. Pierwsza z wymienionych to przygodówka autorstwa polskiego studia The Astronauts, które sięgnęło po innowacyjną metodę fotogrametrii polegającą na skanowaniu rzeczywistych elementów, następnie przenoszonych do wirtualnej rzeczywistości. Pozwoliło to stworzyć plenery tak plastyczne i szczegółowe, że ocierające się momentami o fotorealizm.

HISTORIA_GRAFIKI_6
„Assassin’s Creed: Unity” też wytyczało nowe kierunki, wprowadzając takie pionierskie rozwiązania, jak Global Illumination czy Physically Based Rendering, wyraźnie poprawiające wygląd, cieniowanie oraz oświetlenie. Wszystko razem prezentowało się wybornie, zwłaszcza wnętrza pałaców, jednak „Assassin’s Creed: Unity” popadło w niesławę przez ogromną liczbę błędów, wysokie wymagania sprzętowe i odgrzewane pomysły.
Ranking najładniejszych produkcji, mających wpływ na przyszłość branży, zamyka „Wiedźmin 3: Dziki Gon” (2015). Chociaż pod względem czysto technologicznym można znaleźć nieco bardziej zaawansowane tytuły, całokształt pracy polskiego dewelopera wybija się wysoko ponad standardy. Trzeba również uwzględnić fakt, że „Wiedźmin 3: Dziki Gon” to gigantyczny świat z dziesiątkami lokacji i setkami bohaterów niezależnych, a mimo to graficy dokonali wielkich rzeczy. Refleksy świetlne, efekty postprodukcji, szczegółowe modele i gęsta roślinność wyglądają zaskakująco dobrze. Rozmach oraz plastyczność oprawy wizualnej gry studia CD Projekt RED jest dzisiaj wzorem do naśladowania. Mógłbym jeszcze wymienić „RYSE: Son of Rome” (2014) albo „The Order: 1886” (2015), ale chyba wystarczy już wspomnień. Teraz pozostaje czekać na nowe, jeszcze lepsze gry wideo, prezentujące wysoki poziom warstwy wizualnej, jak również oferujące wiele godzin przyjemnej rozgrywki. Może nareszcie potencjał procesorów klasy Skylake i Haswell-E zostanie wykorzystany? Rozwinie się sztuczna inteligencja, poprawi fizyka obiektów? Obym za kilka lat miał mnóstwo powodów do napisania drugiej części zestawienia…

Udostępnij ten artykuł

Podobne tematy

Innowacje techniczne

Przeczytaj w następnej kolejności

Read Full Story