Let's play NICHT mit RTX: Warum Raytracing bescheuert ist!

11 min

6.10.2018

rtx

Die neu­en Ge­For­ce-RTX-Kar­ten sind da. Jip­pie, spie­len wir doch gleich ein­mal die gan­zen Ti­tel mit Ray­tra­cing-Sup­port… ähm, wie bit­te!? Es gibt noch kei­ne Ga­mes mit RTX? Egal, dann muss man sich halt noch kurz ge­dul­den, da­für hat man dann spä­ter ei­ne un­vor­stell­bar schi­cke­re Gra­fik als man sie sich mo­men­tan je er­träu­men könn­te! – Oder eben nicht…

Stopp, nicht weg­ren­nen. Lasst mich dies ge­nau­er er­klä­ren und euch ver­ra­ten, wel­che und wie bis­her schi­cke Gra­fik oh­ne neue Spe­zi­al­hard­ware mög­lich ist, denn NVIDIA hat ei­nen et­was un­fai­ren Ver­gleich be­trie­ben. Die bis­he­ri­ge Tricks der Ras­te­ri­sa­ti­on sind näm­lich noch gut!

War­nung: Der nun fol­gen­de Bei­trag könn­te zu ei­nem schwe­ren Trau­ma füh­ren, falls Sie der Gat­tung der NVIDIA-Fan­boys an­ge­hö­ren. Scrol­len Sie in die­sem Fall bit­te di­rekt zu den Kom­men­ta­ren und pos­ten Sie ei­ne Be­lei­di­gung an den Au­tor.

Was ist Raytracing, Rasterisation & RTX?

Wenn je­mand we­nig Zeit hat, kann die­ser Ab­schnitt über­sprun­gen wer­den, den Rest ver­steht man auch so.

Raytracing

Da sich viel­leicht ein paar von euch noch nie wirk­lich mit dem Un­ter­schied der bei­den aus­ein­an­der­ge­setzt ha­ben – die neu­en RTX-Kar­ten habt ihr euch nur zum Spaß ge­kauft – ge­he ich ganz kurz dar­auf ein. Ray­tra­cing ist ein schon sehr al­tes und simp­les Ver­fah­ren, es wur­de aber über die Jahr­zehn­te stark er­wei­tert. Wenn man heut­zu­ta­ge dar­über spricht, meint man ei­gent­lich »Path-Tra­cing« oder nach­fol­gen­de Ver­fah­ren und so wer­den wir ein­fach­heits­hal­ber auch mit dem Be­griff um­ge­hen. Im Prin­zip ist Path-Tra­cing die Her­an­ge­hens­wei­se, die mehr der Rea­li­tät nach­emp­fun­den ist und si­mu­lie­ren möch­te, wie Licht auf un­ser Au­ge trifft. Aus Per­for­mance-Grün­den be­ginnt man je­doch nicht bei den Licht­quel­len, son­dern am vir­tu­el­len Au­ge.

Im ers­ten Schritt wer­den Strah­len (»Rays«) je­weils vom Au­ge durch die Pi­xel der eben­falls vir­tu­el­len Bild­schirm­lein­wand er­zeugt, um die Su­che für eben je­ne Pi­xel­far­be zu fin­den. Als nächs­tes ist man am Schnitt des Strahls mit dem ers­ten Ob­jekt der Sze­ne in­ter­es­siert. Das hört sich jetzt tri­vi­al an, je­doch müss­te man für je­des ein­zel­ne Ob­jekt prü­fen, ob ein Schnitt mög­lich wä­re. In der Pra­xis wird für ei­ne deut­lich bes­se­re Per­for­mance statt­des­sen der Raum un­ter­teilt und meh­re­re Ob­jek­te stu­fen­wei­se zu­sam­men­ge­fasst.

Hat man dann den Schnitt­punkt ge­fun­den, in­ter­es­siert man sich nun für den Farb­ein­druck an die­ser Stel­le. Zum ei­nen hat man hier die Ei­gen­far­be durch die Tex­tur, al­ler­dings hat in der ech­ten Welt die Um­ge­bung ei­nen gro­ßen Ein­fluss auf das fi­na­le Er­geb­nis. Je nach Ma­te­ri­al könn­te Licht aus ver­schie­de­nen Rich­tun­gen ein­tref­fen und ge­spie­gelt oder ab­ge­lenkt wer­den, die Far­be än­dern, in den Kör­per ein­drin­gen oder sich ab­sor­bie­ren las­sen. Es be­nö­tigt al­so ei­ne ma­the­ma­ti­sche Glei­chung, die die­se Ef­fek­te für die Um­welt be­rück­sich­tigt, idea­ler­wei­se mit ei­nem rea­lis­ti­schen Maß je­der Wer­te.

Für das Lö­sen der Glei­chung wird dann ein er­neu­ter Strahl in ei­ne zu­fäl­li­ge, mit der For­mel ge­wich­te­te Rich­tung aus­ge­sen­det und für ihn be­ginnt die­se Pro­ze­dur er­neut bis man ei­ne Licht­quel­le ge­fun­den hat oder man bricht nach ei­ner ge­wis­sen Tie­fe ein­fach ab. Für ein mög­lichst ak­ku­ra­tes Er­geb­nis soll­ten und müs­sen vie­le Samp­les pro Pi­xel ver­wen­det wer­den.

Rasterisierung

Ras­te­ri­sie­rung be­ginnt hin­ge­gen bei den Ob­jek­ten, oh­ne über­haupt erst die Be­leuch­tung oder ähn­li­ches zu be­ach­ten. Ob­jek­te selbst be­stehen aus »Po­ly­go­nen« (Viel­ecke), an der GPU kom­men die­se letzt­lich im­mer als Drei­ecke an. Zu­al­ler­erst wird je­der ih­rer Eck­punk­te in das ge­wünsch­te Ko­or­di­na­ten­sys­tem ge­bracht, zu ent­spre­chen­den, neu­en Drei­ecken zu­sam­men­ge­setzt, da­nach je­weils auf ih­re ent­spre­chen­den Pi­xel der zwei­di­men­sio­na­len Lein­wand ab­ge­bil­det und die da­zwi­schen­lie­gen­den Pi­xel ein­ge­färbt.

Für die Far­be sind eben­falls Be­leuch­tungs­be­rech­nun­gen mög­lich, dies­mal al­ler­dings deut­lich simp­ler als bei Ray­tra­cing. So gibt es zu­sätz­li­che Tech­ni­ken für glo­ba­le Ef­fek­te wie Schat­ten, Spie­ge­lun­gen und Um­ge­bungs­ver­de­ckung, und wei­te­re (häss­li­che) Post­pro­ces­sing-Ef­fek­te wie Bloom oder Blur. Durch den Fo­kus auf den Echt­zeit­be­trieb je­doch meist bloß mit den Ob­jek­ten die sich ak­tu­ell im Bild be­fin­den und oft nur mit deut­lich ver­ein­fach­ten und da­her un­ge­naue­ren Tech­ni­ken. The­o­re­tisch ist mit Shadern aber die iden­ti­sche Qua­li­tät wie mit Ray­tra­cing mög­lich.

Gra­fik­kar­ten sind für die­se Schrit­te aus­ge­legt und be­sit­zen hier­zu Stream­pro­zes­so­ren im Tau­sen­der­be­reich, die die je­wei­li­ge, glei­che In­struk­ti­on auf al­le Pi­xel an­wen­den. Ei­ne CPU ist da­ge­gen mit ih­ren Ker­nen bes­ser für Ray­tra­cing ge­eig­net, da die Strah­len zwei­er Pi­xel sehr ver­schie­den ab­lau­fen könn­ten und so­mit un­ter­schied­li­che Ver­ar­bei­tung­en an­ge­wandt wer­den müs­sen. Al­ler­dings ist letz­te­res auch nicht mehr ganz ak­tu­ell, schon seit den Fer­mi-Kar­ten (GTX 400/500) ist Real­time-Ray­tra­cing dank nVi­di­as Op­tiX auf GPUs per­for­mant mög­lich.

RTX

RTX (ich wer­de das ab jetzt ein­fach syn­onym als »NVIDIA-Ray­tra­cing« ver­wen­den, auch wenn ich weiß, dass es nicht nur da­für steht – *würg* DLSS *würg*) wird nun zu­sätz­lich bei der Ras­te­riza­ti­on ver­wen­det, in­dem die bis­her ver­wen­de­ten Tricks für Be­leuch­tung oder Spie­ge­lung durch Ray­tra­cing er­setzt wer­den. Zum neu­en Me­tro mit RTX für Glo­ba­le Be­leuch­tung wur­de ver­ra­ten, dass die Kar­ten wohl für drei Rays je Pi­xel rei­chen, das Spiel al­ler­dings zu­sätz­lich über drei Frames ak­ku­mu­liert. Das er­gibt so­mit noch nicht das ak­ku­ra­tes­te Bild, selbst mit Ent­fer­nen des Rau­schens, des­halb wird es auch nur für die­sen spe­zi­el­len Ef­fekt ver­wen­det.

Ähn­lich ist es mit dem neu­en Batt­le­field, wel­ches wohl le­dig­lich per­fek­te Spie­ge­lung­en per Ray­tra­cing bie­ten wird und bei rau­en Ober­flä­chen Un­schär­fe an­wen­det, an­statt ex­tra Strah­len zu ver­schie­ßen – eben weil es an­sons­ten zu auf­wen­dig wä­re. AMD bie­tet üb­ri­gens mit Ra­de­on Rays im Pro­Ren­de­rer ei­ne ähn­li­che Tech­no­lo­gie, wel­che mo­men­tan hin­ge­gen mehr für An­wen­dun­gen wie Blen­der oder Ci­ne­ma 4D ge­eig­net ist und oh­ne ex­tra Hard­ware­kom­po­nen­ten läuft.

Ist Rasterisation so schlimm?

Ein Ver­gleichs­bild von NVIDIA zu Batt­le­field V zeigt un­ter an­de­rem die tol­len neu­en Re­fle­xio­nen an ei­nem Au­to, je­doch ver­wen­det es bei rei­ner Ras­te­ri­sa­ti­on nicht die dort schicks­te ver­füg­ba­re Me­tho­de. Was ich da­mit mei­ne wird kla­rer, wenn man sich für ei­nen bes­se­ren Ver­gleich im Re­play-Edi­tor des schon 2011 er­schie­nen Track­Ma­nia um­schaut. Dort las­sen sich die Wa­gen­spie­ge­lun­gen mit ei­ner Stu­fe des Ray­tra­cings be­rech­nen, et­was ähn­lich (Strah­len wer­den hier vom Wa­gen aus er­zeugt) wie es beim neu­en Batt­le­field der Fall sein könn­te. Schau­en wir uns dar­aus al­so ein­mal ei­nen ge­ren­der­ten Screen­shot ei­nes selbst­ver­ständ­lich ge­plan­ten (!) Ab­flugs mit je­nen Re­fle­xio­nen an:

tm_1_dflt

Ohhh, na al­so das sieht doch or­dent­lich aus. Wir er­ken­nen Gras, Fel­sen, Bäu­me und Wol­ken in den Re­fle­xio­nen, und dies sind al­les Ge­gen­stän­de die dem Ka­me­ra­au­ge ab­ge­wandt sind und man an­sons­ten nicht se­hen wür­de. Es gibt nur ein Pro­blem, ich hab euch an­ge­lo­gen! Das Bild oben setzt bloß auf ge­wön­li­che Ras­te­ri­sie­rungs-Tricks, Ray­tra­cing fin­det ihr statt­des­sen hier:

tm_1_rt

Auf den ers­ten Blick sieht es nach ei­nem Fin­de-X-Feh­ler-Such­bild für Fort­ge­schrit­te­ne aus, da man kei­nen gro­ßen Un­ter­schied er­kennt (das hab ich ja schon an­ge­deu­tet). Klickt da­her am bes­ten auf die bei­den Bil­der für ei­ne Full-HD-Ver­si­on, zieht die­se in je ei­nen neu­en Tab und wech­selt hin und her – so be­hump­se ich auch im­mer mit der di­gi­ta­len Heft­ver­si­on bei Schwerdtels Vor­let­zer (hab bis­her auch im­mer ge­won­nen). Ein­zi­ge im di­rek­ten Ver­gleich wirk­lich au­gen­schein­li­che Dif­fe­renz wä­re ei­ne et­was an­de­re Po­si­tio­nie­rung am Heck, es sieht je­doch nicht un­be­dingt bes­ser aus als beim an­de­ren.

Aber wie ist so et­was denn auch oh­ne RTX mög­lich!? Gut, ganz si­cher weiß ich es nicht, aber es wird höchst­wahr­schein­lich ein ku­gel­för­mi­ger Rund­um­blick aus Sicht der Fahr­zeug­mit­te er­zeugt und die­ser dann als »Re­flec­tion/En­vi­ron­ment Map« mit ent­spre­chen­der Trans­pa­renz an die »pas­sen­den« Stel­len über das Fahr­zeug ge­le­get. Das ist dann fast so gut wie die Strah­len­ver­fol­gung, aber eben nicht ganz so ex­akt. Hier noch­mal ei­ne an­de­re Sze­ne: (Depth of Field, Mo­ti­on Blur und Kan­ten­glät­tung ver­wen­den üb­ri­gens Ver­fah­ren, die sonst auch nur für sol­ches Pre-Ren­de­ring re­ser­viert sind)

tm_0_dflt
normale Wagenspiegelung \ Raytracing-Reflexion 
tm_0_rt

Man er­kennt nun ein we­nig deut­li­cher, dass die Spie­ge­lung bei der Stan­dard-Me­tho­de nicht ganz stimmt. Ei­ner­seits ist die Front­schür­ze zu hell be­leuch­tet, da die Na­se in den dunk­len Schat­ten des düs­te­ren Wald­ab­schnitts ragt (*gru­se­lig*), die Fahr­zeug­mit­te je­doch nicht. An­de­re­seits er­kennt man am lin­ken Sei­ten­schwel­ler (an al­le Früh­brem­ser: das ist das Teil un­ter der Tür;) recht ver­wa­sche­ne und ver­zerr­te Re­fle­xio­nen, beim Ray­tra­cing-Er­geb­nis ist die Bo­den­tex­tur statt­des­sen scharf ab­ge­bil­det und es las­sen sich so­gar die ein­zel­nen, her­ab­ge­fal­le­nen Blät­ter er­ken­nen.

Je­doch ist selbst die­ses Er­geb­nis nicht per­fekt. Schaut man sich die Fel­gen an, er­kennt man dort die Um­ge­bung hin­ter dem GT-R, an­statt der Re­fle­xi­on des Rad­kas­tens. Das wä­re ei­gent­lich mög­lich, je­doch muss man be­ach­ten, dass das er­neu­te Schnei­den ei­ner spie­geln­den Flä­che ei­nen wei­te­ren kost­ba­ren Strah­len be­nö­ti­gen wür­de. Die Ras­te­ri­sie­rungs-Me­tho­de er­laubt dies ge­ne­rell nicht, da die Ka­ros­se­rie selbst­ver­ständ­lich von der Ka­me­ra im In­ne­ren igno­rier­ten wer­den muss.

Die Bo­li­den der Geg­ner sind üb­ri­gens bei bei­den sicht­bar (Be­weis­fo­to). Je­doch be­kom­men Ghosts und an­de­re Spie­lerau­tos – oder Gur­ken-PCs (mei­ner ein­ge­schlos­sen) die nur die nied­ri­gen Set­tings pa­cken – kei­ne so auf­wen­di­gen Tech­ni­ken spen­diert und se­hen deut­lich er­kenn­bar schlech­ter aus:

tm_0_small_no

Hier wird die En­vi­ron­ment Map nicht dy­na­misch für je­den Frame er­zeugt, son­dern wur­de schon im Vor­aus be­rech­net, was um Wel­ten per­for­man­ter ist. So gibt es sie auch beim Ray­tra­cing als Hilfs­mit­tel, al­ler­dings soll­ten die­se nur für weit ent­fern­te Um­ge­bungs­ein­drü­cke ver­wen­det wer­den, da sie un­ab­hän­gig von der Po­si­ti­on des Ob­jekts (al­so un­se­rem Nis­san) auf­ge­tra­gen wer­den. Da sich der Sport­wa­gen nun aber be­wegt und theo­re­tisch al­les mög­li­che spie­geln kann, gibt es hier nur solch ei­ne ge­ne­ri­sche und da­mit un­ge­naue Map mit lee­rer Wie­se und sta­ti­schem Him­mel. Die NVIDIA De­mo ver­wen­de­te eben­falls nur ei­ne vor­ge­fer­tig­te Map für die schwarz Li­mou­si­ne, wenn RTX de­ak­ti­viert wur­de. Kein Wun­der al­so, dass der Un­ter­schied so groß aus­fällt.

»Aber Mo­ment!«, wer­den jetzt ei­ni­ge sa­gen. »Bei den Vor­gän­gern und auch in der Be­ta wur­den trotz höchs­ten Set­tings nie die auf­wen­di­gen Wa­gen­spie­ge­lun­gen aus Track­Ma­nia ver­wen­det.« (Die Be­haup­tung ist aus­ge­dacht, dürf­te aber hun­dert­pro­zen­tig stim­men.) Und war­um ist das so? Zwei Wor­te: Per­for­mance und un­nö­tig. Es hat schon sei­nen Grund, dass dies in TM² nur auf ein Fahr­zeug li­mi­tiert ist, denn es ist ein­fach ei­ne teu­re Ras­te­ri­sie­rungs-Ope­ra­ti­on, für je­des Bild die Re­flec­tion Map zu er­neu­ern. In der ers­ten Bild­sze­ne mit Ab­flug ha­be ich die Ren­der­zeit mit je 400-fa­chem Su­per­sam­pling ge­mes­sen.

Mit bil­li­ger Re­fle­xi­on dau­er­te es rund vier Se­kun­den (al­so wä­ren viel­leicht 100 fps oh­ne An­ti­alia­sing mög­lich), bei nor­ma­ler Qua­li­tät hin­ge­gen gan­ze 12 Se­kun­den (cir­ca 33 fps). Gut, hier han­delt es sich auch um ei­nen Ex­trem­fall, trotz­dem ist es nichts au­ßer­ge­wöhn­li­ches und im Ga­me­Star-Test­vi­deo zum neu­en For­za er­kennt man die schi­cken Spie­ge­lun­gen eben­falls. De­mun­ge­ach­tet wür­de man es so eben nicht für ein un­be­weg­li­ches De­ko­ob­jekt wie in Batt­le­field ver­wen­den wol­len, zu­mal man bei sta­ti­schen Ob­jek­ten schon vor­her ei­ne gut pas­sen­de Um­ge­bungs-Map er­stel­len kann. Meist wird je­doch auch nur ei­ne ein­zi­ge für bei­spiels­wei­se die kom­plet­te Stra­ße ver­wen­det, da sich die Häu­ser­wän­de oh­ne­hin nicht stark un­ter­schei­den.

Batt­le­field ver­wen­det so­gar zu­sätz­lich noch »Screen Space Re­flec­tions«. Wenn auch noch im­mer et­was auf­wen­dig, ist dies ei­ne bil­li­ge­re Al­ter­na­ti­ve zu den an­de­ren Op­ti­on­en. Wie der Na­me hin­ge­gen schon ver­rät, ar­bei­tet der Post-Pro­ces­sing-Ef­fekt nur mit den Pi­xeln der schon be­rech­ne­ten Frames. Dank dem Tie­fen­puf­fer be­hält das Bild ei­ne Drei­di­men­sio­na­li­tät und mit den Ober­flä­chen­nor­ma­len (der Ori­en­tie­rung al­ler Pi­xel) kann die Po­si­ti­on der sich im Lack spie­geln­den Pi­xel ge­fun­den wer­den. Aber Ach­tung, um dies durch­füh­ren zu kön­nen, wer­den Rays ver­schos­sen.

hellblade147
Screen-Space-Spiegelungen im Wasser von ihrer besten Seite.

Beim Spie­len von Hell­bla­de ha­be ich (lei­der) dar­auf ge­ach­tet, dass die Ar­te­fak­te nicht auf­fal­len, wür­de man in obi­ger Sze­ne je­doch die Ka­me­ra wei­ter nach un­ten be­we­gen, so wür­den die Re­fle­xio­nen stück­wei­se ver­schwin­den, weil die zu spie­gel­den Ob­jek­te au­ßer­halb der Bild­flä­che lie­gen. Dar­über hin­aus kann man hier­mit nie die Rück­sei­te von Ob­jek­ten die vor ei­nem Spie­gel ste­hen be­tra­chen, statt­des­sen müss­ten ein­fach die ver­füg­ba­ren, fron­tal auf­ge­nom­me­nen Pi­xel ver­wen­det wer­den. Sol­che Klei­nig­kei­ten fal­len je­doch im nor­ma­len Spiel­tem­po über­haupt nie­man­dem wirk­lich auf und man soll­te die ge­spar­te Leis­tung lie­ber in an­de­re Din­ge in­ves­tie­ren. Aber NVIDIA will selbst RTX-Spie­ge­lun­gen für die Aug­äp­fel ver­wen­den, war­um?! Wie oft habt ihr in ei­nem Mul­ti­play­er­s­hoo­ter schon Leu­ten ins Seh­or­gan ge­schaut und kom­men­tiert: »Oh, sehr scha­de, dass hier kein Ray­tra­cing an­ge­wandt wird, so ein Faux­pas springt mir so­fort ins Au­ge.« Ge­nau, das wer­det ihr ver­mut­lich nie ge­sagt ha­ben, wel­cher nor­ma­le Mensch ver­wen­det denn schon ein Wort wie »Faux­pas«.

Üb­ri­gens dau­er­te das Ren­dern des Bil­des mit Track­Ma­nia-Ray­tra­cing gan­ze 24 Se­kun­den, al­so sechs, be­zie­hungs­wei­se zwei Mal so lang wie bei den an­de­ren bei­den. Und trotz spe­zi­el­len RT- und Ten­sor-Ker­nen dürf­te man an­ge­sichts der ak­tu­el­len In­for­ma­ti­on­en auch bei RTX kei­ne be­rau­schen­de Per­for­mance er­rei­chen. Die Star-Wars-De­mo mit RTX er­reicht im Ga­me­Star-Test der 2080 Ti lau­si­ge 57 fps in WQ­HD, wäh­rend die Kar­te auf Com­pu­ter­Ba­se bei glei­cher Auf­lö­sung in Batt­le­front II mehr als 160 fps packt! Es er­scheint mir al­so to­tal un­sin­nig, hier di­rekt so stark auf Ray­tra­cing zu setz­ten, wenn ei­nem doch die fast gleich­wer­tig schi­cken Ras­ter­i­sie­rungs­tricks vor­her schon zu teu­er wa­ren!

Phew, den Puls sich wie­der kurz be­ru­hi­gen las­sen. Viel­leicht ent­spannt uns ein Blick aufs Meer. Im RTX-Batt­le­field-Trai­ler sieht man näm­lich nied­rig flie­gen­de Flug­zeu­ge im Was­ser spie­geln. Wenn man nun nicht al­le paar Me­ter ei­ne ei­ge­ne Re­flec­tion Map ver­wen­den möch­te, ist die Me­tho­de hier un­brauch­bar. »Al­so lohnt sich jetzt doch end­lich Ray­tra­cing!?« – Nein, es gibt da ja noch »Pla­nar Re­flec­tions«. Hier­bei wird ein­fach die Um­ge­bung noch ein­mal aus Sicht un­se­res bö­sen Dop­pel­gän­gers aus der Spie­gel­welt ge­ren­dert und dann spie­gel­ver­kehrt über den See oder eben ei­nen Spie­gel ge­legt. Oder so ähn­lich. Wie uns der Na­me er­neut ver­rät, ist dies nur für fla­che oder re­la­tiv ebe­ne Flä­chen ge­dacht. Hier wie­der ein Bei­spiel aus Track­Ma­nia:

tm_2_small
Das blaue ist das Wasser, und ja, wir fahren senkrecht an einer Wand herab. Ist nicht so leicht wie es aussieht.

Wenn man ganz ge­nau hin­sieht, er­kennt man auch den grü­nen Flit­zer im Was­ser glit­zern. Im Spiel wur­de je­doch so op­ti­miert, dass nicht bei je­dem neu­en Frame auch noch­mals die Re­fle­xi­on neu be­rech­net wird, die dy­na­mi­schen Ge­gen­stän­de in der Spie­gel­welt ru­ckeln al­so (fällt aber wie­der ein­mal nicht auf). Bei den mitt­le­ren Set­tings fin­den sich hin­ge­gen so oder so nur sta­ti­sche Ob­jek­te.

Be­vor sich jetzt aber je­mand er­hofft, dass doch bei den an­de­ren RTX-An­wend­ungs­fäl­len noch ei­ne gro­ße Re­vo­lu­ti­on da­bei ge­we­sen sein muss, den wer­de ich ent­täu­schen müs­sen. Glo­ba­le Be­leuch­tung mit in­di­rek­ter Be­leuch­tung, Um­ge­bungs­ver­de­ckung und wei­che Schat­ten gibt es schon heu­te, so­gar eben­falls mit Va­ri­an­ten des Ray­tra­cings und auch von NVIDIA! Glo­bal Il­lu­mi­na­ti­on ba­sie­rend auf Vox­eln (hier­für sieht die Um­ge­bung aus wie in Minecraft-Gra­fik) gibt es un­ter an­de­rem in der Cry­En­gi­ne (SVO­GI) und Un­re­al En­gi­ne (VX­GI), und NVIDIA hat hier­über so­gar Vor­trä­ge 2012 und 2014 ge­hal­ten. In Ri­se of the Tomb Rai­der (das ist nicht das neus­te) gab es von NVIDIA auch schon Vo­x­el Am­bi­ent Oc­clu­si­on (VXAO; ir­gend­wie muss bei de­nen im­mer ein X rein, da­mit es krass klingt) als Nach­fol­ger zu HBAO+ (be­zie­hungs­wei­se HDAO bei AMD), in The Di­vi­si­on hat­te man Hy­brid Frus­tum Traced Shadows (HFTS) als Er­wei­te­rung zu Per­cen­ta­ge Clo­ser Soft Shadows (PCSS) [Con­tact Har­de­ning Shadows bei AMD] und al­les schon mit Hil­fe von Ope­ra­tio­nen die durch Strah­len­ver­fol­gung ge­tä­tigt wur­den.

sd
Weicher werdende Schatten, je weiter sie sich von der schattenwerfenden Fahrzeugkante entfernen. Hier sogar noch unter DirectX 9.​

Aber Ach­tung, ich will jetzt nicht sa­gen, dass ich ge­gen Fort­schritt bin (nur weil ich ei­ne sechs Jah­re al­te, ro­te GPU ver­baut ha­be), mei­ne Kri­tik ist eher so laut, da ja RTX-Kar­ten schein­bar über­haupt nicht stark ge­nug für die be­wor­be­nen Ray­tra­cing-Ef­fek­te sind, trotz­dem ver­langt NVIDIA ei­nen or­dent­li­chen Preis­auf­schlag für die ver­bau­ten RT Cores. Nach ak­tu­el­len In­for­ma­tio­nen scheint es zum ei­nen näm­lich so, dass man durch ei­ne ein­zi­ge Op­ti­on viel­leicht ge­ra­de noch ein Vier­tel der vor­he­ri­gen Per­for­mance er­reicht, wäh­rend ehe­ma­li­ge Game­Works-Ef­fek­te (zu­min­dest auf der je­weils neus­ten Ge­For­ce-Ge­nera­ti­on) »nur« schät­zungs­wei­se 20 bis 30 Pro­zent Leis­tung aus­ge­macht hat­ten. Die bis­her ge­zeig­ten Spie­le lau­fen in FullHD auf ei­ner 2080 Ti meist bloß mit rund 45 fps.

An­de­rer­seits scheint der grö­ße­re Fo­kus auf Ray­tra­cing – be­son­ders da wohl nur ein Strah­len­sam­ple pro Pi­xel (1 spp) ge­nutzt wird – zu un­schö­nem Rau­schen zu füh­ren, wel­ches trotz De­noi­sing auf­fäl­lig bleibt. In Me­tro: Exo­dus oder gar ei­ge­nen De­mo-Vi­de­os, be­son­ders je­doch in Re­me­dys North­light-En­gi­ne, wel­che bei Con­trol zum Ein­satz kommt, sieht es un­sau­ber aus. Au­ßer­dem, da Strah­len über meh­re­re Frames zu­sam­men­ge­fasst wer­den, könn­te ein schnel­le­rer Ka­me­ra­schwenk zum un­schö­nen Auf­plop­pen der RTX-Ef­fek­te füh­ren.

»Doch was ist mit DLSS? Das hört sich ja toll an, so wie es be­wor­ben wur­de!« Nun, Deep Lear­ning Su­per Sam­pling soll­te eher in FUSS um­be­nannt wer­den, wel­ches dann für Fan­cy Up-Sam­pling Scrap steht, denn es ist ge­nau das. Bei der Vor­stel­lung wur­de so viel von ma­schi­nel­lem Ler­nen, neu­ro­na­len Net­zen und an­de­ren Trig­ger-Words ge­spro­chen, dass man sich die­se Tech­nik schön träumt. In Wirk­lich­keit ist es aber le­dig­lich ein Hoch­ska­lie­ren auf 4K, mit ein we­nig, post­pro­ces­sing­ar­ti­gem An­ti­alia­sing.

Zu­erst ma­chen sich PC-Ga­mer über Kon­so­len-Wich­te lus­tig: »Pfui, ist doch gar kein ech­tes 4K, nur hoch­ge­sam­pled mit Che­cker­board.« Und jetzt wird das ein­fach (fälsch­li­cher­wei­se) mit Su­per­sam­pling be­ti­telt und al­le bre­chen in Ju­bel aus. Das ein­zi­ge was DLSS in­des­sen al­len zeigt, die es bis­her nicht ge­merkt hat­ten, ist, dass TAA das Bild to­tal un­scharf macht und man ei­gent­lich nicht wirk­lich 4K braucht, denn um die 1600p bis 1800p plus SMAA dürf­ten bei nor­ma­len Bild­schirm­grö­ßen schon rei­chen. So sieht dann eben auch DLSS aus, nur be­nö­tigt man da­für halt ei­ne be­son­de­re GPU und ex­tra Un­ter­stüt­zung vom Spiel – *slow clap*.

Be­vor ihr euch jetzt be­schwert, dass ich hier zu kri­tisch bin und heu­lend zu On­kel Lea­ther­ja­cket rennt, um ihm die­sen ge­mei­nen Text von ei­ner künst­li­chen AI ins Eng­li­sche über­setz­ten zu las­sen, sei nur ge­sagt, dass ihr erst ein­mal NVIDIA nicht ver­tei­di­gen müsst und zwei­tens, sie ein­fach mit RTX-Spie­len gleich hät­ten laun­chen sol­len, wenn sie nicht kri­ti­siert hät­ten wer­den wol­len. Zu­min­dest Ray­tra­cing ist na­tür­lich schon ein Schritt in die rich­ti­ge Rich­tung für die Zu­kunft, be­son­ders we­gen den (ak­tu­el­len) Nach­tei­len ist es al­ler­dings mei­nes Er­ach­tens nach noch ein gu­tes Stück zu früh hier­für und nicht wirk­lich loh­nend. In ein paar Ge­nera­tio­nen kann und wird sich das je­doch hof­fent­lich in ei­ner aus­ge­reif­te­ren Form än­dern! Ak­tu­ell dürf­te es sich so eher in ei­nem Fo­to­mo­dus gut ma­chen… das wä­re aber schon al­les was mir da­für ein­fällt. Beim Spie­len kann ich näm­lich auf RTX ge­trost ver­zich­ten!