Startseite » Nicht kategorisiert » HDR-Gaming 2025: Wie eine große Grafikrevolution stecken blieb – und doch zu retten ist

HDR-Gaming 2025: Wie eine große Grafikrevolution stecken blieb – und doch zu retten ist

von ytools
2 kommentare 5 ansichten

Vor knapp zehn Jahren galt HDR im Gaming noch als Heilsversprechen. Als Sony sein Mid-Gen-Update der PlayStation 4 vorbereitete – die Konsole, die im November 2016 als PS4 Pro erschien – war nicht nur 4K das große Buzzword, sondern vor allem High Dynamic Range.
HDR-Gaming 2025: Wie eine große Grafikrevolution stecken blieb – und doch zu retten ist
Mehr Leuchtkraft, tiefere Schwarztöne, kräftigere Farben, ein Bild, das eher wie eine reale Szene wirkt als wie eine flache Leinwand. Microsoft, AMD, TV-Hersteller und ein guter Teil der Fachpresse waren sich damals einig: In Nutzerstudien wirkte gutes HDR deutlich beeindruckender als der bloße Sprung von Full HD auf 4K. Und das alles, so hieß es, nahezu ohne Performance-Kosten. Auf dem Papier klang HDR wie der seltene, fast kostenlose Grafik-Upgrade.

Die ersten Jahre schienen diesen Optimismus zu bestätigen. Studios wie Naughty Dog oder Playground Games schwärmten öffentlich davon, wie heftig der Unterschied sei – einmal HDR richtig gesehen, könne man zu SDR kaum zurück. NVIDIA präsentierte 2017 auf der CES G-SYNC-HDR-Monitore, die Versprechen klangen groß: butterweiches Gameplay plus knallende Highlights, alles gleichzeitig. 2018 gründete sich die HGiG – die HDR Gaming Interest Group –, in der Konsolenhersteller, TV-Produzenten und große Publisher gemeinsam Richtlinien für HDR in Spielen ausarbeiten wollten. Für viele Beobachter war klar: Die Weichen sind gestellt, HDR wird der neue Standard.

Springen wir ans Ende des Jahres 2025, wirkt diese Vision allerdings wie aus einer anderen Zeit. Heute ist es schwierig, einen halbwegs hochwertigen Fernseher zu finden, der kein HDR-Logo auf der Verpackung trägt. OLED-Modelle erobern die Wohnzimmer, Mini-LED-Panels schaffen mühelos Spitzenhelligkeiten von 1.500 bis 2.000 Nits, dazu ein Farbraum, der weit über sRGB hinausgeht. Das Hardware-Ökosystem ist also erstaunlich reif. Dennoch steht man als Spieler regelmäßig vor dem gleichen ernüchternden Bild: Ein großer AAA-Titel kommt komplett ohne HDR, oder das vorhandene HDR ist so schlecht umgesetzt, dass man es lieber gar nicht erst anschaltet. Die "HDR-Revolution" ist im Alltag vieler Spieler eher zur Dauerbaustelle verkommen.

Wie kann es sein, dass 2025 noch immer die Hälfte der Top-Games ohne HDR erscheint?

Schaut man sich die großen Releases eines Jahres an – die Blockbuster, die wochenlang die Steam- und Konsolen-Charts anführen –, zeigt sich ein klares Muster. Von rund 20 bis 25 der wichtigsten Spiele 2025 unterstützt etwa die Hälfte HDR überhaupt nicht. Und unter der anderen Hälfte findet man nur eine kleine Spitzengruppe, in der HDR wirklich stimmig wirkt. Der Rest kämpft mit einem ganzen Katalog vertrauter Probleme: crushed blacks (abgesoffene Schatten ohne Zeichnung), raised blacks (graue, milchige Schwarztöne), farblich verschobene Hauttöne, ausgebrannte Highlights, überstrahlende HUD-Elemente oder völlig überfrachtete "HDR-Kalibrierungsmenüs", die eher abschrecken als helfen.

Es gibt prominente Fälle, in denen Spiele erst Monate nach Release einen HDR-Patch bekommen – sichtbar nach dem Motto: "Wir schieben da noch schnell was nach." In anderen Titeln ist ab Launch ein HDR-Modus vorhanden, doch ein direkter Vergleich mit SDR offenbart die Schieflage: In SDR strahlt das Art-Design, in HDR wirkt die Szene flacher, kälter oder grell überzogen. Für Spieler, die mehrere hundert oder gar tausend Euro in ein modernes Display investiert haben, fühlt sich das wie ein Schlag ins Gesicht an.

Besonders bitter ist das, weil HDR-Effekte streng genommen zu den relativ "billigen" Grafikfeatures gehören. Anders als Ray Tracing oder extreme Supersampling-Verfahren verlangt HDR nicht zwangsläufig nach doppelter GPU-Leistung – es geht hauptsächlich um den letzten Abschnitt der Bildkette: Tonemapping, Color Grading, Encoding. Genau dort, in der vermeintlich unsichtbaren Schicht zwischen internem Framebuffer und letztendlichem HDMI-Signal, entscheidet sich aber, ob HDR magisch wirkt – oder alles kaputt macht.

HDR vs. SDR: Worum es beim hohen Dynamikumfang wirklich geht

Um zu verstehen, warum einige Entwickler HDR als "größeren Sprung als 4K" sehen, muss man sich vor Augen führen, wie eingeschränkt klassisches SDR eigentlich ist. Standard Dynamic Range wurde in einer Ära definiert, als Bildröhrenfernseher und frühe LCD-Panels das Maß der Dinge waren. Die Referenzhelligkeit lag bei rund 100 Nits, der Farbenraum bei Rec. 709/sRGB. Für damalige Technik war das sinnvoll. Für heutige Displays mit lokaler Dimmung, hoher Spitzenhelligkeit und deutlich größerem Farbraum ist es eine Zwangsjacke.

HDR reißt diese Grenzen auf gleich zwei Achsen ein: Zum einen kann der Unterschied zwischen sehr dunklen und sehr hellen Bildbereichen enorm viel größer sein. Zum anderen erweitert sich der Farbraum – Rec. 2020 etwa umfasst deutlich kräftigere und differenziertere Farben als sRGB. Ein richtig umgesetztes HDR-Bild sorgt dafür, dass Sonnenreflexe auf Wasser oder Metallflächen tatsächlich unangenehm blendend wirken können, ohne den Rest des Bildes zu zerstören. Feuer ist nicht nur eine orange Fläche, sondern zeigt Nuancen von tiefem Rot über gelbes Glühen bis zu fast weißem Kern. In dunklen Szenen bleiben Details in Schatten erkennbar, statt einfach nur zu einem schwarzen Block zu verschwimmen.

Wichtiger noch: Gutes HDR heißt nicht, dass die gesamte Darstellung plötzlich knallig wie ein Werbeplakat ist. Die besten HDR-Umsetzungen wirken oft fast unspektakulär – bis man zurück auf SDR schaltet. Dann bemerkten viele Spieler erst, wie flach und "grau" ihnen ihr altes Bild vorkommt. HDR erhöht nicht nur die Leuchtkraft, sondern verleiht der Szene Tiefe und Plastizität. Dämmerung, Nebel, Rauch und feine Helligkeitsabstufungen gewinnen an Glaubwürdigkeit, weil sie sich enger an das halten, was unser visuelles System gewohnt ist.

Von der technischen Seite ist HDR im Wesentlichen ein anderes Mapping von intern berechneten Lichtwerten auf den Ausgabebereich des Displays. Der interne Renderpfad vieler moderner Spiele arbeitet ohnehin bereits in einem weiten Luminanzbereich, etwa bei physikalisch basiertem Rendering (PBR). Die Frage ist nur: Wie werden diese Werte am Ende "zusammengedrückt", damit sie zum Fernseher oder Monitor passen? An diesem Punkt entscheidet sich, ob HDR wirklich zeigt, was in der Engine steckt – oder ob das Ergebnis schlimmer ist als das alte SDR-Bild.

Warum HDR im Projektalltag trotzdem oft auf den letzten Metern landet

Aus Spielerperspektive liegt die Frage nahe: Wenn HDR so viel Potenzial hat, warum wird es dann nicht einfach zur Pflicht in jedem größeren Spiel? Die Antwort liegt, wie so oft, in den Prioritäten eines typischen Entwicklungsprojekts. Jede größere Produktion jongliert ständig mit Ressourcen: Budget, Personal, Zeit. Jede Feature-Gruppe – Grafik, Gameplay, UI, Online-Funktionen – versucht, ihren Anteil am Kuchen zu sichern. Und vieles, was nicht absolut unverzichtbar ist, rutscht nach hinten.

Das Kernproblem aus Producer-Sicht: Ein Spiel kann ohne HDR erscheinen und trotzdem ein voller Erfolg werden. Es gibt keinen Mechanismus, der sagt: "Ohne HDR wird das Produkt unspielbar." Man kann großartige Screenshots, Trailer und Marketing-Kampagnen auf Basis von SDR produzieren, und der Großteil der Käufer wird nichts vermissen. Im Gegensatz dazu sind Features wie Ray Tracing, neue Upscaling-Techniken oder auffällige Partikeleffekte deutlich "fotogener" für Werbematerialien – und GPU-Hersteller wie NVIDIA oder AMD klopfen aktiv an, um genau solche Features gemeinsam hervorzuheben.

Für HDR gibt es diese Form der Lobbyarbeit viel seltener. Natürlich haben TV-Hersteller und Unternehmen wie Dolby oder Samsung ein Interesse, dass ihre Logos in Menüs auftauchen. Aber kaum eine Engine- oder GPU-Firma stellt Entwicklerteams und Marketingbudgets ausschließlich dafür bereit, damit in einem Spiel das HDR-Color-Management wirklich exzellent wird. In der täglichen Realität eines Studios bedeutet das: HDR verschwindet im "Nice to have"-Backlog. Wenn Zeit übrig bleibt, kümmert man sich darum – und Zeit ist der Rohstoff, der fast immer fehlt.

Dazu kommt eine psychologische Komponente. Viele Entwicklerinnen und Entwickler haben ihre komplette Laufbahn in einer SDR-Welt verbracht. Tools, Monitore, Lehrmaterial – alles war über Jahrzehnte auf Rec. 709 kalibriert. SDR gilt als stabil, vertraut, "beherrscht". HDR wirkt dagegen wie ein Minenfeld: unterschiedliche Standards, Panels, die sich nicht gleich verhalten, widersprüchliche Foren-Beiträge. Nicht selten hält sich in Studios das Bild, HDR sei ein chaotischer, schlecht standardisierter Wildwuchs, während SDR quasi "perfekt genormt" wäre. In Wahrheit ist es eher umgekehrt.

Hinzu kommen die Engines selbst. Unreal Engine und Unity bieten HDR-Ausgabe meist als Checkbox – "Output in HDR" aktivieren, fertig. Dahinter steckt aber eine komplexe Pipeline von Tonemapping, Farbraumkonvertierungen und Transferfunktionen, die ursprünglich oft für SDR ausgelegt war und dann erweitert wurde. Ohne jemanden im Team, der sich bewusst um diese letzten Schritte kümmert, passiert schnell Folgendes: Das Spiel sieht auf dem Entwicklungsmonitor "okay" aus, niemand hinterfragt die Details, und erst auf den Wohnzimmer-TVs der Kunden fällt auf, wie viel nicht stimmt.

Wer ist Filippo Tarpini – und warum fragen plötzlich alle ihn, wenn HDR schiefläuft?

An dieser Stelle betritt ein Name die Bühne, der in HDR-Kreisen mittlerweile einen gewissen Kultstatus genießt: Filippo Tarpini. Statt sich den üblichen Prestige-Themen der Grafikprogrammierung zuzuwenden – Ray Tracing, Partikelsimulation, Physik –, hat er sich ausgerechnet jenen Bereich ausgesucht, den die meisten Teams nur widerwillig anfassen: das Zusammenspiel aus Tonemapping, Farbcodierung und HDR-Ausgabe ganz am Ende der Renderkette.

Nach Stationen bei verschiedenen Studios landete Tarpini unter anderem bei Remedy. Dort begann er in seiner Freizeit, einen HDR-Mod für Control zu entwickeln, weil ihn die offizielle Lösung nicht zufriedenstellte. Dieser Mod sprach sich in der Community so schnell herum, dass Remedy ihn schließlich als Vorlage für einen offiziellen Patch nutzte. Was als Hobby begann, landete als offizielles Feature in einem der optisch markantesten Spiele der letzten Jahre.

Später war Tarpini an der HDR-Implementierung von Alan Wake II beteiligt – einem Titel, der inzwischen häufiger als Positivbeispiel genannt wird, wenn über saubere HDR-Kalibrierung gesprochen wird. Die Menüs im Spiel orientieren sich an klaren Prinzipien: wenig, aber aussagekräftige Regler, dazu die Fähigkeit, die Helligkeitsfähigkeit des Displays sauber auszulesen. Das Ziel war nicht, dem Nutzer möglichst viele Knöpfe zu geben, sondern ihn möglichst zuverlässig zu dem Bild zu führen, das die Art Direction vorgesehen hat.

Parallel dazu gründete Tarpini das Projekt Luma – eine offene Modding-Initiative, die moderne HDR-Pipelines in PC-Spiele einbaut, die entweder gar kein HDR hatten oder nur eine sehr dürftige Umsetzung. Luma-Mods gibt es inzwischen für Titel wie Starfield, Prey und weitere, und sie gelten unter Bild-Enthusiasten oft als "Pflicht", wenn man diese Spiele auf einem guten HDR-Display erleben möchte.

Aus diesen Aktivitäten heraus entstand schließlich Gamma Studios – ein kleines Unternehmen, das sich darauf spezialisiert hat, anderen Studios bei post-processing, HDR-Ausgabe und modernem Color Grading unter die Arme zu greifen. Gamma unterstützt sowohl kleinere Projekte als auch große Produktionen, arbeitet etwa mit NVIDIA an HDR-Integration in RTX Remix und berät Teams, die ihren eigenen HDR-Wildwuchs in den Griff bekommen wollen. Im Kern verkauft Gamma keine Magie, sondern Erfahrung: eine Sammlung von Best Practices und Fallstricken, die sich nur ansammeln, wenn man jahrelang genau diese Nische bearbeitet.

HDR Den: Wenn eine Handvoll Modder die Industrie in Sachen HDR überholt

Parallel zu Gamma Studios ist eine Community entstanden, die sich um genau diese Fragen dreht: die HDR Den. Was als Discord-Server für Gleichgesinnte begann, hat sich zu einem Dreh- und Angelpunkt für HDR-Nerds, Modder und interessierte Entwickler entwickelt. Im dazugehörigen Subreddit werden Vergleiche gepostet, Messungen geteilt und neue Tools getestet. Hier sieht man Screenshots aus Dutzenden Spielen, einmal im vanilla-HDR, einmal mit Luma-Mod und einmal in SDR – kommentiert mit Messwerten von Colorimetern und subjektiven Eindrücken.

Bemerkenswert ist, mit welcher Tiefe dort geforscht wird. Während AAA-Teams häufig unter enormem Zeitdruck stehen und ihre Erkenntnisse kaum öffentlich teilen dürfen, können sich Community-Leute monatelang an einzelnen Spielen festbeißen. Es entstehen detaillierte Threads, in denen Shader-Funktionen aufgeschlüsselt, Gamma-Kurven rekonstruiert und Workarounds für Engine-Eigenheiten entwickelt werden. Für Entwickler, die sich auf eigene Faust zu HDR einarbeiten wollen, ist diese Community längst eine wertvolle Know-how-Quelle.

Mehrmals kam es schon vor, dass sich Studios bei Gamma Studios meldeten, nachdem sie Luma-Mods oder Diskussionen in HDR Den gesehen hatten – sinngemäß mit der Frage: "Ihr scheint das Thema gründlicher durchdrungen zu haben als wir; könnt ihr uns helfen?" Es ist ein merkwürdiger, aber typischer Mechanismus im aktuellen Spielekosmos: Ausgerechnet die modding-Szene, die eigentlich nur "am Rand" arbeitet, wird zur Speerspitze bei einem Feature, das längst Mainstream sein sollte.

Wenn HDR funktioniert: Die wenigen, aber wichtigen Vorzeigespiele

Bei all den Negativbeispielen ist es wichtig, sich klarzumachen: Es gibt Spiele, die zeigen, was HDR leisten kann. Red Dead Redemption 2 gehört regelmäßig zu den Favoriten in entsprechenden Diskussionen. In einem guten HDR-Setup entfalten die Sonnenuntergänge über der Prärie, die Glut einer Lagerfeuerflamme oder das Mondlicht auf einer Schneelandschaft eine Wucht, die in SDR schlicht nicht erreichbar ist. Das liegt nicht an einem einzigen Trick, sondern an einem stimmigen Gesamtpaket aus PBR-Beleuchtung, sorgfältigem Grading und sauberem Tonemapping.

Auch das Dead-Space-Remake wird häufig gelobt. Dort spielt HDR eine zentrale Rolle für Atmosphäre und Spannung: Die Finsternis in den Gängen der Ishimura wirkt wirklich schwarz, nicht dunkelgrau, während Scheinwerfer, Bildschirme und Plasmafeuer einen harten, klaustrophobischen Kontrast setzen. In einem Horror-Spiel sind diese Unterschiede nicht nur "nice to have", sondern verstärken das emotionale Erlebnis direkt.

Einige aktuelle Sony-Exklusivtitel, dazu Reihen wie Call of Duty, schneiden ebenfalls ordentlich ab. Der gemeinsame Nenner: Diese Studios haben HDR nicht als nettes Extra betrachtet, sondern als Displaymodus, in dem sehr viele Spieler das Produkt konsumieren werden – insbesondere auf Konsolen. Das bedeutet Tests auf unterschiedlichen TVs, Korrekturen der Kalibrierung, Abstimmung mit der Art Direction. HDR wird nicht nebenbei mitgezogen, sondern ist Teil des Zielbilds.

Auf PC-Seite nennen viele Spieler No Man’s Sky als Beispiel für gelungenes HDR. Der Titel profitiert extrem von der erweiterten Farb- und Helligkeitsdynamik: fremde Himmelskörper, bunte Nebel, biolumineszierende Pflanzen – all das wirkt in HDR deutlich glaubwürdiger und weniger "Poster-artig". In Cyberpunk 2077 hingegen sind es vor allem die Neonlichter, reflektierende Pfützen und düstere Innenräume, die auf einem OLED mit ordentlichem HDR eine Sogwirkung entfalten, die man in SDR so nicht kennt.

PC-HDR im Jahr 2025: Ein Minenfeld aus Fake-Panels, Windows-Eigenheiten und AutoHDR

Wenn Konsolen-HDR häufig inkonsequent ist, dann ist HDR auf dem PC in vielen Setups geradezu chaotisch. Das beginnt beim Hardware-Markt: Über Jahre wurden Monitore mit "HDR"-Logos ausgeliefert, die de facto kaum mehr konnten als ein durchschnittliches SDR-Display. Viele dieser Panels besitzen keine lokale Dimmung, erreichen im Peak keine 400 Nits und haben einen sichtlich erhöhten Schwarz-Level. Rein formal genügen sie irgendeinem Minimalzertifikat. Praktisch liefern sie ein Bild, bei dem HDR-Modus und SDR-Modus oft kaum voneinander unterscheidbar sind – außer vielleicht dadurch, dass im HDR-Modus plötzlich alles etwas fleckig und ausgebleicht wirkt.

Wer so einen Monitor besitzt, das Windows-HDR-Flag setzt und ein Spiel startet, bekommt häufig genau das Gegenteil von dem, was versprochen wurde: Statt "mehr Punch" wirken Farben fahl, der Desktop grau, Videos künstlich. Viele Spiele sehen im eingestellten HDR-Modus schlechter aus als in sauber kalibriertem SDR. Und kein noch so cleveres Kalibrierungsmenü im Spiel kann die physischen Limitierungen eines Panel-Backlights wegzaubern.

Dazu kommen Eigenheiten des Betriebssystems. Windows tut sich weiterhin schwer damit, SDR- und HDR-Inhalte gleichzeitig vernünftig darzustellen. Manche Apps wirken zu hell, andere zu dunkel, Browserfenster sehen unter HDR merkwürdig aus, Screenshots fangen nicht das ein, was auf dem Bildschirm zu sehen ist. AutoHDR, Microsofts Versuch, alte SDR-Spiele algorithmisch auf HDR zu "heben", produziert in einigen Titeln beeindruckende Ergebnisse – in anderen aber auch komplett überzogene Bilder. Für viele Nutzer verschwimmen dadurch die Verantwortlichkeiten: Ist das jetzt ein Problem des Spiels, des Monitors, des Treibers oder von Windows?

Das Ergebnis, das man in Kommentarspalten zuhauf findet: eine wachsende Gruppe von PC-Spielern, die HDR als "Fake-Feature" abtut. Für sie ist HDR nur ein anderer Name für 10-Bit-Farbtiefe, dabei noch verpackt in eine unübersichtliche Suppe aus proprietären Standards, Lizenzen und Marketinglogos. Manche vergleichen die Situation mit der 3D-TV-Welle vor einigen Jahren: viel Lärm, wenig nachhaltiger Nutzen.

Aus Tarpinis Sicht ist diese Skepsis verständlich – aber sie zielt auf die falsche Stelle. Das Problem sei nicht das Prinzip HDR, sondern die Kombination aus mangelhafter Hardware, halbgaren Implementierungen und einem Betriebssystem, das vieles noch nicht sauber löst. Auf echten HDR-Displays, so seine Argumentation, könne sauberes HDR schon heute einen Unterschied machen, der weit über "nur minimal bessere Farben" hinausgeht. Die Kunst bestehe darin, HDR dort zu nutzen, wo es sinnvoll ist – und es dort wegzulassen, wo die Voraussetzungen schlicht nicht gegeben sind.

HDR-Standards, HGiG und die Frage: Brauchen Spiele Dolby Vision & Co. überhaupt?

Zur technischen Verwirrung trägt auch die Vielzahl an Standards bei. HDR10, HDR10+, Dolby Vision, HLG – die Liste liest sich für viele wie ein Dschungel aus Logos, von denen keines so richtig erklärt, was sich dahinter verbirgt. In der Praxis läuft die Mehrheit aller Spieleausgaben auf HDR10 hinaus, weil es der kleinste gemeinsame Nenner unter den TVs ist. Dolby Vision und HDR10+ bieten dynamische Metadaten, die theoretisch eine noch feinere Kontrolle über Helligkeitsverteilung Szene für Szene erlauben, sind aber in der Spielewelt bislang Randerscheinungen.

Tarpini sieht diese Formate nicht als Feinde, aber auch nicht als kurzfristige Rettung. Solange schon beim Basis-HDR10 so viele Teams Fehler in der Farbkette machen, bringen aufwändigere Formate nicht den erhofften Durchbruch. Bevor man die "nächste Stufe" erklimmt, müsse erst einmal der Grundstandard solide sitzen.

Ein Standard, der aus seiner Sicht unterschätzt wird, ist HGiG. Anders als Dolby Vision ist HGiG kein neues Ausgabefomat, sondern ein Regelwerk, das beschreibt, wie eine TV-HDR-Pipeline nichts tun soll – nämlich das Signal der Konsole oder des PCs möglichst unverändert durchreichen, ohne zusätzlichen, eigenen Tonemapping-Zauber. Die Idee: Der Spieleentwickler kennt die Szene, weiß um den gewünschten Bildeindruck und trifft bewusst Entscheidungen beim Tonemapping. Das Display stellt sich darauf ein und versucht nicht, mit eigenen Algorithmen "schneller" zu sein.

Wenn diese Rollen sauber verteilt sind, kann HDR-Kalibrierung plötzlich erstaunlich simpel werden. Ein paar Regler im Spiel – etwa ein globaler Helligkeits-Slider, eine Einstellung für "Papierweiß" und vielleicht ein Schieberegler für die HUD-Helligkeit – reichen dann, um das Bild auf das persönliche Empfinden anzupassen. Das Spiel kann die maximalen Helligkeitsfähigkeiten des Displays abfragen und seine Algorithmen entsprechend skalieren. Genau dieses Prinzip steckt beispielsweise hinter der Kalibrierung von Alan Wake II und hinter vielen Mods, an denen Tarpini beteiligt war.

Wenn Kalibrierungsmenüs mehr zerstören als helfen

Die Realität in vielen Spielen sieht leider anders aus. Aus Angst, dass HDR "bei jedem Nutzer anders" aussieht, packen manche Studios gleich fünf oder sechs Schieberegler ins Menü: HDR-Helligkeit, HDR-Schatten, HDR-Spitzenlicht, Kontrast, Sättigung, Gamma – dazu unter Umständen noch ein allgemeiner Helligkeitsregler. Oft sind diese Menüs dann auch noch mit statischen SDR-Bildern hinterlegt, die kaum zeigen, wie die Einstellungen im Spiel wirklich wirken.

Was gut gemeint ist ("wir geben den Spielern möglichst viel Kontrolle"), endet in der Praxis damit, dass ein Teil der Nutzer alles auf Standard lässt, weil sie überfordert sind, während ein anderer Teil so lange an den Reglern dreht, bis das Bild zwar subjektiv "knallt", aber mit dem ursprünglichen Art-Design wenig zu tun hat. In Foren kursieren dann "Empfehlungen" à la "Stell HDR-Gamma auf 0,7 und Highlights auf 2,0, das sieht mega aus" – ohne Kontext, für wild unterschiedliche Displays.

Tarpini hält diese Überkonfiguration für ein Symptom des falschen Grundverständnisses. HDR-Displays seien im Schnitt genauer, was die Wiedergabe des Eingangssignals angeht, als der wilde Zoo an SDR-TVs der Vergangenheit. Das Problem sei daher nicht, dass jeder HDR-TV anders sei, sondern dass viele Spiele gar nicht erst versuchen, ein sauberes Referenzverhalten anzustreben. Statt Vertrauen in einen robusten Standard zu haben, bauen sie zusätzliche Ebenen von "Notlösungen" ein, die am Ende mehr Schaden als Nutzen anrichten.

Die unsichtbare Sollbruchstelle: Art-Pipelines, die in SDR stecken bleiben

Hinter all diesen technischen und organisatorischen Fragen lauert ein weiterer, sehr menschlicher Faktor: die Arbeitsweise der Art-Teams. Beleuchtung, Materialien, Farbkonzepte – alles, was am Ende den Look eines Spiels bestimmt, wird in den meisten Studios nach wie vor in einem SDR-Kontext entschieden. Referenzmonitore sind auf Rec. 709 kalibriert, Tools spucken SDR-LUTs aus, Pipeline-Dokumentationen reden von Luminanzwerten, die aus einer SDR-Welt stammen.

In vielen Produktionen läuft es grob so: Die Art Direction legt einen Stil fest, die Artists bauen Szenen, passen Lichtstimmungen an, stimmen sich iterativ mit der Regie ab – alles in SDR. Das Ergebnis wird in Screenshots, Gameplay-Trailern und auf Marketingfolien eingefroren. Erst wenn dieser Prozess weitgehend abgeschlossen ist, rückt das Thema HDR wieder nach vorne. Dann steht plötzlich die Frage im Raum: "Wie bringen wir genau diesen Look in einen HDR-Kontext, ohne alles neu machen zu müssen?"

Die Aufgabe fällt meist auf Engine-Programmierer und Tech Artists. Diese Gruppe sitzt zwischen allen Stühlen: Sie soll die künstlerische Vision respektieren, die Limitierungen realer TVs berücksichtigen, gleichzeitig Plattformanforderungen erfüllen und das Ganze möglichst automatisieren. Nicht selten kommt es zu Spannungen, wenn Artists feststellen, dass ihr sorgfältig abgestimmtes Bild in HDR merklich anders wirkt. In einigen Studios führt das dazu, dass HDR am Ende ganz gestrichen wird. In anderen akzeptiert man Zähne knirschend eine "good enough"-Lösung, weil sonst der Release-Termin platzt.

Dass es kaum gefestigte, allgemein bekannte Workflows für eine durchgängige HDR-Pipeline gibt, macht die Sache noch komplizierter. Zwar existieren technische Papers und Konferenzvorträge, doch die wenigsten sind so aufbereitet, dass sie eins zu eins in den Alltag eines durchschnittlichen Studios übersetzbar wären. Stattdessen entstehen viele lokale Lösungen: hier eine Zusatz-LUT, dort ein spezieller Shaderpfad für HDR. Je mehr solcher Sonderwege in einer Pipeline stecken, desto schwieriger wird es, Fehler zu finden und nachhaltig zu beheben.

Community-Wissen als Rettungsanker: Was Modder den Studios voraus haben

Vor diesem Hintergrund ist es kein Zufall, dass Projekte wie HDR Den und Luma für viele Teams zu Referenzpunkten geworden sind. In diesen Communities teilen Entwickler und Modder nicht nur fertige Shader, sondern auch Messdaten, Beispielkurven, Best Practices und konkrete Analysen von Spielen, die HDR besonders gut oder besonders schlecht nutzen. Wer sich ernsthaft in das Thema einarbeiten will, findet dort ein lebendiges, praxisnahes Archiv.

Für Studios hat das einen praktischen Nutzen: Anstatt zwei oder drei interne Projekte lang durch Versuch und Irrtum zu lernen, können sie auf das Wissen einer Community zurückgreifen, die bereits Dutzende Spiele auseinandergenommen hat. Und da Modder nicht den Zwängen einer Roadmap oder eines Publishers unterliegen, können sie in Bereiche vordringen, die für interne Teams kaum Priorität hätten – etwa die Frage, wie sich eine bestimmte LUT-Berechnung auf exotischen TV-Modellen verhält.

Tarpini selbst betont immer wieder, dass er keinen exklusiven "Geheim-Code" besitzt. Vielmehr sei die Summe aus vielen kleinen Beobachtungen, Experimenten und Rückmeldungen das, was Gamma Studios heute in die Lage versetzt, relativ schnell zu erkennen, wo in einem Projekt der "HDR-Wurm" sitzt. In gewisser Weise ist Gamma die formalisierte Spitze eines Eisbergs, dessen Fundament aus Community-Arbeit besteht.

Spielerperspektive: Zwischen "nie wieder ohne" und "größte Enttäuschung der letzten Jahre"

Wie schlägt sich all das auf der Nutzerseite nieder? Wer Kommentarspalten unter HDR-Artikeln oder -Videos liest, bekommt schnell den Eindruck, dass es zwei völlig unterschiedliche Welten gibt. In der einen sitzen Spielerinnen und Spieler mit einer guten OLED-TV-Kette, sauber konfiguriertem Konsolen-HDR und einigen positiven Erfahrungen – etwa mit Titeln wie Red Dead Redemption 2, Alan Wake II oder No Man’s Sky. Sie schreiben Sätze wie: "Nach echtem HDR wirkt SDR wie ein Grauschleier" oder "Ich würde lieber auf Ray Tracing verzichten als auf sauberes HDR".

In der anderen Welt stehen PC-Spieler mit mittelmäßigen Monitoren, Windows-HDR-Wirrwarr und schlechten Erstkontakten. Ihre Kommentare lesen sich eher so: "HDR ist die schlechteste PC-Erfahrung, die ich je gemacht habe", "Alles sieht aus wie durch ein graues Tuch" oder "Ich hab’s einmal ausprobiert und danach nie wieder angerührt". Für sie ist HDR untrennbar mit Begriffen wie "proprietär", "Marketing-Gag" und "Fake" verbunden.

Zwischen diesen Polen entstehen hitzige Debatten. Die eine Seite wirft der anderen vor, "noch nie richtiges HDR gesehen" zu haben, die andere kontert, sie sei nicht bereit, mehrere hundert Euro für ein Display zu investieren, nur um dann ein gutes HDR-Erlebnis zu haben. Dazu kommen grundlegende Skepsis gegenüber neuen Standards, Erinnerungen an die 3D-TV-Blase und generelle Müdigkeit gegenüber immer neuen Buzzwords aus der Elektronikindustrie.

So emotional diese Diskussionen ausfallen, so klar ist doch: Beide Seiten haben nachvollziehbare Gründe. Wer HDR nur in seinen schlechtesten Ausprägungen erlebt hat, wird verständlicherweise skeptisch. Wer dagegen einmal eine stimmige HDR-Kette im Wohnzimmer hatte, empfindet die Rückkehr zu SDR als Rückschritt. Tragisch ist weniger der Streit selbst als die Ursache dahinter: eine Technologie mit realem Potenzial, die in vielen Fällen so schlecht ausgeliefert wird, dass sie ihre eigenen Fürsprecher blamiert.

Was sich ändern muss, damit HDR von der Problemzone zum neuen Normal wird

Die gute Nachricht: HDR im Gaming ist kein unlösbares Rätsel. Die meisten Baustellen sind bekannt, und es gibt bereits Lösungen oder zumindest klare Ansätze. Was fehlt, ist der Wille, diese Ansätze durchgängig umzusetzen – und ein bisschen Druck von außen.

An erster Stelle stehen die Plattformbetreiber. Sony und Microsoft könnten ihre Zertifizierungsrichtlinien für Spiele um klare HDR-Anforderungen erweitern. Nicht im Sinne eines Geschmacksurteils, sondern in Form von Mindeststandards: keine absurden Default-Werte für Weißpunkt, vernünftiger Umgang mit dem gemeldeten Peak-Brightness-Wert des Displays, keine Calibration-Screens, die etwas anderes zeigen als das In-Game-Verhalten. Schon allein die Tatsache, dass HDR im QA-Prozess bewusst geprüft würde, dürfte viele Teams dazu bringen, das Thema früher und systematischer anzugehen.

Zweitens braucht es besser aufbereitete, allgemein zugängliche Leitfäden. GDC-Vorträge und akademische Papers sind wertvoll, aber selten so gestaltet, dass sie für Studio-Pipelines direkt adaptierbar sind. Was fehlt, sind praxisnahe "Kochbücher" für gängige Engines: Wie stelle ich meinen UE5-Projekt so um, dass mein Art-Team möglichst komfortabel von SDR auf HDR umdenken kann? Welche Stolperfallen gibt es bei Unity? Was ist eine sinnvolle Default-Kalibrierung für unterschiedliche Panel-Klassen?

Drittens wäre eine stärkere Verlagerung der Basis-Kalibrierung auf Betriebssystem- und Plattform-Ebene sinnvoll. Wenn Windows, PlayStation und Xbox einheitliche HDR-Setups anbieten würden, bei denen der Nutzer einmal die Helligkeitsfähigkeiten seines Displays misst und definierte Referenzwerte bestätigt, könnten Spiele diese Werte einfach übernehmen. Statt jedes Mal aufs Neue "Stell den Regler so, dass das Logo kaum noch zu sehen ist" zu spielen, könnte man sich auf wenige, klar definierte Schritte beschränken.

Viertens sollte die Spielepresse HDR nicht länger als Randnotiz behandeln. Reviews, die minutiös über Ray Tracing, DLSS-Modi und Frame-Times sprechen, aber HDR in einem Halbsatz abtun, ignorieren einen wichtigen Teil des visuellen Pakets. Wenn Tests explizit auf fehlendes oder schlechtes HDR hinweisen und dies auch in Wertungen einfließt, entsteht ein Anreiz, das Thema ernster zu nehmen.

Schließlich braucht es Ehrlichkeit gegenüber der Realität der Hardware-Basis. Nicht jeder Spieler sitzt vor einer OLED mit 2.000 Nits. Es ist legitim, HDR auf Displays zu deaktivieren oder gar nicht erst anzubieten, die physikalisch kaum mehr können als SDR – solange das transparent kommuniziert wird. Ein optionaler HDR-Modus sollte ein echter Mehrwert sein, kein Marketing-Häkchen.

Der Blick nach vorn: Wird SDR bald so alt aussehen wie 480p?

Trotz aller Kritik ist der langfristige Trend klar: HDR verschwindet nicht wieder. TV- und Monitor-Hersteller investieren massiv in bessere Panels, in höhere Farbvolumina und in raffiniertere Dimmtechniken. Gleichzeitig wächst das Wissen in der Branche – dank Communities, offenen Projekten und der Arbeit von Spezialisten wie Tarpini. Je mehr Teams früh im Projektlauf mit HDR planen, desto selbstverständlicher wird es werden, dass "HDR-First" gedacht wird und SDR die abgeleitete Fallback-Variante ist – und nicht umgekehrt.

In so einem Szenario könnte SDR schon in wenigen Jahren wirken wie heute ein 480p-Video: noch anschaubar, aber mit klar sichtbaren Grenzen. Wer eine moderne HDR-Kette gewohnt ist, wird SDR-Bilder als flach und eingeschränkt wahrnehmen. Spiele, die 2025 ohne HDR oder mit katastrophalem HDR erscheinen, laufen Gefahr, visuell schneller zu altern, als es ihrer eigentlichen Qualität entspricht. Selbst Remaster können dann nur begrenzt nachbessern, wenn das ursprüngliche Art- und Renderkonzept nicht darauf ausgelegt war.

Genau hier liegt der Frust vieler Experten: Sie sehen die Chance, Gaming optisch auf ein neues Niveau zu heben, ohne dabei zwangsläufig die Hardwareanforderungen explodieren zu lassen – und beobachten gleichzeitig, wie dieses Potenzial immer wieder liegen gelassen wird. Es geht nicht darum, dass jedes Indie-Pixelspiel HDR braucht. Aber Blockbuster, die mit "Cinematic Experience" und "Next-Gen-Grafik" werben, sollten die grundlegende Bildkette im Griff haben.

Bis dahin bleibt HDR im Gaming eine Art Baustelle auf offener Strecke: riesiges Potenzial, chaotische Umsetzung, große Diskrepanz zwischen den besten und den schlechtesten Beispielen. Zwischen denen, die nie wieder ohne HDR spielen wollen, und denen, die nach dem ersten Versuch das Feature im Treiber abgeschworen haben, liegt oft kein Unterschied in der Erwartung – sondern nur im Setup, in der konkreten Implementierung und im Glück, welche Spiele man als erstes ausprobiert hat.

Die entscheidende Frage für die nächsten Jahre wird sein: Schafft es die Branche, aus dieser Baustelle einen stabilen Standard zu machen? Oder reiht sich HDR am Ende ein in die Liste der "klingt toll, wurde aber nie richtig genutzt"-Technologien? Vieles deutet darauf hin, dass die Antwort noch nicht feststeht – und dass sie wesentlich davon abhängt, wie ernst Studios, Plattformbetreiber und Hardwarehersteller das Thema jetzt, in dieser Übergangsphase, nehmen.

Das könnte Ihnen auch gefallen

2 kommentare

TechBro91 January 5, 2026 - 7:20 am

Seit ich einen ordentlichen OLED im Wohnzimmer habe und Sachen wie RDR2 oder Alan Wake 2 in HDR gesehen habe, fühlt sich SDR wirklich wie ein Grauschleier an. Da verzichte ich eher auf Raytracing als auf gutes HDR

Antworten
okolo January 7, 2026 - 3:20 pm

Schon witzig, dass eine Handvoll Modder mit Luma & Co. teilweise besseres HDR hinbekommt als Multimillionen-Dollar-Studios. Zeigt ganz gut, dass es an Prioritäten und Know-how fehlt, nicht an Tools

Antworten

Einen Kommentar hinterlassen