Ein Remaster zu Vanquish und Bayonetta durch einen Leak enthüllt

  • Update: Weitere Leaks listen Bayonetta und ein Bayonetta & Vanquish 10th Anniversary Bundle, ebenfalls für den 18. Februar.

    Ursprünglicher Artikel: Durch einen Leak im Microsoft Store wissen wir nun, dass Vanquish zurückkehren wird. Der Eintrag spricht von einem Remaster, welches am 18. Februar 2020 für Xbox One erscheinen soll. Weitere Plattformen sind deswegen natürlich noch nicht bestätigt, aber wahrscheinlich.

    Als Director an Vanquish arbeitete der Schöpfer von Resident Evil, Shinji Mikami. Die Entwicklung übernahm Platinum Games, als Publisher fungiert Sega. Der Titel erschien für PlayStation 3 und Xbox 360 im Oktober 2010, für PCs im Mai 2017. Nun erobert man also auch die aktuelle Konsolengeneration!

    Für den Sci-Fi-Shooter soll es auf Xbox One X eine 4K-Auflösung bei 60 Frames pro Sekunde geben.

    via Gematsu, Bildmaterial: Vanquish, Sega / Platinum Games

  • Einen Release auf der PS4 fände ich auch cool. Da Microsoft und Nintendo jedoch ganz dicke sind, und Bayonetta mittlerweile zu Nintendo gehört (korrigiert mich, falls ich falsch liege), kann ich mir gut vorstellen, dass Sony leer ausgeht.

    "I'd rather be hated for who I am, than loved for who I am not." (Kurt Cobain)

  • Sind bestimmt die PC-Remaster, die 2017 rauskamen. Habe beide gespielt, sind ganz okay. Vanquish ist da sogar ohne Framecap erschienen und spielt sich absolut Zucker. Kann mir das kaum noch in 60 fps vorstellen. :D


    Im Vergleich sollte man grafisch von Bayonetta eher weniger erwarten. Vanquish profitiert ein wenig von der höheren Auflösung, Bayonetta hingegen ... ufff ... die Texturen. Ganz schon in die Jahre gekommen.



    Einen Release auf der PS4 fände ich auch cool. Da Microsoft und Nintendo jedoch ganz dicke sind, und Bayonetta mittlerweile zu Nintendo gehört (korrigiert mich, falls ich falsch liege), kann ich mir gut vorstellen, dass Sony leer ausgeht.

    Nö, SEGA hält die IP. Nintendo hat Teil 2 und 3 finanziert, weshalb sie auch exklusiv erscheinen. Dennoch müssen sie Lizenzgebühren an SEGA abdrücken. Deswegen ist übrigens auf jeder Packung hinten noch das SEGA-Logo mit drauf, obwohl die nicht einen Cent für die Entwicklung von Bayonetta 2 ausgegeben haben.

  • Sind bestimmt die PC-Remaster, die 2017 rauskamen. Habe beide gespielt, sind ganz okay. Vanquish ist da sogar ohne Framecap erschienen und spielt sich absolut Zucker. Kann mir das kaum noch in 60 fps vorstellen. :D


    Im Vergleich sollte man grafisch von Bayonetta eher weniger erwarten. Vanquish profitiert ein wenig von der höheren Auflösung, Bayonetta hingegen ... ufff ... die Texturen. Ganz schon in die Jahre gekommen.


    Ich wollte dir beinahe einen Like geben, denn auch ich denke, es werden einfach die PC Versionen sein, die ja schon auf 1080p standardmäßig laufen und sich beliebig hochskalieren lassen.


    Als jemand der "nur" die PS3 Version hatte und sich dann die PC Version von Bayonetta noch mal gegönnt hat muss ich aber sagen, der Unterschied der Bildschärfe und Detailgrad der Texturen liegt beim PC auf einem völlig anderem Niveau. Ich habe deswegen sogar einen Screenshot als mein Blog und Social Media Titelbild.
    Zu Vanguard kann ich nichts sagen, da habe ich mal auf Konsole damals die Demo gespielt ist aber zu lange her, kenne entsprechend nur die PC Fassung richtig und die ist durchaus klasse.


    Hier mal ein paar beliebige Screenshots von mir zum Vergleich. Natürlich sieht das Spiel nicht mehr taufrisch aus aber immer noch gut:

  • Kenne die PS360-Versionen von Bayonetta halt nicht und effektüberladene Stills sehen bei dem Spiel auch sehr gut aus. Effekte und Character Models skalieren bei dem Spiel allgemein bestens. Etliche Umgebungen (Friedhof, die erste Stadt, etc.) fallen aber stark ab.


    Wie bei vielen frühen UE3-Spielen. Die schauen teilweise katastrophal in taghellen Umgebungen aus, aber eine regnerische Nacht geht selbst heutzutage noch gut klar.


    Zumal Screenshots eben auch beschönigen. Ich könnte zig Screenshots aus einem 11Jahre alten Stalker-Addon posten, bei denen die Engine bildhübsch ihre Stärken (Beleuchtung, God Rays, architektonische Details) ausspielt, sobald die Kamera aber 90° gedreht wird, ist es dann halt doch ein 11 Jahre altes Stalker-Addon. In Bewegung wirkt es ja dann doch noch einmal ganz anders. Dann kommt noch hinzu: Welche Auflösung? Für alles über 1080p schienen mir die Texturen nicht gemacht, ich spiele aber auf 1440p. Da kam mir das verwendete SSAO dann auch nicht mehr 100%ig sauber vor, vielleicht eben aufgrund der mangelnden Texturinformationen.


    Wie gesagt, kann aber auch sein, dass der Sprung vom Original zum Remaster unglaublich stark ist, ähnlich wie bei Halo: Reach aktuell. Jeder Fan wird aus dem Häuschen sein, ich habe aber nur die Erinnerungen an die Bayo-Demo von der 360 als Ausgangslage. Mein Eindruck, den ich von der gesamten PC-Version hatte, wurde also unter einem anderen Kontext gewonnen. War immerhin mein erster Spieldurchgang 8 Jahre nach dem ursprünglichen Release. Da wirkten die Umgebungstexturen eben alles andere als taufrisch auf mich.


    Vanquish hingegen machte eher den Eindruck, dass die höhere Auflösung dem Spiel hilft statt Schwachstellen aufzudecken.

  • Meine Screenshots sind normale Spiel-Screenshots ohne Verbesserungen, mittels Steam-Screenshot-Funktion direkt beim Zocken geschossen, ohne irgendwas zu stellen oder nachzuarbeiten.


    Ich spiele allerdings auch nur in 1080p mit 60FPS und den maximalen Settings bzgl. Kantenglättung etc.
    Das Problem, das ein Spiel bei 1440p oder höherer Auflösung oder auch gerade 21:9 Monitoren oft nicht gut aussieht hast du aber bei vielen Titeln. Schlicht weil sie eben nicht dafür gemacht wurden. Und krumme Vielfache führen immer zu Unschönheiten. Besser funktioniert es, wenn direkt auf ein Vierfaches hochskaliert wird.


    Und ja, ich stimme zu, man sieht es bei Bayonetta und auch Vanquish an einigen Stellen an, dass die Texturen nicht so toll sind und die Polygonzahl nicht sehr hoch, allerdings reden wir hier von Mid-Budget Games die zehn Jahre alt sind (bzw. neun, Vanquish erschien ein Jahr nach Bayonetta, 2010) und nicht mal von Triple A Games. Und ich finde, da können sie mit heutigen Mid-Budget Games noch immer verdammt gut mithalten. Denn diese "Problemstellen" sind auch im Original schon enthalten, und eben dem Umstand geschuldet, dass die Spiele nicht bis aufs Letzte optimiert sind, wie etwa ein God of War 3 oder Uncharted 2, einfach weil die in ganz anderen Budget-Ligen gespielt haben.
    Ein Devil may Cry 4 sieht in der HD Fassung auch nicht besser aus.


    Und das Bayonetta Charaktermodell, insbesondere ihre Klamotten, haben sie 2017 schon enorm verbessert. Der Rest ist halt großteils wohl einfach hochskaliert.


    Auf dem zweiten Screen von mir sieht man z.B. bei den Brocken, die links auf den Treppenstufen liegen sehr deutlich, wie schwach die Texturen dort sind. Das ist wie gesagt einfach fehlendes Polish, da die meisten anderen Texturen merklich besser sind.


    Der Eindruck das Vanquish besser hochskaliert wird entsteht allerdings wahrscheinlich einfach dadurch, das Vanquish eine viel simplere Grafik hat. Das sind halt fast alles sehr eckige, klinisch reine Sci-Fi Gebäude, während bei Bayonetta halt viel Natur und alte verschnörkelte, kaputte und somit weitaus detailreichere Strukturen vorhanden sind. Bei Vanquish liegen halt keine verschnörkelten, von Wandreliefs abgebrochene Teile irgendwo rum.

  • Ich meinte auch keine Bildverbesserungen, sondern schlicht Ecken und Blickwinkel, die natürlich gut für das Spiel aussehen. Niemand macht sich Screenshots von Momentaufnahmen, die kacke aussehen.^^


    Und ich sprach auch schlicht nur von den Texturen, den Rest finde ich ja ganz ansehlich. Vanquish bietet z. B. in der Hinsicht einige ordentliche Normal Maps und Glanz auf den Metalloberflächen. Das lässt sich besser auf eine höhere Auflösung übertragen, da es den Texturmatsch kaschiert. Die Levels von Bayonetta haben weniger von solchen Shadern, weshalb man auf die rohen Texturen und Polygonstrukturen beschränkt ist. Ist zweifelsohne eine Stilfrage.


    Wie es dazu kommt, ist mir ja komplett bewusst, das ändert aber nichts an der Tatsache, dass ich technisch als "Neueinsteiger" nicht so viel erwarten würde. Gerade auf dem TV spielen dann ja doch schon eeeeecht viele auf 4K und solche 1080p-Remaster machen heutzutage nicht mehr so viel her. Was ich schade finde, denn Bayonetta ist bis dato mein absolutes Lieblings-Hack-&-Slay. Will ja nicht nur abhaten, das Spiel wischt mit God of War und DMC den Boden auf.


    Aber auch da du Devil May Cry ansprichst. Die HD-Fassung ist für mich dann eben kein gutes Remaster, wenn nicht einmal das Mindestmaß an aktueller Hardware bedient wird. Für mich ist das einfach nur ein verspäteter Port auf eine andere Plattform. So wie es Capcom seit Jahren auch mit Resident Evil (insbesondere 4) macht - kaum Verbesserungen, reine Verfügbarkeitsfrage. Ist halt eine nette Sache, zum abermaligen Kauf regt es mich jedoch nicht an und der Begriff "Remaster" ist dafür komplett überzogen.


    Technische Anmerkung zum Abschluss: 1440p ist kein "krummes" Vielfaches. Ganz normale Pixelverdopplung von 720p. Und selbst wenn ist es für die Texturauflösung egal. Die stagniert einfach nur, wenn die Zielauflösung überstiegen wird. Dann greift der unschöne Scaler und liefert eben verschwommenen Matsch. Spiele ich auf einem 1440p in 1080p wird alles matschig statt nur ein paar Umgebungstexturen. So oder so finde ich es blöd, dass man mit Einschnitten zu kämpfen hat, nur weil man in Sachen Display nicht 2015 stehengeblieben ist. Ein REMASTER sollte dann schon ein bisschen mehr bieten.

  • Pfft 1440p - auf meinem 11.520p Bildschirm sieht alles aus wie gehobelte Kleintierscheiße. Egal wie Top der Quatsch für den normalen Durchschnittsverbrauer aussieht - das ist alles kompletter Kackmist :rolleyes:

    Darüber konnte sich der normale Durchschnittsverbraucher noch gar keine Meinung bilden, der grübelt noch, ob diese seltsamen Blu-rays wirklich notwendig sind. DVD tut's doch auch.

  • Naja, ich denke nicht, dass so viele Leute auf 4k oder auch 1440p spielen. Sicher, mein nächster Monitor und auch TV werden auch 4k oder was um den Dreh haben aber faktisch gibt es keine echten 4k Spiele. Ein paar drüber gelegte neue 4k Texturen macht noch kein wirkliches 4k.
    Und die Konsolen wie PS4 Pro, die ohnehin nur hochskaliert, oder die XBox One X, die bedeuten ja krasse Einschränkungen. Durch die hohe Auflösung laufen die Spiele nur mit 30FPS und oft nur mittleren Details.


    D.h. auf einem guten Full HD TV kann bei normalem Sitzabstand, wo man die Pixel und Detaildichte dann ohnehin nicht unterscheiden kann, ein Spiel durchaus besser aussehen.


    Für "echtes" 4k müsste man zunächst einmal die Anzahl der Polygone vervierfachen. 4k Texturen funktionieren nämlich auch auf 1080p und liefern dort mehr Details. Oder anders ausgedrückt, 1080p Texturen sind häufig schlecht komprimiert etc. und liefern nicht den Detailgrad, den sie bei 1080p eigentlich haben könnten, weswegen 4k Texturen bei 1080p einfach ein Qualitätsgewinn sind.


    Generell braucht man dafür aber Hardware, wo selbst bei heutiger Grafik auch eine PS5 oder XBox Scarlett mit überfordert sein wird, insbesondere wenn man gerne 60FPS oder gar mehr hätte. Nicht umsonst sind Gaming-Monitore mit 144Hz sehr populär.


    Auch HDR könnte die Bildqualität massiv verbessern, wenn es denn vernünftige und einheitliche Standards geben würde, und die dann auch jeder TV / Monitor beherrscht.


    Bis wir also vernünftiges 4k Gaming haben, was eben aber auch nur was bringt, wenn man nah genug davor sitzt, werden noch etliche Jahre vergehen. Bis dahin sind wahrscheinlich 8k TVs Standard.


    Und natürlich ist selbstverständlich, dass ein Bild auf einem LCD nativ ausgegeben werden muss, sonst wird es nun einmal verwaschen, ist ja logisch, nichts ist schärfer als ein Pixel, der einem Bildpunkt entspricht.

  • Stimmt so leider auch nicht ganz, da 4K ein perfekter Sweet Spot für den normalen Sitzabstand in deutschen Wohnungen und einer Bilddiagonale ist, die auch noch ins Zimmer passt.


    Hier findet man eine gute Tabelle dazu: https://www.heise.de/ct/zconte…2.056-057_table_5292.html


    Es wird zwar nur angegeben, ab wann man das Raster nicht mehr sieht, aber es ist ein logischer Überblick, der sich ganz grob auf das Sehempfinden übertragen lässt. Schärfe wird ohnehin subjektiv wahrgenommen und Bildprozessoren bessern nach. 8K wird dadurch erst für Enthusiasten mit 100 Zollern oder 30cm Sitzabstand interessant.


    Die Rechnung merke ich selbst. Mir ist bspw. die Auflösung bei mir daheim wirklich nicht wichtig. Bildrate zählt bei mir deutlich mehr (deswegen lieber 1440p144 statt 2160p60), aber ich kann den Unterschied beim normalen Sitzabstand zwischen 4K und FHD ziemlich klar ausmachen. Und ich habe wirklich schlechte Augen.


    Ich habe bis vor einem Jahr auch noch im Einzelhandel gearbeitet. Bei uns wurden fast nur noch 4Ks verkauft. Was Neugeräte betrifft, führt daran kein Weg mehr vorbei, weswegen die Adaptionsrate stetig steigt. Deswegen ist es für mich auch logisch, dass 4K dort als "aktuell" betrachtet wird. Die Xbox One X bringt dahingehend auch gute Ergebnisse für einen recht günstigen Preis, über die PS4 Pro hülle ich lieber den Mantel des Schweigens.


    Zum Rest des Posts müsste ich ganz schön ausholen, da es mittlerweile Techniken gibt, die die von dir genannten Einschränkungen quasi seit über einer Dekade aushebeln und die Polygonanzahl schlicht komplett irrelevant ist. Polygonierung spielt nur eine Rolle, wenn Objekte ausmodelliert werden müssen, um nicht kantig zu wirken. Du könntest bspw. eine richtig kantige Kugel bauen, einen hohen Tessellationsfaktor drüberlegen, eine hochaufaufgelöste Textur verpassen und per Occulsion Mapping Tiefe vorgaukeln - et voila, du erhältst einen realistisch aussehenden Fußball, egal in welcher Bildschirmauflösung.


    So etwas wie 1080p oder 4K-Texturen gibt es so gesehen auch nicht, die Hersteller nutzen letztgenannte Bezeichnung nur, um zu symbolisieren, dass die letzte Stufe im LoD-Tree hochauflösend dargestellt wird. So als Beispiel: "Big Textures" also Texturen mit max. 1024x1024 Bildpunkten gibt es bereits seit der GeForce 256, obwohl kein einziges Spiel zu dem Zeitpunkt überhaupt eine ähnliche Pixelanzahl bei der Zielauflösung nutzte. Heutzutage ist es ähnlich. Teilweise nutzt man Texturen mit geringerer Auflösung, teilweise mit deutlich höher als 4K. Der LoD-Tree gibt dann vor, in welchem Detailgrad abhängig zur Kameraposition eine Textur geladen wird. Mapping, Shading, Texturfilterung, etc. sorgen dann für noch mehr Details, die aber nicht an die Zielauflösung gebunden sind.


    Beispiel Bayonetta: Bei der PC-Version wurde etwas am Mapping gedreht. Es kommt im Gegensatz zur Konsolenversion Ambient Occlusion zum Einsatz, was ein wenig die Umgebungen aufhübscht, aber eben an die Textur- und Mappinginformationen des Originals gebunden ist. Macht einen Unterschied, aber dadurch, dass die PS360-Generation ohnehin in Sachen Leistung recht schwach zu dem Zeitpunkt war (ab 2008 hat PC-Hardware wahnsinnige Sprünge gemacht), muss man auf einige großartige Features (wie eben Tessellation der Umgebung) verzichten. So machen das aber viele Remaster. Es werden einige moderne Grafikfeatures genutzt, die sich leicht implementieren lassen, aber am Grundgerüst wird nichts großartig gemacht. Häufig sind das dann AO, performanteres AA, Post-Processing, Bloom oder Volumetric Light Scattering (God Rays). Wie gesagt, ist halt nett, da aber häufig nichts an den Texturen getan wird, sind so alte Spiele (Bayonetta ist auch schon 10 Jahre alt und war für 720p-Konsolen konzipiert) auf höher aufgelösten Displays einfach unansehlicher als auf 1080p-Bildschirmen oder darunter, was ich ärgerlich und nicht zeitgemäß finde.


    Abseits vom eigentlichen Thema: Ja, HDR könnte einiges bewirken, wenn es einheitliche Standards geben würde. Mich nervt dieses Hin und Her auch und würde mich sogar vom Kauf eines bestimmten TVs abhalten. Zum Glück kann ich mich da ein wenig zurücklehnen. Der Qualitätsgewinn ist auf PC-Monitoren weitaus geringer und mein 1080p-TV reicht mir momentan vollkommen für die paar Sony-Exclusives. :D


    Über die Performance von Scarlett und PS5 lässt sich momentan auch nur mutmaßen. Die wäre an sich ganz gut, da wir heutzutage keine so großen Fortschritte in der Grafikqualität erkennen, wie es noch vor etlichen Jahren der Fall war. Am PC geht's ja auch eher schleppend voran. Kaum ein Game forderd selbst Mittelklasse-Hardware noch so stark, dass die Bildrate mal unter 60 fps dippt. Konsolen könnten sich dahingehend ähnlich schlagen und tun es im Falle der Xbox One X ja mit kleinen Abstrichen auch. Wäre da nicht eine Sache, die ich als einfach nicht umsetzbar betrachte - Ray Tracing. Selbst auf aktuellen 500€-Grafikkarten läuft es bei weitem nicht performant genug in 4K. Ich bekomme mit meiner RTX 2070 im Schnitt 45 fps in 1440p bei Control raus. Da muss ich dann aber auch schon entscheiden, ob ich lieber Reflections (YAY!) oder Global Illumination getraced bekommen möchte. Und Control ist die mit Abstand beste RT-Implementierung momentan. Sehe da am ehesten die Überforderung, ansonsten sind wir ja heutzutage schon ziemlich weit.

  • Zum Thema Sitzabstand und Auflösung, deine Tabelle zeigt hervorragend, wie albern 4k in 99 Prozent aller Wohnzimmer ist. Von wegen Sweet Spot. Für 4k bei 55 Zoll darf man nicht viel über 1m entfernt sitzen. Der tatsächliche Sitzabstand im Wohnzimmer beträgt aber im Schnitt 3 bis 4 Meter. Soviel dazu.


    Und natürlich ist 4k Standard bei Fernsehern, es ist das was die Industrie gerade für den Massenmarkt anbietet. D.h. nicht, dass Full HD für viele Leute nicht ausreichend wäre, nur gibt es halt keine Fernseher mit der Auflösung mehr.
    Und die Panels und Darstellungsmethoden werden auch immer besser, sodass neuere Displays auch tatsächlich ein besseres Bild liefern. Auch wenn LCDs immer noch hinter guten Röhrenbildschirmen hinterher hinken, insbesondere was die Farben angeht.


    Was Polygone angeht, ich sehe Tesselation und Co. durchaus einfach als dazugehörige Untergruppe. Texturen mit mehreren Ebenen etc. kaschieren da natürlich auch sehr gut, das gebe ich zu, allerdings haben diese den Nachteil, dass sie eben oft Blickwinkelabhängig sind.


    Auch was du über Texturen schreibst ist generell richtig. Allerdings gibt es eben bei vielen Spielen zwei Texturen-Pakete, eines mit "normaler" Auflösung und einem mit hoher. Welche Auflösungen die Texturen die enthalten sind wirklich haben ist erst einmal zweitrangig. Entscheidend ist, dass die sogenannten 4k Texturenpacks bei Full HD eben besser aussehen als die "nativen" Full HD Texturenpacks. Und das eben, obwohl die Grafik nur auf Full HD ausgegeben wird.
    Meine Aussage war ja lediglich, dass Detailgrad und generelles Aussehen bei 1080p mit entsprechend guten Tapeten eben ein gerade auf den Sitzabstand bezogen ebenso detailreiches Bild bringt und das 1080p standardmäßig nur schlechter aussieht, weil es eben zu schlechte Texturen hat.


    Zum Thema Bayonetta, ich glaube das haben wir jetzt genug durchgekaut. Es lässt sich feststellen, zehn Jahre alte Spiele sehen trotz grafischer Verbesserungen und Tricks alt aus und nicht wie moderne Spiele, insbesondere wenn man die Auflösung enorm viel höher als beim Original schraubt, weil irgendwann eben Texturen, Kantenglättung, Lichteffekte etc. die Abstammung nicht weiter kaschieren können.


    Und auch weil es so schön ist, hier jetzt mein Screenshot aus dem Spiel, den ich bei Twitter, Tumblr und Co. als Header-Bild verwende, der sicherlich aus einer extrem aufpolierten Szene stammt (Ingame-Cutscene), will ich gar nicht abstreiten, ich finde ihn trotzdem geil:

  • Du liest die Tabelle falsch. Das ist der MINIMALE Betrachtungsabstand. Ab einem Meter Abstand erkennt man das Pixelraster bei UHD nicht mehr, bei FHD müssen es 2,11m sein. Das Schärfeempfinden ist davon aber losgekoppelt. Ich habe das Pixelraster von meinem ehemaligen 1080p-Monitor auch nicht gesehen, mein 1440p-Monitor ist dennoch um Längen schärfer. Gleicher Sitzabstand, aber höhere Pixeldichte und besseres Panel. Die Sache ist eben, dass du Bildschärfe nicht in eine Tabelle gießen kannst, da die Augen eines jeden Menschen individuell sind. 4K gilt dahingehend als Sweet Spot, da die PPI für die häufigsten Bilddiagonalen und Sitzabstände als optimal betrachtet wird, sprich: Bei einer Dopplung der PPI (8K), würde man schon rein physikalisch keinen Unterschied mit absoluten Adleraugen erkennen. Erst recht nicht, wenn ein moderner Bildprozessor drüberbügelt. Vorausgesetzt natürlich, dass der Sitzabstand und die Diagonale gleich bleibt.


    Die Tabelle sollte eigentlich nur die Abstufungen verdeutlichen. Die Zwischenräume der Pixel nicht mehr zu erkennen, gilt nun nicht gerade optimaler Schärfegrad. :D


    Was du mit "Texturenpakete" beschreibst, ist denke ich das, was eben "LoD-Tree" genannt wird, also ausgeschrieben "Level of Detail". Das sind einzelne Texturen in verschiedenen Auflösungen (sind schon seit Ewigkeiten mehr als zwei), die je nach Kameraentfernung abgerufen werden. Deswegen "Tree" - die Blattwerk nimmt zu, je höher du steigst (tolle Metapher). Dann kommt noch hinzu, wie das Mesh gebaut wurde, das du texturieren möchtest. Eine Festlegung auf 2160p oder 1080p würde da keinen Sinn ergeben, da die Meshes unterschiedlich groß sind, weshalb ich die Formulierung so überflüssig finde. Mal ist die letzte Stufe im LoD-Tree super hoch aufgelöst, mal super niedrig. Je nachdem, wie präsent die Textur letztendlich ist. Macht ja auch mehr Sinn, denn ansonsten würdest du den gesamten VRAM mit 3840x2160 großen-Texturen zuballern. Vor allem auf Konsolen ist jedes MB wahnsinnig wichtig.


    Tessellation ist auch keine Untergruppe, sondern schlicht eine algorthmische Polygonerhöhung, die seit DirectX 11 genutzt wird. Die GPU kann damit ein Mesh mit mehr Polygonen berechnen als es eigentlich vom Graphic Artist gebaut wurde. Deswegen ist es heutzutage viel unerheblicher, wie detailliert etliche Objekte erstellt wurden, da die Algorithmen das bestens hinbekommen.


    Das wird dementsprechend auch genutzt, da du heutzutage einfach niemals den Aufwand betreiben könntest, einzelne Pfützen oder Reifenspuren als Polygonmodelle zu bauen. Oder Kratzer in Rüstungen. Klar sind die immer noch in der Theorie blickwinkelabhängig, aber durch die vielzähligen Mapping-Möglichkeiten und Shader-Techniken, wird das Argument immer unhaltbarer. Zumal es schon etliche Möglichkeiten gibt, blickwinkelunabhängig zu tricksen, was ich total beeindruckend finde.


    Achja, und dass Downsampling immer etwas gutes ist, sollte logisch sein. Mehr Bildinformationen sind häufig besser als zu wenig.


    Wobei ich gerade auch noch einmal drübergelesen habe. Meintest du tatsächlich "4K-Texturenpacks" zum Download? Dann kürze ich es ganz einfach ab: Komplette Marketingbezeichnung, die es nur gibt, damit auch jeder 4K-TV-Besitzer, mit seiner "4K-Konsole" versteht, dass die Texturen nicht auf seinem 4K scheiße aussehen. Im PC-Bereich gibt es diese Herangehensweise quasi seit Quake 1. Nur hieß es da meistens "High Resolution Texture Pack" und es gab nie die Assoziation zwischen Textur und Auflösung des Bildschirms. Je mehr VRAM die dedizierte GPU hatte, desto höher aufgelöste Texturen passen eben rein. Deswegen hat die Xbox One X auch 4GB VRAM mehr als die normale Xbox One. Bei der PS4 Pro sind es quasi 512 MB mehr, die aber anders genutzt werden (Buffer für Upsampling bspw.). Für wie 4K-fähig ich die Konsole halte, habe ich ja schon angedeutet. :)


    EDIT: Was die FHD-Produktion übrigens anbelangt - das hat den einfachen Grund, dass Fertigungstechniken in den Panel-Fabriken komplett ausgetauscht werden. Da fahren dann vielleicht noch 1 oder 2 "Straßen" (eher Workflows) mit alter Fertigungstechnik 1080p-Panels. Die Produktionskapazitäten von Halbleiterfabriken sind eben limitiert. Wird ja nicht alles neu gebaut, nur weil sich die Fertigung ändert. Dass sie sich ändert, ist soweit unabdingbar, denn technischer Fortschritt bringt eine Erfrischung des Absatzmarktes. Vor allem bei Bildschirmen setzt eine schnelle Sättigung ein, sobald der Markt bedient ist und tatsächlich suchen die Tech-Designer händeringend nach Innovationen, da sich Full HD vergleichsweise lang gehalten hat und auch immer noch hält. Ebenso wie die scherzhaft erwähnte DVD. Wo sich für den Durchschnittsverbraucher nicht klar etwas ändert, sieht er eben keinen Neuanschaffungsgrund. War bei der Röhre (kanonenschwer, klobig, Limitierung bei Auflösung / Bildschirmgröße, Krümmungsgrad) und VHS (Bildqualität, Bandzersetzung, Spulen) noch ein wenig anders. Heutzutage ist man da eher technologieverdrießlich, was ich aber auch ganz gut finde. Man muss nicht jedes "Altstück" gleich entsorgen, nur weil es mit den Anderen nicht mehr mithält. Deswegen repariere ich auch vieles, was ich hier rumliegen habe, oder steuere der Alterung entgegen. Versehe z. B. gerne alternde Laptops mit neuer Wärmeleitpaste und SSDs, damit die weiter als Netflix-Abspielgerät oder Mobile Office genutzt werden können. Die Dinger halten theoretisch Jahrzehnte und bedienen den Ansprüchen der Nutzer meist völlig. Aber das ist ein Thema für sich.

  • Nein, ich habe die Tabelle schon richtig gelesen. Es gibt natürlich einen gewissen Abstand, den man haben muss um keine Pixel mehr zu sehen, aber sobald es dann weit darüber hinaus geht löst das menschliche Auge nicht mehr scharf genug auf um eben die Details jedes einzelnen Pixels wahrzunehmen. Und das sind halt letztlich dann nur ein paar Zentimeter Spielraum. Und ja, das variiert von Mensch zu Mensch ein wenig aber es lässt sich natürlich dennoch ein gutes Mittelmaß ableiten.
    Bei einem 4k 55 Zoll Fernseher liegt der Sichtbereich halt zwischen etwa 1 und 1,5 Meter.


    Ich bin z.B. ziemlich kurzsichtig, d.h. aber, dass ich gerade bei einem direkt vor mein Gesicht gehaltenes Smartphone noch unglaublich kleine Pixel sehen kann, wo die meisten eben keine mehr sehen, weil sie nicht mehr auf diese Nähe fokussieren können, während ich anders rum bei einem großen TV von dem ich "weit" weg bin, da dann schneller keinerlei Unterschiede sehe, also näher ran muss.


    Ich glaube mit dem LOD-Tree verwechselst du was. Das sind eben doppelte Texturen, eine hoch aufgelöste für nah, eine mittlere für mittlere Distanzen und eine niedrig aufgelöste für entfernte Sachen. Das dient ja dazu um Arbeitsspeicher und Rechenleistung zu sparen.


    Was ich meine sind tatsächlich Texturenpacks, die eben diese drei genannten Texturen durch jeweils vierfach so hoch aufgelöste ersetzen. Das kennt man vom PC etwa von Spielen wie Borderlands 2 oder Lord of the Rings - Shadows of Mordor. Die kann man sich am PC extra runterladen und das Spiel läuft damit eben nativ in 4k auf entsprechenden 4k Monitoren oder nutzt die halt intern für 4k und skaliert das auf 1080p herunter, was eben den Detailgrad enorm verbessert.


    Daraus lässt sich eben der Rückschluss ziehen, dass Standard-1080p Texturen längst nicht den Detailgrad haben, den 1080p wirklich darstellen kann. Z.B. eben weil die Textur eben verlustbehaftet komprimiert abgelegt wurde, also etwa als JPEG Bild und nicht im extrem speicherhungrigen RAW.


    Was du dann ja auch schön begründet hast, gerade die Konsolen haben wenig Grafik-RAM zur Verfügung. Es gibt einen Grund, warum ich selbst als Full HD Nutzer inzwischen eine Grafikkarte mit 8GB einsetze. (Da ich z.B. Spiele auch gerne Modde).


    Und ja, es ist schon beeindruckend, was die heutige Grafik durch Tricksereien einem vorgaukeln kann. Allerdings müssen die Entwickler da aufpassen, ich hatte praktisch jahrzehntelang keine Probleme mehr mit Motion Sickness aber inzwischen treffe ich immer mal wieder auf ein 3D Spiel, wo scheinbar so fies mit Perspektiven etc. getrickst wurde, dass mir das doch wieder auf den Magen schlägt, ganz wie zur Anfangszeit der 3D Spiele mit Doom 1.


    Und mir ist durchaus klar, wie das in der Industrie laufen muss, die heutigen TV Hersteller können es sich nicht leisten, dass Kunden ihre Fernseher zehn Jahre benutzen, sie müssen Anreize schaffen, dass die schneller ein neues Gerät wollen. Zum einen weil die Entwicklung natürlich unglaublich aufwendig und teuer ist und entsprechend schnell eine hohe Verbreitung erreicht werden muss, die Konkurrenz schläft nicht und der Druck ist unglaublich hoch.


    Momentan ist es aber einfach so, dass die Displayhersteller der sonstigen Hardware- (Grafikkarten) und Software- (Bildkodierung, Datenübertragung) Entwicklung davon eilen.


    PS: Ich habe hier auch noch ein altes Netbook und ein altes Notebook, beide so um die zehn Jahre, die eigentlich wunderbar funktionieren und die ich deswegen auch behalte. Allerdings gebe ich zu, dass ich dank SSDs seit einigen Jahren halt auch schon sehr verwöhnt bin und gerade die Notebook-HDDs damals waren grottig langsam (mein aktuelles Notebook bootet sogar schneller als mein Desktop, weil dort leider auch das BIOS eine ganze Weile braucht). Und eigentlich hätte ich z.B. meine alten PCs auch noch jeweils viele Jahre weiter genutzt, weil sie eigentlich mehr als schnell genug waren, wenn nicht bei beiden alten nach exakt sechs Jahren jeweils das Mainboard abgeraucht wäre. Und das ist genau das Teil, was sich dann nicht so einfach ersetzen lässt, denn die werden dann eben schon lange nicht mehr produziert und gerne zu Mondpreisen gehandelt, was sich dann einfach nicht mehr rentiert hat. So musste ich 2012 und 2018 notgedrungen dann doch einen komplett neuen Rechner anschaffen. Obwohl gerade mein Altgerät von 2012 heute noch als bessere Mittelklasse im Gaming-Bereich durchgehen würde.

  • Nein, ich habe die Tabelle schon richtig gelesen. Es gibt natürlich einen gewissen Abstand, den man haben muss um keine Pixel mehr zu sehen, aber sobald es dann weit darüber hinaus geht löst das menschliche Auge nicht mehr scharf genug auf um eben die Details jedes einzelnen Pixels wahrzunehmen. Und das sind halt letztlich dann nur ein paar Zentimeter Spielraum. Und ja, das variiert von Mensch zu Mensch ein wenig aber es lässt sich natürlich dennoch ein gutes Mittelmaß ableiten.
    Bei einem 4k 55 Zoll Fernseher liegt der Sichtbereich halt zwischen etwa 1 und 1,5 Meter.

    Quelle. :P Verstehe auch nicht, was du mit "Sichtbereich" meinst.


    Das Einzige, das ich gefunden habe, ist die Grafik hier. Demnach lohnt sich ein 55 Zoll 4K-TV bis zu einem Sitzabstand von maximal 2,25m. Darüber ist kein Unterschied mehr zwischen FHD und 4K erkennbar. Keine Ahnung, auf was die Daten basieren.


    https://www.entain.de/wiki/unt…a-hd-zu-full-hd-a212.html


    Ist halt die Frage, wie man Sitzabstand mittelt. Ich hatte einen Fernseher nie weiter als 1,5m von mir stehen. 3 bis 4m erscheint mir auch zu weit. Das sind zwei kleine bis zwei große Erwachsene. Wenn ich so an meine Wohnungen zurückdenke, dann hatte ich selten mal eine Distanz von über 3m von einer Wand zur anderen. Meine Couch stand dabei nie angepresst an einer davon. :D 1,5 bis 2m erscheint mir da realistischer. Vor allem in Großstadtwohnungen.


    Ich glaube mit dem LOD-Tree verwechselst du was. Das sind eben doppelte Texturen, eine hoch aufgelöste für nah, eine mittlere für mittlere Distanzen und eine niedrig aufgelöste für entfernte Sachen. Das dient ja dazu um Arbeitsspeicher und Rechenleistung zu sparen.


    Was ich meine sind tatsächlich Texturenpacks, die eben diese drei genannten Texturen durch jeweils vierfach so hoch aufgelöste ersetzen. Das kennt man vom PC etwa von Spielen wie Borderlands 2 oder Lord of the Rings - Shadows of Mordor. Die kann man sich am PC extra runterladen und das Spiel läuft damit eben nativ in 4k auf entsprechenden 4k Monitoren oder nutzt die halt intern für 4k und skaliert das auf 1080p herunter, was eben den Detailgrad enorm verbessert.


    Daraus lässt sich eben der Rückschluss ziehen, dass Standard-1080p Texturen längst nicht den Detailgrad haben, den 1080p wirklich darstellen kann. Z.B. eben weil die Textur eben verlustbehaftet komprimiert abgelegt wurde, also etwa als JPEG Bild und nicht im extrem speicherhungrigen RAW.


    Genauso habe ich LOD doch erklärt. Das mit den Texturenpacks ist aber Quatsch, die sind nicht jeweils vierfach so hoch aufgelöst, weil Texturen, die präsent im Bild sind, auch bei den "Standard"-Packs hoch aufgelöst sind. Deswegen erkennt man bspw. auch keinen Unterschied bei vielen Spielen, bei denen man die Texturen extrahieren kann. Schau dir mal das 4K-Texturenpaket von Rainbow Six: Siege an. Sind in den meisten Fällen exakt dieselben Texturen, da sind nur vereinzelt welche wirklich höher aufgelöst. Meistens ist sogar nur die Komprimierung weniger stark, weswegen die Files entsprechend größer sind. Nicht einfach von der Betitelung verarschen lassen. ;)


    Wie gesagt, die Auflösung der Texturen ist scheißegal für die Zielauflösung des Bildschirms. Ansonsten würdest du Großteile der Computergrafik ad absurdum führen. Jedenfalls belasse ich es dabei, da ich nicht das Gefühl habe, dass wir vom selben reden. Oder ich verstehe einfach stellenweise nicht, was du beschreibst, keine Ahnung, wird jedenfalls müßig und ich glaube, es beruht auf Gegenseitigkeit.


    Und ja, es ist schon beeindruckend, was die heutige Grafik durch Tricksereien einem vorgaukeln kann. Allerdings müssen die Entwickler da aufpassen, ich hatte praktisch jahrzehntelang keine Probleme mehr mit Motion Sickness aber inzwischen treffe ich immer mal wieder auf ein 3D Spiel, wo scheinbar so fies mit Perspektiven etc. getrickst wurde, dass mir das doch wieder auf den Magen schlägt, ganz wie zur Anfangszeit der 3D Spiele mit Doom 1.


    Deswegen schalte ich bei jedem Spiel Blur, Depth of Field, aggressives AA und anderen Post-Processing-Quatsch aus, der "cool" sein soll oder minimal Leistung spart. Gefällt meinen Augen auch nicht. Hat aber eigentlich nie etwas mit perspektivischer Verzerrung zu tun. Außer bei hohen FOVs. Wenn ich da manche mit 120°-FOV Apex Legends z. B. spielen sehe ... Duuuude, ich hätte nach spätestens zwei Minuten den Monitor vollgekotzt.

    Momentan ist es aber einfach so, dass die Displayhersteller der sonstigen Hardware- (Grafikkarten) und Software- (Bildkodierung, Datenübertragung) Entwicklung davon eilen.


    PS: Ich habe hier auch noch ein altes Netbook und ein altes Notebook, beide so um die zehn Jahre, die eigentlich wunderbar funktionieren und die ich deswegen auch behalte. Allerdings gebe ich zu, dass ich dank SSDs seit einigen Jahren halt auch schon sehr verwöhnt bin und gerade die Notebook-HDDs damals waren grottig langsam (mein aktuelles Notebook bootet sogar schneller als mein Desktop, weil dort leider auch das BIOS eine ganze Weile braucht). Und eigentlich hätte ich z.B. meine alten PCs auch noch jeweils viele Jahre weiter genutzt, weil sie eigentlich mehr als schnell genug waren, wenn nicht bei beiden alten nach exakt sechs Jahren jeweils das Mainboard abgeraucht wäre. Und das ist genau das Teil, was sich dann nicht so einfach ersetzen lässt, denn die werden dann eben schon lange nicht mehr produziert und gerne zu Mondpreisen gehandelt, was sich dann einfach nicht mehr rentiert hat. So musste ich 2012 und 2018 notgedrungen dann doch einen komplett neuen Rechner anschaffen. Obwohl gerade mein Altgerät von 2012 heute noch als bessere Mittelklasse im Gaming-Bereich durchgehen würde.


    /teilweise signed. Die One X bekommt 4K ziemlich gut in den Griff, auf dem PC hast du auch viel Luft je nach Auflösung. Mit einer RTX 2070 bekomme ich gerade auch selten mal weniger als 60 fps raus. Bei WQHD und max. Settings. 4K geht aber auch noch klar, vor allem bei Dynamic Resolution Scaling. Ansonsten geht's bei Monitoren immerhin Richtung Refresh Rate, da gibt's noch ein paar Selling Points. Ray Tracing wirft beides jedoch ein wenig nach hinten. Am TV natürlich noch mehr. Da würden die Hersteller am liebsten morgen schon 8K durchsetzen und nächste Woche dann 16K, während die Konsolenhersteller froh sein werden, wenn sie umfangreiches Hybrid-RT überhaupt in 30 fps bei 1440p lauffähig bekommen. Blödsinnige Entwicklung, aber LG darf ja nicht verarmen.


    HDDs werden mit dem Alter eben auch nicht schneller. Positiv immerhin: Man kann die recht schnell austauschen. Habe hier selbst einen alten Laptop (2. Generation i5, integrierte Grafik), der lief auch 8 Jahre durch und irgendwann wurde er mir mal geschenkt, weil "nichts mehr lief". Crucial BX rein und Noctua-Paste auf den Chip. Bootet super schnell, gibt alles an Office wieder, was ich brauche, und Netflix läuft auch.


    Bin aber auch Bastler. Gibt kein Gerät, was ich bei mir daheim noch nicht auseinandergeschraubt habe. Von der 360 über Note- und Netbooks bis zur PS4 Pro. An meinem PC bastel ich halt auch zu viel. Da ist selten mal ein Teil älter als 4 Jahre. :D Bin auch ein fauler Sack. Tweake nicht gern Grafiksettings, sondern stelle lieber gleich alles auf Anschlag. Die WLP-Auffrischung lohnt sich aber auch bei Konsolen. Meine PS4 war irgendwann so laut wie ein Düsenjet. Aufgeschraubt, ebenfalls Noctua drauf, mittlerweile ist die leiser als meine One X, weil sie die Abwärme viel besser auf die Heatpipe verteilt. Die Industriepasten sind (egal bei welchem Gerät) unfassbar beschissen aufgetragen und brökeln nach nicht einmal vier Jahren. Staub hatte ich hingegen nie in den Geräten. Ist echt lachhaft und die meisten trauen sich eben nicht, die aufzuschrauben. Vor allem, weil die Geräte teilweise so gebaut sind, dass sie echt beschissen auseinanderzunehmen sind. Versuch's mal bei einer Wii. 20 Tri-Wing- und Philippsschrauben, die man teilweise nur mit T-Griff aufbekommt. Widerlich.

  • Nevermind, gerade als ich gestern dann ins Bett ging, ist der Groschen gefallen. Du meinst eine Vervierfachung aller Texturen wegen der vierfachen Pixelanzahl. 256x256 auf 1024x1024, 512x512 auf 2048x2048, 1024x1024 auf 4096x4096, usw.


    Ja, das macht natürlich Sinn. Problem ist lediglich aktuell, dass 4096x4096 bei vielen Engines wohl das Maximum ist. Bei 8192x8192 funktioniert in der Unreal Engine 4 bspw. Mipmapping nicht mehr. Man hat eben aber auch bei "1080p-Spielen" schon 4096x4096-Texturen. Etwa die Waffenmodelle in Ego-Shootern oder Wände, die besonders hoch aufgelöst sind, damit man darauf Hinweise erkennt. Hängt von der Größe des Meshs und der Präsenz im Spiel ab. Größer als 4096x4096 geht also in der Regel nicht. Wohl könntest du aber 2048x2048 auf 4096x4096 verdoppeln, ist auch ein Qualitätsgewinn.


    Ich hatte das bei dir aber so interpretiert, dass du jede einzelne Textur auf 4096x4096 hochziehen willst, was eben unpraktikabel wäre, weil du bei einem winzigen Mesh von einer Münze kein 4K-Textur Asset anbringst. Verschwendeter Speicherplatz. Und halt auch Vervierfachung als Faustregel gilt so einfach nicht. Bei ohnehin schon in 4096x4096 vorliegenden Texturen schraubt man dann lieber die Komprimierung runter.

  • Zum Sitzabstand, dein Mini-Wohnzimmer ist nicht repräsentativ :P es gibt irgendwo Statistiken dazu, dass der Abstand im Schnitt um die 4 Meter beträgt.
    Was für die meisten Zimmer hinkommen dürfte, soviele Zimmer gibt es dann auch nicht, die schmaler als vier Meter sind, das ist eher so eine Standardgröße.


    Und das menschliche Auge hat eben nicht nur einen begrenzten Schärfebereich sondern eben auch eine physikalische Auflösung. Und die nimmt ab, je weiter etwas entfernt ist. Deswegen ist bereits 4k in eben 90 Prozent der Anwendungsfälle am TV bereits quatsch.

  • Hm, ein Remaster von Bayonetta brauch ich jetzt nicht, da reicht mir das von PS3 und Switch. Aber Vanquish würde ich gern nachholen.

    "Sei wer du bist, und sag, was du fühlst!
    Denn die, die das stört, zählen nicht- und die, die zählen, stört es nicht."
    von Theodor Seuss Geisel.


    Amor est pretiosior auro <3


    YouTube: ManaQues t