Getestete Videokodierung: AMD-GPUs hinken immer noch hinter Nvidia, Intel (aktualisiert)

Nachricht

HeimHeim / Nachricht / Getestete Videokodierung: AMD-GPUs hinken immer noch hinter Nvidia, Intel (aktualisiert)

Oct 22, 2023

Getestete Videokodierung: AMD-GPUs hinken immer noch hinter Nvidia, Intel (aktualisiert)

AVC-, HEVC- und AV1-Kodierung im Test Die besten Grafikkarten sind nicht nur

AVC-, HEVC- und AV1-Kodierung im Test

Die besten Grafikkarten eignen sich nicht nur zum Spielen. Training und Inferenz für künstliche Intelligenz, professionelle Anwendungen sowie Videokodierung und -dekodierung können alle von einer besseren GPU profitieren. Ja, Spiele erhalten immer noch die meiste Aufmerksamkeit, aber wir schauen uns auch gerne die anderen Aspekte an. Hier konzentrieren wir uns speziell auf die Videokodierungsleistung und -qualität, die Sie von verschiedenen GPU-Generationen erwarten können. Im Allgemeinen funktionieren die Videokodierungs-/Dekodierungsblöcke für jede GPU-Generation alle gleich, mit geringfügigen Abweichungen je nach Situation Taktraten für den Videoblock. Wir haben uns als Beispiel die RTX 3090 Ti und RTX 3050 angesehen – die schnellsten und langsamsten GPUs aus Nvidias Ampere-RTX-30-Serien-Generation – und konnten praktisch keinen Unterschied feststellen. Zum Glück müssen wir uns dadurch weniger GPUs ansehen, als sonst erforderlich wären. Wir testen Nvidias RTX 4090, RTX 3090 und GTX 1650 von Team Green, das Ada Lovelace, Turing/Ampere (funktionell identisch) und abdeckt Video-Encoder aus der Pascal-Ära. Bei Intel schauen wir uns Desktop-GPUs an, mit der Arc A770 sowie der integrierten UHD 770. Am weitesten gestreut hat AMD, zumindest was die Geschwindigkeiten angeht, also haben wir am Ende die RX 7900 XTX, RX 6900 getestet XT, RX 5700 XT, RX Vega 56 und RX 590. Wir wollten auch überprüfen, wie sich die GPU-Encoder im Vergleich zur CPU-basierten Software-Codierung schlagen, und haben dafür den Core i9-12900K und den Core i9-13900K verwendet.Update 09.03.2013: Die anfänglichen VMAF-Werte wurden rückwärts berechnet, was bedeutet, dass wir das „verzerrte“ Video als „Referenz“-Video verwendeten und umgekehrt. Dies führte natürlich zu viel höheren VMAF-Werten als beabsichtigt! Wir haben seitdem alle VMAF-Scores neu berechnet. Falls Sie sich fragen: Das ist sehr rechenintensiv und dauert auf einem Core i9-13900K etwa 30 Minuten pro GPU. Die gute Nachricht ist, dass unsere Diagramme jetzt korrigiert sind. Die schlechte Nachricht (abgesehen von den anfänglich falschen Veröffentlichungen) ist, dass wir die ursprüngliche Torrent-Datei gelöscht haben und mit einer neuen Datei aktualisieren, die die Protokolle der neuen VMAF-Berechnungen enthält. Außerdem wurden die Werte schlechter. Wenn Sie also davon ausgehen, dass 4K-Codierungen mit 60 Bildern pro Sekunde und 16 Mbit/s grundsätzlich der Originalqualität entsprechen würden, ist das nur selektiv der Fall (abhängig vom Quellvideo).

Die meisten unserer Tests wurden mit der gleichen Hardware durchgeführt, die wir für unsere neuesten Grafikkartentests verwenden, aber wir haben den CPU-Test auch auf dem 12900K-PC durchgeführt, der unsere GPU-Benchmark-Hierarchie für 2022 antreibt. Als anspruchsvolleren CPU-Kodierungstest haben wir den 13900K auch mit einer Kodierungsvoreinstellung höherer Qualität ausgeführt, aber dazu gleich mehr.

Intel-PC der 13. Generation Intel Core i9-13900KMSI MEG Z790 Ace DDR5G.Skill Trident Z5 2x16GB DDR5-6600 CL34Sabrent Rocket 4 Plus-G 4TB sei leise! 1500 W Dark Power Pro 12Cooler Master PL360 FluxWindows 11 Pro 64-BitIntel-PC der 12. GenerationIntel Core i9-12900KMSI Pro Z690-A WiFi DDR4Corsair 2x16GB DDR4-3600 CL16Crucial P5 Plus 2TBCooler Master MWE 1250 V2 GoldCorsair H150i Elite CapellixCooler Master HAF500Windows 11 Pro 64-Bit

Für unsere Testsoftware haben wir festgestellt, dass ffmpeg nightly derzeit die beste Option ist. Es unterstützt alle aktuellen AMD-, Intel- und Nvidia-Video-Encoder, kann relativ einfach konfiguriert werden und bietet außerdem die VMAF-Funktionalität (Video Multi-Method Assessment Fusion), die wir zum Vergleichen der Qualität der Videokodierung verwenden. Allerdings mussten wir für unsere Nvidia Pascal-Tests die letzte offizielle Version, 5.1.2, verwenden (der nächtliche Build schlug bei der HEVC-Kodierung fehl). Wir führen für alle diese Tests eine Single-Pass-Kodierung durch Es nutzt die von den verschiedenen GPUs bereitgestellte Hardware und ist nicht immer in der Lage, komplexere Codierungsanweisungen zu verarbeiten. GPU-Videokodierung wird im Allgemeinen für Dinge wie Livestreaming von Gameplay verwendet. Wenn Sie hingegen die beste Qualität wünschen, müssen Sie sich im Allgemeinen für eine CPU-basierte Kodierung mit einem hohen CRF (Constant Rate Factor) von 17 oder 18 entscheiden, obwohl dies natürlich dazu führt in viel größeren Dateien und höheren durchschnittlichen Bitraten. Es gibt jedoch immer noch viele Optionen, die es wert sind, diskutiert zu werden. AMD, Intel und Nvidia haben alle unterschiedliche „Voreinstellungen“ für die Qualität, aber was genau diese Voreinstellungen sind oder was sie bewirken, ist nicht immer klar. Nvidias NVENC in ffmpeg verwendet standardmäßig „p4“. Und der Wechsel zu „p7“ (maximale Qualität) hatte wenig Einfluss auf die VMAF-Ergebnisse, während die Codierungsleistung um 30 bis 50 Prozent sank. AMD wählt für seinen Encoder eine „-Qualität“-Einstellung von „Geschwindigkeit“, aber wir haben auch mit „Ausgewogen“ getestet – und wie Nvidia reduzierte die maximale Einstellung „Qualität“ die Leistung erheblich, verbesserte die VMAF-Werte jedoch nur um 1–2 Prozent. Schließlich scheint Intel die Voreinstellung „mittel“ zu verwenden, und wir fanden, dass dies eine gute Wahl ist – „sehr langsam“ dauerte fast doppelt so lange zum Kodieren mit kaum verbesserter Qualität, während „sehr schnell“ mäßig schneller war, aber die Qualität erheblich verschlechterte bit.Letztendlich haben wir uns für zwei Testreihen entschieden. Zuerst haben wir die Standard-Encoder-Einstellungen für jede GPU, wobei wir nur die Zielbitrate angegeben haben. Selbst dann gibt es geringfügige Unterschiede bei den codierten Dateigrößen (ungefähr eine Streuung von +/-5 %). Zweitens haben wir nach Rücksprache mit dem ffmpeg-Subreddit versucht, die GPUs für etwas konsistentere Codierungseinstellungen abzustimmen, indem wir eine GOP-Größe von zwei Sekunden angegeben haben („-g 120“ für unsere 60-fps-Videos). AMD war der größte Nutznießer unserer Optimierung und tauschte die Geschwindigkeit gegen etwa 5–10 Prozent höhere VMAF-Werte ein. Aber wie Sie sehen werden, liegt AMD immer noch hinter den anderen GPUs zurück. Es gibt viele andere mögliche Optimierungsparameter, von denen einige die Dinge ziemlich verändern können, andere scheinen nur sehr wenig zu bewirken. Unser Ziel ist es nicht, die Qualität der Archivierung zu verbessern, daher haben wir uns für schnellere Voreinstellungen entschieden, die die GPUs nutzen, aber vielleicht werden wir die Dinge in der Zukunft noch einmal überdenken. Hören Sie in unseren Kommentaren zu, wenn Sie alternative Empfehlungen für die besten Einstellungen für die verschiedenen GPUs haben, mit einer Erklärung, was die Einstellungen bewirken. Es ist auch unklar, wie die ffmpeg-Einstellungen und die Qualität im Vergleich zu anderen potenziellen Kodierungsschemata abschneiden, aber das würde den Rahmen dieses Tests sprengen. Hier sind die Einstellungen, die wir verwendet haben, sowohl für die Standardkodierung als auch für die „abgestimmte“ Kodierung.

AMD:Standard: ffmpeg -i [Quelle] -c:v [h264/hevc/av1]_amf -b:v [Bitrate] -y [Ausgabe] Abgestimmt: ffmpeg -i [Quelle] -c:v [h264/hevc/av1 ]_amf -b:v [Bitrate] -g 120 -Quality Balanced -y [Ausgabe]

Intel:Standard: ffmpeg -i [Quelle] -c:v [h264/hevc/av1]_qsv -b:v [Bitrate] -y [Ausgabe] Abgestimmt: ffmpeg -i [Quelle] -c:v [h264/hevc/av1 ]_amf -b:v [Bitrate] -g 120 -preset medium -y [Ausgabe]

Nvidia:Standard: ffmpeg -i [Quelle] -c:v [h264/hevc/av1]_nvenc -b:v [Bitrate] -y [Ausgabe] Abgestimmt: ffmpeg -i [Quelle] -c:v [h264/hevc/av1 ]_nvenc -b:v [Bitrate] -g 120 -no-scenecut 1 -y [Ausgabe]

Die meisten unserer Versuche, die Einstellungen zu „tunen“, verbesserten weder die Qualität noch die Kodierungsgeschwindigkeit, und einige Einstellungen schienen dazu zu führen, dass ffmpeg (oder unser Test-PC) einfach komplett zusammenbrach. Das Wichtigste an den oben genannten Einstellungen ist, dass sie das Keyframe-Intervall konstant halten und möglicherweise für eine etwas höhere Bildqualität sorgen. Wenn Sie noch bessere Einstellungen haben, die Sie empfehlen würden, posten Sie diese in den Kommentaren. Wir geben ihnen gerne eine Chance. Das Wichtigste ist, dass die Bitraten gleich bleiben und dass wir für die GPUs der neuesten Generation angemessene Codierungsgeschwindigkeiten von mindestens Echtzeit (d. h. 60 fps oder mehr) wünschen. Allerdings lagen unsere „abgestimmten“ Einstellungen vorerst mit Ausnahme der AMD-GPUs so nahe an den Standardeinstellungen, dass wir nur diese Diagramme zeigen werden. Nachdem wir die Einleitung aus dem Weg geräumt haben, hier sind die Ergebnisse. Wir haben vier Testvideos, die aus dem aufgenommenen Gameplay von Borderlands 3, Far Cry 6 und Watch Dogs Legion stammen. Wir haben Tests mit 1080p und 4K für Borderlands 3 und mit 4K für die anderen beiden Spiele durchgeführt. Wir haben auch drei Codecs: H.264/AVC, H.265/HEVC und AV1. Wir werden für jede Einstellung und jeden Codec zwei Diagramme haben, die die Qualität mit VMAF vergleichen und die Codierungsleistung zeigen. Als Referenz folgen die VMAF-Werte einer Skala von 0 bis 100, wobei 20 „schlecht“ bedeutet, 40 „schlecht“ und 60 Die Bewertung erfolgt mit „fair“, 80 mit „gut“ und 100 mit „ausgezeichnet“. Im Allgemeinen sind Werte von 90 oder mehr wünschenswert, wobei 95 oder mehr meist nicht vom ursprünglichen Quellmaterial zu unterscheiden sind. Es gibt viele Überschneidungen in den VMAF-Werten. Wenn Sie also eine der Zeilen nicht sehen können, sehen Sie sich die Tabellen weiter unten an die die reinen Zahlen zeigen – oder denken Sie einfach daran, dass GPUs benachbarter Generationen oft fast die gleiche Qualität haben. Wenn Sie nicht versuchen möchten, die vollständige Tabelle unten zu analysieren: Die RDNA 2- und RDNA 3-Generationen von AMD haben identische Ergebnisse für die H.264-Kodierungsqualität, obwohl sich die Leistung erheblich unterscheidet. Nvidias GTX 1080 Ti und GTX 1650 bieten außerdem identische Qualität bei H.264 und HEVC, während die RTX 2080 Ti und RTX 3090 bei HEVC identische Qualität haben.

Beginnen wir mit einem Video von Borderlands 3 in 1080p. Es gibt einige interessante Trends, die wir an anderer Stelle sehen werden. Wir diskutieren über die „abgestimmten“ Ergebnisse, da sie bei den GPUs etwas vergleichbarer sind. Beginnen wir mit AVC/H.264, dem nach wie vor beliebtesten Codec. Auch wenn es sie schon seit etwa einem Jahrzehnt gibt und sie seitdem in ihrer Qualität übertroffen wurde, sorgte ihr quasi lizenzgebührenfreier Status für eine breite Akzeptanz. AMDs GPUs rangieren in diesem Test am Ende unserer Charts, zusammen mit Polaris, Vega und RDNA 1 Generationen von Hardware weisen hinsichtlich der Qualität alle ungefähr die gleiche Leistung auf. RDNA 2 verbesserte die Kodierung ein wenig, vor allem mit einer Qualitätssteigerung bei niedrigeren Bitraten um etwa 10 %. RDNA 3 scheint die gleiche Logik wie RDNA 2 für H.264 zu verwenden, wobei die Werte auf der 6900 XT und der 7900 H.264-Implementierungen erweisen sich in puncto Qualität als die besten Lösungen, wobei Intels Arc nur um Haaresbreite dahinter liegt – in der Praxis wird man den Unterschied kaum erkennen können. Die Turing-, Ampere- und Ada-GPUs schneiden nur geringfügig besser ab als der ältere Pascal-Video-Encoder, aber es scheint keine wesentlichen Qualitätsverbesserungen zu geben. Mit unseren gewählten „mittleren“ Einstellungen für die CPU-Kodierung, dem libx264-Codec Am Ende liegt es in etwa auf dem Niveau der UHD 770 (Xe LP)-Grafik von AMD, nur einen Hauch hinter Nvidias älterem Encoder aus der Pascal-Ära, zumindest für diese 1080p-Tests. Was die Leistung angeht, ist das eher zweitrangig, vorausgesetzt, Sie wissen es Während die RTX 4090 beim Livestreaming 60 fps durchbrechen kann, war sie mit fast 500 fps am schnellsten, etwa 15 % vor der RTX 2080 Ti, RTX 3090 und RX 7900 XTX. Intel Arc kommt an dritter Stelle, dann Nvidias Pascal in der GTX 1650, gefolgt von der RX 6900 XT und dann die GTX 1080 Ti gegen Pascal – beachten Sie, dass die GTX 1080 Ti und die GTX 1650 identische Qualitätsergebnisse erzielten, der Unterschied ist also nur in den Taktraten der Video-Engine. Interessanterweise kann der Core i9-13900K mit 1080p schneller kodieren als der alte RX Vega 56, was auch ungefähr so ​​schnell ist wie die integrierte UHD-Grafik im Core i9-13900K. AMDs alte RX 590 schafft es mit knapp über 100 fps. Andererseits war das in der Ära 2016–2018 wahrscheinlich nicht allzu schlecht.

Der Wechsel zu HEVC sorgt für eine deutliche Verbesserung der Bildqualität und es gibt ihn schon so lange, dass praktisch jeder moderne PC über eine angemessene GPU-Codierungsunterstützung verfügen sollte. Das Einzige, was die Einführung in weiteren Anwendungen wirklich behindert, sind Lizenzgebühren, und viele Softwareprogramme haben sich dafür entschieden, bei H.264 zu bleiben, um dies zu vermeiden. Was die Rangliste angeht, liegen die verschiedenen GPUs von AMD in diesem Test erneut unter den übrigen Optionen , aber sie sind um einiges näher als bei H.264. Die RDNA 3-Video-Engine ist etwas besser als die RDNA 1/2-Version, aber seltsamerweise stimmen die älteren Polaris- und Vega-GPUs hier im Wesentlichen mit RDNA 3 überein. Nvidia liegt an zweiter Stelle, während die Turing-, Ampere- und Ada-Video-Engines in der HEVC-Qualität im Wesentlichen gleichauf sind . Intels Xe-LP-Architektur der vorherigen Generation im UHD 770 passt auch zu den neueren Nvidia-GPUs, gefolgt von Nvidias älterer Pascal-Generation und dann dem CPU-basierten libx265 „Medium“. Der große Gewinner für die HEVC-Qualität ist jedoch am Ende Intels Arc-Architektur. Das ist zwar kein großer Gewinn, liegt aber bei jeder Bitrate klar vor den anderen Optionen. Mit einer Bitrate von 8 Mbit/s erreichen viele Karten auch den Punkt, dass sie (wahrnehmungsmäßig) dem ursprünglichen Quellmaterial sehr nahe kommen, wobei die Arc einen VMAF-Wert von 92,1 erreicht. Für unsere getesteten Einstellungen sind die CPU- und Nvidia Pascal-Ergebnisse im Wesentlichen gleich gleichauf und liegt 3–5 % über dem 7900 XTX. Rein zahlenmäßig liegt Intels Arc A770 knapp vor der RTX 4090/3090, mit einem Vorsprung von 0,5–1,9 %, je nach Bitrate. Beachten Sie außerdem, dass die Arc-, Ada- und Ampere-GPUs mit Werten von 95–96 bei 8 Mbit/s alle effektiv Codierungen erreichen, die praktisch nicht vom Quellmaterial zu unterscheiden wären. Die Leistung ist etwas interessant, insbesondere wenn man sich die Hardwaregenerationen ansieht. Die älteren GPU-Modelle waren bei HEVC im Allgemeinen schneller als bei H.264-Kodierung, manchmal um einiges deutlicher – schauen Sie sich die RX 590, GTX 1080 Ti und GTX 1650 an. Aber die RTX 2080 Ti, RTX 3090 und RTX 4090 sind schneller bei H.264, daher scheinen die Turing-Generation und spätere HEVC-Geschwindigkeit im Vergleich zu Pascal weniger priorisiert zu haben. Arc liefert mittlerweile Top-Leistung mit HEVC, während der Xe-LP UHD 770 mit H.264 viel besser abschneidet. Es gibt eine große Verschiebung in der Gesamtqualität, insbesondere bei der niedrigeren Bitrate von 3 Mbit/s. Die schlechtesten VMAF-Ergebnisse liegen derzeit in der Mitte der 60er-Jahre, wobei die CPU, die Nvidia-GPUs und die Intel-GPUs alle über 80 bleiben. Aber mal sehen, ob AV1 es noch besser machen kann.

Ist AV1 hinsichtlich der Qualität besser als HEVC? Vielleicht, abhängig davon, welche GPU (oder CPU) Sie verwenden. Insgesamt liefern AV1 und HEVC zumindest für die vier uns vorliegenden Samples nahezu gleichwertige Qualität. Es gibt einige Unterschiede, aber viele davon sind auf die verschiedenen Implementierungen der Codecs zurückzuführen. AMDs RDNA 3 schneidet beispielsweise mit AV1 um 1–2 Punkte besser ab als mit HEVC. Die Ada-Karten von Nvidia erzielen mit einer Verbesserung von etwa 2 Punkten gegenüber HEVC ihre bisher besten Ergebnisse. Die Arc-GPUs von Intel gehen in die andere Richtung und erzielen in AV1 im Vergleich zu HEVC 2–3 Punkte weniger. Was die CPU-Ergebnisse des libsvtav1-Codecs betrifft, so liegt er im Wesentlichen mit HEVC bei 8 Mbit/s gleichauf, liegt jedoch bei 6 Mbit/s mit 1,6 Punkten vorne und hat bei 3 Mbit/s einen relativ beträchtlichen Vorsprung von 5 Punkten Die einzige praktische AV1-Option für viele Leute werden derzeit die Arc-GPUs sein. Der A380 lieferte übrigens identische Qualitätsergebnisse wie der A770 (bis auf sechs Dezimalstellen) und war sogar etwas schneller – wahrscheinlich, weil die von uns verwendete A380-Karte von Gunnir werkseitig übertaktet ist. Alternativ könnten Sie sich für die CPU-basierte AV1-Kodierung entscheiden, die nahezu mit den GPU-Encodern übereinstimmt und immer noch mit über 200 fps auf einem 13900K durchgeführt werden kann. Das setzt voraus, dass Sie sich überhaupt mit AV1 beschäftigen möchten, was zu diesem Zeitpunkt noch nicht der Fall ist so weit verbreitete Unterstützung wie HEVC. (Versuchen Sie beispielsweise, eine AV1-Datei in Adobe Premiere abzulegen.) Es ist auch interessant, wie anspruchsvoll die HEVC-Kodierung für die CPU sein kann, während AV1 im Vergleich dazu ziemlich „einfach“ aussieht. In einigen Fällen (bei 4K) war die CPU-Kodierung von AV1 tatsächlich schneller als die H.264-Kodierung, obwohl dies natürlich von den jeweils verwendeten Einstellungen sowie von Ihrer speziellen CPU abhängt.

Beim Übergang zur 4K-Kodierung werden die Bitratenanforderungen bei H.264 deutlich höher als bei 1080p. Bei 8 Mbit/s erreicht Intels Arc mit einem Wert von nur 65 die höchste Auszeichnung, während Nvidias Ada/Ampere/Turing-GPUs (die praktisch die gleichen VMAF-Ergebnisse hatten) bei etwa 57 landen, genau wie die Intel UHD 770. Nvidias Encoder der Pascal-Generation erreicht 54 , dann folgt der CPU-Encoder mit 48. Schließlich erhält AMDs RDNA 2/3 44 Punkte, während AMDs ältere GPUs mit nur 33 Punkten ziemlich miserabel sind. Eine Erhöhung der Bitrate auf 12 Mbit/s und 16 Mbit/s hilft natürlich ziemlich, aber auch das Das beste Ergebnis für die 4K-H.264-Kodierung mit 16 Mbit/s beträgt immer noch nur 80 – ein „gutes“ Ergebnis, aber nicht besser. Zur Not könnte man mit 16 Mbit/s bei 4K und 60 fps auskommen, aber eigentlich braucht man einen modernen Codec, um höhere Auflösungen mit moderaten Bitraten besser verarbeiten zu können. AMD hat mit RDNA 2 Verbesserungen vorgenommen, während RDNA 3 offenbar denselben Kernalgorithmus verwendet (identisch). punktet zwischen 6900 XT und 7900 XTX), nur mit höherer Leistung. Aber die Vorteile gegenüber den früheren AMD-GPUs kommen vor allem bei den niedrigeren Bitraten zum Tragen; Bei 16 Mbit/s erreicht die neueste 7900 Die meisten Lösungen sind etwa ein Drittel so schnell wie bei 1080p, in einigen Fällen kann sie sogar näher an einem Viertel der Leistung liegen. AMDs ältere Polaris-GPUs schaffen laut unseren Tests nicht einmal 30 fps, während die Vega-Karten deutlich unter 60 fps liegen. Der Core i9-13900K erreicht zwar eine Geschwindigkeit von etwa 80 fps, wenn Sie jedoch ein Spiel spielen, möchten Sie möglicherweise nicht so viel CPU-Leistung für die Videokodierung aufwenden.

Die HEVC- und AV1-Kodierung wurde für die Skalierung auf 4K und mehr entwickelt, und unsere Diagramme belegen dies deutlich. HEVC und AV1 mit 8 Mbit/s können im Allgemeinen die Qualität von H.264 mit 12 Mbit/s übertreffen. Alle GPUs (und die CPU) können mit 16 Mbit/s auch 80 auf der VMAF-Skala knacken, wobei die Top-Ergebnisse mit Werten von 90 kokettieren. Wenn es um Bildqualität geht, fällt AMDs neuester RDNA-3-Encoder immer noch zurück. Bei der Kodierung kann es einigermaßen schnell sein, aber selbst Nvidias Hardware aus der Pascal-Ära liefert im Allgemeinen bessere Ergebnisse als alles, was AMD hat, zumindest bei unseren ffmpeg-Tests. Sogar die GTX 1650 mit HEVC kann die AV1-Werte von AMD bei jeder Bitrate übertreffen, obwohl die 7900 XTX mit AV1 2–3 Punkte besser abschneidet als mit HEVC. Der Encoder der RTX 40-Serie von Nvidia gewinnt unterdessen in absoluter Gesamtqualität, wobei seine AV1-Ergebnisse die HEVC-Ergebnisse von Intel bei 4K und den verschiedenen Bitraten übertreffen. AMD hat uns mitgeteilt, dass es mit ffmpeg zusammenarbeitet, um einige Qualitätsverbesserungen in den Code zu bringen, und wir Ich muss sehen, wie das geht. Wir wissen nicht, ob dadurch die Qualität erheblich verbessert wird und AMD mit Nvidia gleichzieht, oder ob es nur ein oder zwei Punkte sein werden. Dennoch ist jede kleine Verbesserung gut. HEVC und AV1 sind aus Leistungssicht nicht wirklich besser als H.264. AMDs 7900 Andernfalls benötigen Sie für 4K HEVC eine Pascal- oder neuere Nvidia-Karte, eine RDNA- oder neuere AMD-Karte oder Intels Arc, um die 4K-Kodierung mit mehr als 60 fps zu bewältigen (vorausgesetzt, Ihre GPU kann tatsächlich so schnell Frames für Livestreaming generieren). Beachten Sie auch die CPU-Ergebnisse für HEVC im Vergleich zu AV1, wenn es um die Leistung geht. Ein Teil davon ist auf den ausgewählten Encoder (libsvtav1 und libx265) sowie auf die ausgewählte Voreinstellung zurückzuführen. Wenn man jedoch bedenkt, wie ähnlich die VMAF-Ergebnisse für die HEVC- und AV1-Kodierung über die CPU sind, kann man hier mit mehr als dem doppelten Durchsatz sicherlich ein gutes Argument für die AV1-Kodierung vorbringen – und sie ist tatsächlich schneller als unsere libx264-Ergebnisse, möglicherweise aufgrund der besseren Multi -Threading-Skalierung im Algorithmus.

Die Ergebnisse unserer beiden anderen Gaming-Videos in 4K unterscheiden sich nicht wesentlich von denen, die wir mit Borderlands 3 in 4K gesehen haben. Far Cry 6 erzielt am Ende bei allen drei Codecs höhere VMAF-Werte, mit einigen geringfügigen Abweichungen in der Leistung, aber das ist auch schon alles, was wir der Geschichte hinzufügen müssen Moment, um Intels integrierte UHD Graphics 770 genauer zu besprechen – die integrierte Grafik auf Alder-Lake-CPUs der 12. Generation und Raptor-Lake-CPUs der 13. Generation. Die Qualität ist etwas schlechter als bei Arc, wobei die H.264-Ergebnisse in Bezug auf die VMAF-Werte im Allgemeinen zwischen Nvidias Pascal und der neueren Turing/Ampere/Ada-Generation liegen. Die HEVC-Kodierung hingegen liegt in den meisten Fällen nur 1–2 Punkte hinter Arc und den Nvidia-GPUs. Die Leistung ist eine andere Geschichte, und sie ist viel geringer als erwartet, weit weniger als die Hälfte dessen, was der Arc leisten kann. Zugegeben, Arc verfügt über zwei Video-Engines, aber der UHD 770 schafft bei 4K mit H.264 nur 44–48 fps, bei HEVC-Kodierung sinkt dieser Wert auf 24–27 fps. Bei der HEVC-Kodierung war die 12900K-CPU-Kodierung schneller, und mit AV1 war sie etwa dreimal so schnell wie das HEVC-Ergebnis des UHD 770 und lieferte dennoch eine bessere Wiedergabetreue. Intel unterstützt einige „erweiterte“ Kodierungsmodi, wenn Sie sowohl UHD 770 als auch einen haben Arc-GPU. Diese Modi werden Deep Link genannt, aber wir vermuten angesichts der etwas geringeren Qualität und Leistung der Xe-Grafiklösungen, dass sie vor allem in Situationen von Vorteil sein werden, in denen maximale Leistung wichtiger ist als Qualität.

Watch Dogs Legion wiederholt die Geschichte, aber auch hier mit höheren VMAF-Werten im Vergleich zu Far Cry 6. Das liegt wahrscheinlich daran, dass die Kamera weniger schnell bewegt wird, sodass die Frame-zu-Frame-Änderungen kleiner sind, was eine bessere Komprimierung und damit eine höhere Objektivität ermöglicht Qualität bei gleicher Bitrate. Die Leistung ist in den meisten Fällen fast die gleiche wie bei Far Cry 6, und es gibt einige Schwankungen zwischen den Läufen, die wir nicht wirklich berücksichtigen – wir würden eine Fehlermarge von etwa 3 % schätzen die FPS, da wir jeweils nur einmal pro GPU codiert haben.

Als alternative Ansicht aller Diagramme finden Sie hier die rohen Leistungs- und Qualitätsdaten im Tabellenformat zusammengefasst. Beachten Sie, dass die Dinge nach Bitrate und dann nach Codec gruppiert sind, sodass das Parsen vielleicht nicht so einfach ist, aber wenn Sie neugierig sind, erhalten Sie hier alle genauen VMAF-Werte – und Sie können auch sehen, wie wenig sich zwischen einigen Hardwareteilen geändert hat Generationen in Bezug auf die Qualität. Wir haben auch eine zweite Tabelle, diesmal farbig basierend auf Leistung und Qualität im Verhältnis zum besten Ergebnis für jeden Codec und jede Bitrate. Ein interessanter Aspekt, der gut sichtbar ist, ist, wie schnell AMDs Codierungshardware bei 4K mit der RX 7900 XTX ist, und ähnlich kann man sehen, wie schnell der Encoder der RTX 40-Serie bei 1080p ist. Die Qualität begünstigt inzwischen die 40er-Serie und die Arc-GPUs.

Wenn Sie die Originalvideodateien sehen möchten, habe ich diesen persönlich gehosteten BitTorrent-Magnetlink erstellt:magnet:?xt=urn:btih:df31e425ac4ca36b946f514c070f94283cc07dd3&dn=Tom%27s%20Hardware%20Video%20Encoding%20Tests UPDATE: Dies ist der aktualisierte Torrent mit korrigierten VMAF-Berechnungen. Es enthält auch die Protokolldateien der ersten Kodierungen mit falschem VMAF, aber diese Dateien enthalten die FPS-Ergebnisse für die Kodierungszeiten. Beim Torrent-Download verfügt jede GPU auch über zwei Protokolldateien. „Encodes-FPS-WrongVMAF“-Textdateien sind die Protokolle der ersten Codierungstests mit den rückwärts gerichteten VMAF-Berechnungen. „Encodes-CorrectVMAF“-Dateien sind nur die korrigierten VMAF-Berechnungen (mit Platzhalterwerten „-“ für GPUs, die die AV1-Kodierung nicht unterstützen, um uns das Leben beim Importieren der für die Generierung der Diagramme verwendeten Daten etwas zu erleichtern). Für Neugierige können Sie die Vorher- und Nachher-VMAF-Ergebnisse sowie die FPS-Werte der Kodierungsgeschwindigkeit sehen, indem Sie die folgenden Befehle über eine Befehlszeile im entsprechenden Ordner eingeben:

Wenn Sie Ihre eigenen Tests durchführen möchten, bleibt der obige BitTorrent-Magnet-Link in den kommenden Monaten aktiv – machen Sie mit und teilen Sie ihn, wenn Sie können, da dies über mein eigenes Heimnetzwerk erfolgt und ich auf 20 Mbit/s im Upstream beschränkt bin. Wenn Sie meinen Arc A380-Test bereits heruntergeladen haben, beachten Sie, dass fast alle Dateien völlig neu sind, da ich für diese Tests neue Videos mit einer höheren Bitrate von 100 Mbit/s aufgenommen habe. Ich glaube, ich habe in dieser Rezension auch die VMAF-Vergleiche vertauscht, sodass diese neuen Ergebnisse Vorrang haben. Die Dateien sind alle auf Ordner verteilt, sodass Sie nur die gewünschten Inhalte herunterladen können, wenn Sie nicht an der gesamten Sammlung interessiert sind. Und wenn Sie aus irgendeinem Grund alle über 350 Videos genießen möchten, ist der Download 16,4 GB groß. Prost! Für diejenigen, die nicht alle Dateien herunterladen möchten, stelle ich unten eine begrenzte Auswahl an Screenshots der 1080p- und 4K-Videos von Borderlands 3 als Referenz zur Verfügung. Ich werde nur Screens von aktuellen GPUs erstellen, da dies sonst sehr zeitaufwändig wird.

1080p-Quelle 38 Mbit/s

AMD RDNA3 1080p H.264 3 Mbit/s

AMD RDNA3 1080p HEVC 3 Mbit/s

AMD RDNA3 1080p AV1 3 Mbit/s

Intel Arc 1080p H.264 3 Mbit/s

Intel Arc 1080p HEVC 3 Mbit/s

Intel Arc 1080p AV1 3 Mbit/s

Nvidia Ada Lovelace 1080p H.264 3 Mbit/s

Nvidia Ada Lovelace 1080p HEVC 3 Mbit/s

Nvidia Ada Lovelace 1080p AV1 3 Mbit/s

CPU 13900K 1080p H.264 3Mbps

CPU 13900K 1080p HEVC 3 Mbit/s

CPU 13900K 1080p AV1 3 Mbit/s

4K-Quelle 50 Mbit/s

AMD RDNA3 4K H.264 8 Mbit/s

AMD RDNA3 4K HEVC 8 Mbit/s

AMD RDNA3 4K AV1 8 Mbit/s

Intel Arc 4K H.264 8 Mbit/s

Intel Arc 4K HEVC 8 Mbit/s

Intel Arc 4K AV1 8 Mbit/s

Nvidia verfügt über Lovelace 4K H.264 8 Mbit/s

Nvidia Ada Lovelace 4K HEVC 8 Mbit/s

Nvidia verfügt über Lovelace 4K AV1 8 Mbit/s

CPU 13900K 4K H.264 8Mbps

CPU 13900K 4K HEVC 8 Mbit/s

CPU 13900K 4K AV1 8Mbps

Die obige Galerie zeigt Screenshots für nur ein Bild vom AMD RX 7900 XTX, Intel Arc A770, Nvidia RTX 4090 und CPU-Kodierungen auf dem Core i9-13900K. Natürlich kommt es nicht auf ein einzelnes Bild an, und es kann Unterschiede darin geben, wo sich Schlüsselbilder befinden, aber deshalb haben wir die Option „-g 120“ verwendet, damit theoretisch alle Encoder Schlüsselbilder platzieren die gleiche Stelle. Wenn Sie sie durchstöbern möchten, empfehlen wir Ihnen jedoch, sich die vollständigen Bilder in separaten Registerkarten anzusehen. Wir haben uns dafür entschieden, Screenshots nur für die niedrigsten Bitraten zu erstellen, und das allein hat schon viel Zeit in Anspruch genommen. Sie können zumindest einen Eindruck davon bekommen, wie die codierten Videos aussehen, aber die VMAF-Scores bieten wohl einen besseren Anhaltspunkt dafür, wie das Gesamterlebnis beim Ansehen eines Streams mit dem angegebenen Encoder aussehen würde. Denn wir machen nur die niedrigsten Werte Beachten Sie, dass die VMAF-Ergebnisse bei den ausgewählten Auflösungen von „schlecht“ bis „mittelmäßig“ reichen – die Videos mit höherer Bitrate sehen auf jeden Fall viel besser aus als das, was wir hier zeigen.

Nachdem wir die verschiedenen Codierungen mehrmals ausgeführt und erneut ausgeführt haben, haben wir unser Bestes getan, um gleiche Wettbewerbsbedingungen zu schaffen, aber an einigen Stellen ist es immer noch ziemlich holprig. Vielleicht gibt es einige Optionen, die die Qualität verbessern können, ohne die Geschwindigkeit zu beeinträchtigen, die wir nicht kennen, aber wenn Sie nicht vorhaben, viel Zeit in die Erforschung solcher Dinge zu investieren, sollten diese Ergebnisse eine gute Grundlage dafür liefern, was Sie erwartet .Bei allem Hype um die AV1-Kodierung sieht es in der Praxis nicht so anders aus und fühlt sich auch nicht so anders an als HEVC. Der einzige wirkliche Vorteil besteht darin, dass AV1 lizenzgebührenfrei sein soll (gegen dies laufen derzeit einige Klagen), aber wenn Sie Ihre eigenen Filme archivieren, können Sie sicherlich bei der Verwendung von HEVC bleiben und werden nicht viel verpassen, wenn irgendetwas. Vielleicht wird AV1 in Zukunft die Vorherrschaft übernehmen, so wie H.264 im letzten Jahrzehnt oder länger zum De-facto-Videostandard geworden ist. Sicherlich stehen einige große Namen dahinter, und mittlerweile verfügen alle drei großen PC-GPU-Hersteller über eine beschleunigte Codierungsunterstützung. Aus Sicht der Gesamtqualität und Leistung geht Nvidias neueste Ada Lovelace NVENC-Hardware mit AV1 als Codec der Wahl als Sieger hervor , aber derzeit ist es nur mit GPUs ab 799 US-Dollar erhältlich – für die RTX 4070 Ti. Irgendwann soll es in den Varianten 4060 und 4050 erhältlich sein, und diese werden bereits in Laptops ausgeliefert, allerdings gibt es einen wichtigen Vorbehalt: Die Karten der 40er-Serie mit 12 GB oder mehr VRAM verfügen über zwei NVENC-Blöcke, während die anderen Modelle nur über einen einzigen Encoderblock verfügen , was etwa die Hälfte der Leistung im Vergleich zu unseren Tests hier bedeuten könnte.In puncto Qualität und Leistung liegen die Arc-GPUs von Intel, zumindest was die Videokodierung betrifft, ebenfalls hervorragend für Streaming-Zwecke. Sie erzielen mit HEVC tatsächlich qualitativ bessere Ergebnisse als mit AV1 und entsprechen im Wesentlichen der 40er-Serie von Nvidia. Sie können sie natürlich auch zur Archivierung verwenden, aber das ist wahrscheinlich nicht der entscheidende Vorteil. Nvidia unterstützt aber definitiv mehr Tuning-Optionen und scheint auch mehr Software-Unterstützung zu bekommen. AMDs GPUs hinken der Konkurrenz derweil weiterhin hinterher. Die auf RDNA 3 basierenden RX 7900-Karten liefern die hochwertigsten Codierungen, die wir bisher von einer AMD-GPU gesehen haben, aber das sagt nicht viel aus. Tatsächlich sind Qualität und Leistung, zumindest mit der aktuellen Version von ffmpeg, in etwa auf dem Niveau einer GPU der GTX 10-Serie im Jahr 2016 – außer natürlich ohne AV1-Unterstützung, denn das gab es damals nicht Dann.Wir gehen davon aus, dass nur sehr wenige Leute eine Grafikkarte nur wegen ihrer Videokodierungsleistung kaufen werden. Sehen Sie sich daher unsere GPU-Benchmarks und unsere Tests zur stabilen Diffusion an, um zu sehen, wie die verschiedenen Karten in anderen Bereichen abschneiden. Als nächstes müssen wir aktualisierte Zahlen für Stable Diffusion ausführen und uns einige andere KI-Benchmarks ansehen, aber das ist eine Geschichte für einen anderen Tag.

Schließen Sie sich den Experten an, die Tom's Hardware lesen, um Insider-Informationen zu PC-Tech-News für Enthusiasten zu erhalten – und das seit über 25 Jahren. Wir senden Ihnen aktuelle Nachrichten und ausführliche Rezensionen zu CPUs, GPUs, KI, Hersteller-Hardware und mehr direkt in Ihren Posteingang.

Jarred Walton ist leitender Redakteur bei Tom's Hardware und konzentriert sich auf alles rund um die GPU. Seit 2004 arbeitet er als Technikjournalist und schreibt für AnandTech, Maximum PC und PC Gamer. Von den ersten S3 Virge „3D-Verzögerern“ bis hin zu den heutigen GPUs hält Jarred über die neuesten Grafiktrends auf dem Laufenden und ist derjenige, der Fragen zur Spieleleistung stellt.

Desktop-GPU-Verkäufe auf dem niedrigsten Stand seit Jahrzehnten: Bericht

Beste Grafikkarten für Gaming im Jahr 2023

Raspberry Pi steuert Segelboot durch automatisierten Autopiloten

Von Avram Piltch, 8. Juni 2023

Von Anton Shilov, 8. Juni 2023

Von Ash Hill, 7. Juni 2023

Von Anton Shilov, 7. Juni 2023

Von Mark Tyson, 7. Juni 2023

Von Zhiye Liu 07. Juni 2023

Von Ash Hill, 7. Juni 2023

Von Aaron Klotz, 7. Juni 2023

Von Mark Tyson, 7. Juni 2023

Von Ash Hill, 7. Juni 2023

Von Les Pounder 07. Juni 2023

Update 09.03.2013: Intel PC der 13. Generation Intel PC der 12. Generation AMD: Intel: Nvidia: Magnet:? Getestete Kodierung: AMD GPUs bleiben immer noch hinter Nvidia und Intel zurück: Lesen Sie mehr