AV1 vs. h265 (HEVC) vs. VP9: Was ist der Unterschied zwischen diesen Komprimierungsstandards?

Blog

HeimHeim / Blog / AV1 vs. h265 (HEVC) vs. VP9: Was ist der Unterschied zwischen diesen Komprimierungsstandards?

Oct 09, 2023

AV1 vs. h265 (HEVC) vs. VP9: Was ist der Unterschied zwischen diesen Komprimierungsstandards?

Verschiedene Video-Codecs liefern unterschiedliche Komprimierungsraten und Videoqualität.

Verschiedene Video-Codecs liefern unterschiedliche Komprimierungsraten und Videoqualität. Aber welches sollten Sie verwenden?

Streaming in 4K ist die neue Norm, aber da alle 16 Millisekunden Informationen für mehr als 8,2 Millionen Pixel übertragen werden, ist das Speichern und Übertragen von 4K-Videos im Internet keine leichte Aufgabe.

Ein zweistündiger Film würde unkomprimiert über 1,7 Terabyte Speicherplatz beanspruchen. Wie schaffen es Streaming-Giganten wie YouTube und Netflix, Videos zu speichern und zu streamen, die so viel Platz beanspruchen?

Nun ja, das tun sie nicht, weil sie Video-Codecs verwenden, um die Größe von Filmen zu reduzieren, aber was ist ein Video-Codec und welcher ist der beste?

Bevor Sie sich eingehend mit der Komplexität von Video-Codecs befassen, ist es wichtig zu verstehen, wie ein Video erstellt wird. Einfach ausgedrückt ist ein Video nichts anderes als eine Reihe von Standbildern, die sich schnell gegenseitig ersetzen.

Aufgrund dieser hohen Änderungsgeschwindigkeit denkt das menschliche Gehirn, dass sich die Bilder bewegen, wodurch die Illusion entsteht, ein Video anzuschauen. Wenn Sie sich also ein Video in 4K ansehen, sehen Sie lediglich eine Reihe von Bildern mit einer Auflösung von 2160 x 3840. Dank dieser hohen Bildauflösung bietet ein in 4K aufgenommenes Video ein großartiges Videoerlebnis. Allerdings erhöht diese hohe Bildauflösung die Größe des Videos und macht es unmöglich, über Kanäle mit begrenzter Bandbreite, wie zum Beispiel das Internet, zu streamen.

Um dieses Problem zu lösen, haben wir Video-Codecs. Kurz für Coder/Decoder oder Komprimierung/Dekomprimierung. Ein Video-Codec komprimiert den Bildstrom in Datenbits. Diese Komprimierung kann entweder die Qualität des Videos verringern oder aufgrund der verwendeten Komprimierungsalgorithmen keinen Einfluss darauf haben.

Wie der Name schon sagt, reduziert das Komprimierungsbit in einem Codec die Größe jedes Bildes. Um dasselbe zu erreichen, nutzt der Komprimierungsalgorithmus die Nuancen des menschlichen Auges aus und verhindert so, dass die Menschen nicht wissen, dass die Videos, die sie ansehen, komprimiert sind.

Die Dekomprimierung hingegen funktioniert umgekehrt und rendert das Video anhand der komprimierten Informationen.

Obwohl Codecs beim Komprimieren von Informationen hervorragende Arbeit leisten, kann die Durchführung derselben eine Belastung für Ihre CPU sein. Aus diesem Grund ist es normal, dass bei der Ausführung von Videokomprimierungsalgorithmen auf Ihrem System Schwankungen in der Systemleistung auftreten.

Um dieses Problem zu lösen, sind CPUs und GPUs mit spezieller Hardware ausgestattet, die diese Komprimierungsalgorithmen ausführen kann. Dadurch kann die CPU die anstehenden Aufgaben ausführen, während die dedizierte Hardware die Video-Codecs verarbeitet, wodurch die Effizienz verbessert wird.

Nachdem wir nun ein grundlegendes Verständnis davon haben, was ein Videocodec tut, können wir uns ansehen, wie ein Codec funktioniert.

Wie bereits erläutert, bestehen Videos aus Bildern und die Chroma-Unterabtastung reduziert die Informationen in jedem Bild. Dazu werden die in jedem Bild enthaltenen Farbinformationen reduziert. Doch wie erkennt das menschliche Auge diese Reduzierung der Farbinformationen?

Nun ja, das menschliche Auge ist gut darin, Helligkeitsänderungen zu erkennen, aber das Gleiche gilt nicht für Farben. Dies liegt daran, dass das menschliche Auge über mehr Stäbchen (Photorezeptorzellen, die für die Erkennung von Helligkeitsänderungen verantwortlich sind) im Vergleich zu Zapfen (Photorezeptorzellen, die für die Farbdifferenzierung verantwortlich sind) verfügt. Der Unterschied zwischen Stäbchen und Zapfen verhindert, dass das Auge Farbveränderungen beim Vergleich komprimierter und unkomprimierter Bilder erkennt.

Um eine Chroma-Unterabtastung durchzuführen, wandelt der Videokomprimierungsalgorithmus die Pixelinformationen in RGB in Helligkeits- und Farbdaten um. Anschließend reduziert der Algorithmus den Farbanteil im Bild basierend auf den Komprimierungsstufen.

Videos bestehen aus mehreren Einzelbildern und in den meisten Fällen enthalten alle diese Einzelbilder die gleichen Informationen. Stellen Sie sich zum Beispiel ein Video vor, in dem eine Person vor einem festen Hintergrund spricht. In einem solchen Fall haben alle Frames im Video eine ähnliche Zusammensetzung. Daher werden nicht alle Bilder zum Rendern des Videos benötigt. Alles, was wir brauchen, ist ein Basisbild, das alle Informationen und Daten enthält, die sich beim Übergang von einem Bild zum anderen ändern.

Um die Videogröße zu reduzieren, unterteilt der Komprimierungsalgorithmus die Videobilder daher in I- und P-Bilder (vorhergesagte Bilder). Hier sind I-Frames die Grundwahrheit und werden zur Erstellung von P-Frames verwendet. Die P-Frames werden dann unter Verwendung der Informationen in den I-Frames und der Änderungsinformationen für diesen bestimmten Frame gerendert. Mit dieser Methode wird ein Video in eine Reihe von I-Frames zerlegt, die in P-Frames verschachtelt sind, wodurch das Video weiter komprimiert wird.

Nachdem wir das Video nun in I- und P-Frames unterteilt haben, müssen wir uns mit der Bewegungskomprimierung befassen. Ein Teil des Videokomprimierungsalgorithmus, der dabei hilft, die P-Frames mithilfe der I-Frames zu erstellen. Zu diesem Zweck zerlegt der Komprimierungsalgorithmus den I-Frame in Blöcke, die als Makroblöcke bezeichnet werden. Diesen Blöcken werden dann Bewegungsvektoren zugewiesen, die die Richtung definieren, in die sich diese Blöcke beim Übergang von einem Bild zum anderen bewegen.

Diese Bewegungsinformationen für jeden Block helfen dem Videokomprimierungsalgorithmus, die Position jedes Blocks in einem kommenden Frame vorherzusagen.

Genau wie Änderungen in Farbdaten kann das menschliche Auge subtile Änderungen in Hochfrequenzelementen in einem Bild nicht erkennen, aber was sind Hochfrequenzelemente? Nun, Sie sehen, das auf Ihrem Bildschirm gerenderte Bild besteht aus mehreren Pixeln, und die Werte dieser Pixel ändern sich je nach angezeigtem Bild.

In einigen Bereichen des Bildes ändern sich die Pixelwerte allmählich, und solche Bereiche werden als niedrigfrequent bezeichnet. Wenn sich die Pixeldaten hingegen schnell ändern, wird der Bereich als Bereich mit Hochfrequenzdaten kategorisiert. Videokomprimierungsalgorithmen verwenden die diskrete Kosinustransformation, um die Hochfrequenzkomponente zu reduzieren.

So funktioniert es. Zuerst läuft der DCT-Algorithmus auf jedem Makroblock und erkennt dann die Bereiche, in denen sich die Pixelintensität sehr schnell ändert. Anschließend werden diese Datenpunkte aus dem Bild entfernt, wodurch die Größe des Videos verringert wird.

Nachdem alle überflüssigen Informationen im Video entfernt wurden, können wir die verbleibenden Datenbits speichern. Zu diesem Zweck verwendet der Videokomprimierungsalgorithmus ein Codierungsschema wie die Huffman-Codierung, das alle Datenbits in einem Frame mit der Häufigkeit ihres Auftretens im Video verknüpft und sie dann baumartig verbindet. Diese verschlüsselten Daten werden auf einem System gespeichert und ermöglichen so die einfache Wiedergabe eines Videos.

Verschiedene Video-Codecs verwenden unterschiedliche Techniken zum Komprimieren von Videos, aber ganz grundsätzlich nutzen sie die fünf oben definierten grundlegenden Methoden, um die Größe von Videos zu reduzieren.

Nachdem wir nun verstanden haben, wie Codecs funktionieren, können wir feststellen, welcher von AV1, HEVC und VP9 der beste ist.

Wenn Sie ein 4K-Video haben, das viel Platz auf Ihrem System einnimmt und es nicht auf Ihre bevorzugte Streaming-Plattform hochladen kann, suchen Sie möglicherweise nach einem Video-Codec, der das beste Komprimierungsverhältnis bietet. Sie müssen jedoch auch bedenken, dass die Qualität abnimmt, wenn Sie das Video weiter komprimieren. Daher ist es bei der Auswahl eines Komprimierungsalgorithmus wichtig, auf die Qualität zu achten, die er bei einer bestimmten Bitrate liefert. Aber wie hoch ist die Bitrate eines Videos?

Einfach ausgedrückt ist die Bitrate eines Videos definiert als die Anzahl der Bits, die das Video benötigt, um eine Sekunde lang abzuspielen. Beispielsweise hat ein unkomprimiertes 24-Bit-4K-Video mit 60 Bildern eine Bitrate von 11,9 Gbit/s. Wenn Sie also ein unkomprimiertes 4K-Video im Internet streamen, muss Ihr WLAN jede Sekunde 11,9 Gigabit an Daten liefern – Ihr monatliches Datenkontingent ist also innerhalb von Minuten erschöpft.

Durch die Verwendung eines Komprimierungsalgorithmus hingegen wird die Bitrate basierend auf der von Ihnen gewählten Bitrate auf einen sehr geringen Wert reduziert, ohne dass die Qualität darunter leidet.

Wenn es um Komprimierbarkeits-/Qualitätszahlen geht, ist AV1 führend und bietet eine um 28,1 Prozent bessere Komprimierung im Vergleich zu H.265 und eine Ersparnis von 27,3 Prozent im Vergleich zu VP9 bei ähnlicher Qualität.

Wenn Sie also die beste Komprimierung ohne Qualitätseinbußen suchen, ist AV1 das Komprimierungsverhältnis für Sie. Aufgrund des hervorragenden Komprimierungs-Qualitäts-Verhältnisses des AV1-Codecs wird er von Google in seiner Videokonferenzanwendung Google Duo und von Netflix bei der Videoübertragung über eine Datenverbindung mit geringer Bandbreite verwendet.

Wie bereits erläutert, kodiert ein Videokomprimierungsalgorithmus ein Video, sobald es komprimiert ist. Um dieses Video abzuspielen, muss Ihr Gerät es nun dekodieren. Wenn Ihr Gerät daher nicht über die Hardware-/Softwareunterstützung zum Dekomprimieren eines Videos verfügt, kann es es nicht ausführen.

Daher ist es wichtig, den Kompatibilitätsaspekt eines Komprimierungsalgorithmus zu verstehen, denn welchen Sinn hat es, Inhalte zu erstellen und zu komprimieren, die nicht auf vielen Geräten ausgeführt werden können?

Wenn Sie also nach Kompatibilität suchen, sollte VP9 der richtige Codec für Sie sein, da er auf über zwei Milliarden Endpunkten unterstützt wird und auf jedem Browser, Smartphone und Smart-TV ausgeführt werden kann.

Das Gleiche gilt nicht für AV1, da es neuere, komplexere Algorithmen verwendet, um die Dateigröße eines Videos zu reduzieren, und nicht auf älteren Geräten abgespielt werden kann. Was die Browserunterstützung betrifft, kann Safari AV1 nicht abspielen, aber Browser wie Firefox und Chrome können AV1-Videos problemlos abspielen.

Was die Hardwareunterstützung angeht, unterstützen neue SoCs und GPUs wie Snapdragon 8 Gen 2, Samsung Exynos 2200, MediaTek Dimensity 1000 5G, Google Tensor G2, Nvidias RTX 4000-Serie sowie Intel Xe- und Arc-GPUs eine beschleunigte Hardware-Dekodierung für den AV1-Codec . Wenn Sie Geräte mit diesen Chipsätzen besitzen, können Sie daher mit den AV1-Codecs komprimierte Inhalte streamen, ohne die Leistung Ihrer CPUs/GPUs zu belasten.

Was den H.265-Codec betrifft, können die meisten gängigen Browser wie Safari, Firefox und Google Chrome mit dem Komprimierungsalgorithmus codierte Videos problemlos ausführen. Allerdings ist H.265 im Vergleich zu AV1 und VP9 kein Open Source und für die Nutzung des H.265-Codecs müssen Lizenzen erworben werden. Aus diesem Grund können Apps wie der Movies & TV-Videoplayer von Microsoft, die im Betriebssystem enthalten sind, standardmäßig keine mit H.265 kodierten Videos abspielen. Stattdessen müssen Benutzer zusätzliche Add-ons aus dem Windows Store installieren, um solche Videos auszuführen.

Video-Codecs reduzieren die Größe eines Videos erheblich, aber um die Größe eines Videos zu reduzieren, muss das unkomprimierte Video mithilfe von Software verarbeitet werden, was Zeit kostet. Wenn Sie also die Größe eines Videos reduzieren möchten, müssen Sie auf die Zeit achten, die zum Komprimieren des Videos mithilfe eines Komprimierungsalgorithmus benötigt wird.

Was die Kodierungseffizienz betrifft, ist VP9 führend und die Kodierungszeit für die Komprimierung von Videos ist viel kürzer als bei H.265 und AV1. AV1 hingegen hat die langsamste Kodierungszeit und kann im Vergleich zu H.265 mehr als dreimal so lange für die Kodierung eines Videos benötigen.

Wenn es um Video-Codecs geht, ist die Suche nach dem perfekten Codec sehr subjektiv, da jeder Codec unterschiedliche Funktionen bietet.

Wenn Sie die beste Videoqualität suchen, entscheiden Sie sich für AV1. Wenn Sie hingegen nach dem am besten kompatiblen Videocodec suchen, ist VP9 die beste Lösung für Sie.

Schließlich eignet sich der H.265-Codec hervorragend, wenn Sie eine gute Qualität und Komprimierung ohne Codierungsaufwand benötigen.

Nischay ist Absolvent der Elektronik- und Kommunikationstechnik und hat ein Gespür für die Vereinfachung alltäglicher Technologie. Seit 2020 macht er Technik leicht verständlich und arbeitet mit Publikationen wie Candid.Technology, Technobyte, Digibaum und Inkxpert zusammen. Darüber hinaus liebt Nischay Automobiltechnik und arbeitet seit zwei Jahren als Ingenieur bei Stellantis. Er verfügt über umfassende Kenntnisse über die Funktionen, die moderne Autos sicherer und einfacher zu fahren machen.

VERWENDEN SIE DAS VIDEO DES TAGES. Scrollen Sie, um mit dem Inhalt fortzufahren