Zurück zur Startseite Forum Kontakt zum Team Impressum
 
Grundlagen
Empfang
Receiver / HTPC
TV-Karten
TV-Software
Linux
digital-Recording
Fernbedienung
Download-Center
Hilfe / Glossar
Links
Werbung / Banner
Literatur
Impressum
Suche


modVES.de

Partnershop: DVBShop.net

>> DVBmagic.de >> digital-Recording >> Grundlagen

Grundlagen der Komprimierungsverfahren

Hintergrund und Entstehung der Datenkomprimierung

Die geschichtliche Entstehung der Komprimierungsverfahren ist eher auf Gebiet der Informationstechnik als im Bereich der Unterhaltungsindustrie und Multimedia zu suchen. Erst in den neunziger Jahren (1991/1992) wurde einer der ersten Standards für die digitale Archivierung von Videos festgelegt und ermöglichte somit den Anwendern eine, im Gegensatz zur analogen Archivierungstechnik (VHS-Bänder), verlustfreie Wiedergabe des Videos auf sehr lange Zeit. Bevor es jedoch zu diesem Quantensprung in der Entwicklung des Homeentertainments kam, mussten viele Probleme untersucht, gelöst und immer wieder optimiert werden.

Der Hauptgrund für das Entwerfen verschiedener Komprimierungsverfahren war die schnelle Entwicklung in der Informationstechnik und deren Anwendungsgebiete. Der durch die rasante Entwicklung verbunden Anstieg des Datenvolumen war so stark an, dass die Datendurchsatzraten und Kapazitäten der Systeme, wie zum Beispiel portable Speichermedien, Festplatten, Netzwerke oder Internet, zu gering war, um die Daten zu transportieren oder speichern zu können. Selbst heute könnten die meisten Daten ohne Komprimierung nicht auf der Festplatte abgelegt werden oder würden schon bald die Kapazitäten der Speichermedien überschreiten. Daraus lässt sich herleiten, dass das Problem der Datenarchivierung heute immer noch genauso aktuell ist wie damals und wohl noch lange erforscht werden wird. Ein anderes Beispiel um die Größe einer unkomprimierten Information oder Datei zum Ausdruck zubringen, wäre das Standardvideosignal. Dieses Videosignal hat die folgenden Eigenschaften:

720 Pixel x 576 Zeilen x 24 Bit/Pixel x 25 Bilder/Sekunde

Anhand dieser Merkmale einer Standardvideosequenz kann man erkennen, welch enorm hohe Datenrate fließen muss, um das Video wiederzugeben. Die Dateigröße bei zirka 1 Minute Videosignal umfasst knapp 3 CDs, bei einer Datenrate von zirka 29 MByte/Sekunde.

Aber wie begann die Entwicklung der Kompressionsverfahren?

Wie es fast immer mit einem guten Vorsatz! So setzen sich Wissenschaftler, Entwickler und Forscher das Ziel Daten zu verkleinern in dem sie die Datensätze komprimieren. Bald darauf stellte man fest, dass die Daten meist redukante beziehungsweise verzichtbare Teile besitzen. Anhand dieser Tatsache konnte man das Ziel, das Volumen der Dateien zu verringern, realisieren. Höchste Priorität hat dabei, dass der Informationsgehalt solch einer komprimierten Datei erhalten bleibt, da sonst die Datei für den Empfänger unbrauchbar würde. Jedoch gibt es auch Anwendungsfälle bei denen ein teilweiser Verlust von Informationen absichtlich in Kauf genommen wird und die Daten dennoch verarbeitet werden können. Dieser wichtige Sachverhalt bzw. Unterschied bei der Datenkompression ist zugleich die Grundeinteilung der Komprimierungsverfahren in verlustfreie Kompression und der verlustbehaftete Kompression.
Daten, welche unbedingt mit einem verlustfreien Algorithmus komprimiert werden müssen, um den Informationsgehalt zu bewahren, wären zum Beispiel Textdokumente. Die Begründung der Notwendigkeit in der Anwendung eines verlustfreien Algorithmus liegt allein darin, dass man nach der Komprimierung/Dekomprimierung den erstellten Vortrag wieder komplett wieder vor sich haben möchte und keine Sätze verloren gehen. Bei den Daten wie zum Beispiel Multimedia (Video, Audio) kommen beide Formen vor, es kann mit einem verlustbehafteten Algorithmus oder auch mit einem verlustfreien Algorithmus komprimiert werden, wobei der Verlustbehaftete viel öfter angewendet wird, als der verlustfreie Algorithmus, aber dazu später mehr.

Verlustfreie Kompression (Redundanzreduktion)

Die Grundlage für eine verlustfreie Kompression gibt die Informationstheorie von Claude Elwood Shannon . Deren Aufgabe ist es die Zeichen oder Informationen durch eine minimale Anzahl von Bits darzustellen. Die Wahrscheinlichkeit der Häufigkeit des Auftretens eines Bits spielt dabei eine relevante Rolle. C. E. Shannon ist zu dem Entschluss gekommen, dass man häufig auftretende Zeichen mit so wenig wie möglichen Bits codiert. Da man aber somit eine begrenzte Anzahl von codierbaren Zeichen hätte, werden die Zeichen deren Wahrscheinlichkeit des Auftretens gering ist mit mehreren Bits codiert.
Diese Theorie wurde von verschiedenen Wissenschaftlern aufgegriffen, daraus entwickelte sich später die bekannte Entropie-Kodierung. Einer der bekanntesten Algorithmen, welche auf die Entropiekodierung zurückgreifen, ist zum Beispiel die Huffman-Kodierung oder auch die Shannon-Fano-Kodierung. Diese Art der Kompression wird vor allem bei Daten aus dem Office-Bereich angewendet (Kompression erfolgt bei Speicherung des Dokumentes), zum Beispiel Texte, Tabellen, und arbeitet nach folgendem Prinzip:

Eine ursprüngliche unkomprimiert Information X wird zu einer komprimierten Information X' kodiert. Nach einer späteren Dekodierung entspricht die Information X' der urspünglichen Information X.

Aus diesem Prinzip ist zu erkennen, dass kein Verlust von Informationen der Datei auftritt. Um diese Art der Kodierung weiter zu verdeutlichen, folgt ein Beispiel anhand der Kodierung eines Textes. Da eine reine, unkomprimierte Textdatei zirka 10 MByte Speicherkapazität einnehmen würde, ist es auch hier notwendig das Datei-Volumen zu verringern. Anhand der Redundanzreduktion kann man eine solche Datei auf 1/5 bis 1/10 der ursprünglichen Größe komprimieren.

Beispiel:
Ausgangstext: AUCH EIN KLEINER BEITRAG IST EIN BEITRAG
Kodiertext: AUCH EIN KLEINER BEITRAG IST -4 -3


Bei diesem gegebenen Ausgangstext erkannte der Codec, dass die Wörter EIN und BEITRAG doppelt in dem Ausgangstext vorgekommen sind. In dem erzeugtem Kodiertext steht statt dem EIN eine -4, diese sagt aus, dass das gesuchte Wort (-) 4 Wörter vor ihm zu finden ist. Der gleiche Vorgang des Kodierens wurde auch bei dem Wort BEITRAG durchgeführt.
Genau genommen könnte man auch das EIN in KLEINER kodieren, aber zu Veranschaulichung des Prinzips reicht das angegebene Beispiel vollkommen aus. Eine andere Grundlegende Kodierung ist das verwandte Prinzip der tokenbasierten Kompression. Speziell diese Möglichkeit der Kodierung wird bei der Entropie-Kodierung sowie der Huffman-Kodierung angewendet. Die Basis dieser Kodierung bilden dabei verschiedene Tokens, welche als Abkürzungen für häufig auftretende Wörter, Begriffe oder Befehle fungieren. Das folgende Beispiel wird dies deutlich darstellen.

Beispiel:
Ausgangstext: PRINT "HALLO" ; PRINT "HIER"
Kodiertext: 3F "HALLO" ; 3F "HIER"


In diesem Beispiel kann man deutlich das Token 3F im Kodiertext erkennen, welches für PRINT ersetzt beziehungsweise kodiert wurde.
Diese zwei grundlegenden Prinzipien der verlustfreien Kodierung spielt, wie erwähnt, vor allem im Office-Bereich eine große Rolle, aber auch in der Multimedia-Welt wird mit der Redundanzreduktion gearbeitet. Zum Beispiel das Bildformat TIFF und GIF wird verlustfrei kodiert. Dabei fällt aber auf, dass das TIFF-Format eine extreme Speicherkapazität in Anspruch nimmt und dass das GIF-Format auf 256 Farben beschränkt ist. Ebenso findet man die verlustfreie Kompression bei der Videokompression wieder, bei dieser Art der Komprimierung wird der zeitliche- und räumliche Zusammenhang zwischen benachbarten Pixeln ausgenutzt. Bei einem 5 Sekunden langem Video, welches zu 100% aus schwarzen Pixeln besteht, wird nur 1 Bild pro Sekunde, von insgesamt 25 Bildern pro Sekunde, kodiert. Aber durch den hohen Aufwand, dieser Variante der Videokompression, und des ebenfalls hohen Speicherbedarfs des kodierten Videos, wird die verlustfreie Videokodierung relativ selten angewandt.

Verlustbehaftete Kompression (Irrelevanzreduktion)

Diese Art der Kompression wird vor allem in der modernen Welt der Multimedia angewandt, da auch diese Daten ohne eine dementsprechende Kompression nicht zu handhaben wären. Die Grundlage der Kodierung liegt dabei auf den physiologischen Erkenntnissen über den Menschen, da wir nur ein begrenztes Seh- und Hörvermögen haben. Diese begrenzte Wahrnehmung von Bild und Ton wird in der Komprimierung von Video- und Audiodateien besonders stark genutzt. Die Irrelevanzreduktion reduziert die Information, die für den Empfänger, in dem Fall der Mensch, entbehrlich oder überflüssig sind. Wobei nach der Kodierung der Information X, die komprimierte Information X' nach der Dekodierung nicht mehr der ursprünglichen Information X entspricht. Da, wie beschrieben, entbehrliche oder überflüssige Teile dieser Information wegrationalisiert wurden. Diese "verlorenen" Informationen, kann man nicht wiederherstellen, daraus ist zuschließen, dass sich das kodierte Bild oder der kodierte Ton vom Original unterscheiden muss!

Im Bereich der Videokompression liegt die Priorität der Komprimierung besonders auf der Anzahl der Farben. Da das menschliche Auge empfindlicher auf Helligkeit reagiert, als auf minimale Farbunterschiede, werden die Farbinformationen nur in einer relativ geringen Bandbreite übertragen. Eine ebenso bedeutsame Eigenschaft eines Bildes ist die Schärfe, auf diese Eigenschaft darf nur eine geringe Komprimierung anfallen.
Um diese Art der Kompression so effektiv wie möglich zu nutzen, muss man sich so nah wie möglich an die Grenze physiologischen Wahrnehmbarkeit des Menschen heran tasten. Da man möglichst im Endergebnis keinen Unterschied zum Original sehen sollte. Dieser optimale Fall der Kodierung von Bildern und Videos nennt sich "nicht wahrnehmbare Kompression" oder im englischem "perceptually lossless". Die bekanntesten Vertreter dieser Art der Komprimierung ist wohl die "Joint Picture Experts Group" (Kurzform: JPEG) oder ebenso die daraus entstandene "Moving Picture Experts Group" (Kurzform: MPEG).

In der Audiokomprimierung bezieht man sich auf die beschränkte akustische Wahrnehmung des menschlichen Gehöres. Daraus kann man schlussfolgern, dass Frequenzen oberhalb des Bereiches 20 kHz bis zirka 25 kHz nicht in die komprimierte Datei übertragen werden müssen, da diese der Mensch nicht Wahrnehmen würde. Ebenso können leise Nebentöne, welche von lauteren Tönen übertönt werden, sofort aus dem Original herausgefiltert werden, ohne, dass der Mensch auch nur einen geringsten Unterschied hört.

Seite drucken    DVBmagic News als RSS Feed    DVBmagic News als ATOM Feed







www.dvbmagic.de   (0.0213s) Copyright 2001 - 2011 by Stefan Pratsch und Andreas Erbe


DVB und MHP sind eingetragene Marken der DVB Project