Zurück zur Startseite Forum Kontakt zum Team Impressum
 
Grundlagen
Empfang
Receiver / HTPC
TV-Karten
TV-Software
Linux
digital-Recording
Fernbedienung
Download-Center
Hilfe / Glossar
Links
Werbung / Banner
Literatur
Impressum
Suche


modVES.de

Partnershop: DVBShop.net

>> DVBmagic.de >> Hilfe / Glossar

FAQ(frequent asked question)

Diese FAQ Seite soll so weit ausgebaut werden, dass in einiger Zeit keine Frage mehr unbeantwortet bleibt.
Bitte unterstützen Sie uns dabei. Wenn Sie einen neuen Eintrag haben, dann können Sie diesen im Forum unter dem Topic Support-FAQ veröffentlichen,.

technische FAQ
  |  Hardware oder SoftwareDecoderKarte?   |  DVB-Karte als analoge Aufnahmequelle?   |  Übertragung/Modulation von Signalen   |  


Recording FAQ
  |  Auflösung   |  Resize   |  Croppen   |  Ratio Aspekt   |  Interlace   |  Deinterlace   |  Kompression  |  


Software FAQ
  |  Parallelbetrieb v. TechnoTrend Treiber   |  Overlay Modus vs. Primary Mode   |  


technische FAQ

Welche DVB-Karte soll es sein? Hardware oder SoftwareDecoder?

Bevor sich die Frage Von welcher Firma soll ich mir eine DVB-Karte kaufen? stellt, sollte man sich erstmal klar über die Leistung seines PC-Systems und deren Verwendung sein. Denn durch diese zwei Fakten wird entschieden, ob Sie sich eine DVB-Karte mit HardwareDecoder oder ohne kaufen können bzw. müssen. Die folgende Tabelle soll einen Überblick geben, mit welchen PC-Systemen + DVB-Karte + sonstigen Arbeiten am PC (Officeanwendungen, Grafikanwendungen von Zeichnen bis Rendern, Umwandlung von Video oder Audiomaterial  usw.) ein Fernsehen möglich ist.

PC - System mit DVB - < 500 MHz 500 - 1000 MHz 1000 - 2000 MHz >2000MHz
HardwareDecoder X X X X
HardwareDecoder + geringe rechenintensive Arbeiten  X X X X
HardwareDecoder + rechenintensive Arbeiten   X X X
SoftwareDecoder   X X X
SoftwareDecoder + geringe rechenintensive Arbeiten   beschränkt möglich X X
SoftwareDecoder + rechenintensive Arbeiten     beschränkt möglich X


Haben Sie einen PC-System, dass es laut Tabelle nicht ermöglicht ein SoftwareDecoder-DVBKarte einzusetzen, so können Sie entweder ihren PC aufrüsten und somit die geforderte Leistung erhalten oder Sie entscheiden sich für eine HardwareDecoder-Karte. Falls Sie sich nicht sicher sind, können Sie uns gerne im Forum besuchen und ihr Problem erläutern.

Kann man mit einer DVB Karte analoge TV / Videosignale in den Computer übertragen?

JEIN
Mit einer DVB Karte ist es nur dann möglich ein analoges Signal zu capturen, wenn die Karte einen anlogen Eingang(Video-IN/SVideo-IN) besitzt. Manche Firmen wie zum Beispiel KNC bieten ihre DVB-Produkte in einer Plus-Version an, welche einen SVideo-Eingang besitzen und somit das Digitalisieren von analogen Quellen erlauben.
Besitzen Sie keine solche DVB-Karte, können Sie zum Beispiel die WinTV go von Hauppauge oder den Grafikkarten-Video-Eingang zum Digitalisieren von analogen Quellen nutzen.

Übertragung / Modulation von Signalen

Was ist eine Modulation und wofür ist sie gut?


Um die eigentlich zu übertagenden Signale bzw. Informationen (hier die DVB-Streams) über Kabel, Sat oder Terrestrisch zu senden ist es notwendig, diese Signale in einem Trägersignal unter zu bringen. Der Vorgang des Einbringen von Nutzsignalen in das Trägersignal heißt Modulation. Dabei werden die Eigenschaften des Trägersignals je nach Modulationsart moduliert, also geformt bzw verändert.

Modulationsarten

In der Nachrichtentechnik werden viele unterschiedliche Modulationsarten genutzt, wie zum Beispiel:

analoge Modulationen:
  • Amplitudenmodulaltion (AM)
  • Winkelmodulation
digitale Modulationen:
  • Phasenumtastung (PSK)
  • Quadratur-Amplitudenmodulation(QAM)
Welche Modulation nun schlußendlich für eine bestimmte Signalübertragung genutzt, ist von mehreren Faktoren wie zum Beispiel zu übertragendes Signal, Übertragungsmedium, Eigenschaften des Medium und so weiter abhängig. Bei der Übertragung von digital TV werden natürlich die digitalen Modulationen genutzt. Da sich bei DVB-S, DVB-C und DVB-T aber nicht nur die Übertragungsmedien (also Kabel bzw. Luft) sondern auch die Störgrößen oder -faktoren unterscheiden, wurde für jede Übertragungsart die optimale Modulation ausgewählt, so dass für...
  • DVB-S die Quadrature Phase Shift Keying (4 PSK)
  • DVB-C die Quadratur Amplituden Modulation (64 QAM)
  • DVB-T die Coded Orthogonal Frequency Division Multiplexing (COFDM)
...genutzt werden. Da die digital-TV-Empfänger für eines der jeweiligen Übertragungs- bzw. Modulationsarten gebaut werden, wird an dieser Stelle klar, warum man z.B. mit einer DVB-C Karte / Receiver kein DVB-S oder DVB-T empfangen kann. Denn der im Gerät verbaute Demodulator, der die Nutzsignale wieder aus dem Trägersignal zurück gewinnt, kann mit einer anderen Modulationsart (ausser der die er benutzt) nix anfangen und somit keine Nutzsignale zurückgewinnen!

Da eine weitere Vertiefung in das Thema Modulation an sich "nichts mehr" mit digital TV zu tun hat, sondern in das Gebiet der Nachrichtentechnik fällt, brechen wir an dieser Stelle ab. Um Sie nicht "dumm da stehen" zu lassen, verweisen wir Sie an folgende Links, in denen die jeweiligen Modulation gut verständlich und ausführlich erläutert wurden.

  |  QPSK (DVB-S)  |     |  COFDM (DVB-T)  |     |  QAM (DVB-C)  |  


Recording - FAQ

Auflösung:

Der Begriff "Auflösung" taucht immer wieder bei den verschieden Teilbereichen /-themen (z.B.: Bildschirm-, TV-Auflösung, Videobearbeitung, usw.) des PC┤s auf, bei allen ist jedoch das Selbe gemeint.

Zum Erklären der Auflösung ziehen wir das Beispiel der Grafikkarte / Bildschirms heran:

In diesem Beispiel hängt die Auflösung von den beiden Geräten (Grafikkarte und Monitor) ab. Die Auflösung ist nichts anderes als ein Wert der in X-Punkten mal Y-Punkten angegeben wird und besagt, wie viele Punkte in einer Bildschirmzeile und wie viele Zeilen auf dem Schirm dargestellt werden können. Man teilt dazu den Monitor in ein Koordinatensystem auf.

Von der Höhe dieser Auflösung hängt es ab, wie detailliert ein Bild dargestellt werden kann. Die übliche Auflösungen bei beim Monitor / Grafikkarte sind in einem Verhältnis gewählt, dem die X-Achse mehr Bildpunkte (Pixel) besitzt als die Y-Achse z.B. : 640x480, 800x600, 1024x786 usw. 

Da dies eine Internetseite für DVB ist , wollen wir natürlich auch noch eine kurze Info zu den Auflösungen  im "DVB-Bereich" sagen.

Die im "DVB-Bereich" verwendeten Auflösungen sind abhängig  von den jeweiligen Sendern, die die Sendungen (Filme, Reportagen, usw.) ausstrahlen. Typische Auflösungen sind: 720x576 (full D1); 704 x 576 (cropped D1);  480x576 (2/3 D1) hierbei ist noch zu erwähnen, das es auch andere Auflösungen gibt, die aber nicht so häufig verwendet werden wie z.B.:  544x576.

Resizen:

Das Resizen ist das Verändern ( verkleinern / vergrößern ) der Auflösung des Bildes / Filmmaterials. Zum Beispiel kann man mit Programmen zur Videoverarbeitung das Bild von einer Auflösung 720x576 in eine Auflösung von 352x288 ändern. Ob man nun das Filmmaterial resizen muss oder nicht, hängt von dem jeweiligen Ausgangsmaterial und dem gewünschten Ergebnis ab, wobei wir als Ergebnis die jeweiligen Videoformate / Videostandards meinen.

gewünschtes Ergebnis Standardauflösung
SVCD 480x576
VCD 352x288
DivX / XviD und andere Videocodecs für AVI┤s freiwählbar, da es keinen vorgeschrieben Standards gibt


Hiermit wird klar, dass z.B. bei dem Erstellen einer SVCD alle anderer Auflösungen (außer 480x576) auf die Auflösung von 480x576 geändert werden müssen,um den SVCD - Standard gerecht zu werden.

Zusatzhinweis zum Resizen von Videomaterial welches im DivX, XviD usw. archiviert werden soll.
Wenn man Filme in das DivX - Format umwandeln will, kann man zwei verschiedene Farbräume (RGB, YUV)wählen in dem der Film umgewandelt werden soll. Beim Resizen im YUV - Farbraum folgende Bedingungen beachten werden:

Die Auflösung des Films muss durch 16 teilbar sein, d.h. sowohl Breite also auch Höhe des Films. Um diesen Sachverhalt zu verdeutlichen, ist ein Beispiel genau das richtige.

Beispiel mit dem Ausgangsmaterial : 480x576 und 4/3

480 (Breite) / 1.33Periode (Ratio Aspekt von 4/3)= 360
-> somit wäre die Auflösung 480x360 , aber da 360 / 16 = 22.5 ist, wird die Forderung durch 16 teilbar nicht erfüllt.

Also muss man weiter nach der richtigen Auflösung suchen, die diese Bedingung erfüllt. Einen Ansatz zum Suchen haben wir schon gefunden und zwar das Ergebnis der letzten Rechnung. Da aber 22.5 aber keine natürlich Zahl ist, nehmen wird nur die 22.

22*16 = 352 -> 352*1.33periode = 469 -> 469/16 = 29.31
-> 29.31 ist eine gebrochene Zahl, also erfüllt auch diese Auflösung 468x352 nicht die Bedingung!

21*16 = 336 -> 336*1.33periode = 448 -> 448/16 = 28
-> 28 ist ein gerade Zahl und somit erfüllt die Auflösung die Bedingung, also kann man die Auflösung 480x576 nach 448x336 resizen!!

Man könnte auch in eine größere Auflösung resizen, allerdings wird dadurch die Qualität des Films umso schlechter, je größer die Auflösung wird.

23*16 = 368 -> 368*1.33periode = 490 -> 490/16 = 30,62
-> 30,62 ist eine gebrochene Zahl, also erfüllt auch diese Auflösung 468x352 nicht die Bedingung!

24*16 = 384 -> 384*1.33periode = 512 -> 512/16 = 32
-> 32 ist ein gerade Zahl und somit erfüllt die Auflösung die Bedingung, also kann man die Auflösung 480x576 nach 512x384 resizen!!

Hinweis : Bei anderen Auflösungen z.B.: 720x576, 16/9 und widescreen Filmen wird genauso gerechnet. Es muss nur der jeweiligen Ratio Aspekt berücksichtigt werden.


Croppen:

Das Croppen ist das Entfernen / Wegschneiden von "nicht benötigten Teilen" der Auflösung. Mit "nicht benötigten Teilen" der Auflösung sind, z.B.: die schwarzen Ränder bei 16/9 oder widescreen Filmen, gemeint. Manchmal kann es jedoch auch vorkommen, dass ausgestrahlte Sendungen links oder rechts des Bildes einen kleinen schwarzen Streifen (so ca. 2-8 Pixel) haben, natürlich fällt das auch in diesem Bereich. Um es ein bisschen Anschaulich zumachen um was es geht, sind hier ein paar Bilder.

Widescreen Film uncropped



Widescreen Film gecropped



Das Croppen ist allerdings nur bei Filmen die in AVI ( mit z.B.: DivX , XviD usw.) archiviert werden sollen sinnvoll. Da durch das Croppen natürlich die Auflösung geändert wird, denn wenn man bei einem Film im widescreen Format mit einer Auslösung von z.B.: 720x576 oben und unten ca. 120 Pixel wegschneidet, um die schwarzen Ränder zu beseitigen, entsteht eine neue Auflösung von 720x336. Wenn man nun einen Film im AVI-Format archivieren will ist das kein Problem, da es hier keinen direkt vorgeschrieben Standard für die Auflösung gibt und durch das Entfernen der schwarzen Streifen eine kleinere Auflösung umwandelt werden muss, was wiederum Umwandlungszeit und Speicherplatz für den fertigen Film spart.

Wenn man aber eine SVCD oder VCD erstellen will, lohnt es sich nicht, denn hier ist eine Standardauflösung vorgeschrieben. Wenn man nun die schwarzen Streifen entfernen würde, würde wie beim obigen Beispiel eine Auflösung von 720x336 entstehen. Da diese Auflösung aber nicht dem Standard von 480x576 entspricht, müsste man nun die Auflösung von 720x336 auf 480x576 resizen. Da aber durch das Entfernen der schwarzen Streifen die Auflösung schon geändert wurde und zwar verkleinert von einer Höhe 576 auf eine Höhe von 336. Durch ein Resizen auf eine Höhe von 576 würde zwar die geforderte Höhe entstehen , aber gleichzeitig würde das Bild gestreckt. Dies würde sich dann dadurch zeigen, dass die Menschen auf einmal Eierköpfe haben. Um das zu vermeiden, müssten vor dem Resizen wieder die schwarzen Streifen einbracht werden oder das Videoprogramm müsste eine Funktion haben, bei der man den Ratio Aspekt einstellen kann.

Ratio Aspekt:

Der Ratio Aspekt ist das Verhältnis zwischen der Breite und Höhe des "sichtbaren" Bildmaterials / Auflösung , also ohne die schwarzen Streifen. Wie Ihnen bestimmt schon bekannt ist gibt es verschiedenen Filmformate:

Filmformat Ratio Aspekt
4/3 1.25 - 1.33
16/9 1.75 - 1.85
widescreen 2.25 - 2.35


Interlace:

Interlace oder Interlacing ist die englische Bezeichnung für das Zeilensprungverfahren. Wie ja bekannt seinen dürfte, nimmt das menschliche Auge bewegte Bilder erst flüssig wahr, wenn eine mindest Frequenz von 23 Bilder/s vorhanden ist. Da dies aber nicht ausreicht um einen den Film flimmerfrei an zuschauen , wurde 1927 das Zeilensprungverfahren von F. Schröter entwickelt. Hierbei werden die 25 Bilder die in einer Sekunde dargestellt werden , in so genannte Halbbilder geteilt. Das erste Halbbild beinhaltet alle Zeilen mit ungeraden Zeilennummern und das zweite Halbbild alle Zeilen mit gerader Nummer. Durch die Teilung der Bilder , können die Halbbilder mit der doppelten Frequenz (50Hz) hintereinander und ineinander verschachtelt übertragen werden, wodurch der Film nicht nur flüssig und sondern auch flimmerfrei anzuschauen ist.

erstes Halbbild zweites Halbbild zusammengesetzte Halbbilder


Deinterlace:

Das Deinterlacing ist wie es der Name schon verrät , das Beseitigen des Zeilensprungverfahrens , also das Zusammenfügen der Halbbilder zu einem Vollbild. Aber warum sollte man deinterlacen? Nun dieses Verfahren wurde für die Fernsehtechnik und nicht für den PC entwickelt. Die heutige PC┤s / Monitore / Grafikkarten arbeiten mit flimmerfreien hohen Frequenzen, so dass das Zeilensprung nicht benötig wird. Auf dem PC / Monitor werden ausschließlich Vollbilder wiedergeben, dies nennt man die Progressive scan - Darstellung.

Grundsätzlich gibt es drei Arten des Deinterlacings:

1. Das einfache Zusammenfügen der Halbbilder:

hierbei werden die Halbbilder einfach wieder zu Vollbilder zusammengesetzt. Der Nachteil dieser Methode ist ein entstehender Kammereffekt, d.h. beim Zusammensetzen der Halbbilder entstehen "kleine Verschiebungen" der Zeilen, wodurch sich waagrechte Streifen bei der Wiedergabe des Films bemerkbar machen.
2. Das interpoliere Zusammenfügen der Halbbilder:

hierbei werden die Halbbilder ebenfalls zusammengesetzt , aber um den oben genannten Kammereffekt zu vermeiden, wird dabei die "goldene Mitte" gebildet, d.h. das Programm mit dem der Film umgewandelt wird, berechtet die Mitte des Zeilenversatzes und fügt das Bild zusammen. Da dies schlecht mit unseren logo darstellbar ist , muss an dieser Stelle ein einfaches Bild reichen. Wie man aber trotzdem erkennen , kann ist der dunkelblaue Streifen der Mittelwert. Durch diese Methode des Deinterlacings kann es passieren das scharfen Konturen auf einmal weicher gezeichnet werden oder das gar schmale Strukturen ,die nur eine Zeile hoch sind einfach untergehen.
3. Das Weglassen eines Halbbildes:

bei dieser Methode wird ein Halbbild weggelassen, in dem man die Zeilenanzahl ( also die Auflösungshöhe) verringert. Jedoch muss man auch die Breite der Auflösung ändern damit man den richtigen Ratio - Aspekt erhält. Natürlich lohnt sich diese Methode nur wenn man sowieso vor hat seinen Film in eine kleiner Auflösung zu resizen. Um welchen Faktor die Auflösung des Filmmaterials geändert werden muss um den keinen Kammereffekt entstehen zu lassen , hängt von der Stärke des Kammereffekts ab.




Aus den drei Methoden ist ersichtlich, dass das Umwandeln von Interlace in Progressive scan (also das Deinterlacing) leider nur mit Qualitätsverlusten des Bildes möglich ist. Ob Sie nun deinterlacen oder nicht, hängt davon ab, ob der Videocodec, in dem der Film archiviert wird, eine Interlace - Darstellung zulässt oder nicht und ob sie darauf bestehen einen Film mit Vollbilder anstatt mit Halbbilder zu archivieren.

Kompression:

Die Kompression von Video und Audio-Daten war damals und ist heutzutage immer noch notwendig, da ein durchschnittlicher PC oder andere Geräte nicht in der Lage sind Video- und Audiosignale oder Datenmenge von etwa 30Mbyte/s bis 240MByte/s zu verarbeiten. So entschloss sich das internationale Normierungsgremium ( ISO ) einen Standard für die Kompression von Video & Audiodaten entwickeln zu lassen und rief die Motion Pictures Expert Group in Leben, die diesen Standard entwickeln sollte. Der erste Videokompressionsstandard entstand 1991 und wurde so genannte wie die Gruppe die es entwickelte -> MPEG / MPG

Der MPG1 - Kompressionsstandard:

Dieser Standard bietet eine Qualität die ungefähr an die VHS-Qualität rankommt. Zwar hat die Auflösung nur ca. 1/4 ( 352x288 Pixel ) der org. PAL (720x576 Pixel ) Auflösung, aber dafür auch eine geringer Datenrate, so dass man eine VCD erstellen konnte, die auf einem Single Speed CD-Rom ( 1.4 MBit/s ) abgespielt werden konnte. Heutzutage werden die VCD┤s aber mit einer höheren Bitrate erstellt, sodass ein Single Speed CD-Rom nicht mehr ausreicht, was aber kein Problem darstellen sollte. Der größte und auch bemerkbare Nachteil von MPG1 ist die konstante Bitrate. Da in einem Film die Bewegungen nicht immer gleich sind, sprich in einer Actionszene wesentlich mehr Bewegung im Bild ist, als bei einer Nachrichtensendung wo sich höchstens mal der Sprecher bewegt, kommt es zum Beispiel zur Pixel- oder Blockbildung bei stark bewegungsreichen Szenen, denn diese Szenen bräuchten eine höhere Bitrate um das Bild in gleicher Qualität anzuzeigen. Da aber MPG1 eine konstante Bitrate besitzt, kommt es dem Effekt, dass die bewegungsarmen Szenen die Bitrate nicht ganz ausnutzen und die bewegungsreichen Szenen mehr Bit pro Sekunde bräuchten ( also eine höhere Bitrate ). Um diesen Effekt zu beseitigen, müsste der Kompressionsstandard anstatt einer konstanten Bitrate eine variable Bitrate besitzen, was auch beim Nachfolger des MPG1-Codecs berücksichtig wurde.

Der MPG2 - Kompressionsstandard:

Wie oben schon angedeutet wurde, reichte der erste Standard nicht aus, somit wurde der MPG2-Standard 1995 offiziell der Videokompressionsstandard für das digitale Fernsehen mit einer variablen Datenrate von bis zu 8 MBit/s. Die Auflösungen von MPG2 - codierten Filmen hängt davon ab für welches Medium die MPG2-Kompression angewandt wird.

 Medium  Auflösung
 SVCD  480x576
 DVD  720x576
 Digitales Fernsehen  ist von den jeweiligen Sendern abhängig, möglich sind: 480x576 , 720x576 und andere diverse Auflösungen z.B.: 544x576


Die MPG - Komprimierung

Da die Komprimierung von Video- & Soundmaterial ziemlich komplex und kompliziert ist, werden wir an dieser Stelle nur das Thema ankratzen und nicht vollständig erklären.

Die gute und starke Komprimierung des Videomaterials wird durch verschiede Faktoren beeinflusst oder erst ermöglicht:

Die Korrelation : ist die statische Ähnlichkeit zw. den Bilder die aufeinander folgen, d.h. zwischen dem ersten Bild , dem mittleren Bild und dem nachfolgendem Bild ist eine sehr hoche Ähnlichkeit vorhanden, somit ist eine deutlich höhere Kompression als bei der JPEG - Kompression möglich, denn es müssen nicht alle Bildinformationen von jedem Einzelbild gespeichert werden.
Motion Compensation ist ähnlich wie die Korrelation, der Unterschied ist aber, dass hier die Ähnlichkeit der gemeinsamen Pixelbewegungen z.b: bei einen Kameraschwenk, zur weitern Kompression ausgenutzt wird.


Der MPEG Algorithmus zum Codieren basiert im wesentlichen auf den gleichen Grundtechniken wie bei der JPEG - Komprimierung ( YCrCb Farbraum , 8x8 DCT =Diskreten Cosinus Transformation , Quantisierung). Da dies jetzt sehr theoretisch und schwer zu erklären ist, werden wir die oben genannten Begriffe nicht erklären. Es sein jedoch noch gesagt, dass die Quantisierung verlustbehaftet ist und zusammen mit der DCT dafür verantwortlich ist, dass sich bei der Dekompression des Videomaterials störende Artefakte z.B.: Klötzchen bilden.

Ein weiterer wichtiger Punkt zur der MPG2 Komprimierung, ist die Einteilung der Bilder in 3 verschiedene Arten und das Zusammenschliessen dieser Bilder zu einer Bildgruppe (GOP = groups of piture). Die verschiedenen Bildarten sind:

 I  - frames ( I  -  intra) Sind eigenständige Bilder, die weder von den B noch von den P-frames abhängig sind

Sind regelmäßig in dem MPG - Video enthalten um den Einstieg für den Decoder z.B.: beim Senderwechsel oder einem Szenenwechseln zu ermöglichen. Gleichzeitig verhindern die I - frames eine Summierung von Rundungsfehler, die durch die Berechnung  von B - frames entstehen können, da ja bei jeden neuen I-Frame die Berechnung der B-frames neu anfängt.   
 P - frames ( P - predicted ) Sind Einzelbilder, die lediglich die Differenz zum vorangegangenen Bild enthalten.
 B - frames ( B - bidirectional) Werden ausgehend von einem vorangegangenen und dem folgenden Bild berechnet.


Wie oben schon erwähnt, werden diese Bilder in einer GOP ( groups of pictures ) zusammengefasst. Eine solche GOP wäre zum Beispiel:

I0 - B1B2B3 - P4 - B5B6B7 - P8 - B9B10B11 - P12

Der I-frame ( I0 ) ist unabhängig decodiert, die P-frames ( P4; P8; P12 ) beziehen sich auf den vorangegangenen I- oder P-frames und die B-frames ( B1;B2....B11) beziehen sich auf den vorangegangen und nachfolgenden Frames. Da aber der Decoder die B- frames nur decodieren kann, wenn er die nachfolgenden P-frames kennt, entsteht nun eine neue Reihenfolge in der GOP.

I0 - P4 - B1B2B3 - P8 - B4B4B6B7 - P12 - B9B10B11

Jetzt ist es dem Decoder möglich die B-frames zu berechnen, wie genau das funktioniert, lassen wir an dieser Stelle außen vor. Es sein noch gesagt, dass das MPG - Kompressionsverfahren ein asymmetrisches Verfahren ist, d.h. zum Codieren braucht der Encoder wesentlich mehr Rechenleistung und Zeit im Gegensatz zum Decoder, der den Film decodiert. Die Bildqualität des decodierten Bildes ist stark abhängig vom Decoder und dessen Aufwand das codierte Bild zu decodieren, daraus erklärt sich die unterschiedliche Bildqualität von ein und dem selben Film der z.B.: auf verschieden PC┤s oder Stand-Alone-Playern oder DVB-Karten abgespielt werden.
Da dies ein gutes Schlusswort war, werden wir an dieser Stelle die Erläuterungen zum Thema Kompression beenden. Falls sie aber der Meinung sind, wir sollten dieses Thema noch weiter ausbauen , können sie sich gerne an unseren Support wenden.

Kurze Informationen zur MPG4 - Komprimierung (DivX, XviD und ähnliche)

An der MPG4 - Komprimierung wird seit 1996 "geforscht" und sollte ursprünglich für Bereiche, wo niedrige Bitraten gefordert sind ( Mobilfunktechnik), eingesetzt werden. Da er aber die Videodaten in gleicher Qualität bei wesentlich niedrigen Bitrate zur Verfügung stellen kann, kann es sein das er irgendwann seinen Vorgänger als Standard ablösen könnte.

Der MPG4 - Codec und die daraus entstanden anderen Codec┤s ( DivX , XviD) kann man als Kombination von MPG1 und MPG2 und anderen Techniken bezeichnen. Eine dieser zusätzlichen Techniken ist , dass "Drüberschieben" von konturierten Standbilder (Sprites) über die sich bewegten Bilder, die nicht notwendig sind um das Geschehen zu verfolgen. Diese Sprites und die anderen Techniken machen diese extrem Kompression aus.

Der MPG4 - Codec ist noch nicht als Standard festgelegt, aber er wird wohl den MPG2 - Standard in der Videodatenübertragung ( digitales Fernsehen , Internet Videostreaming ) oder Archivierung ( DVD) ablösen und in einigen Gebieten (mobiles Entertainment (UMTS)) neu einziehen.

Software - FAQ

Parallelbetrieb v. TechnoTrend Treiber:

Ja, ein Parallelbetrieb ist möglich.
Als erstes muss die alte Treiberversion 1.23b installiert werden. Erst der Treiber im Gerätemanager und dann die TV-Application über die Setup.exe. Nach dem Neustart sollte der Virtual Network Adapter entfernt werden, da über den alten Treiber kein Datenempfang durchgeführt wird. Als nächstes wird im Gerätemanager der neue Treiber installiert und dann wieder die passende Software per Setup.exe. Nun können sowohl Programme der neuen als auch alten API betrieben werden.

Overlay Modus vs. Primary Mode:

Primary:
Bei dem Primary-Verfahren wird die Berechnung der Auflösung auf dem Monitor von der Fernsehkarte übernommen. Die Grafikkarte reicht anschließend die Bild-Informationen an den Monitor weiter. Der Vorteil liegt darin, dass dieses Verfahren von der Grafikkarte unabhängig ist und jede Grafikkarte damit zurecht kommt. Der Nachteil ist das, das Fernsehbild maximal mit der PAL -Norm-Auflösung von 768x576 Bildpunkte dargestellt werden kann.

Overlay:
Beim Overlay-Verfahren übernimmt die Grafikkarte die Aufgabe, die Bildinformationen und die Auflösung zu berechnen. Das Bild ist frei skalierbar auch weit über die Auflösung von der PAL-Norm. Das Fernsehbild kann somit unabhängig der Bildschirmauflösung im Vollbildmodus dargestellt werden. Der Nachteil ist, das nicht alle Grafikkarten bzw. Treiber den Overlay-Modus unterstützen.

Seite drucken    DVBmagic News als RSS Feed    DVBmagic News als ATOM Feed







www.dvbmagic.de   (0.0265s) Copyright 2001 - 2011 by Stefan Pratsch und Andreas Erbe


DVB und MHP sind eingetragene Marken der DVB Project