Was heißt sendefähig?

Checkliste

Die wichtigsten Dinge, die für eine Abnahme in der Regel erfüllt sein müssen:
  • 4:2:2 Farbunterabtastung
  • sendefähiger Farbraum (Helligkeitswerte zwischen 16 und 235 statt zwischen 0 und 255)
  • kein Vor- oder Nachspann im Video
  • Bildwiederholrate von 25 Hz bei progressivem Material oder 50 Hz mit Zeilensprung
  • Ton in PCM-Qualität mit 48 kHz,
    16 Bit, -9 dBFS Pegel
  • ausgefüllte Medienbegleitkarte

Inhalt

Einleitung

Als Filmemacher reicht es Ihnen oft, gute Bilder einzufangen, sie mit einem guten Ton zu versehen und ein, für Sie, in sich geschlossenes Produkt zu erstellen. Wollen Sie dieses Produkt aber vertreiben, bezieht sich dies sehr oft auf die selbst produzierten DVDs oder BluRays und der Vorführung im Freundeskreis - vielleicht auch auf eine Veröffentlichung auf einer der klassischen Plattformen, wie Youtube oder Vimeo. Aber solange Sie nicht das „witzigste Video der Woche“ gedreht haben und Millionen an Klicks darauf innerhalb kürzester Zeit verzeichnen können, ist, außer der Ehre und vielleicht einer kurzen Besprechung in irgend einem Blog, nicht viel Ertrag daraus zu erzielen. Das breite Massenpublikum erreichen Sie nach wie vor über den Fernsehbereich und den angeschlossenen Mediatheken im Internet.

Für eine solche Verwendung gelten allerdings ein paar Regeln, die für eine DVD Auswertung nicht gelten. Broadcaster arbeiten in einer relativ geschlossenen Infrastruktur, durch die sie eine gleichbleibende, möglichst ausfallsichere Übertragung an die Fernsehzuschauer gewährleisten können. Wir möchten an dieser Stelle gar nicht auf redaktionelle, also inhaltliche Belange eingehen, denn die inhaltliche Qualität entsteht immer erst im Auge des Betrachters. Hier soll der Fokus auf den Teil des Contents gerichtet werden, den er, losgelöst vom Inhalt, immer einhalten sollte. Wir sagen ganz bewusst „sollte“, weil es selbstverständlich auch Content gibt, der inhaltlich so einmalig ist, dass er, losgelöst von jeder technischen Qualität, gesendet werden wird. Wenn Sie Zeuge eines Flugzeugabsturzes sind und dies mit ihrem Handy gefilmt haben, wird kein Broadcaster dieser Welt nach technischen Voraussetzungen fragen sondern Ihnen den Beitrag abnehmen. Haben Sie aber beispielsweise im Dokumentations-Genre ein Dossier über einen Ort oder eine Person angefertigt, werden Sie sehen, dass Sie die Sendefähigkeits-Bedingungen der Sendeanstalt einhalten müssen, der Sie den Content anbieten.
Den Rahmen bilden dabei immer die „Technischen Richtlinien“ des jeweiligen Senders.

Technische Richtlinien verschiedener TV-Sender

Hier ein paar Beispiele:

Solche Richtlinien werden regelmäßig den technischen Gegebenheiten angepasst und Sie sollten sich, bevor Sie eine Produktion beginnen, darüber informieren, ob Sie diese Bedingungen im Produktionsumfeld erfüllen, ggf. Ihre technische Ausrüstung bzw. Den Workflow so verändern, dass es zu keiner Kollision kommt; andernfalls kann es passieren, dass Ihre Produktion von den Broadcastern nicht akzeptiert wird. In Internetblogs liest man immer wieder, dass ohnehin nur der Inhalt zählt und es auf die technischen Rahmenbedingungen nicht ankommt. Sicher wird es Produktionen geben, die aufgrund ihrer inhaltlichen Relevanz unter andern Aspekten gesehen wird. Sie können Sich glücklich schätzen, wenn Sie solchen Content erstellen. Der Normalfall ist das allerdings nicht. Es ist aber auch kein „böser Wille“ der Sendeanstalten, wenn sie auf ein Mindestmaß an technischen Rahmenbedingungen vorgeben. Die Broadcaster tragen gegenüber dem TV-Zuschauer schließlich auch die Verantwortung dafür, dass alle Beiträge in einer guten Qualität, hinweg über jede Bearbeitungs- und Sendestrecke, beim Zuschauer ankommen. Wir wollen Ihnen zu diesem Thema eine kleine Anekdote aus der frühen Zeit des Pay-TV geben:

Anekdote

Dort war man, als Filmsender, stolz darauf, Filme exakt so zu zeigen, wie sie im Kino gelaufen sind und hat anfänglich begonnen, Spielfilme für die TV Übertragung auch so, 1:1, abzutasten. Nun unterscheidet sich das Medium Kino und TV sowohl in der Bild- als auch in der Tonbeschaffenheit eklatant. Der erste, so kinogerecht abgetastete Film führte jedoch schon bald zum Eklat. Nach 30 Minuten Ausstrahlung waren im Callcenter über 250.000 Anrufer in der Warteschleife. „Was denn das für eine graue, farblose Soße sei“ und „warum man den Ton gar nicht verstehen könne und man ständig an der Fernbedienung stellen müsse“... Damit waren die forschen Bemühungen der Kinoredaktion, Filme möglichst originalgetreu auszustrahlen, auch ausgeträumt. Der TV-Zuschauer zeigt ein deutlich anderes Verhalten, als ein Kinobesucher, weil das Gerät – TV-Bildchirm gegenüber Kinoleinwand – und auch der Ton – großes Lautsprechersystem im Kinosaal gegen einen meist nicht größer als 12 cm großen Einzellautsprecher – so unterschiedlich ist, dass sich damit kein identisches Ergebnis erzielen lässt.

Und genau so etwas gehört zu den Gründen, warum Broadcaster Spezifikationen aufstellen, deren Einhaltung sie vor der Ausstrahlung überprüfen. Ihre Aufgabe ist es, Content so an die Zuschauer zu übertragen, dass dies zu einem maximalen TV-Ereignis wird. Entsprechend sind die Anforderungen formuliert und sollten nur in Ausnahmefällen verändert werden.

Es ist manchmal schwer zu verstehen, warum ein unterabgetastetes Produkt, das noch auf dem Computermonitor gute Bilder abliefert, in der Ausstrahlungskette nicht mehr so gut aussehen soll. Aber die Lösung dieser Frage liegt tatsächlich in der technischen Kette der Sendeanstalten und im nachgelagerten Encodier-Verfahren. Die Broadcaster gehen immer davon aus, dass ein Produkt erst beim Zuschauer angekommen sein muss, bevor man technische „Güten“ wirklich beurteilen kann. Und weil die Broadcaster ihre Bearbeitungs- und Sendestrecken gut kennen, wissen sie, warum bestimmte Parameter als obligatorisch betrachtet werden müssen, auch wenn dies vom Content Anbieter manchmal nicht so ohne Weiteres nachvollziehbar ist.

Vielleicht haben Sie schon einmal eine Grafik ausgedruckt und dabei erschreckt festgestellt, dass diese im Ausdruck möglicherweise nicht so hochaufgelöst und gut wirkte, wie noch am Bildschirm. Genauso, wie es entsprechende Mindestanforderungen an druckfähige Grafiken gibt, ist auch die Einhaltung der Anforderungen von Broadcastern wichtig, damit das Videomaterial nach Durchlauf der Ausstrahlungskette gut aussieht.

Technische Verfahren zur Qualitätsbewertung

Bis zum Ende der 1980er wurden analoge Video- und Audiosignale mit Oszillografen, Vektorskop und Audiometern getestet. Die Arbeitspraktiken waren komplex, veränderten sich jedoch im Laufe der Zeit und wurden in der Regel gut dokumentiert sowie von erfahrenen Technikern durchgeführt. Diese prüften die Ausrüstung in einem relativ statischen Arbeitsablauf oder einer Übertragungskette, wobei jede Messung mit einem Fehler im Video- oder analogen Audiosignal korrelierte.

In den 90ern wurde das „Serial Digital Interface“ (SDI) mit eine Datenrate von 270 Mbit/s vorgestellt, das zur Übertragung von Video- und embedded Audiosignalen über Koaxialkabel genutzt wurde. D1 (nicht komprimiert) und Digital Betacam (etwa 2:1 komprimiert) stellten faktisch die Standard- Bandformate dar.

Heute ist das Leben dagegen sehr viel komplexer. Bei einer Broadcast-Anwendung kommt heute überwiegend das MXF Datei-Format zum Tragen, weil es ansonsten hunderte verschiedener Kombinationen von Dateiformaten und -Wrappern sowie unterschiedliche Kompressionsarten gäbe. Der IT- und Broadcast-Markt sind zusammengerückt und es gibt keine durchgängige Normierung mehr.

Broadcaster überprüfen Inhalte, wie wir zuvor gesehen haben, auf unterschiedliche Formate, Versionen, Auflösungen, Codecs und Wrapper. Kein einzelner Test kann jedoch jeden entsprechend erforderlichen Arbeitsablauf abdecken. In einer IT-zentrierten, dateibasierten Serverumgebung existieren häufig keine erkennbaren Testpunkte, an die ein Waveform-Monitor angeschlossen werden kann. Inhalte und Software sind gewissermaßen „unsichtbar“. Inhaltsbezogene Arbeitsabläufe beziehen sich nicht nur auf individuelle Software-Pakete. In einem solchen Fall verwaltet die Qualitätskontrolle betriebsbedingte Verschlechterungen. Die Messungen spüren Fehler auf und bereinigen Systeme. Sowohl die Signalkompression als auch die IT eröffnen eine kaum überschaubare Flut an Möglichkeiten.

Die Arbeitsmethoden verändern sich und werden stetig komplexer. Folgende Aspekte sind häufig problembeladen: Falsch formatierte Bilder, falsch konfigurierte Audiokanäle in Stereo oder 5.1, Wrapper-Fehler in MXF, MOV oder QT haben zur Folge, dass die Dateien nicht korrekt abgespielt werden können und führen zu Fehlern beim Einspielen (Ingest) auf den Server (vor allem mit älteren MAZen) und asynchrone Audiosignalen.
Es wird zunehmend schwieriger, die Qualitätskontrolle durchführen zu lassen. Die manuelle, stichprobenartige Überprüfung (Überwachung des Anfangs, der Mitte sowie des Endes eines Programms) ist zwar noch immer weit verbreitet und für ein kurzes Programm durchaus ausreichend, jedoch können bei längeren Programmen Schwierigkeiten auftreten.
Es ist sehr langweilig, stundenlang Inhalte zu begutachten. Ebenso ist es schwierig, alle Audiokanäle mit modernen Programmen zu überwachen, vor allem, wenn sie in verschiedenen Sprachen vorliegen. Fehler im Dateiformat oder Datei-Wrapper können mit Augen und Ohren nicht immer objektiv und akkurat beurteilt werden.
Deshalb nutzen Fernsehbetriebe für die Inhaltsanalyse zunehmend die zuvor beschriebenen neuen, technisch ausgefeilten Software- oder Hardware-Werkzeuge.

Es gibt verschiedene Arten von Systemen, von denen einige für die Analyse von FBAS-Videos während der Ein- bzw. Zuspielung von Material entwickelt wurden. Diese führen üblicherweise konventionelle Kontrollen der Audio- und Videosignale durch, prüfen das Material auf Löcher (schwarze Bilder) und Standbilder, Stummheit, MAZ-Wiedergabefehler und andere mögliche Qualitätsbeeinträchtigungen. Die Broadcaster können dann aufgrund der bei der manuellen Kontrolle gemeldeten Qualitätskontrollfehler eine fundierte Entscheidung treffen. Der XML-Export dieser QC-Information ermöglicht die direkte Integration mit anderen Software-Systemen, was effizienter als das manuelle Aufzeichnen und Remodulieren ist.
Andere Arten von Systemen, die nach dem Ingest ansetzen, werden für die Integrität des Dateiformats genutzt, bisweilen mit spezifischen Dateiformatmetriken. Durch das Abtasten des gesamten Programms können die Fehler korrekt angezeigt werden, sodass der Anwender sie überprüfen kann. Eine vollautomatische Qualitätskontrolle existiert nicht, denn Maschinen können selbstständig keine endgültigen Entscheidungen über den Inhalt treffen (zum Beispiel wenn das Programm – statt einer Dokumentation einen Krimi zeigt).
Eine automatische Qualitätskontrolle hilft aber bei der Reduzierung von Kosten und Fehlern, da sie nie müde, gelangweilt oder abgelenkt wird.

Das heißt: Traditionelle Messungen sind für aktuelle Ansprüche zu begrenzt. Testbilder und die Systeme, die zu ihrer Messung eingesetzt werden, enthalten nicht ausreichend umfangreiche Informationen für aktuelle Arbeitsabläufe. Anwendern fällt es zunehmend schwer, akkurate Qualitätsurteile abzugeben. Qualitätskontrollsysteme können nicht alles überprüfen und sind nicht „intelligent“, helfen den Anwendern jedoch dabei, schnell akkurate Entscheidungen zu treffen. Die Integration von automatischen Qualitätskontrollwerkzeugen in den Abnahme-Prozess kann also dabei helfen, Geld zu sparen und Fehler zu vermeiden.
Betrachten wir also, wie meist größeren TV-Anstalten mit eingehendem Material umgehen, das als Datei auf deren Server aufgespielt wird.

Automatisierte Qualitätskontrolle

Automatisierte Systeme sind aus vielerlei Gründen ideal für den Einsatz in „dateibasierenden Workflows“, unter anderem weil sie schneller als in Echtzeit arbeiten können und trotzdem jedes aktive Pixel und jedes Audiosample erfassen, sehr viel genauer, als das menschliche Auge es bisher tat. Die Ergebnisse einer solchen Analyse können in den Metadaten der Datei bzw. des Files gespeichert und somit dauerhaft Bestandteil des Contents werden. Was früher auf die MAZ-Karte geschrieben wurde, kann heute u.U. zu automatisierten Korrekturen im Sendeweg führen. Wie unterschiedlich die Methoden im Vergleich zu früher auch sein mögen, es ist nach wie vor wichtig zu verstehen, welche Parameter gemessen werden. Einige sind identisch mit jenen aus der analogen Zeit, andere sind spezifisch auf komprimiertes Video in filebasierenden Workflows zugeschnitten.
In einem filebasierenden Workflow ist es nicht möglich, die Qualität der Inhalte mit herkömmlichen Methoden zu beurteilen. Die Systeme und Abläufe haben sich so weit verändert, dass es nicht mehr möglich ist, entsprechende Messausgänge bereitzustellen und Messgeräte wie die zuvor erwähnten anzuschließen.
Der Content wird zum Beispiel direkt per Dateitransfer auf einen Playoutserver oder auf ein SAN (Storage Area Network) eingespielt. Dieser Vorgang wird von einer Media-Handler- oder Assetmanagement-Software gesteuert. Als Basisbandsignal (SDI) eingespielte Files werden codiert und komprimiert abgespeichert. Auch hier gibt es keine Möglichkeit, die Qualität zu messen, ohne das Material erneut zu decodieren und über einen Playoutport des Servers auszuspielen.

Neben den rein praktischen Problemen durch die Struktur der Netze und Abläufe hat aber auch die Menge an Beiträgen, die zu analysieren sind, exponentiell zugenommen. Diese lassen sich - will man die Qualität lückenlos beurteilen - nur noch auf elektronischem Weg mit automatisierten Methoden bewältigen. Spätestens wenn die Menge des zu analysierenden Contents 24 Stunden pro Tag und Messplatz übersteigt, wird klar, dass Methoden nötig sind, die das Arbeiten schneller als in Echtzeit unterstützen. Ein solches automatisiertes Qualitäts-Analyse-System für bandlose Arbeitsabläufe erfüllt die gleiche Funktion wie das frühere Auswerten von Stichproben in den einzelnen Programmbeiträgen. Es werden objektive, technische Parameter gemessen – wie zum Beispiel der niedrigste oder höchste RGB-Pegel, der durchschnittliche Bildsignalpegel (Average Picture Level), die Einhaltung des PAL-Farbraums (REC709) oder Audiopegel, -phase sowie Lautheit. Auf den alten PAL Standard wird heute noch zurückgegriffen, weil Broadcaster nach wie vor analoge TV Geräte bedienen müssen, was von Content Produzenten oft vergessen wird. Darüber hinaus wird aber auch die subjektive Bildqualität analysiert, indem zum Beispiel Standbilder, Blockbildung oder Unschärfe registriert werden. Unter anderem wird das Timing eines Clips getestet, indem die Videolänge und die Dauer des Audioanteils gemessen und verglichen werden und Schwarz oder Farbbalken am Anfang, am Ende oder im Verlauf eines Clips detektiert werden. Solche Testsignale werden automatisch bei einem Timingverlust vom System eingespielt und detektierbar. Die Parameter der Codierung, wie zum Beispiel die GOP-Struktur, MPEGProfile und MPEG-Level, werden ebenfalls erfasst. Die Video-, Audio- und sonstigen Parameter, die bei der Analyse von Files von Interesse sind, werden im Folgenden noch genauer besprochen.

Video

Letterbox

Das ist eine Methode, um 16:9-Content in 4:3 darzustellen. Dazu werden am oberen und unteren Bildrand schwarze Balken hinzugefügt, um die volle Breite des ursprünglichen 16:9-Bildes zu erhalten. Es muss geprüft werden, ob die Balken tatsächlich vorhanden und ob sie an der dafür vorgesehenen Stelle erstellt wurden.

Pillarbox

Die Pillarbox ist das Gegenstück zu Letterbox und wird benötigt, um 4:3-Content in 16:9 darzustellen. In diesem Fall werden schwarze Balken am linken und rechten Bildrand eingesetzt. Es müssen die Präsenz und Position geprüft werden.

Picture-Shift

Damit wird der Versatz des aktiven Videos relativ zum Austastbereich bezeichnet. Er tritt häufig bei der digitalen Verarbeitung von Signalen auf. Bildversatz wird durch Schwarzwerte an den Rändern des aktiven Bildes gekennzeichnet und erkannt. Um Picture-Shift zu detektieren, wird geprüft, ob die Austastung an der linken und rechten Seite des Bildes symmetrisch (= normale Austastung) oder unsymmetrisch (= Bildversatz) ist.

RGB-Gamut

Der Farbraum für SDI-Signale ist YCbCr. Aber jedes Display basierend auf einer Röhre, einem Flüssigkristall (LC) oder Plasma verwendet für die Darstellung den RGB-Farbraum und wandelt daher das SDI-Signal in RGB um. Um sicherzustellen, dass die Displays nicht übersteuert werden, ist daher zu prüfen, ob die YCbCr-Komponenten im SDI-Signal auch die Pegelgrenzen für RGB einhalten, da ansonsten Begrenzungen und Farbverschiebungen auftreten können. Die RGB-Grenzwerte entsprechen den Werten des 100%-Farbbalkens und liegen normalerweise bei 0 mV und 700 mV. Es werden zurzeit Systeme mit erweitertem Farbraum definiert, bei denen der erlaubte RGB-Pegelbereich um ein vielfaches höher liegen kann. Auch hier ist es wichtig, die Einhaltung der Grenzwerte zu prüfen. Bei Videopegel-Parametern wie RGB-Gamut sollten Filter angewendet werden, damit zwangsläufig nicht jedes fehlerhafte Pixel einen Alarm auslöst. Oft haben Broadcaster Systeme mit einer Tiefpasscharakteristik durch die Definition einer Anzahl von Pixels, die mindestens fehlerhaft sein müssen, damit ein Alarm ausgelöst wird.

Luma-Gamut

Es wird getestet, ob ein HD- oder SD-Signal innerhalb der Grenzen des PAL-Farbraums liegt. Ein großer Teil des Contents, der in HD produziert wird, wird irgendwann in PAL umgewandelt und ausgestrahlt. Mit diesem Parameter wird sichergestellt, dass der Helligkeits-(Luma) Anteil eines Signals innerhalb der erlaubten Grenzen liegt.

Peak-Gamut

Damit ist die Überprüfung der Einhaltung des PAL-Farbraums für das komplette PAL-Signal, den Luma-Anteil und den PAL-Farbträger gemeint.

Average Picture Level (APL)

Ist eine einfache Anzeige für den Videopegel. APL wird in Prozent des nominalen Luma-Pegels angegeben, so hat zum Beispiel ein rein schwarzer Clip einen APL von 0 % und ein Clip mit rein weißen Frames einen APL von 100 %. Typischer Videocontent hat einen APL zwischen 25 und 80%, ein niedrigerer oder höherer Wert deutet auf zu dunklen oder zu hellen Content hin. Der APL wird für einen kompletten Clip berechnet.

Frame Field Order

Werden im Zuge der Produktion, der Verarbeitung oder der Kodierung von interlaced Videohalbbildern diese nicht in der korrekten Reihenfolge zu einem Frame zusammengefasst, kann das mit diesem Parameter erfasst werden. Dazu werden die Bewegungsmuster von einem Frame zum nächsten analysiert. Man kann diese Information auch den File-Metadaten entnehmen, allerdings ist dann nicht sichergestellt, dass es sich im Video auch tatsächlich so verhält.

Freeze Detection

Standbilder können an vielen Stellen, sei es in der Übertragung, Bearbeitung oder Kodierung, auftreten. Die meisten Geräte einer digitalen Bearbeitungskette enthalten einen Videospeicher, sodass bei Verlust des Eingangssignals meist nicht das Ausgangssignal verloren geht, sondern stattdessen das letzte gültige Frame ständig wiederholt wird. Aber ein Standbild muss nicht zwangsläufig ein Fehler sein: Wie bei anderen Parametern (Schwarzbild, kein Audio) kann dieser Zustand auch im normalen Programm auftreten. Daher ist es wichtig, Filtereinstellungen zuzulassen: Bei einem Standbild sollte beispielsweise eine Wartezeit von 50 Vollbildern (2 s) vorgegeben werden, bevor eine Fehlermeldung erfolgt.

Blockiness

Blockbildung als Folge von DCT-basierter Kompression verursacht regelmäßig sichtbare Artefakte. Die Versuchung, möglichst viele Programme durch eine gegebene Bandbreite zu übertragen, ist groß und kann bei bestimmten Inhalten, wie schnellen Bewegungen, zu Blockbildung führen. Aber auch andere Faktoren spielen eine Rolle, etwa Fehler der physikalischen Beschaffenheit eines Bandes oder einer Disc. Blockbildung lässt sich nicht so leicht quantifizieren wie Pegelfehler, weshalb oft eine allgemeine „weniger-oder-mehr“-Skala verwendet wird, unter anderem mit Werten von 1 bis 10.

Blurriness

Wie die Blockbildung ist auch Unschärfe (Blurriness) oft eine Folge der Komprimierung. Sie ist meist das Resultat von starker Kompression mit Wavelet-basierenden Codecs, wie zum Beispiel JPEG 2000. Unschärfe kann aber auch von anderen Faktoren verursacht werden und ebenfalls gewollt sein, wofür ebenfalls eine einfache „1 bis 10 Skala“ zum Einsatz kommt.

Color Bar Detection

Die Erkennung von Farbbalken im Videosignal ist wichtig, da es sich um eine typischen Fehler handelt, der bei der Erfassung und Bearbeitung von Programmen auftritt. Die Anzahl der Frames, bis zu einem Minimum von einem Vollbild (Frame), ist an den Abnahmesystemen einstellbar.

Black Frames During Program

Die Erkennung von Schwarzbildern in einem Programm ist ähnlich wichtig wie die von Farbbalken. Der Unterschied ist, dass Schwarzbilder durchaus Teil des Programms sein können. Es wird deshalb für einen längeren Zeitraum (zum Beispiel 5 s) gewartet, bevor ein Alarm ausgegeben wird.

Audio

Es hat sich gezeigt, dass für die Akzeptanz von HDTV beim Zuschauer Mehrkanalaudio genauso wichtig ist wie HD-Video. Die Audioqualität ist also von gleich hoher Bedeutung wie die des Videos.

Peak Audio Level

Unabhängig vom Audioformat ist es wichtig, die Spitzenpegelwerte zu überwachen. Zu hohe Pegel werden gekappt und führen zu Verzerrungen. Das ist besonders kritisch bei digitalen Signalen, da die Verzerrungen erst auftreten, wenn das Signal wieder analog gewandelt wird. Der Spitzenpegelwert wird ähnlich wie beim Videopegel als Grenzwert gesetzt und dann per Filter in der Empfindlichkeit definiert.

Audiophase

Auch bei der Messung von Files ist die Audiophase ein wichtiger Parameter, da die Phase bei der Verarbeitung oder der Einspielung verändert werden kann.

Loss of Sound

Es handelt sich um einen Audiopegel-Parameter, mit dem erfasst wird, das ein Audiosignal für eine bestimmte Zeit unterhalb eines bestimmten Pegelwertes bleibt. Es kann zwar durchaus aktives Audio präsent sein, wenn es jedoch für eine bestimmte Zeit unterhalb des eingestellten Grenzwertes bleibt, wird ein Fehler gemeldet.

Low Audio

Der Wert ist genauso definiert und wird gemessen wie Loss-of-Sound, der Grenzwert wird aber auf einen höheren Pegel eingestellt.

Continuous Tone

Es ist ein einfacher Test, um festzustellen, ob ein Testsignal versehentlich über das eigentliche Audioprogramm gelegt wurde.

Mute

Es handelt sich um einen Parameter, mit dem festgestellt wird, ob das Audiosignal ohne jede Aktivität ist. Das heißt: Alle Bits der eigentlichen Audiosamples stehen auf Null. Dieser Zustand kann auch in stillen Phasen des normalen Programms auftreten, allerdings meist nur für kurze Dauer.

Clip

Das Gegenteil von Mute ist Begrenzung (Clip). Wenn alle Audiosamples auf „Full Scale“ stehen, wird ein Alarm gemeldet. Im Gegensatz zu Mute sollte dieser Zustand niemals in einem normalen Programm eintreten.

Loudness

Das ist ein relativ komplexer Audiopegelparameter. Alle bisherigen Audiopegelwerte beziehen sich auf die elektrischen Pegel im Signal, Loudness (Lautheit) bezieht sich stattdessen auf die Lautstärke, mit der ein Audioprogramm durch das menschliche Ohr wahrgenommen wird. Die ITU hat im Dokument ITU-R BS.1770 eine Methode zur Messung der Lautheit definiert, die sich schnell zum De-facto-Standard entwickelt hat. Lautheit wird als ein Messwert für einen kompletten Audioclip definiert, dargestellt in der Einheit LKFS (Loudness K-weighted compared to Full Scale). Andere Messungen, zum Beispiel eines momentanen Loudness-Wertes, sind möglich.

Fazit

Wie bereits dargestellt sind automatisierte Systeme nötig, um eine große Content-Menge schnell und zuverlässig auszuwerten. Die Informationen, die bei der Durchführung dieser Tests gesammelt werden, können aber auch dann nützlich sein, wenn in einem Clip kein Fehler auftritt. Reports, die von den Systemen erzeugt werden, nehmen den Platz von Waveform-Monitoren in früheren Arbeitsabläufen (Workflows) ein. Ein Klartext-Report in tabellarischer Form kann ausgesuchte Messwerte aller analysierten Clips enthalten. Der Broadcaster oder die Redaktion kann diese Aufstellung (Programm-Summary) als Referenz für die subjektive und objektive Qualität aller aufgeführten Files verwenden.

Mit der Programm-Summary hat der Techniker umfangreiche Möglichkeiten: Er kann zum Beispiel die Messwerte aller Clips im Servernetz in einer einheitlichen Darstellung vergleichen. Die Daten können sortiert werden, wobei jeder im Tabellenkopf aufgeführte Parameter dabei als Kriterium für die Sortierung verwendbar ist. Allein diese einfache Sortierung ermöglicht es, binnen kurzer Zeit festzustellen, welcher Clip zum Beispiel das hellste Video enthält oder welcher die lauteste Audiospur hat. Dadurch erhält der Techniker die Möglichkeit, nur noch die Clips visuell auszuwerten, die nahe am erlaubten Grenzwert liegen, und nicht mehr alle eingespielten Clips. Er kann damit präventiv entscheiden, Clips noch zu überarbeiten, bevor sie abgelehnt oder im Workflow weitergereicht oder gesendet werden.
Die Information in der Darstellung vereinfacht die Beurteilung der Qualität der Video- und Audioessenz eines Files um ein Vielfaches, ohne dass weitere Messgeräte benötigt werden. Die Messung des „Average Picture Levels“ (APL) ist relative einfach, trotzdem liefert sie eine genaue und hilfreiche Aussage für die relative Helligkeit eines Beitrags. Bei einem Messergebnis von zum Beispiel 5% weiß der Anwender, dass das decodierte Video sehr dunkel und möglicherweise unbrauchbar sein wird.

Ein Techniker auf der Suche nach der Ursache eines Audioproblems kann in einem Summary auf einen Blick sehen, welche Files die höchsten Audiopegel haben. Eine solche Möglichkeit war in der Zeit von Bändern und Kassetten nicht vorstellbar. Die File-(Datei-)analyse durch automatisierte Systeme bietet dem Broadcaster eine Reihe von neuen Möglichkeiten. Die Systeme wurden entwickelt, um die Qualitätssicherung auch in filebasierenden Arbeitsabläufen zu unterstützen und dem Techniker alle benötigten Informationen in einem PC-Format bereitzustellen. Damit können schnelle Entscheidungen in immer schneller werdenden Abläufen getroffen werden. Bei der wachsenden Content-Menge, die Techniker zu qualifizieren haben, bleibt keine andere Wahl, als Systeme einzuführen, die schneller als in Echtzeit arbeiten und die gesammelten Informationen zur schnellen Beurteilung der Qualität effizient präsentieren. Für den Content-Produzenten bedeutet es aber auch, dass er die, ihm zur Verfügung stehenden Tools umfänglich einsetzt und korrekt analysiert. Wie zuvor aber bereits aufgezeigt, beginnt dies mit der korrekten Kameraeinstellung und setzt sich in der Post-Produktion fort.
Für den Anwender im Produktionsbereich heißt es aber, präzis zu arbeiten, technische Richtlinien zu beachten und einzuhalten. Fehler oder von den Richtlinien abweichende Bildbehandlungen lassen sich heute nicht mehr verstecken.

Es bringt also nichts zu sagen, man sehe den Unterschied zwischen 4:2:0 und 4:2:2 ohnehin nicht. Das Abnahmesystem stellt in seinem Protokoll eindeutig dar, welche Bildmengen (und Zeiten) abweichend sind. Korrektes Messen in der Post-Produktion ist im professionellen Bereich unumgänglich.