Sie sind hier : Startseite →  Wissen und Technik→  Abkürzungen / Kurzformen→  Stichwortlexikon 1984 (5)

Stichwortlexikon Kapitel 8 - M

.

MAC

MAC ist die Abkürzung für "Multiplexed Analog Component" und beschreibt eine ganze Familie von Signalen für die Ausstrahlung von Programmen mit hoher Bildqualität. MAC-Übertragung vermeidet die PAL-typischen Störungen des Bildes und ist für Satellitenübertragung entwickelt worden.

Verschiedene Versionen des MAC-Signals (D2-MAC, HD-MAC) sollten zur Vorbereitung für einen europäischen Standard für zukünftiges "High Definition Fernsehen" dienen. D2-MAC überträgt analoge Videosignale und digitale Audiosignale. Mit HD-MAC werden 1250/50Hz-Signale übertragen. Aufgrund der rasanten Normierungsbestrebungen für digitale Sendestandards, ist die Entwicklung der MAC-Systeme überflüssig geworden. Man rechnet mit der Einführung von digitalen Sendestandards im Jahr 1995.
.

MII

Das MII-Aufnahme-Format ist als Konkurrenz zum SONY Betacam SP-Format von der Firma Matsushita (Panasonic) entwickelt worden. Es ist ein analoges Videokomponenten- Aufzeichnungsverfahren.

Gegenüber Betacam werden schmalere Spuren benutzt, wodurch bei vergleichbarer Bandmaterialmenge längere Spielzeiten realisiert werden können. Theoretisch sind die mechanischen Gegebenheiten des Laufwerks dadurch etwas schwieriger zu beherrschen.

MII hat sich zwar teilweise in Fernsehanstalten als EB-Format etabliert, wird aber stärker im industriellen Bereich eingesetzt.
.

MO-Disk

MO-Disks sind „magneto-optische Bildplatten", die beschreibbar, löschbar und wieder-beschreibbar sind. Aus der Computertechnik stammend, werden sie heute im wesentlichen zur digitalen Standbildspeicherung benutzt.

Eine 5 1/4 Zoll MO-Disk kann heute ca. 200 Standbilder pro Seite in 4:2:2:4 Aufzeichnungstechnik speichern. Dies entspricht der Digitalisierung der Videokomponenten nach CCIR-601, zuzüglich eines breitbandigen, linearen Key-Signals.

Weiterentwicklungen der MO-Aufzeichnungstechnik werden zukünftig als Ersatz für Videorecorder in speziellen Applikationen eingesetzt. Es wird in Kürze möglich sein, auf 8-Zoll großen MO-Disks 3,2 Gbyte Speicherkapazität pro Seite aufzeichnen zu können. (Stand 1994)
.

Moiree

Mit „Moiree" wird jede Bildsignalstörung beschrieben, die als statisches oder bewegtes Muster dem Bild überlagert sind. Dies können Streifen, Gitter oder Ringe sein. Moiree entsteht durch Störspannungen oder Übersprechen von Signalanteilen, die eine Wechselwirkung mit anderen Signalstrukturen eines Systems aufweisen.

Bei 1" MAZen kann es durch eine Wechselwirkung der Farbhilsträgerfrequenz mit dem FM-Signal zu niederfrequenten Moiree Erscheinungen kommen. Bei Colour Under-Systemen kann der heruntergesetzte Farbträger der Aufnahme in den Luminanz-Weg über sprechen. Auch durch die Ansteuerung von dynamisch nachgeführten Köpfen kann es aufgrund von RF-Pegeländerungen zu Störmuster auf dem Bild kommen.
.

Stichwortlexikon Kapitel 8 - N - O - P

.

Nicht lineare Schnittsysteme

In konventionelle Schnittsystemen werden Videorecorder als Zuspieler und Recorder eingesetzt. Aufgrund der Natur des Bandes als „bearbeitungslineares" Speichermedium werden diese Systeme als lineare Systeme bezeichnet. Der Nachteil des linearen Systems, nicht auf alle Signalstellen verzögerungsfrei zugreifen zu können, wird in nicht linearen Systemen durch den Einsatz von nicht linearen Speichermedien mit sofortigen Zugriffsmöglichkeiten vermieden. Solche Speichermedien sind Harddisk-Arrays, MO-Disks oder RAM-Cache Speicher.
.

NTSC

Das NTSC-FBAS-Signal wird hauptsächlich in USA und Japan als geschlossen kodiertes Standard-Videosignal für terrestrische Fersehübertragung eingesetzt. Das Prinzip der Überlagerung von Farbinformation und Bildhelligkeitsinformation ist dem PAL-Signal sehr ähnlich.

Im Gegensatz zur PAL-Kodierung wird bei der NTSC-Kodierung die Burst-Phase nicht zeilenweise geschaltet. NTSC-Systeme sind dadurch anfälliger für Phasenverschiebungen (Farbveränderungen) des Farbhilfsträgersignals als PAL-Systeme.
.

Off Line Schnitt

Im Gegensatz zum realen On-Line Schnitt, bei dem alle beteiligten Videorecorder von einem Schnittsteuergerät gesteuert werden und mit der Original-Signalqualität gearbeitet wird, wird beim Off-Line Schnitt das Videoquellsignal in einem Computer als Simulation geschnitten. Dabei wird eine Schnittliste erstellt, die wiederum in einem On-Line Schnittplatz benutzt wird, um den gesamten Schnittablauf automatisch ablaufen zu lassen.

Manchmal wird als Off-Line Schnitt auch die Erstellung der Schnittliste in einem System mit preiswerten Geräten, unter Verwendung von Kopien der Masterbänder verstanden. In beiden Fällen soll der Off-Line Schnitt dazu dienen, einen teuren, hochwertigen Schnittplatz für wichtige Aufgaben nicht zu blockieren.
.

PAL

Die Abkürzung „PAL" steht für die telefunken- Bezeichnung für „Phase Alternating Line", die ein Verfahren zur gleichzeitigen Übertragung einer Bildhelligkeits- und Farbinformation auf einem Signalkanal beschreibt.

Das PAL-Verfahren wurde in Deutschland von Prof. Dr. hc. Bruch entwickelt (stimmt nicht !!) und hat sich (wurde politisch) im wesentlichen in Europa als Farbfernsehsignal durchgesetzt. Das PAL-System stellt eine Verbesserung des in Amerika verbreiteten NTSC-Systems dar, welches an Farbverfälschungen durch Phasenverschiebungen des Farbhilfsträgersignals leidet, die bei der Ausstrahlung entstehen. Durch eine abwechselnde Umschaltung der Farbhilfsträgerphase in aufeinanderfolgenden Videozeilen, kann diese Phasenverschiebung im Empfänger durch „Mittelung" so kompensiert werden, daß das menschliche Auge Farbveränderungen nicht mehr wahrnimmt.
.

PALplus

PALplus ist der Oberbegriff für ein verbessertes PAL-System, dessen Einführung in Deutschland und Europa in 1995 geplant ist. PALplus-fähige Fernsehgeräte sollen zu diesem Zeitpunkt marktreif sein. Das Institut für Rundfunktechnik, München, zusammen mit den Firmen Grundig, Nokia, Philips und Thomson ist Entwickler des PALplus-Verfahrens.

Es wird durch ARD, ZDF, ORF, SRG, BBC und UKIB unterstützt. Mit der PALplus-Kodierung soll ein Signal gesendet werden, daß in einem PALplus-Empfänger eine erhöhte Luminanzauflösung (Detaildarstellung) ermöglicht.

Dabei sind folgende Zielsetzungen festgelegt worden:

• Bildseitenverhältnis = 16:9, jederzeit automatisch umschaltbar
• Volle Y-Bandbreite (>= 5 MHz) durch verbesserte Kodierung im Sender (Vorfilterung), die eine verbesserte Trennung von Luminanz- und Chrominanzsignal im Decoder des Empfängers ermöglicht.
• Reduktion der PAL-Cross-Colour und Cross-Luminanz-Effekte
• Ausstrahlung über das vorhandene terrestrische Sendernetz
• Wiedergabemöglichkeit im Letterbox Verfahren auf vorhandenen Standard PAL-Empfängern mit Bildseitenverhältnis von 4:3

Im Bild 8.2 sind die unterschiedlichen Bildschirmdarstellungen gezeigt:

Bild 8.2: „16:9" und „4:3" Darstellung eines PAL-Plus-Signals

Um das Bildseitenverhältnis von 16:9 auch auf einem konventionellen 4:3 Empfänger vollständig darzustellen, müssen zusätzliche schwarze Streifen am oberen und unteren Bildrand eingesetzt werden (= Letter Box), so wie das bisher auch bei Wiedergabe von Cinemascope Filmen auf Fernsehgeräten genutzt wurde.
.

PAL-Decoder

Ein PAL-Decoder trennt das geschlossen kodierte FBAS-Signal in seine Luminanz- (Y) und Chrominanzbestandteile (u;v) auf. Die Trennung und Dekodierung der Farb- und Helligkeitsinformation ist notwendig, um ein Bild auf einem Monitor oder Fernsehgerät wiedergeben zu können.

Wie gut diese Trennung gelingt, bestimmt letztlich die Bildqualität. Eine vollständige Rückgewinnung (= Dekodierung) der Videokomponenten aus einem geschlossen kodierten Signal ist nicht möglich. Mit unterschiedlichen Decodern kann versucht werden, eine möglichst optimale Trennung zu erreichen. Die wesentliche Rolle spielt dabei das verwendete Filter, das zur Trennung der kodierten Farbinformation vom Bildhelligkeitssignal eingesetzt wird (Siehe Abschnitt 2.1.5).
.

Phantomspeisung (bei Mikrofonen)

Hochwertige Mikrophone sind in der Regel als Kondensatormikrophone ausgeführt. In der Vergangenheit konnten Kondensatormikrophone nur mit einer statischen elektrischen Vorspannung betrieben werden, die als sogenannte Phantomspeisung über den Mikrophoneingang der Aufnahmestufe zugeführt wurde.

Diese Spannung kann bei 12 Volt oder 48 Volt liegen. Diese fremdgespeisten Kondensatormikrophone sind zwar heute noch häufig im Einsatz, aber die neueren Elektret- Kondensatormikrophone gewinnen an Bedeutung, weil sie keine externe Phantomspeisung benötigen, sind aber qualitativ nicht ebenbürtg.
.

Pixel

Das Wort „Pixel" ist ein englisches Kunstwort aus den Worten „Picture Element". Es beschreibt die räumliche Einteilung eines Bildes in einzelne Bildpunkte. Je mehr Bildpunkte pro Bildfläche genutzt werden, umso schärfer kann ein Bild für das menschliche Auge dargestellt werden.

Eine hohe Pixel-Zahl pro Bildfläche bedeutet aber auf der anderen Seite, hohen technischen Aufwand, so daß bei realen Bildübertragungssystemen immer ein Kompromiß aus Auflösung (= Pixelzahl) und technisch Machbarem gefunden werden muß. Die theoretische Grenze der kleinsten Pixelgröße wird durch das menschliche Auge bestimmt, dessen Netzhaut selbst aus Pixel besteht, den Stäbchen und Zäpfchen für das Helligkeits- und Farbsehen.

Die Größe der Pixelabbildung eines Bildes auf der Netzhaut muß nicht kleiner sein als die Stäbchengröße der Netzhaut selber, um einen realen Bildeindruck zu erreichen. Dies wiederum hängt nur vom Blickwinkel ab, der sich für ein Pixel abhängig vom Betrachtungsabstand ergibt.
.

PPM-Meter

Das „Peak Programm Meter" wird für Audiosignalaussteuerungen benutzt, bei dem die Spitzenpegel des Programmmaterials exakt erfaßt werden müssen. Dies ist immer bei digitalen Systemen notwendig, da bei Übersteuerungen sehr starke Verzerrungen auftreten.

Das Ansprechverhalten (Attack Time) muß sehr kurz sein (<1ms), damit schnelle Spitzenwerte erfaßt werden können. Die Abfallverzögerung muß relativ lang sein (ca. 2 Sekunden), damit die Programmspitzen auf der Anzeige auch erkennbar sind.
.

Preemphasis

Eine Preemphasis beschreibt eine frequenzabhängige Verstärkung (Pegelanhebung) der hochfrequenten Signalanteile im Aufnahmeweg. Bei der Wiedergabe wird in der Deemphasis diese Pegelanhebung durch eine inverse Schaltung wieder rückgängig gemacht, wodurch eine Rauschsignalverminderung erreicht wird.

Die Preemphasis und Deemphasis müssen genau aufeinander abgestimmt sein, damit keine zusätzlichen Signalstörungen auftreten. Dies ist besonders wichtig, wenn zusätzlich eine nichtlineare, also pegelabhängige Kennlinie eingesetzt wird. Preemphasis und Deemphasis werden in allen analogen Videoaufnahmesystemen eingesetzt (siehe Kapitel 3.1).
.

Stichwortlexikon Kapitel 8 - Q

.

Quantisierung

Die Quantisierung eines Signals ist ein wesentliches Kriterium für die Güte einer Analog/Digital-Umwandlung und damit die Güte einer digitalen Signal Verarbeitung. Die Quantisierung gibt die Anzahl der Pegelschritte an, in die ein Signal unterteilt wird.

Eine Quantisierungsstufe stellt den kleinsten auflösbaren Pegelunterschied dar. Die Pegelstufen werden durch binäre Zahlen angegeben, deren kleinste Einheit ein Bit ist (kann „0" oder „1" sein). Eine 8-Bit-Zahl kann 256 Pegelstufen, eine 10-Bit-Zahl 1024 Stufen, eine 16-Bit-Zahl 65536 Stufen und eine 20-Bit-Zahl 1048576 Pegelstufen auflösen.

Für Videosignale reicht eine 8-Bit-Auflösung für die Dartsellung auf einem Monitor und 10 - 12 Bit für BearbeitungsVorgänge aus. Audiosignale sollten mindestens mit 16 Bit quantisiert werden, damit Störsignale unhörbar bleiben.
.

Quatercam

Das Quatercam- / Lineplex- System wurde um 1984 von BOSCH Fernseh entwickelt und war für den EB-Betrieb gedacht. Quatercam konnte sich aus verschiedenen Gründen nicht gegen Betacam durchsetzen, obwohl die Aufzeichnungstechnik sehr fortschrittlich war. Auf einem 1/4 Zoll breiten Band, das eine sehr kleine Kassette ermöglichte, wurden Videokomponentensignale in einem „Line Sequentiell Multiplex" Verfahren aufgezeichnet.
.

Stichwortlexikon Kapitel 8 - R -S - T .... Z

.

Read Before Write

Mit „Read Before Write" bezeichnet man eine Funktion, die es erlaubt, ein Signal vom Band über die Wiedergabeköpfe wiederzugeben, außerhalb der Maschine zu verändern und über den Aufnahmeweg derselben Maschine an der selben physikalischen Stelle auf dem Band wieder aufzuzeichnen. Damit werden einfache Nachbearbeitungsschritte mit einem Recorder möglich.

Diese Funktion ist erst mit Hilfe der Digitaltechnik in VTRs möglich, zusammen mit einer intelligenten Steuerung von „DT-Wiedergabeköpfen", die ein notwendigerweise voreilendes Wiedergabesignal erst ermöglichen.

„Read Before Write" Funktionen wurden zuerst in D-2 MAZen eingesetzt und sind heute auch in D-3, Digital Betacam und anderen digitalen Recordern realisiert.

Der Read Before Write Betrieb wird auch als „Direct Write after Read" oder „Pre Read Editing" bezeichnet. Die Servo-Steuerung muß den Wiedergabebetrieb und den Aufnahmebetrieb gleichzeitig im Recorder kontrollieren. Es müssen die DT-Köpfe so gesteuert werden, daß das Signal um 1 Vollbild voreilend wiedergegeben wird und damit die Zeitverzögerung in der Wiedergabeelektronik kompensiert werden kann.

Der Aufnahmeweg synchronisiert sich selbst auf das Eingangssignal, so daß noch nicht einmal ein exaktes Timing des extern verarbeiteten Signals gefordert werden muß.

Anwendungsbeispiele für „Read Before Write" sind:

  • • Untertitelung
  • • Farbkorrektur
  • • A/B Roll Edit mit zwei VTR's
  • (ein Player und ein Recorder mit Pre Read)
  • • etc.


Ein wesentlicher Nachteil des Read Before Write-Modus ist, daß die Bandaufnahme unwiederbringbar überschrieben wird, also eine gewisse Sicherheit im Betrieb vorausgesetzt werden muß. Bei digitalen Systemen kann der Vorteil genutz werden, mit einer verlustfreien Kopie des Masterbandes als Arbeitskopie zu schneiden.
.

Reed Solomon Coding

Das Reed Solomon Coding wird in digitalen Video/Audio-Übertragungskanälen benutzt, damit eine effektive Korrektur von Fehlern, die im Übertragungweg auftreten, erfolgen kann. Das von den Herren Reed und Solomon entwickelte Verfahren ist besonders für den Einsatz in Videorecordern geeignet und wird in allen digitalen Videaufzeichnungsverfahren in jeweils modifizierter Weise eingesetzt.
.

Remote (Ferngesteuert)

Die Möglichkeit einer Remote Steuerung (= Fernsteuerung) ist notwendig, um ein Gerät in einem System betreiben zu können. Professionelle Geräte besitzen genormte Schnittstellen, die mit 9-pin Remote (RS-422A) oder parallel Schnittstelle (Multi-Pin) bezeichnet werden. Neben der physikalischen Beschreibung (Stecker) der Remote-Schnittstelle, muß das Signalprotokoll festgelegt sein.
.

RF-Signal

Die Abkürzung „RF" steht für „Radio Frequency" und beschreibt allgemein ein relativ hochfrequentes, meist moduliertes, Signal. In Videogeräten wird das FM- oder AM-modulierte Signal, das auf das Band aufgenommen wird, als RF-Signal bezeichnet.

RS-232, RS-422A, RS-423

In Videosystemen verwendete Steuerungsschnittstellen sind häufig angelehnt an die seriellen Datenübertragungsstandards aus dem Computer-Bereich.

Die Bezeichnungen RS-232C, RS-422A oder RS-423 beinhalten lediglich die verwendeten Steckerformen, Pin-Belegung und Signalspannung. Zusätzlich muß ein Signalprotokoll festgelegt werden, das die Datenrate (Baud Rate) und die Kodierungsform der Daten eindeutig beschreibt, damit Geräte in einem System kompatibel gesteuert werden können. Im professionellen Bereich hat sich die RS-422A-Steuerung mit einem von SONY erstmals definierten Protokoll durchgesetzt.
.

Sättigung

Jedes Signalübertragungssystem besitzt einen maximalen Aussteuerungsbereich. In analogen Magnetbandaufzeichnungssystemen wird die Maximalaussteuerung im wesentlichen durch die magnetische Kennlinie des Bandmaterials bestimmt (Hysteresekennlinie).

Man sagt, das Band ist gesättigt, wenn sich die Magnetisierung des Bandes nicht mehr erhöht, obwohl der Aufsprechstrom weiter zunimmt. In analogen Aufnahmesystemen muß eine Sättigung vermieden werden, damit keine harmonischen Verzerrungen auftreten (Klirrfaktor). In digitalen Aufnahme-Systemen wird dagegen das Band „durchmagnetisiert", um ein möglichst hohes Wiedergabesignal zu erreichnen (siehe Kap. 6.1).
.

SC/H Phase

Der Begriff SC/H-Phase drückt das Phasen Verhältnis des Farbhilfsträgers (SC) zur Synchronstruktur (H) aus. Angegeben wird die SC-Phase zum Zeitpunkt des V-Sync Impulses. Da kein Burst (Farbhilfsträgerreferenz) in der V-Lücke übertragen wird, muß dieses Phasenverhältnis in einer anderen Zeile des Videosignal (H mit Burst) gemessen werden und für den V-Sync Zeitpunkt „zurückgerechnet" werden. Eine genauere Bezeichnung des Sachverhalts wäre „SC/V" Phase, denn diese Phasenbeziehung bestimmt die Festlegung der 8V-Sequenz des Signals (s. Kap. 2.1.5).
.

Scanner

In einem Videorecorder wird die Kopfscheibe als Scanner bezeichnet, auf der die Videoköpfe montiert sind. Im Gegensatz zu einer Kopftrommel, bei der die Videoköpfe auf einer rotierenden oberen Kopftrommelhälfte montiert sind, ist der Scanner eine Scheibe, welche die Köpfe trägt. Die Kopfspitzen des Scanners rotieren in einem Spalt zwischen zwei fest montierten Kopftrommelhälften.
.

Serial Digital (SDI)

Das „Serial Digital Interface" ermöglicht die praktikable Lösung für eine Signalverteilung digitaler Video- und Audio-Signale in Produktions- und Nachbearbeitungsstudios sowie in Studiokomplexen.

Dabei kann mit einer Standard-Koaxialleitung das digitale serielle Videosignal, vier digitale Audiosignale, der VITC Time Code, Video Index Daten sowie noch nicht endgültig festgelegte User-Daten im Datenmultiplex übertragen werden.
.

Servosystem

Das Servosystem eines Videorecorders kontrolliert alle mechanischen Abläufe des Bandtransport. Es besteht aus vier Funktionsblocks:
.

  • 1. Spulen-Servo für die Bandlaufsteuerung
  • 2. Capstan-Servo für die Bandgeschwindigkeitsregelung
  • 3. Kopftrommel-Servo für die Kopfpositionssteuerung
  • 4. DT-Servo zur automatischen Kopfnachführung bei variabler Bandgeschwindigkeit

.
Die Betriebssicherheit, sowie die Bandschonung werden durch das Servosystem bestimmt. Es ist deshalb wichtig, das Servosystem in regelmäßigen Wartungsabständen zu überprüfen, gegebenenfalls zu justieren.
.

 

leer

Shuffling

„Shuffling" bedeutet Verteilung. Im Zusammenhang mit digitaler Aufzeichnungstechnik wird mit Shuffling die Datenverteilung beschrieben, die im Aufnahmeweg durchgeführt wird.

Durch das Shuffling der Daten sollen die zeitlich benachbarten Daten eines digitalen Signals, mechanisch auf dem Band an möglichst weit voneinader gelegenen Orten aufgezeichnet werden.

Die Bildpunkte, die durch einen Drop Out bei der Wiedergabe als Pixel-Fehler sichtbar werden, sind dann als Einzel-Pixel-Fehler über einen großen Teil des Bildes verstreut. Eine gute Fehlerkorrektur und eine effektive Fehlerverdeckung wird dadurch wesentlich vereinfacht.

„Shuffling" ist ein allgemeiner Begriff, unterschiedliche Shuffling-Verfahren kommen in den verschiedenen digitalen Aufnahmeverfahren zum Einsatz (siehe Kapitel 3.4.2).
.

Shutter

Ein Shutter ist eine Flügelblende, wie sie zur Belichtungssteuerung bei Filmbildern (Bewegt-Film, Fotographie) benutzt wird. Auch in elektronischen (CCD) Videokameras wird ein elektronischer Shutter eingesetzt, der die Belichtungsdauer des CCD-Sensors beeinflußt.

Die Bewegungsunschärfe des Videosignals kann damit erheblich reduziert werden, die Lichtempfindlichkeit verringert sich dabei proportional zur Verkürzung der Belichtungszeit.
.

Signal/Rauschabstand

Eine wichtige Größe zur Signalqualitätsbeurteilung stellt das „Signal zu Rausch Verhältnis" dar. Die genauere Bezeichnung ist die des „Signal- zu Fremdspannungsabstands". Mit der Abkürzung S/N (Signal to Noise) wird diese systemspezifische Größe in technischen Daten von Geräten (vereinfacht) genannt. Der Signal/Rauschabstand ist als Verhältnis der Effektivwerte von Nutzsignal zu Störsignal definiert: • S/N [dB] = 20 log (Unutz eff / Ustör eff).
.

Skew

Mit „Skew" bezeichnet man eine Verzerrung des Videobildes, meißt am oberen Bildrand. Ein Skew-Effect wird sichtbar, wenn zum Zeitpunkt des Umschaltens zwischen zwei Wiedergabeköpfen das Videosignal einen Sprung der Sync-Struktur aufweist. Einige Zeilen des Bildes reißen dann nach links oder rechts aus.

Wie stark ein Skew-Effekt sichtbar ist, hängt davon ab, wie schnell dieser Zeitfehler von der Synchronisierschaltung des verwendeten Monitors ausgeregelt wird. Die Ursache für „Skew" ist aber in mechanischen Toleranzen des Aufnahme- und Wiedergabevorgangs zu suchen, wenn die tatsächliche Videospurlänge auf dem Band länger oder kürzer als die Nenn-Spurlänge ist. Dies kann durch mechanische Toleranzen, Bandalterung und unterschiedliche Bandzüge entstehen.

Mit dem Skew-Regler versucht man die Vielfalt dieser Ursachen mit einer Bandzugsbeeinflussung zu kompensieren. Ein stark sichtbarer Skew-Effekt ist ein Hinweis auf große mechanische Toleranzen, die zur Inkompatibilität der Wiedergabe führen können. Ein TBC verdeckt vollständig den Skew-Effekt.
.

Smear

Der Begriff „Smear" wird in mehreren Bedeutungen benutzt.
.
1. Bei CCD-Kameras kann, aufgrund von unkontrollierten Ladungsverläufen auf dem CCD-Sensor, ein vertikaler heller Streifen im Bild auftreten. Dieser Effekt wird durch zu intensiven Lichteinfall ausgelöst, wie erbei starken Gegenlichtaufnahmen (Sonne, Scheinwerfer) auftritt. Die Technologie heutiger CCD-Chips versucht diesen Effekt stark zu verringern. Bei Broadcast-Kameras tritt ein Smear nur noch in vernachlässigbarer Form auf.
.
2. In FM-Aufnahmesystemen durchläuft das Videosignal eine Preemphasis, welche Signalüberschwinger an steilen Signalflanken erzeugt. Diese Uberschwinger müssen begrenzt werden, was im Wiedergabeweg zu Verschleifungen des Signals führt. An senkrechten scharfen Linien im Bild kann man diesen Effektt durch eine Verschleifung der Signalkante erkennen. Dieser Smear Effekt einer Videoaufzeichnung ist durch einen guten Kompromiß bei der Schaltungsdimensionierung stark reduzierbar.
.

Spulen-Servo

Moderne Bandaufzeichnungsgeräte nutzen die Möglichkeiten der elektronischen Regelung von Spulenantriebsmotoren aus, um einen effektiven, sicheren und schnellen Bandtransport zu ermöglichen.

Spulen-Servos sind wesentlich für die Betriebssicherheit von Bandlaufwerken. Komfortable Suchlauffunktionen für die Nachbearbeitung werden über die Spulen-Servos gesteuert.
.

Stanzsignal siehe „Key-Signal"

.

Super Motion

Eine Super Motion-Aufzeichnung wird mit Hilfe einer Spezialkamera und einem speziellen Recorder vorgenommen. Dabei wird ein Videosignal mit erhöhter Bildfrequenz (z.B. 3fach) erzeugt und auf einer MAZ aufgezeichnet, die dieses Signal aufnehmen kann. Bei der Wiedergabe steht die höhere Anzahl von Bildern zur Verfügung, so daß Bewegungsabläufe mit erhöhter zeitlicher Auflösung und verringerter Bewegungsunschärfe dargestellt werden können.
.

Synchronisation

Unter Synchronisation versteht man die elektronische oder mechanische Verkopplung zweier Systeme bzw. Geräte. Für die Nachbearbeitung von Videoaufzeichnungen ist die Synchronisation von Recordern von entscheidender Bedeutung, denn sie erlaubt bildgenauen Schnitt. Dafür ist eine eindeutige Einzelbildkennung erforderlich, was durch die Verwendung des Time Codes ermöglicht wird.

Für einen automatischen Schnittablauf wird der Edit-Zeitpunkt (besser: Bildnummer des Einstiegspunktes) für Aufnahme- und Zuspielmaschine festgelegt. Nach Start des automatischen Schnittvorgangs laufen alle beteiligten Maschinen zu einem Prerollpunkt (z.B. 3 oder 5 Sekunden vor dem Edit-Punkt). Nach gleichzeitigem Starten der Maschinen werden sie innerhalb der Preroll-Zeit anhand der TC-Nummern zueinander synchronisiert, so daß sie bildgenau den Schnittpunkt erreichen. Ein automatischer Schnittablauf anhand eines Bandzählwerks ( z.B.: CTL) ermöglicht nur eine Schnittgenauigkeit von maximal ±2Bilder (siehe Kapitel 4.2).
.

Time Base Corrector

Time Base Correctoren sind notwendig, um die typischen Zeitfehler des Signals bei der Wiedergabe, aufgrund der mechanischen Verhältnisse im Laufwerk auszugleichen. Um Videosignale mischen, störungsfrei schalten oder überblenden zu können, muß mit einem "Time Base Corrector" eine Synchronisierung aller beteiligten Signale herbeigeführt werden. Im Kapitel 4.1 sind die TBC-Funktionen genauer erläutert.
.

Time Code

Der Time Code (= TC) ist eine Nummer, die in einer achtstelligen Anzeige die Stunden, Minuten, Sekunden und Bildnummern beinhaltet.

TC: 01:10:25:11 = 1 Stunde : 10 Minuten : 25 Sekunden : 11 Frames

Wird der TC in einem freilaufenden TC-Generator erzeugt, dann entspricht der TC-Wert einer Uhrzeit, oder Realzeit. In Videoaufzeichnungsgeräten wird der TC aber als Bildnummerierung verwandt und wird damit von den Synchronsignalen des Videosignals bestimmt. Die treffendere Bezeichnung wäre „Bildnummer".

Die eindeutige Bildnummerierung ist für die Videonachbearbeitung erforderlich, damit Signale zueinander synchronisiert werden können. Professionelle Videoaufzeichnungsgeräte haben deshalb immer die Möglichkeit einen TC mit aufzuzeichnen.

Dieser kann als EBU/SMPTE-LTC, VITC, ASTC oder als Sonder-TC genutzt werden. Der EBU/ SMPTE-TC wird als digitale Information aufgezeichnet, die pro Vollbild eine Datenmenge von 80 Bit (LTC) bzw. 90 Bit (VITC) beinhaltet. Neben den eigentlichen Bildnummern wird auch eine achstellige, vom Anwender frei nutzbare Zahl übertragen (User Bits : UB). UB: FF:FF:FF:FF
.

Tracking

Der englische Begriff „Tracking" beschreibt, wie genau die Videoköpfe auf der Mittellinie der Schrägspur geführt werden. Je schlechter das „Tracking" umso schlechter und gestörter ist das Wiedergabesignal. Viele Faktoren beeinflussen das Tracking. Dazu gehört die Einstellung der mechanischen Bandführung und des gesamten Servo-Systems.

Der manuelle Eingriff in das Capstan-Servo-System wird häufig mit Tracking bezeichnet. Damit ein Einfüge-Schnitt möglich wird, muß das Tracking voher optimiert werden, denn die Neuaufnahme (Insert) muß mechanisch exakt in das vorhandene Spurschema eingefügt werden (siehe Kapitel 3.5.6).
.

U-matic

Mit U-matic wird ein Colour Under- Videorecorder-System bezeichnet, das 3/4" breite Bänder in Kassetten benutzt und seit mehr als zwanzig Jahren (1974) als EB-Format, sowie für Industrie- und Präsentationsvideos benutzt wird. U-matic wurde von SONY entwickelt, aber auch JVC und andere Hersteller stellten Geräte dieses Formats her.

Heute ist SONY der einzige Anbieter von U-Matic Geräten, die als U-matic, U-matic High Band und U-matic SP erhältlich sind. Das U-matic SP Format ist derzeit sicherlich immernoch das qualitativ hochwertigste Colour Under-Aufnahme verfahren.
.

Übermodulation

Eine Übermodulation tritt auf, wenn das modulierende Nutzsignal den maximalen Aussteuerungsbereich des Modulators oder die Kanalbreite des Übertragungskanals überschreitet. Für eine Amplitudenmodulation hat das Signalverzerrungen zur Folge, wie das z.B. als Moiree des Chrominanzsignals bei einer Colour Under-Aufzeichnung auftritt.

Eine Übermodulation eines MAZ-Aufzeichnungssystems bedeutet, daß Frequenzen des FM-Spektrums außerhalb der Übertragungsbreite entstehen, die nicht magnetisch aufgezeichnet und wiedergegeben werden können. Dies macht sich im demodulierten Videosignal als „Bildausreißer" an schwarz-weiß Übergängen deutlich (Bearding). Übermodulation kann durch korrekte Einstellung von Modulator und Demodulator vermieden werden.
.

Ultraschall Bandführungen

Die Firma SONY hat in ihren neueren D-2 Recordern Ultraschall-Bandführungen eingesetzt, um die Reibung zwischen den Bandführungsteilen und der Bandoberfläche zu verringern, damit schnellere Bandgeschwindigkeitsänderungen und eine genauere Servosteuerung ermöglicht werden.

Ein Ultraschallwandler versetzt das Badführungsteil in eine mechanische Schwingung, so daß zwischen Band und Bandführung eine Art Luftpolster entsteht. Die Ultraschallfrequenz ist an die mechanische Resonanzfrequenz des Bandführungsteils angepaßt.
.

User Bits

Die User Bits werden als Zusatzdaten innerhalb der TC-Information übertragen und beinhalten pro Vollbild die Datenmenge von acht Stellen zu je vier Bit. Damit kann man pro Stelle acht Zeichen darstellen (0 bis F hexadezimale): FF:FF:FF:FF.

Die User Bits sind frei verfügbar und werden üblicherweise als Datumsangabe, Produktionsnummer, Kassettennummer, zweite Zeitbasis oder für zusätzliche Steuerungsinformation gebraucht.
.

Vakuum-Capstan

Das Prinzip des Vakuum-Capstan wird von der Firma AMPEX in TC-Format und D-2 Recordern eingesetzt. Eine hohlgebohrte und mit feinen Löchern versehene Capstan-Welle wird an eine Saugpumpe angeschlossen, wodurch das Band an die Capstan-Welle angesaugt wird.

Diese Art, eine antriebsfähige Verbindung zwischen Band und Capstan-Welle zu erzeugen, ist zwar mechanisch wesentlich aufwendiger als der Antrieb über eine Gummiandruckrolle. Er bietet aber Vorteile wie, präzise Bandführung, schnelle mögliche Bandgeschwindigkeitsänderungen und ein geringeres Risiko für Bandbeschädigungen.
.

Video 2000

Das von Grundig entwickelte Heimvideorecordersystem Video-2000 hat heute (1994) keine Marktbedeutung mehr und wird nicht mehr hergestellt. Es zeichnete sich durch eine dynamische Spurnachführung und die in beiden Richtungen bespielbare Wendekassette aus. Das Video-2000 Format wurde durch das VHS-System verdrängt, nicht aus technischen, sondern aus marktbedingten Gründen.
.

VISC

Der VISC-Impuls (Vertical Intervall Subcarrier) stellt ein genaues Abbild der SC-Phase des PAL-Eingangssignal dar und wird in die achte Zeile des Y-Signals einer Betacam SP oder M-II Aufzeichnung eingemischt. Bei der Wiedergabe wird anhand diese Pulses eine korrekte Phasenrelation zwischen der Farbhilfsträgerphase des PAL-Encoders und den Videosignalteilen wieder hergestellt. Es wird so ein Ausgangssignal erzeugt, dessen Frequenzgang und Bandbreite dem Eingangssignal genau entspricht (siehe Kap. 3.2.2).

VITC

Der VITC (Vertical Interval Time Code) wird als digitale Information innerhalb einer wählbaren Zeile der V-Lücke des Videosignals übertragen ( Zeile 7-22 im 1. Halbbild, bzw. Zeile 320-335 im 2. Halbbild). Üblicherweise wird derselbe VITC mit vollständig identischer Information aus Redundanzgründen in einer weiteren Zeile der V-Lücke eingesetzt. Der VITC enthält denselben Informationsgehalt wie der LTC, jedoch werden 10 weitere Bits als Synchronisationsdaten hinzugefügt, so daß sich eine Gesamtdatenmenge von 90 Bit ergibt (siehe Kap. 2.5.1).
.

VU-Meter

„VU" ist die Abkürzung für „Volum Unit". Ein VU-Meter wird zur Lautstärke-Aussteuerung von Audiosignalen benutzt. Es basiert auf der Ballistik eines trägen mechanischen Zeigerwerks, weshalb es für moderne digitale Audiosignalverarbeitung nicht geeignet ist. Toningenieure bevorzugen teilweise die VU-Anzeige, weil sie dem menschlichen Lautheitsempfinden nahe kommt.

W-VHS

Die Bezeichnung „W-VHS" bedeutet Wide VHS und bezeichnet ein Aufzeichnungsformat für 1125/60 bzw. 1250/50 High Definition Signale auf VHS Kassetten. Das von JVC entwickelte Format eignet sich sowohl für Heimrecorder, als auch für professionellen Einsatz für Präsentationen, Schulungen usw. Das W-VHS Format ist im Kapitel 7.24 als Erweiterung des S-VHS Formats erläutert.

XLR

XLR ist die Bezeichnung eines Steckverbinder-Systems, das vorrangig mit drei-Pol Anschluß für symmetrische Audiosignalverkabelung eingesetzt wird. Das runde Steckergehäuse kann bis sieben Pole tragen und ist dann für eine Vielzahl von Anwendungen einsetzbar. Dreipolige XLR-Steckverbinder werden auch für die Übertragung von zwei digitalen seriellen Audiosignalen auf einem Kabel nach AES/EBU Norm benutzt. Vierpolige XLR-Steckverbinder werden als Spannungversorgungs-Kabel bei EB Kameras eingesetzt.
.

Y/C-Delay

Y/C-Delay ist die englische Bezeichnung für eine zeitliche Verschiebung zwischen der Bildhelligkeitsinformation und der Farbinformation. In der Vergangenheit waren Y/C-Fehler oft sichtbar wenn z.B. bei der Übertragung eines Fußballspiels das farbige Trikot des Spielers dem Spieler „nachlief. Y/C-Delay kann immer dann auftreten, wenn eine getrennte Signalverarbeitung von Luminanz und Chrominanz vorliegt. Dies ist in allen Colour Under-Systemen und Komponenten-Systemen der Fall. Genaue Justagen des Y/C-Delay sind notwendig. Moderne Systeme erlauben die Kontrolle von Y/C-Delay mit Abweichungen kleiner als 20 Nanosekunden.
.

Zeitfehler

Zeitfehler entstehen in Video Wiedergabegeräten aufgrund mechanischer Einflüsse des Laufwerks auf das Wiedergabesignal. Zeitfehler sind unvermeidbar und wirken sich als Bild-Jitter oder Synchronfehler aus. Professionelle Recorder besitzen im Wiedergabeweg einen Time Base Corrector (Zeitfehlerausgleicher), mit dem ein vollständig stabiles Signal zurückgewonnen wird. Als Referenz für die Zeitstabilisierung dient ein Video-Referenz Signal, das von einem Studiotakt abgeleitet ist.
.

- Werbung Dezent -
Zur Startseite - © 2006 / 2024 - Deutsches Fernsehmuseum Filzbaden - Copyright by Dipl.-Ing. Gert Redlich - DSGVO - Privatsphäre - Redaktions-Telefon - zum Flohmarkt
Bitte einfach nur lächeln: Diese Seiten sind garantiert RDE / IPW zertifiziert und für Leser von 5 bis 108 Jahren freigegeben - Tag und Nacht, und kostenlos natürlich.