DE4305578A1 - - Google Patents
Info
- Publication number
- DE4305578A1 DE4305578A1 DE4305578A DE4305578A DE4305578A1 DE 4305578 A1 DE4305578 A1 DE 4305578A1 DE 4305578 A DE4305578 A DE 4305578A DE 4305578 A DE4305578 A DE 4305578A DE 4305578 A1 DE4305578 A1 DE 4305578A1
- Authority
- DE
- Germany
- Prior art keywords
- blocks
- pixel values
- data
- error
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/438—Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving MPEG packets from an IP network
- H04N21/4382—Demodulation or channel decoding, e.g. QPSK demodulation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/77—Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/89—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
- H04N19/895—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
Description
Die Erfindung bezieht sich auf Verfahren und Einrichtungen
zum Verdecken von Bildfehlern in decodierten Fernsehsignalen,
die in komprimierter Form übertragen wurden.
Derzeit werden hohe Anstrengungen gemacht, Einrichtungen zum
Übertragen von Videosignalen zu entwickeln, die
hochauflösendes Fernsehen (HDTV), Telefonanwendungen,
interaktive Videoanwendungen usw. betreffen. Eine recht
attraktive Lösung ist bekannt geworden unter dem Begriff
bewegungskompensierte vorausschauende Codierung (motion
compensated predictive encoding). Die Internationale
Organisation für Standardisierung entwickelt derzeit einen
Standard, der die codierte Darstellung von Video für digitale
Speichermedien spezifiziert, die auf einer Variante dieses
Typs der Codierung basieren. Dieser Standard unterstützt eine
kontinuierliche Daten-Übertragungsrate von 1.5 Mbits/sec und
wird beschrieben in dem Dokument ISO-IEC JTC1/SC2/WG11;
CODING OF MOVING PICTURES AND ASSOCIATED AUDIO; MPEG90/176
Rev. 2, December 18, 1990. Dieses Format ist bekannt geworden
unter dem Begriff MPEG. Entsprechend diesem Format werden
Sequenzen von Vollbildern in Gruppen geteilt und jeweilige
Vollbilder innerhalb jeder Gruppe codiert entsprechend einer
einer Mehrzahl von Codier-Modes. Typische Codier-Modes
beinhalten Intraframe-Codierung (I Vollbilder) und zwei Typen
von Interframe-Predictive-Coding (P und B Vollbilder).
Das Forschungskonsortium für fortgeschrittenes Fernsehen
(Advanced Television Research Consortium; ATRC) in den
Vereinigten Staaten hat ein HDTV-System entwickelt, das auf
dem MPEG-Format basiert, zum Übertragen von hochauflösenden
Fernsehsignalen (HDTV) in Digitalform. Dieses HDTV-System
wird beschrieben in US 51 22 875. In dem HDTV-System, das von
der ATRC entwickelt wurde, wird ein Videosignal - welches
entsprechend einem MPEG-ähnlichen Format komprimiert wurde -
in speziellen Service-type Transportpaketen für die
Übertragung arrangiert. Diese Pakete werden einer ersten
Fehlercodierung unterworfen (FCS), z. B. einer zyklischen
Redundanzprüfung (CRC), wobei FCS-Fehler-Prüfcodes an die
Transportpakete angehängt werden. Danach werden die
Transportpakete mit den angefügten Fehler-Prüfcodes einer
Vorwärts-Fehlercodierung. FEC unterworfen, wie beispielsweise
dem Reed-Solomon-Code, und FEC-Fehlererfassungs-/-Korrektur-
Codes an diese Daten angehängt.
Am Empfänger wird die übertragene Information erfaßt und an
einen FEC-Decoder angelegt, der eine begrenzte
Fehlerkorrektur mit den übertragenen Daten durchführt. Die
FEC korrigiert die Großzahl der Fehler, die während der
Übertragung auftreten, jedoch werden einige Fehler den FEC-
Decoder ohne Erfassung/Korrektur passieren, weil der
Fehlerprüf-Overhead-Umfang aufgrund von Bandbreiten-
Beschränkungen begrenzt ist. Das FEC-codierte Signal wird
dann an einen FCS-Decoder gekoppelt. Der FCS-Decoder ist in
der Lage, Daten zu erfassen, jedoch keine Daten zu
korrigieren. Wenn ein Fehler in einem Transportpaket erfaßt
wird, wird das gesamte Transportpaket außer acht gelassen
(discarded).
Die außer acht gelassenen (ausgemusterten) Transportpakete
können danach mit synthetischen komprimierten Daten ersetzt
werden. Als Beispiel kann die US-Anmeldung 07/7 89 245, die am
7. November 1991 eingereicht wurde, dienen; sie zeigt eine
Einrichtung zum Ausführen einer Vor-Dekompressions-
Fehlerverdeckung und trägt den Titel "Einrichtung zum
Verdecken von Fehler in einem digitalen Video-
Verarbeitungssystem". In diesem System erzeugt der FCS-
Decoder Fehlersymbole (error tokens), die anzeigen, wenn
Daten außer acht gelassen wurden. Abhängig von den
Fehlertokens ersetzt das System ausgemusterte Daten mit
bestimmten Sequenzen von komprimierten (compressed) Daten.
Die Daten werden dann dekomprimiert (decompressed) zur
Anzeige oder für Speicherzwecke. Abhängig vom Typ der Daten,
die verloren gegangen sind, kann das Ersetzen mit
synthetisierten komprimierten Daten kein zufriedenstellendes
Bild ergeben.
Die Erfindung möchte deshalb die Fehlerverdeckung nach der
Dekompression verbessern. Dies wird mit der technischen Lehre
des Anspruchs 1 erreicht.
Dabei wird ein weiteres Signalersetzen über Bildbereiche
eingesetzt, die durch synthetisierte Daten repräsentiert
sind. Die Bildbereiche, die von den synthetisierten Daten
repräsentiert werden, werden von Fehlertokens identifiziert,
welche die dekomprimierten Videodaten begleiten. Wenn ein
Bildbereich mit Daten identifiziert wird, die außer acht
gelassen wurden, werden benachbarte dekomprimierte
Bildbereiche hinsichtlich Bewegung und Detail untersucht.
Abhängig von der relativen Menge (dem Betrag) der Bewegung
bzw. des Details in den benachbarten Bildbereichen wird der
aktuelle Bildbereich ersetzt durch räumlich synthetisierte
(spatially synthesized) bzw. zeitlich benachbarte (temporally
co-located) Daten.
Weitere Ausgestaltungen der Erfindung erläutern die
abhängigen Ansprüche. Die Einrichtung gemäß Anspruch 1 kann
mit einem entsprechenden Verfahren betrieben werden.
Das Verständnis der Erfindung soll durch Ausführungsbeispiele
vertieft werden.
Fig. 1 veranschaulicht die MPEG-ähnliche Signal-
Codierhierarchie.
Fig. 2 veranschaulicht das Format und den Inhalt eines
Transportpaketes von komprimierten Videodaten (transport
packet).
Fig. 3 ist ein Blockschaltbild eines Ausführungsbeispiels der
Erfindung als Empfänger.
Fig. 4A bzw. 4B sind schematische Darstellungen von
Makroblocks von Bilddaten bzw. Blocks von Bilddaten, die
nützlich bei der Erläuterung der Ausführungsbeispiele der
Erfindung sind.
Fig. 5 ist ein Blockschaltbild einer Einrichtung für
Videosignal-Dekompression und Fehlerverdeckung nach dieser
Dekompression, als Ausführungsbeispiel der Erfindung.
Vor der Erläuterung der Ausführungsbeispiele der Erfindung
soll das MPEG-ähnlich komprimierte Signalformat unter
Bezugnahme auf die Fig. 1 und 2 erläutert werden. Das
MPEG-Protokoll teilt aufeinanderfolgend auftretende
Vollbilder in Sequenzen von Gruppen von Vollbildern (groups
of frames; GOF). Die Vollbilder (frames) in jeweiligen GOFs
werden komprimiert entsprechend dreier Verfahren, dem
Intraframe-Codieren (I-Vollbilder), dem Vorwärts-Interframe-
Codieren (P-Vollbilder) und dem Vorwärts/Rückwärts-
Interframe-Codieren (B-Vollbilder). Jeweilige Vollbilder von
codierten Daten werden in Schichten/Scheiben (slices)
aufgeteilt, die z. B. 16 Bildzeilen darstellen. Jeder slice
wird in Makroblocks aufgeteilt, wovon jeder eine Matrix von
16×16 Pixeln aufweist. Jeder Makroblock ist in sechs Blocks
aufgeteilt, die vier Blocks von - sich auf das Luminanzsignal
beziehende - Information und zwei Blocks von - sich auf das
Chrominanzsignal beziehende - Information beinhalten. Die
Luminanz- und Chrominanz-Informationen werden separat codiert
und dann für die Übertragung kombiniert. Die Luminanzblocks
beinhalten Daten, die sich auf jeweilige 8×8 Matrizen von
Pixeln beziehen. Jeder Chrominanzblock weist eine 8×8
Datenmatrix auf, die sich auf die gesamte 16×16 Pixel-Matrix
bezieht, welche von dem Makroblock repräsentiert wird.
Ein Datenblock, der entsprechend der Intraframe-Codierung
codiert wurde, besteht aus Matrizen von diskreten
Cosinuskoeffizienten. D. h. jeweilige 8×8 Pixelblocks werden
einer diskreten Cosinus-Transformation (DCT; Discrete Cosine
Transform) unterworfen, um das codierte Signal zu erzeugen.
Die Koeffizienten werden einer adaptiven Quantisierung
zugeführt und sie werden lauflängen- und variabellängen
codiert (run-length; variable-length). Folglich können
jeweilige Blocks von übertragenen Daten weniger als eine 8×8
Codewort-Matrix aufweisen. Makroblocks von intraframe
codierten Daten werden - zusätzlich zu den DCT-
Koeffizienten - Information beinhalten, wie den Pegel der
eingesetzten Quantisierung, einen Makroblock-Adressen- oder
Positions-Anzeiger und einen Makroblock-Typ.
Codierte Datenblocks entsprechend den P- oder B-Intraframe-
Codierungen bestehen auch aus Matrizen von diskreten
Cosinuskoeffizienten. Zu diesem Zeitpunkt stellen diese
Koeffizienten jedoch Residuen (Reste) oder Differenzen
zwischen einer vorhergesagten (predicted) 8×8 Pixel-Matrix
und der aktuellen 8×8 Pixel-Matrix dar. Diese Koeffizienten
werden auch einer Quantisierung und einer Lauflängen- und
Variablen-Längen-Codierung unterzogen. In der Folge der
Vollbilder werden die I- und P-Vollbilder die Anker-
Vollbilder (anchor frames) genannt. Jedes P-Vollbild wird
vorhergesagt (predicted) von dem zuletzt aufgetretenen Anker-
Vollbild. Jedes B-Vollbild wird vorhergesagt von einem oder
beiden der Anker-Vollbilder, zwischen denen es angeordnet
ist. Das predictive Codierverfahren verwendet das Erzeugen
von Verschiebungsvektoren (displacement vectors), die
anzeigen, welcher Makroblock eines Anker-Vollbildes am besten
zu dem Makroblock des vorhergesagten Vollbildes, das gerade
codiert wird, paßt. Die Pixeldaten des passenden Blocks
(matched block) in dem Anker-Vollbild wird subtrahiert auf
einer Pixel-zu-Pixel-Basis von dem Block des Vollbildes, der
(gerade) codiert wird, um Residuen zu bilden. Die Residuen
werden der diskreten Cosinus-Transformation unterworfen und
die transformierten Residuen und die Bewegungsvektoren bilden
die codierten Daten für die vorhergesagten Bilder. Für
intraframe-codierte Vollbilder beinhaltet der Makroblock
Quantisierung, Adressen- und Typeninformation. Erwähnt werden
soll dabei, daß - obgleich ein Vollbild prediktiv codiert
ist - ein bestimmter Block oder Makroblock in dem prediktiven
Vollbild intraframe-codiert sein kann, wenn keine
angemessenen Block-Übereinstimmungen (block matches) gefunden
werden können. Zusätzlich können bestimmte der Makroblocks
nicht codiert sein. Makroblocks können übersprungen werden
(skipped) durch Erhöhen der Adresse des nächsten codierten
Makroblocks.
Nachdem die Videodaten codiert sind, werden sie gemäß einem
MPEG-ähnlichen Protokoll angeordnet. Das hierarchische MPEG-
Format beinhaltet eine Mehrzahl von Lagen/Schichten (layers),
wovon jede mit jeweiliger Kopfinformation (header
information) versehen ist. Nominell beinhaltet jede
Kopfinformation einen Startcode, Daten bezogen auf die
jeweilige Schicht und die Möglichkeit zum Hinzufügen von
Kopferweiterungen (header extensions). Ein Großteil der
Kopfinformation (wie in dem in Bezug genommenen MPEG-Dokument
angedeutet wird) wird zu Synchronisationszwecken in einer
MPEG-Systemumgebung benötigt. Zum Zweck des Bereitstellens
eines komprimierten Videosignals für ein digitales HDTV-
Simulcast-System (Simultanübertragung Radio/TV) wird nur
beschreibende Kopfinformation benötigt, d. h. Startcodes und
optionelle Erweiterungen können ausgeschlossen sein.
Wenn Bezug genommen wird auf das MPEG-ähnliche Signal, das
von dem vorliegenden System erzeugt wird, ist damit gemeint
- a) aufeinanderfolgende Halbbilder/Vollbilder des Videosignals werden codiert (encoded) entsprechend einer I, P, B Codiersequenz und
- b) codierte Daten auf dem Bildpegel (picture level) sind codiert in MPEG-ähnlichen Schichten (slices) oder Gruppen von Blocks, obgleich die Anzahl der slices pro Halbbild/Vollbild unterschiedlich sein kann und die Zahl der Makroblocks pro Slice verschieden sein kann.
Um Speicherplatz am empfängerseitigen Ende des
Übertragungssystems zu sparen oder zu bewahren, werden die
Gruppen von Vollbildern - wie in Fig. 1 dargestellt - neu
angeordnet, so daß die Ankerbilder, aus denen die B-
Vollbilder vorherbestimmt (predicted) werden, vor den
jeweiligen B-Vollbildern übertragen werden. Zum Beispiel
werden die ersten vier Vollbilder (I, B, B, P) in einer GOF
(Gruppe von Vollbildern) übertragen in der Reihenfolge (I, P,
B, B). Die komprimierten Signale können weiterer Manipulation
unterzogen werden, wie in US 51 22 875 erläutert. Letztlich
kann das komprimierte Signal in Transportpaketen (transport
packets) angeordnet werden, wie dies in Fig. 2
veranschaulicht wird.
Jeweilige Transportpackets können mehr oder weniger als eine
Datenschicht (slice of data) enthalten. So kann ein
bestimmtes Transportpaket Daten vom einen Ende der einen
Schicht und Daten von dem Anfang der folgenden Schicht
beinhalten. Transportpakete, die Videodaten beinhalten,
können verschachtelt sein (interleaved) mit Transportpaketen,
die andere Daten, z. B. Tondaten, enthalten. Jedes
Transportpaket beinhaltet einen Servicetyp-Kopf ST, welcher
die Art der Information anzeigt, die in dem jeweiligen
Transportpaket enthalten ist. In diesem Beispiel ist der ST-
Kopf ein 8-bit-Wort, welches anzeigt, ob Audio-, Video- oder
Hilfsdaten vorliegen.
Jedes Transportpaket (transport pocket) beinhaltet einen
Transportkopf TH, der unmittelbar dem ST-Kopf folgt. Der
Transportkopf beinhaltet einen 7-bit-Makroblock-Pointer,
einen 18-bit-Identifizierer und einen 7-bit-Record-Header-
Pointer (Datensatzkopf-Zeiger; RH). Der Makroblock-Zeiger ist
eingesetzt für die segmentierten Makroblocks oder Record-
Header-Komponenten und zeigt auf den Start der nächsten
decodierbaren Komponente. Zum Beispiel können - wenn das
bestimmte Transportpaket Makroblockdaten beinhaltet, die mit
dem Ende der Schicht n und dem Beginn der Schicht n+1
assoziiert sind - die Daten von der Schicht n benachbart dem
Transportkopf angeordnet sein und der Zeiger indiziert, daß
die nächsten decodierbaren Daten benachbart dem Transportkopf
TH sind.
Der 18-bit-Identifizierer identifiziert den aktuellen Typ des
Vollbildes, die Vollbildzahl (modulo 32), die aktuelle
Schichtnummer und den ersten Makroblock, der in dem
Transportpaket enthalten ist.
Dem Transportkopf folgen entweder ein Datensatzkopf (record
header, RH) oder Daten. Der Record Header für die Videodaten
beinhaltet die folgende Information: ein 1-bit FLAG (Marke),
welche anzeigt, ob eine Header Extension EXTEND vorliegt. Dem
FLAG folgt ein Identifizierer IDENTIFY, welcher anzeigt
- a) den Halbbild/Vollbild-Typ I, B oder P;
- b) eine Halbbild/Vollbild-Zahl (modulo 32) FRAME ID;
- c) eine Schichtnummer (modulo 64) SLICE IDENTITY.
Es wird angemerkt, daß die Kopfdaten der Transportpakete
redundante Informationen beinhalten bezüglich der Indentität
der Daten in jeweiligen Paketen. D. h. identifizierende
Indexe (indicia) werden in den Transportköpfen und in den
komprimierten Videodaten-Köpfen eingefügt.
Jedes Transportpaket wird beendet mit einer 16-bit Vollbild-
Prüffolge (frame check sequence, FCS), welche über alle bits
in dem Transportpaket berechnet wird. Die FCS kann erzeugt
werden durch verwenden eines CRC.
Das Transportpaket von Fig. 2 wird aufeinanderfolgend einem
Vorwärts-Fehlercodierer zugeführt, welcher
- a) eine Vorwärts-Fehlerkorrektur-Codierung ausführt, z. B. eine REED-SOLOMON-Codierung;
- b) Blöcke von Daten verschachtelt (interleaves) um großen Fehlerbursts nicht die Möglichkeit zu geben, lange zusammenhängende Bereiche von reproduzierten Bildern zu stören;
- c) z. B. Barker-Codes an die Daten anhängt, um den Datenstrom im Empfänger zu synchronisieren.
Danach werden die komprimierten Daten an eine
Übertragungsstufe, wie ein Modem, geliefert.
Fig. 3 veranschaulicht die allgemeine Form eines Empfängers
zum Bearbeiten der zuvor beschriebenen Signale. Übertragene
Signale können beispielsweise von einer (nicht dargestellten)
Antenne stammen und werden dem Tuner/Demodulator 10
zugeführt; dieser stellt ein Basisbandsignal in der Form zur
Verfügung, daß an den FEC-Codierer abgebbar ist. Das
Basisbandsignal wird an einen FEC-Decoder 12 geliefert, der
das übertragene Signal prüft und Fehlerkorrekturen
entsprechend seiner Fehlerkorrektur-Fähigkeit durchführt, die
im Übertragungskanal aufgetreten sind. Fehlerkorrigierte
Daten von dem FEC 12 werden an ein Ratenpuffer 14 angelegt,
der Daten mit relativ konstanter Rate (Zeitabstand) von dem
FEC 12 erhält und Daten auf Anforderung an die nachfolgenden
Verarbeitungselemente abgibt. Daten von dem Puffer werden an
einen FCS-Decoder 16 geliefert, welcher die
fehlerkorrigierten Daten prüft, und zwar auf unkorrigierte
Fehler entsprechend den FCS-Prüfbits, die an die
Transportpakete angehängt sind.
Der FCS-Decoder 16 gibt Transportpakete D an Element 18
zusammen mit einem Fehlersignal ED, welches anzeigt, ob die
jeweiligen Transportpakete Datenfehler beinhalten. Das
Element 18 ist abhängig von den Fehlerdaten und läßt
Transportpakete außer acht, die Datenfehler beinhalten.
Fehlerfreie Transportpakete werden in Videodaten und
Transport-Kopfdaten getrennt. Die Transportkopf- und
Fehlerdaten ED werden eingesetzt, um zu bestimmen, welche
Daten verlorengegangen sind und danach, um synthetische
komprimierte Videodaten zu erzeugen und die
verlorengegangenen Daten zu substituieren. Ein beispielhaftes
Gerät zum Erzeugen synthetischer komprimierter Videodaten
zeigt die US-Patentanmeldung 07/7 89 245, welche am
7. November 1991 eingereicht wurde und den Titel trägt
"Einrichtung zum Verbergen von Fehlern in einem digitalen
Video-Verarbeitungssystem". Das Element 18 gibt die
kombinierten fehlerfreien Videodaten und die synthetischen
Daten an einen Dekompressor 20 (Expander). Zusätzlich gibt
das Element 18 Fehlertokens an den Expander 20, welche Tokens
eine Vielzahl von Funktionen haben können. Zum Beispiel kann
es auftreten, daß für die Art der Daten, die in einem
bestimmten Transportpaket verlorengegangen sind, eine bessere
Bildreproduktion erhalten wird, wenn das Dekodieren dieses
Abschnitts der Daten einfach von dem Dekompressor 20
übersprungen wird, statt synthetische komprimierte Videodaten
zu erzeugen zum Anlegen an den Dekompressor. In diesem
Beispiel wird das Fehlertoken so gebildet, daß es den
Betriebsablauf des Dekompressors beeinflußt. Alternativ kann
es (beispielhaft) auftreten, daß es von vorneherein bekannt
ist, daß synthetische komprimierte Daten für einen bestimmten
Block wahrscheinlich keine akzeptierbare Bilder erzeugen und
daß die Beeinflussung der Decodier-Abfolge des Dekompressors
keine Verbesserung gegenüber der Verwendung synthetischer
komprimierter Daten bringen würde. In diesem Beispiel werden
die bestimmten Fehlertokens an einen weiteren
Fehlerverbergungs-Prozessor 26 geleitet, welcher mit
decodierten oder dekomprimierten Videosignalen arbeitet.
Der Dekompressor 20 verwendet Vollbildspeicher 22 bei dem
Dekompressions-Verfahren. Dieser Speicher ist so angeordnet,
daß er Vollbilder von decodiertem Videosignal speichert, zur
Verwendung eines Bewegungskompensations-Predictiv-Decodier-
Verfahrens. Decodierte Bildinformation wird
aufeinanderfolgend an einen Anzeigespeicher 24 übertragen, in
welchem sie im Rasterformat zur Anzeige zugänglich ist.
Das Fehlerverdeckungs-Element 26 wird zusammen mit den
dekomprimierten Daten im Speicher 22 und ersetzt Bilddaten,
die von Fehlertokens identifiziert werden. Die Substitution
der Daten ist adaptiv, wobei die Adaption entsprechend
signifikanter Bewegung oder entsprechend signifikantem Detail
des (derzeit) betrachteten Bildbereichs erfolgt. Im letzteren
Fall werden zeitlich versetzte daneben angeordnete Daten
(temporally displaced co-located data) substituiert für die
decodierten Daten und im ersteren Fall werden räumlich
interpolierte Daten (spatially interpolated data)
substituiert.
Luminanz- und Chrominanz-Daten werden getrennt dekomprimiert,
jedoch mit einem ähnlichen Verfahren und dann rekombiniert
zur Anzeige. Die folgende Diskussion bezüglich
Fehlerverdeckung wird gerichtet auf Verdeckung von Fehlern in
Luminanz-Daten. Fehler in Chrominanz-Daten werden in
ähnlicher Weise verdeckt (concealed).
Die Bestimmung, ob Fehlerverdeckung durch zeitliches Ersetzen
(temporal replacement) oder durch räumliche Interpolation
(spatial interpolation) ausgeführt wird, wird unter
Berücksichtigung der Fig. 4A erläutert. Fig. 4A
veranschaulicht Blocks von Daten entsprechend einem Teil
eines decodierten Bildes. Die größeren Quadrate
repräsentieren Makroblocks von Luminanz-Daten und die
kleineren Quadrate - beziffert ÿ innerhalb jedes
Makroblocks - repräsentieren decodierte Pixelwerte, z. B.
8×8 Matrizen. Es soll angenommen werden, daß ein Fehlertoken
anzeigt, daß der Makroblock MB einer Fehlerverdeckung
unterzogen werden soll. In einem ersten Ausführungsbeispiel
wird der Makroblock MA und der daneben angeordnete Makroblock
in einem vorher decodierten Vollbild untersucht, um die
relativen Beträge (Größen) von Bewegung und Detail zu
bestimmen, die mit ihnen assoziiert sind. Zwei statistische
Werte (Indexe) werden berechnet. Der erste statistische Wert
VAR wird bestimmt entsprechend der Gleichung
VAR=E[(x-xa)2] (1).
Die zweite statistische Variable VAROR wird berechnet
entsprechend der Gleichung
VAROR=E[x2]-u2 (2).
Die Werte x korrespondieren mit den jeweiligen Pixelwerten in
Makroblock MA; xa korrespondiert mit dem jeweiligen Pixelwert
des daneben angeordneten Makroblocks in dem vorhergehenden
decodierten Vollbild; und der Wert u ist der Mittelwert der
Werte von x. Die Funktion E[ . . . ] repräsentiert den
Erwartungswert (expected value) der Terme in dem Argument.
Der Erwartungswert kann über den gesamten Makroblock oder
einen Teil desselben berechnet werden. D. h. die Berechnung
kann ausgeführt werden über alle Pixel des Makroblocks MA
oder mit den Pixeln in den geringeren zwei Blocks von Pixeln
02 und 03 oder über die untersten Zeilen der Pixel in den
Blöcken 02 und 03 oder über eine diagonale Linie von Pixeln
von - beispielsweise - dem oberen linken Eckblock 00 bis zu
dem unteren rechten Eckblock 03, etc.
Der statistische Wert VAR tendiert dazu, die örtliche
Bewegung (local motion) anzuzeigen zwischen dem durch
Makroblock MA repräsentierten Bild und dem daneben
angeordneten Makroblock in dem vorhergehenden Vollbild. Der
statistische Wert VAROR tendiert dazu, das örtliche
Raumdetail (local spatial detail) im Makroblock MA
anzuzeigen. Weil vertikal benachbarte Bildbereiche dazu
tendieren, redundante Bildinformation zu enthalten, werden
die Bewegungs- und Detailcharakteristika des Makroblocks MA
und MB ähnlich sein. Deshalb können die Charakteristika von
Makroblock MA verwendet werden bei der Entscheidung des
optimalen Typs von Fehlerverdeckung für den Makroblock MB.
Wenn VAR größer als eine vorbestimmte Schwelle, z. B. 64 ist,
beinhaltet dieser Bereich keine signifikante Bildbewegung und
ein Ersetzen des Makroblocks MB mit zeitlich verschobenen
daneben angelegten Makroblocks kann signifikante Bewegungs-
Artefakte im breiteren Bildbereich einführen. Deshalb wird es
unter dieser Bedingung vorteilhaft sein, MA mit
interpolierten Daten zu ersetzen, obschon potentiell
geringeres Bilddetail als in daneben gelagerter Information
liegt. Zusätzlich werden - wenn VAR größer als VAROR ist -
räumlich interpolierte Daten als Substitutionsdaten
verwendet. Letztlich werden - wenn VAR geringer als eine
Schwelle oder geringer als VAROR ist - zeitlich versetzte
daneben angeordnete Daten als Substitutions- oder Ersatzdaten
verwendet.
Es wurde erkannt, daß bessere Gesamt-Leistungsfähigkeit
erreicht wird, wenn der Typ von Ersatzdaten für die oberen
10, 11 und unteren 12, 13 Blocks von Makroblock MB unabhängig
voneinander bestimmt werden. So werden die statistischen
Werte VARA und VARORA für Makroblock MA gebildet und die
statistischen Werte VARC und VARORC werden für Makroblock MC
gebildet. Die statistischen Werte VARA und VARORA werden
eingesetzt, um den Typ der Datenersetzung für die Blocks 10
und 11 zu bestimmen und die statistischen Werte VARC und
VARORC werden zur Bestimmung des Typs des Datenersatzes für
die Blocks 12 und 13 eingesetzt.
Das Erzeugen von räumlich interpolierten Werten kann in einer
Mehrzahl von Arten erfolgen. Wichtig ist es allerdings,
sicherzustellen, daß die Grenzen von angrenzenden Blocks ohne
signifikante Diskontinuität ineinander übergehen. Zwei
Verfahren werden mit Bezug auf Fig. 4B erläutert. In Fig. 4B
repräsentieren die abgegrenzten Quadrate jeweilige Blocks von
8×8 Pixelwerten. Es wird angenommen, daß die Pixelwerte des
Blocks B5 ersetzt werden sollen mit interpolierten
Pixelwerten. Ein erstes Verfahren der Erzeugung dieser Werte
ist es, vertikale GV und horizontale GH Gradienten von
benachbarten Blocks von Daten zu berechnen, dann zu beginnen
mit einem Wert von einem benachbarten Block, um die Matrix zu
berechnen. Zum Beispiel kann ein vertikal-Gradient GV
berechnet werden durch Subtrahieren des Mittelwerts der
eingekreisten Pixelwerte in Block B1 und B3 von dem
Mittelwert der eingekreisten Pixelwerte in Blocks B7 und B9.
Ähnlich kann ein Horizontal-Gradient GH berechnet werden
durch Subtrahieren des Mittelwertes der eingekreisten
Pixelwerte in Blocks B1 und B7 von dem Mittelwert der
eingekreisten Pixelwerte in Blocks B3 und B9. Die Matrixwerte
werden berechnetentsprechend der Gleichung
Pÿ = B1 +i · GH +j · GV (3);
wobei B1 der Wert des eingekreisten Pixels in Block B1 ist
und i und j Horizontal- und Vertikal-Koordinaten der Pixel in
der Matrix sind - bezüglich der oberen linken Ecke. Ein
zweites Verfahren ist es, einen vertikal-Gradienten für jede
Spalte von Pixeln aus den Pixelwerten in den vertikal
benachbarten Blocks zu erzeugen. Für Pixel in Spalte 5 kann
bin Vertikalgradient GV berechnet werden durch Subtrahieren
der Pixelwerte in den quadratischen Kästchen in Spalte 5 des
Blocks B2 von dem Pixelwert in dem quadratischen Kästchen in
Spalte 5 des Blocks B8. Die jeweiligen Pixelwerte in Spalte 5
des Blocks B5 werden berechnetentsprechend der Gleichung
P5j = B25,8 +j · GV (4);
wobei der Wert B25,8 der Wert des fünften Pixels in der
achten Reihe des Blocks B2 ist.
Als weitere Alternative können die Blocks von Pixelwerten
erzeugt werden von lokalen Pixelwerten über das Verfahren des
bekannten Gradienten-Abstiegs (known gradient descent),
obgleich dieses Verfahren dazu neigt, etwas höhere
Rechenleistung zu binden.
In einem Bildbereich muß zeitliches Ersetzen von Blocks vor
dem Ersetzen von räumlich interpolierten Daten erfolgen.
Diese Abfolge ist erforderlich, um sicherzustellen, daß Daten
verfügbar sind, um interpolierte Daten zu erzeugen. Unter der
beispielhaften Annahme, daß die Blocks B1 und B9 ersetzt
werden sollen mit zeitlich daneben angeordneten Daten
(temporally co-located data) und Block B5 mit interpolierten
Daten ersetzt werden soll, die entsprechend Gleichung (3)
erzeugt wurden, ergibt sich folgendes: Wenn die Blocks B1 und
B9 nicht zuerst ersetzt werden, können zutreffende Gradienten
GV und GH nicht berechnet werden, was in möglichen Bild-
Unstetigkeiten an den Blockgrenzen resultiert.
Fig. 5 zeigt ein Blockschaltbild mit einer Dekompressions-
Einrichtung und der Nach-Dekompressions
verdeckungseinrichtung. Die Elemente 300 bis 318
korrespondieren mit der Dekompressor-Schaltung. Der Betrieb
dieses Typs der Schaltung ist allgemein bekannt. Kurz: die
komprimierten Videodaten und die Fehlertokens werden in einem
Speicher 300 gepuffert und einer Steuereinrichtung 302
übergeben. Die Steuereinrichtung sendet die Videodaten an
einen variablen Längen-Decoder 303 (variable length decoder),
welcher eine Decodierung variabler Länge, inverse Lauflängen-
Decodierung (run length decoding), inverse Differenzpuls-
Codiermodulations-Decodierung (differential pulse code
modulation decoding), Entquantisierung, etc., ausführt, je
nach Erfordernis. Die decodierten Videoköpfe werden dem
Steuergerät 302 zurückgegeben zum Steuern des weiteren
Decodierens des Signales. Die Steuereinrichtung ist in ihrer
Wirkung eine Zustands-Maschine (state machine) zum Ausführen
fester Sequenzen von Decoder-Operationen, welche Sequenzen
von den aktuellen Video-Kopfdaten und eines Rückblicks
(history) auf die (schon) verarbeiteten Daten bestimmt wird.
Die decodierten DCT-Koeffizienten werden an ein inverses DCT-
Element 310 weitergeleitet, welches eine inverse diskrete
Cosinus-Transformation mit den Koeffizienten ausführt und
Pixelwerte (I-Vollbilder) und Residuenwerte (P- oder B-
Vollbilder) an den Addierer 312 abgibt. Decodierte
Bewegungsvektoren werden an den Bewegungs-Kompensations-
Predictor 304 angelegt. Abhängig von den Bewegungsvektoren
greift der Prediktor auf vorher dekomprimierte Makroblocks
von Pixelwerten aus dem Pufferspeicher 316 zu und legt diese
Pixelwerte an den Addierer 312 (zum Decodieren von P- oder B-
Vollbildern). Wenn I-Vollbilder bearbeitet werden, legt der
Predictor 304 Nullwerte an den Addierer 312.
Die Dekompression von I-Vollbildern umfaßt das Weiterleiten
der invers-DCT-verarbeiteten Pixelwerte über den Addierer 312
und das Speichern dieser in einem Teil des Speichers 316 zur
Verwendung bei der Dekompression von P- oder B-Vollbildern.
Die I-Vollbild-Pixelwerte werden auch von dem Speicher 316 an
einen Anzeigespeicher 318 gekoppelt, von welchem sie im
Rasterformat gelesen werden können.
Die Dekompression eines P-Vollbildes umfaßt - entsprechend
der Richtung des jeweiligen Bewegungsvektors - auch den
Zugriff auf Makroblocks des vorher decodierten I-Vollbildes
(oder eines vorher decodierten P-Vollbildes, welches dem
zuletzt liegenden I-Vollbild folgt, und das Anlegen der
Pixelwerte der jeweiligen Blocks in den Makroblocks an den
Addierer 312. Entsprechende Blocks von decodierten Residuen
werden von der inversen DCT 310 an den Addierer 312 geführt,
welcher Summen entsprechend den jeweiligen decodierten
Pixelwerten für das aktuelle P-Vollbild erzeugt. Diese
Pixelwerte werden in einen Bereich (oder: Teil) des Speichers
316 gekoppelt, der nicht von den zuletzt decodierten I- oder
P-Vollbildern belegt ist und sie werden beim Decodieren der
darauffolgenden B- und P-Vollbilder verwendet. Diese P-
Vollbilddaten werden an den Anzeigespeicher 318 gekoppelt,
nachdem darauffolgende B-Vollbilder decodiert sind (die B-
Vollbilder, die vor den P-Vollbildern in der Codiersequenz
auftraten).
B-Vollbilder von komprimierten Daten werden ähnlich zu den P-
Vollbildern decodiert, ausgenommen, daß auf Makroblocks von
Daten aus dem Speicher 316 zugegriffen werden kann von jedem
oder beiden der Anker-Vollbilder, zwischen welchen die B-
Vollbilder vor dem Codieren ursprünglich angeordnet waren.
Wenn auf Daten zugegriffen wird von beiden Vollbildern für
einen bestimmten Makroblock, werden die Daten interpoliert
oder gemittelt vor dem Anlegen an den Addierer, um zu den
Residuenwerten hinzugefügt zu werden. B-Vollbilder werden
nicht im Speicher 316 gespeichert, weil sie beim Decodieren
der darauffolgenden Vollbilder nicht verwendet werden. Also
werden die B-Vollbilddaten über die Speichereinrichtung 316
an den Anzeigespeicher 318 (display memory) gegeben.
Die Einrichtung von Fig. 5 (Nach-Dekompressions-
Fehlerverdeckungs-Gerät) ist so eingerichtet, daß sie Fehler
in decodierten I- und P-Vollbildern verdecken kann, nicht in
decodierten B-Vollbildern. Nach-Dekompressions-Verdeckung von
Fehlern in B-Vollbildern ist mit der Einrichtung von Fig. 5
nicht vorgesehen. Dies beeinflußt das Gesamtbild nicht
wesentlich, da Fehler in B-Vollbildern kurz in Zeitdauer (1
Vollbild) sind und sich nicht in nachfolgende Vollbilder
verlagern (propagate). Das System der Fig. 5 verwendet den
Dekompressor-Pufferspeicher 316 als Fundus (repository), aus
welchem Signale geschöpft werden können und in welchem
Signale ersetzt werden können. Dieser Speicher speichert
deine B-Vollbilder, da solche B-Vollbilder nicht für
Verdeckungs-Bearbeitung zur Verfügung stehen. B-Vollbilder
können aber für Fehler-Verdeckung ähnlich den P-Bildern
verarbeitet werden - wie unten beschrieben -, einfach durch
Hinzufügen zusätzlichen Speichers zum Speichern der B-
Vollbilder.
Wenn Vorsorge getroffen wurde, um decodierte B-Vollbilder zu
speichern, werden die statistischen Werte VAR und VAROR unter
Verwendung angelagerter (co-located) Daten in
aufeinanderfolgenden Anker-Vollbildern berechnet. D. h. mit
Bezug auf die Vollbild-Folge von Fig. 1 werden VAR und VAROR
für jedes Anker-Vollbild (I oder P) berechnet unter
Verwendung der Makroblocks des Anker-Vollbildes unmittelbar
zu seiner Linken (I oder P). Zusätzlich werden angelagerte
Makroblocks/Blocks zum Substituieren (zeitlichen Ersetzen) in
jeweiligen Anker-Vollbildern gewonnen, und zwar aus den
Anker-Vollbildern, die unmittelbar zu seiner Linken
angeordnet sind. Wenn Vorsorge getroffen wäre, um B-
Vollbilder zu speichern und zu bearbeiten, dann würden die
statistischen Berechnungen für jedes Vollbild gemacht werden
unter Verwendung der Daten aus den unmittelbar vorhergehenden
Vollbildern in der Sequenz und zeitliche Substitutionsdaten
würden gewonnen werden aus dem unmittelbar vorhergehenden
Vollbild der Sequenz.
Zuerst wird Fehlerverdeckung in I-Vollbildern betrachtet und
hierzu Bezug auf die Fig. 4A und 5 genommen. Aus Fig. 4A
ist erkennbar, daß bei Abgabe von Pixeln des Makroblocks MA
von dem Addierer 312 es dabei noch nicht bekannt ist, ob es
erforderlich ist, die Werte VAR und VAROR über den Makroblock
MA zu erzeugen, d. h. ob Makroblock MB einer Fehlerverdeckung
unterzogen werden muß. Andererseits müssen Pixeldaten für den
Makroblock MA sowie für seine anliegenden Gegenparts aus dem
Speicher gewonnen werden, um die Berechnung durchführen zu
können, wenn der Makroblock MB decodiert wird und es
erforderlich ist, die Werte VAR und VAROR über den Makroblock
MA zu erzeugen. Dies könnte einen Speicher-Zugriffskonflikt
bewirken. Um einen solchen Konflikt zu vermeiden, werden die
Werte VAR und VAROR für alle Makroblocks bei dem jeweiligen
Decodieren des Makroblocks erzeugt. Die Ergebnisse werden in
einem Speicherplan/-karte 342 (memory map) gespeichert und
sind verfügbar, wann immer ein Fehlertoken anzeigt, daß ein
bestimmter Makroblock einem Fehlerverdeckungs-Prozeß
unterzogen werden muß.
I-Vollbild-Makroblocks werden in einer vorbestimmten
Reihenfolge decodiert. Während Makroblocks von I-Vollbild-
Daten decodiert werden, wird auf anliegende (co-located)
Makroblocks aus dem letzten decodierten P-Vollbild im
Speicher 316 zugegriffen, und zwar unter der Steuerung der
Steuereinrichtung 344 zur Fehlerverdeckung, Entscheidung und
Steuerung. Die I-Vollbilddaten und anliegenden P-
Vollbilddaten werden an einen Rechner 340 angelegt, der die
Werte VAR und VAROR erzeugt. Diese Werte werden in dem
Speicher 342 für zukünftige Verwendung gespeichert. Während
die I-Vollbild-Makroblocks decodiert werden, gibt die
Steuerung 302 entsprechende Fehlertokens - wenn zutreffend -
ab, die in einem weiteren Speicherkarte (memory map) 348
gespeichert werden. Zusätzlich wird jeweilige Vollbild-
Typeninformation in der Speicherkarte (memory map) 348
gespeichert. Während des Decodierens von P-Vollbildern werden
auch Bewegungsvektoren aus dem VLD 303 für korrespondierende
Makroblocks mit Fehlertokens gespeichert.
Mehrere Reihen von Makroblocks werden
decodiert/dekomprimiert, bevor die Fehler-Verdeckung begonnen
wird, um Speicher-Zugriffskonflikte in dem Pufferspeicher 316
zu vermeiden. Wenn die Fehlerverdeckung einmal begann, geht
die Steuereinrichtung 344 durch die Fehlertokens in der/dem
Fehlerkarte/-plan 348. Wenn ein Fehlertoken anzeigt, daß die
Daten in einem Makroblock ersetzt werden sollen, wird auf die
Werte VAR und VAROR - die über die passenden Makroblocks
berechnet wurden - aus der Speicherkarte 342 zugegriffen und
sie verglichen. Wenn der Vergleich anzeigt, daß die
Pixeldaten in dem Makroblock ersetzt werden müssen mit
zeitlich versetzten anliegenden Daten, wird auf diese Daten
im Speicher 316 zugegriffen (dem Teil, der das vorhergehend
decodierte P-Vollbild speichert) und verwendet, um die
Makroblock-Daten für das I-Vollbild in Speicher 316 zu
ersetzen (dem Teil, der das aktuell decodierte I-Vollbild
speichert), alles unter der Steuerung der Einrichtung 344.
Wenn der Vergleich anzeigt, daß der Makroblock ersetzt werden
muß mit interpolierten Daten, wird diese Anzeige in einer
Schlange plaziert, wobei geeignete Handlungen nach dem
Vergleich ausgeführt werden, z. B. zwei Reihen von
Makroblöcken nach dem Vergleich. Dies stellt sicher, daß
zeitliches Ersetzen ausgeführt wurde - wo notwendig - in
allen Blocks, die mit interpolierten Daten ersetzt werden
müssen, so daß Randdaten (boundary data) verfügbar sind zum
Erzeugen der interpolierten Daten. Alternativ kann das System
als Doppel-Durchlauf-System programmiert werden, bei dem
zeitliches Ersetzen ausgeführt wird (wo erforderlich) über
das gesamte Vollbild und dann interpolierte Blocks
substituiert werden (wo erforderlich) über das gesamte
Vollbild. Wenn ein Block von Daten mit interpolierten Daten
zu ersetzen ist, greift die Steuerung 344 auf die Grenz- oder
Randdaten aus den Nachbar-Blocks in dem I-Vollbild im
Speicher 316 zu und stellt diese dem Interpolator 346 zur
Verfügung. Der Interpolator 346 erzeugt den Block von Daten,
auf den die Steuerung 344 zugreift und der in den passenden
Makroblock in dem I-Vollbild - das im Speicher 316
gespeichert ist - substituiert wird.
Fehlerverdeckung für/in P-Vollbildern wird ähnlich
ausgeführt, mit der Ausnahme, daß bei Ersetzen von Blocks mit
zeitlich versetzten Daten es keine anliegenden (co-located)
Daten sind. Bei Bezug auf Fig. 4A muß berücksichtigt werden,
daß die P-Vollbilder interframe-codiert sind. Das
komprimierte Signal beinhaltet Bewegungsvektoren, welche auf
die optimalen Makroblocks in dem vorhergehenden Anker-
Vollbild zeigen, aus welchem Makroblocks in dem aktuellen P-
Vollbild vorhergesagt werden können. Wenn der Bewegungsvektor
zum Beispiel mit dem Makroblock MF assoziiert ist, und zwar
in dem aktuellen P-Vollbild, kann er anzeigen, daß der
Makroblock ME in dem vorhergehenden Anker-Vollbild verwendet
wurde, um den Makroblock MF in dem aktuellen P-Vollbild zu
prädidzieren (vorherzusagen). Der daneben angeordnete (co
located) Makroblock MF in dem vorhergehenden Ankerbild kann
wenig Ähnlichkeit mit dem Makroblock MF in dem aktuellen P-
Vollbild haben. Wenn daher zeitliches Ersetzen ausgeführt
wird, wird es ausgeführt unter Verwendung von Datenblocks,
die durch entsprechende Bewegungsvektoren bezeichnet werden.
Was - allerdings - sind die geeigneten Bewegungsvektoren?
Dabei muß berücksichtigt werden, daß Bewegungsvektoren in
relativen Termen codiert sind, d. h. daß sie anzeigen, wie
weit nach links oder rechts oder oben oder unten - ausgehend
vom Ort des aktuellen Makroblocks - die prädizierten
Makroblocks in dem vorhergehenden Vollbild gefunden werden.
Wenn nun angenommen wird, daß ein hoher Grad an Redundanz
zwischen vertikal benachbarten Bildabschnitten besteht, dann
kann man erwarten, daß die Bewegungsvektoren von den vertikal
benachbarten Makroblocks auch dazu neigen, ähnlich zu sein,
und so ist es auch der Fall. Daher gibt es mehrere Optionen,
abhängig davon, ob man das System komplexer machen möchte. Es
soll beispielhaft angenommen werden, daß Daten in Makroblock
MB ersetzt werden sollen mit zeitlich verschobenen Daten.
Wenn das bestimmte System VAR und VAROR über nur den
Makroblock MA für den gesamten Makroblock MB berechnet wird,
kann der Bewegungsvektor zum Auffinden der zeitlich
versetzten Daten, die ins Makroblock MB substituiert werden
sollen, der Bewegungsvektor sein, der mit Makroblock MA
assoziiert ist. Wenn das bestimmte System VAR und VAROR über
Makroblock MA bestimmt für die oberen zwei Blocks des
Makroblocks MB und VAR und VAROR über Makroblock MC für die
unteren zwei Blocks des Makroblocks MB bestimmt, dann kann
der Bewegungsvektor, der mit dem Makroblock MA assoziiert
ist, verwendet werden zum Auffinden von Daten für die oberen
zwei Blocks des Makroblocks MB und der Bewegungsvektor, der
mit Makroblock MC assoziiert ist, kann verwendet werden zum
Auffinden von Substitutionsdaten für die unteren zwei Blocks
von Makroblock MB. In beiden Fällen können alternativ die
Bewegungsvektoren, die mit beiden Makroblocks MA und MB
assoziiert sind, gemittelt werden, um einen geeigneten
Bewegungsvektor zu erhalten.
Bewegungsvektoren, die mit horizontal benachbarten
Makroblocks assoziiert sind, können auch verwendet werden zum
Auffinden von Substitutionsdaten zum Ersatz in P-Vollbildern,
jedoch neigen Fehlerverlust und/oder Laufzeiten in MPEG-
ähnlichen Codierverfahren dazu, in Horizontal-Richtung zu
liegen. Es ist daher sehr wahrscheinlich, daß zuverlässige
Bewegungsvektoren nicht in horizontal benachbarten
Makroblocks verfügbar sein können.
Wenn man die Berechnung der Werte VAR und VAROR für P-
Vollbild-Fehlerverdeckung betrachtet, treten die geeigneten
Makroblocks in jeweiligen Vollbildern automatisch auf. Wenn
ein Makroblock des P-Vollbildes decodiert wird und vom
Addierer 312 abgegeben wird, wird der geeignete Makroblock,
der von dem zugeordneten Bewegungsvektor bezeichnet wird, von
dem Speicher 316 zur Verfügung gestellt, und zwar im normalen
Decodier-Verfahren. Deshalb sind keine Änderungen in der
Einrichtung zum Berechnen von VAR und VAROR erforderlich.
Claims (7)
1. Adaptive Fehlerverdeckungs-Einrichtung zur Verdeckung von
Fehlern in Videosignalen, die als Block von Pixeln
(Bildpunkten) decodiert sind,
gekennzeichnet durch
- - eine Quelle (10) eines Videosignals, das in Blöcken codierter Daten auftritt, die jeweilige Bildbereiche repräsentieren, wobei jeder Bereich mit einer Vielzahl von Pixeln repräsentiert ist;
- - Mittel (16), die mit der Quelle gekoppelt sind zum Erkennen/Erfassen von Fehlern in den Blöcken codierter Daten, zum Erzeugen von Fehlersymbolen (error tokens), welche die Blöcke codierter Daten anzeigen, die Fehler aufweisen, zum Aussondern von Blöcken codierter Daten mit Fehlern und zum Weiterreichen fehlerfreier Blocks codierter Daten;
- - Mittel (20) zum Decodieren der fehlerfreien Blocks codierter Daten auf Blockbasis (block-by-block) und zum Erzeugen korrespondierender Blocks von Pixelwerten, welche die Bildbereiche darstellen;
- - Mittel (26), die abhängig sind von den Fehlersymbolen und Pixelwerten in Blöcken von Pixelwerten benachbart zu Blöcken von Pixelwerten (designierte Fehlerblocks; designated errored blocks), die mit ausgesonderten Blocks von codiertem Videosignal korrespondieren, zum adaptiven Bereitstellen von Pixelwerten für die Fehlerblöcke von Pixelwerten.
2. Einrichtung nach Anspruch 1,
dadurch gekennzeichnet,
daß die Mittel zum adaptiven Bereitstellen von
Pixelwerten aufweisen:
- - Mittel zum Erzeugen-eines ersten Index (indicia) mit Bezug auf Bild-Detailbetrag in zumindest einem Block von Pixelwerten benachbart zu dem Fehlerblock von Pixelwerten;
- - Mittel zum Erzeugen eines zweiten Index (indicia) mit Bezug auf die Bildbewegung in dem zumindest einen Block von Pixelwerten benachbart zu dem Fehlerblock von Pixelwerten mit Bezug auf ein Bild in einem zuvor decodierten Vollbild (frame);
- - Mittel zum Vergleichen der ersten und zweiten Indexe (indicia) und zum Bereitstellen von ersten bzw. zweiten Typen von Pixeldaten für den Fehlerblock von Pixelwerten, wenn der Bild-Detailbetrag größer bzw. geringer als die Bildbewegung ist.
3. Einrichtung nach Anspruch 2,
dadurch gekennzeichnet,
daß die Mittel zum Bereitstellen der ersten und zweiten
Typen von Pixeldaten aufweisen:
- - Mittel zum Auswählen von Pixelwerten aus Blocks von Pixelwerten, die dem Fehlerblock von Pixelwerten benachbart sind zum daraus Erzeugen eines Blocks von interpolierten Pixelwerten, wobei der Block von interpolierten Pixelwerten mit dem zweiten Typ von Pixeldaten korrespondiert; und
- - Mittel zum Auswählen eines Blocks von Pixelwerten aus einem Vollbild (frame) eines zuvor decodierten Videosignals, wobei der ausgewählte Block mit dem ersten Typ von Pixeldaten korrespondiert.
4. Einrichtung nach Anspruch 2 oder 3,
dadurch gekennzeichnet,
daß der erste und zweite Typ von Pixeldaten mit Blocks
von zeitlich versetzten (temporally displaced)
Pixelwerten bzw. Blocks von interpolierten Pixelwerten
korrespondiert.
5. Einrichtung nach einem der Ansprüche 2 bis 4,
dadurch gekennzeichnet,
daß die Mittel zum Erzeugen eines ersten Index (weitere)
Mittel zum Berechnen der Differenz zwischen dem Quadrat
des Mittelwertes der Pixelwerte in dem zumindest einen
Block und dem erwarteten Wert des Quadrates der
Pixelwerte in dem zumindest einen Block aufweisen.
6. Einrichtung nach einem der Ansprüche 2 bis 5,
dadurch gekennzeichnet,
daß die Mittel zum Erzeugen eines zweiten Index Mittel
umfassen zum Berechnen des erwarteten Wertes
(Erwartungswertes) des Quadrates der Differenz zwischen
korrespondierenden Pixelwerten in dem zumindest einen
Block und Pixelwerten aus einem daneben (co-located)
liegenden Block in einem zeitversetzten Vollbild
(temporally displaced frame).
7. Verfahren zum adaptiven verdecken von Fehlern (error
concealment) in MPEG-ähnlichen Fernsehsignalen, welche
Makroblocks (MA, MB, MC, ME, MF) und Blocks (B1, B2, . . .
B9) von Pixeldaten aufweisen - insbesondere zum Betreiben
der Einrichtung gemäß Anspruch 1 -, bei dem
- a) Fehlersymbole (error tokens) erzeugt und den fehlerhaften Blocks (B1 . . . B9) angefügt werden;
- b) aus Blocks (B1 . . . B9) bzw. Pixeln davon (Fig. 4B), die den fehlersymbolbehafteten Blocks benachbart sind, Schätzwerte (VAR, VAROR) hinsichtlich Blockdetail und Blockbewegung errechnet werden;
- c) die fehlerhaften Blocks ersetzt werden mit zeitlich (temporally) oder räumlich (spatially) versetzten Pixelwerten, abhängig von einem Vergleich der Schätzwerte (VAR, VAROR).
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US844,322 | 1992-03-02 | ||
US07/844,322 US5247363A (en) | 1992-03-02 | 1992-03-02 | Error concealment apparatus for hdtv receivers |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4305578A1 true DE4305578A1 (de) | 1993-09-09 |
DE4305578B4 DE4305578B4 (de) | 2007-06-21 |
Family
ID=25292386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4305578A Expired - Fee Related DE4305578B4 (de) | 1992-03-02 | 1993-02-24 | Fehlerverdeckung in decodierten Videosignalen |
Country Status (4)
Country | Link |
---|---|
US (1) | US5247363A (de) |
JP (1) | JP3404706B2 (de) |
KR (1) | KR100296660B1 (de) |
DE (1) | DE4305578B4 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0604230A2 (de) * | 1992-12-24 | 1994-06-29 | Canon Kabushiki Kaisha | Vorrichtung für die Wiedergabe eines Bildsignals |
EP0639032A2 (de) * | 1993-08-09 | 1995-02-15 | C-Cube Microsystems, Inc. | Struktur und Verfahren für einen Mehrnormen-Bildkodierer/-dekodierer |
DE19716147A1 (de) * | 1997-04-17 | 1998-10-22 | Alsthom Cge Alcatel | Verfahren und Vorrichtung zur Fehlerverdeckung in digitalen Übertragungssystemen |
US5910909A (en) * | 1995-08-28 | 1999-06-08 | C-Cube Microsystems, Inc. | Non-linear digital filters for interlaced video signals and method thereof |
US6701002B1 (en) | 1999-06-30 | 2004-03-02 | Agilent Technologies, Inc. | Test method for image pickup devices |
Families Citing this family (115)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5337088A (en) * | 1991-04-18 | 1994-08-09 | Matsushita Electric Industrial Co. Ltd. | Method of correcting an image signal decoded in block units |
US5657399A (en) * | 1991-05-17 | 1997-08-12 | Canon Kabushiki Kaisha | Encoding/decoding apparatus using quantizing steps information |
JP3002019B2 (ja) * | 1991-07-04 | 2000-01-24 | 富士通株式会社 | セル廃棄補償機能を有する画像符号化伝送方式 |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
GB2263373B (en) * | 1992-01-09 | 1995-05-24 | Sony Broadcast & Communication | Data error concealment |
JPH05244468A (ja) * | 1992-02-28 | 1993-09-21 | Mitsubishi Electric Corp | 画像受信装置 |
KR950004129B1 (ko) * | 1992-05-19 | 1995-04-25 | 주식회사금성사 | 가변장 부호 복호기 |
US5842033A (en) * | 1992-06-30 | 1998-11-24 | Discovision Associates | Padding apparatus for passing an arbitrary number of bits through a buffer in a pipeline system |
JPH0698313A (ja) * | 1992-09-14 | 1994-04-08 | Sony Corp | 動画像復号化装置 |
US5446501A (en) * | 1992-10-22 | 1995-08-29 | Accom, Incorporated | Three-dimensional median and recursive filtering apparatus and method for video image enhancement |
JP3341781B2 (ja) * | 1992-12-15 | 2002-11-05 | ソニー株式会社 | 画像復号化装置および画像符号化装置 |
JP3240017B2 (ja) * | 1993-01-11 | 2001-12-17 | ソニー株式会社 | Mpeg信号記録方法およびmpeg信号再生方法 |
US5786858A (en) * | 1993-01-19 | 1998-07-28 | Sony Corporation | Method of encoding image signal, apparatus for encoding image signal, method of decoding image signal, apparatus for decoding image signal, and image signal recording medium |
US5815636A (en) * | 1993-03-29 | 1998-09-29 | Canon Kabushiki Kaisha | Image reproducing apparatus |
US5943444A (en) * | 1993-03-31 | 1999-08-24 | Canon Kabushiki Kaisha | Image reproducing apparatus |
US5561532A (en) * | 1993-03-31 | 1996-10-01 | Canon Kabushiki Kaisha | Image reproducing apparatus |
US6266372B1 (en) * | 1993-03-31 | 2001-07-24 | Canon Kabushiki Kaisha | Apparatus for image reproduction using motion estimation |
US5442400A (en) * | 1993-04-29 | 1995-08-15 | Rca Thomson Licensing Corporation | Error concealment apparatus for MPEG-like video data |
DE69417471T2 (de) * | 1993-05-12 | 1999-11-25 | Matsushita Electric Ind Co Ltd | Gerät zur Aufzeichnung und Wiedergabe von Videosignalen |
US5812735A (en) * | 1993-07-09 | 1998-09-22 | Sony Corporaiton | Picture signal decoding method and picture signal decoding apparatus |
KR950024594A (ko) * | 1994-01-28 | 1995-08-21 | 모리시타 요이찌 | 가변길이부호복호회로 |
US5442407A (en) * | 1994-03-22 | 1995-08-15 | Matsushita Electric Corporation Of America | Video signal noise reduction system using time-varying filter coefficients |
US5475688A (en) * | 1994-04-22 | 1995-12-12 | Thomson Consumer Electronics, Inc. | Media error code generation as for a video inverse transport processor |
US5619501A (en) * | 1994-04-22 | 1997-04-08 | Thomson Consumer Electronics, Inc. | Conditional access filter as for a packet video signal inverse transport system |
US5880786A (en) * | 1994-06-15 | 1999-03-09 | Hitachi, Ltd. | Apparatus for picture decoding having frame memories commonly connected to one data bus and one address bus |
JPH0818979A (ja) * | 1994-06-27 | 1996-01-19 | Canon Inc | 画像処理装置 |
US6009236A (en) * | 1994-09-26 | 1999-12-28 | Mitsubishi Denki Kabushiki Kaisha | Digital video signal record and playback device and method for giving priority to a center of an I frame |
US5550847A (en) * | 1994-10-11 | 1996-08-27 | Motorola, Inc. | Device and method of signal loss recovery for realtime and/or interactive communications |
US5734419A (en) | 1994-10-21 | 1998-03-31 | Lucent Technologies Inc. | Method of encoder control |
CA2157066C (en) * | 1994-10-21 | 1999-09-21 | Nelson Botsford Iii | Method for controlling a compressed data buffer |
KR100320450B1 (ko) * | 1994-12-16 | 2002-06-20 | 구자홍 | 고선명티브이수상기의수신기동작상황검출장치 |
US5646687A (en) * | 1994-12-29 | 1997-07-08 | Lucent Technologies Inc. | Temporally-pipelined predictive encoder/decoder circuit and method |
KR100215428B1 (ko) * | 1995-01-23 | 1999-08-16 | 윤종용 | B픽처의에러은폐방법 |
US5621467A (en) * | 1995-02-16 | 1997-04-15 | Thomson Multimedia S.A. | Temporal-spatial error concealment apparatus and method for video signal processors |
JP3540855B2 (ja) * | 1995-03-08 | 2004-07-07 | シャープ株式会社 | ブロック歪み補正器 |
US5774600A (en) * | 1995-04-18 | 1998-06-30 | Advanced Micro Devices, Inc. | Method of pixel averaging in a video processing apparatus |
US5724446A (en) * | 1995-04-18 | 1998-03-03 | Advanced Micro Devices, Inc. | Video decoder apparatus using non-reference frame as an additional prediction source and method therefor |
US5903313A (en) * | 1995-04-18 | 1999-05-11 | Advanced Micro Devices, Inc. | Method and apparatus for adaptively performing motion compensation in a video processing apparatus |
US6002801A (en) * | 1995-04-18 | 1999-12-14 | Advanced Micro Devices, Inc. | Method and apparatus for improved video decompression by selection of IDCT method based on image characteristics |
US5864637A (en) * | 1995-04-18 | 1999-01-26 | Advanced Micro Devices, Inc. | Method and apparatus for improved video decompression by selective reduction of spatial resolution |
US5809173A (en) * | 1995-04-18 | 1998-09-15 | Advanced Micro Devices, Inc. | Method and apparatus for improved video decompression using previous frame DCT coefficients |
US5610659A (en) * | 1995-05-08 | 1997-03-11 | Futuretel, Inc. | MPEG encoder that concurrently determines video data encoding format and rate control |
US5680482A (en) * | 1995-05-17 | 1997-10-21 | Advanced Micro Devices, Inc. | Method and apparatus for improved video decompression by adaptive selection of video input buffer parameters |
EP0748130B1 (de) * | 1995-06-05 | 2002-09-25 | Sony Electronics Inc. | Aufnahme und Wiedergabe von digitalen Signalen |
US5731850A (en) * | 1995-06-07 | 1998-03-24 | Maturi; Gregory V. | Hybrid hierarchial/full-search MPEG encoder motion estimation |
FR2735321B1 (fr) * | 1995-06-09 | 1997-09-05 | Sgs Thomson Microelectronics | Procede et dispositif de masquage d'erreur lors du decodage d'un flux de donnees |
US5751861A (en) * | 1995-06-30 | 1998-05-12 | Intel Corporation | Reducing residual artifacts in video coding schemes with integer motion compensation |
US5724369A (en) * | 1995-10-26 | 1998-03-03 | Motorola Inc. | Method and device for concealment and containment of errors in a macroblock-based video codec |
JPH09128529A (ja) * | 1995-10-30 | 1997-05-16 | Sony Corp | ディジタル画像の雑音の投影に基づく除去方法 |
US5703877A (en) * | 1995-11-22 | 1997-12-30 | General Instrument Corporation Of Delaware | Acquisition and error recovery of audio data carried in a packetized data stream |
JP3994445B2 (ja) * | 1995-12-05 | 2007-10-17 | ソニー株式会社 | 動きベクトル検出装置及び動きベクトル検出方法 |
KR19990072122A (ko) * | 1995-12-12 | 1999-09-27 | 바자니 크레이그 에스 | 실시간 영상 전송 방법 및 장치 |
KR100197366B1 (ko) * | 1995-12-23 | 1999-06-15 | 전주범 | 영상 에러 복구 장치 |
KR100197368B1 (ko) * | 1995-12-23 | 1999-06-15 | 전주범 | 영상 에러 복구 장치 |
KR100220678B1 (ko) * | 1995-12-29 | 1999-09-15 | 전주범 | 블록 단위 부호화 장치로부터 전송된 영상신호에서의 채널 에러 정정 방법 |
US5781564A (en) * | 1996-06-05 | 1998-07-14 | Thomson Consumer Electronics, Inc. | Method and apparatus for detecting and concealing data errors in stored digital data |
KR100244745B1 (ko) * | 1996-06-29 | 2000-02-15 | 김영환 | 싱크 워드 검출회로 |
TW357327B (en) * | 1996-08-02 | 1999-05-01 | Sony Corp | Methods, apparatus and program storage device for removing scratch or wire noise, and recording media therefor |
JP3748895B2 (ja) * | 1997-02-13 | 2006-02-22 | 三菱電機株式会社 | 符号化装置及び復号装置及び符号化方法及び復号方法 |
US6078616A (en) | 1997-03-13 | 2000-06-20 | Sony Corporation | Methods and apparatus for error concealment utilizing temporal domain motion vector estimation |
US6584226B1 (en) * | 1997-03-14 | 2003-06-24 | Microsoft Corporation | Method and apparatus for implementing motion estimation in video compression |
JP3217987B2 (ja) * | 1997-03-31 | 2001-10-15 | 松下電器産業株式会社 | 動画像信号の復号方法および符号化方法 |
US5990955A (en) * | 1997-10-03 | 1999-11-23 | Innovacom Inc. | Dual encoding/compression method and system for picture quality/data density enhancement |
US6563549B1 (en) * | 1998-04-03 | 2003-05-13 | Sarnoff Corporation | Method and apparatus for adaptively encoding an information stream |
KR100309695B1 (ko) * | 1998-06-01 | 2001-12-28 | 구자홍 | 간헐영상의압축기록방법및압축간헐영상의재생방법 |
US6330366B1 (en) * | 1998-12-21 | 2001-12-11 | Intel Corporation | Method and apparatus for buffer management in video processing |
US6771827B1 (en) | 1998-12-23 | 2004-08-03 | Xerox Corporation | System and method for directed acuity segmentation resolution compression and decompression |
KR100587280B1 (ko) * | 1999-01-12 | 2006-06-08 | 엘지전자 주식회사 | 오류 은폐방법 |
US7904187B2 (en) | 1999-02-01 | 2011-03-08 | Hoffberg Steven M | Internet appliance system and method |
US6307979B1 (en) | 1999-02-12 | 2001-10-23 | Sony Corporation | Classified adaptive error recovery method and apparatus |
US6621936B1 (en) | 1999-02-12 | 2003-09-16 | Sony Corporation | Method and apparatus for spatial class reduction |
US6363118B1 (en) | 1999-02-12 | 2002-03-26 | Sony Corporation | Apparatus and method for the recovery of compression constants in the encoded domain |
US6418548B1 (en) | 1999-02-12 | 2002-07-09 | Sony Corporation | Method and apparatus for preprocessing for peripheral erroneous data |
US6519369B1 (en) | 1999-02-12 | 2003-02-11 | Sony Corporation | Method and apparatus for filter tap expansion |
US6549672B1 (en) * | 1999-06-29 | 2003-04-15 | Sony Corporation | Method and apparatus for recovery of encoded data using central value |
JP3630590B2 (ja) * | 1999-08-25 | 2005-03-16 | 沖電気工業株式会社 | 復号化装置及び伝送システム |
US6351494B1 (en) | 1999-09-24 | 2002-02-26 | Sony Corporation | Classified adaptive error recovery method and apparatus |
US6522785B1 (en) | 1999-09-24 | 2003-02-18 | Sony Corporation | Classified adaptive error recovery method and apparatus |
US6539517B1 (en) | 1999-11-09 | 2003-03-25 | Sony Corporation | Data transformation for explicit transmission of control information |
GB9928022D0 (en) * | 1999-11-26 | 2000-01-26 | British Telecomm | Video coding and decording |
JP3526019B2 (ja) * | 1999-11-30 | 2004-05-10 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 画像表示システム、画像表示装置、および画像表示方法 |
US6754371B1 (en) | 1999-12-07 | 2004-06-22 | Sony Corporation | Method and apparatus for past and future motion classification |
FI107680B (fi) * | 1999-12-22 | 2001-09-14 | Nokia Oyj | Menetelmä videokuvien lähettämiseksi, tiedonsiirtojärjestelmä, lähettävä videopäätelaite ja vastaanottava videopäätelaite |
US6859456B1 (en) * | 2000-03-13 | 2005-02-22 | Motorola, Inc. | Method and apparatus for checking communicated data |
US6970510B1 (en) * | 2000-04-25 | 2005-11-29 | Wee Susie J | Method for downstream editing of compressed video |
US6973130B1 (en) | 2000-04-25 | 2005-12-06 | Wee Susie J | Compressed video signal including information for independently coded regions |
US20020066101A1 (en) * | 2000-11-27 | 2002-05-30 | Gordon Donald F. | Method and apparatus for delivering and displaying information for a multi-layer user interface |
US7039117B2 (en) * | 2001-08-16 | 2006-05-02 | Sony Corporation | Error concealment of video data using texture data recovery |
US20030081564A1 (en) * | 2001-10-29 | 2003-05-01 | Chan James C. K. | Wireless transmission and recording of images from a video surveillance camera |
AU2002351417A1 (en) * | 2001-12-21 | 2003-07-30 | Polycom, Inc. | Motion wake identification and control mechanism |
EP1504601B1 (de) * | 2002-04-17 | 2011-07-13 | Thomson Licensing | Paketfehlersignalgenerator |
JP2003348594A (ja) * | 2002-05-27 | 2003-12-05 | Sony Corp | 画像復号装置及び方法 |
US7020200B2 (en) * | 2002-08-13 | 2006-03-28 | Lsi Logic Corporation | System and method for direct motion vector prediction in bi-predictive video frames and fields |
US7813429B2 (en) * | 2002-08-13 | 2010-10-12 | Lsi Corporation | System and method for segmentation of macroblocks |
US8488665B2 (en) * | 2003-06-25 | 2013-07-16 | Broadcom Corporation | Delta frame buffers |
US20050013496A1 (en) * | 2003-07-16 | 2005-01-20 | Bruls Wilhelmus Hendrikus Alfonsus | Video decoder locally uses motion-compensated interpolation to reconstruct macro-block skipped by encoder |
KR100585733B1 (ko) * | 2003-10-16 | 2006-06-07 | 엘지전자 주식회사 | 영상 처리 시스템의 손실 블록 특성 자동 판단 방법 및 장치 |
KR100621005B1 (ko) * | 2003-12-24 | 2006-09-08 | 엘지전자 주식회사 | 영상 오류 복구장치 및 방법 |
KR101000926B1 (ko) * | 2004-03-11 | 2010-12-13 | 삼성전자주식회사 | 영상의 불연속성을 제거하기 위한 필터 및 필터링 방법 |
JP2005260606A (ja) * | 2004-03-11 | 2005-09-22 | Fujitsu Ten Ltd | デジタル放送受信装置 |
US7983835B2 (en) | 2004-11-03 | 2011-07-19 | Lagassey Paul J | Modular intelligent transportation system |
US20060062312A1 (en) * | 2004-09-22 | 2006-03-23 | Yen-Chi Lee | Video demultiplexer and decoder with efficient data recovery |
US8139647B2 (en) * | 2004-10-29 | 2012-03-20 | Sharp Kabushiki Kaisha | Moving image decoding apparatus and moving image decoding method |
EP1827023A1 (de) * | 2006-02-27 | 2007-08-29 | THOMSON Licensing | Verfahren und Vorrichtung zur Paketverlustentdeckung und Erzeugung von virtuellen Paketen bei SVC-Dekodierern |
FR2898459B1 (fr) * | 2006-03-08 | 2008-09-05 | Canon Kk | Procede et dispositif de reception d'images ayant subi des pertes en cours de transmission |
CN100548051C (zh) * | 2006-05-25 | 2009-10-07 | 联想(北京)有限公司 | 视频编解码设备和方法以及系统 |
JP5474546B2 (ja) * | 2006-08-25 | 2014-04-16 | トムソン ライセンシング | 低減された解像度の分割の方法及び装置 |
ITTO20060668A1 (it) * | 2006-09-19 | 2008-03-20 | Rai Radiotelevisione Italiana Spa | Metodo per riprodurre una sequenza audio e/o video, dispositivo di riproduzione ed apparecchio riproduttore che lo utilizzano |
US8379733B2 (en) | 2006-09-26 | 2013-02-19 | Qualcomm Incorporated | Efficient video packetization methods for packet-switched video telephony applications |
JP4875451B2 (ja) * | 2006-10-17 | 2012-02-15 | パナソニック株式会社 | ディジタルデータ受信装置 |
JP5324431B2 (ja) * | 2007-04-27 | 2013-10-23 | パナソニック株式会社 | 画像復号装置、画像復号システム、画像復号方法、及び集積回路 |
US9357233B2 (en) | 2008-02-26 | 2016-05-31 | Qualcomm Incorporated | Video decoder error handling |
EP2150060A1 (de) * | 2008-07-28 | 2010-02-03 | Alcatel, Lucent | Verfahren und Anordnung zur personalisierten Videokodierung |
US8837908B2 (en) * | 2009-01-06 | 2014-09-16 | Cyberlink Corp. | Systems and methods for performing secure playback of media content |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4021852A (en) * | 1975-08-21 | 1977-05-03 | Rca Corporation | Signal defect compensation |
US4232340A (en) * | 1979-06-01 | 1980-11-04 | Rca Corporation | Defect compensation for color television |
AU587297B2 (en) * | 1985-10-02 | 1989-08-10 | Deutsche Thomson-Brandt Gmbh | Correction of transmission errors |
US4792953A (en) * | 1986-03-28 | 1988-12-20 | Ampex Corporation | Digital signal error concealment |
DE3804175A1 (de) * | 1988-02-11 | 1989-08-24 | Broadcast Television Syst | Verfahren und schaltungsanordnung zum einschreiben und auslesen eines digitalen halbleiterspeichers fuer videosignale |
JPH0498987A (ja) * | 1990-08-16 | 1992-03-31 | Matsushita Electric Ind Co Ltd | 誤り修整方法 |
US5122875A (en) * | 1991-02-27 | 1992-06-16 | General Electric Company | An HDTV compression system |
US5400076A (en) * | 1991-11-30 | 1995-03-21 | Sony Corporation | Compressed motion picture signal expander with error concealment |
-
1992
- 1992-03-02 US US07/844,322 patent/US5247363A/en not_active Expired - Lifetime
-
1993
- 1993-02-24 DE DE4305578A patent/DE4305578B4/de not_active Expired - Fee Related
- 1993-03-01 JP JP06620493A patent/JP3404706B2/ja not_active Expired - Fee Related
- 1993-03-02 KR KR1019930002950A patent/KR100296660B1/ko not_active IP Right Cessation
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0604230A2 (de) * | 1992-12-24 | 1994-06-29 | Canon Kabushiki Kaisha | Vorrichtung für die Wiedergabe eines Bildsignals |
EP0604230A3 (de) * | 1992-12-24 | 1995-01-04 | Canon Kk | Vorrichtung für die Wiedergabe eines Bildsignals. |
US6052159A (en) * | 1992-12-24 | 2000-04-18 | Canon Kabushiki Kaisha | Image signal reproducing apparatus having means for concealing image signals |
EP0639032A2 (de) * | 1993-08-09 | 1995-02-15 | C-Cube Microsystems, Inc. | Struktur und Verfahren für einen Mehrnormen-Bildkodierer/-dekodierer |
EP0639032A3 (de) * | 1993-08-09 | 1995-11-29 | C Cube Microsystems | Struktur und Verfahren für einen Mehrnormen-Bildkodierer/-dekodierer. |
US5630033A (en) * | 1993-08-09 | 1997-05-13 | C-Cube Microsystems, Inc. | Adaptic threshold filter and method thereof |
US6071004A (en) * | 1993-08-09 | 2000-06-06 | C-Cube Microsystems, Inc. | Non-linear digital filters for interlaced video signals and method thereof |
US6122442A (en) * | 1993-08-09 | 2000-09-19 | C-Cube Microsystems, Inc. | Structure and method for motion estimation of a digital image by matching derived scores |
US5910909A (en) * | 1995-08-28 | 1999-06-08 | C-Cube Microsystems, Inc. | Non-linear digital filters for interlaced video signals and method thereof |
DE19716147A1 (de) * | 1997-04-17 | 1998-10-22 | Alsthom Cge Alcatel | Verfahren und Vorrichtung zur Fehlerverdeckung in digitalen Übertragungssystemen |
US6377553B1 (en) | 1997-04-17 | 2002-04-23 | Alcatel | Method and device for error masking in digital transmission systems |
US6701002B1 (en) | 1999-06-30 | 2004-03-02 | Agilent Technologies, Inc. | Test method for image pickup devices |
Also Published As
Publication number | Publication date |
---|---|
US5247363A (en) | 1993-09-21 |
DE4305578B4 (de) | 2007-06-21 |
KR930021006A (ko) | 1993-10-20 |
JP3404706B2 (ja) | 2003-05-12 |
JPH0670306A (ja) | 1994-03-11 |
KR100296660B1 (ko) | 2001-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4305578B4 (de) | Fehlerverdeckung in decodierten Videosignalen | |
DE4205896B4 (de) | Anordnung zur rangmäßigen Aufteilung von Daten z. B. für eine Videosignal-Verarbeitungseinrichtung | |
DE69839100T2 (de) | Verbesserte Videokodierung unter Verwendung von adaptiven Blockparametern für kodierte/unkodierte Blöcke | |
DE4205898B4 (de) | Anordnung zum Rekombinieren von gemäß einer Rangordnung aufgeteilten Fernsehdaten | |
DE69727372T2 (de) | System und verfahren zur erzeugung von trickwiedergabe-videodatenströmen aus einem komprimierten normalwiedergabe-videodatenstrom | |
DE69735402T2 (de) | System und Methode zur Bewegungskompensation mit Hilfe eines Schrägziegelspeicherformats für verbesserte Effizienz | |
US5557332A (en) | Apparatus and method for reproducing a prediction-encoded video signal | |
DE3704777C1 (de) | Verfahren zum UEbertragen und zum Wiedergeben von Fernsehbildsequenzen | |
US5568200A (en) | Method and apparatus for improved video display of progressively refreshed coded video | |
DE4325032B4 (de) | Anordnung zur Aufteilung digitaler Fernsehdaten | |
DE69333896T2 (de) | Vorrichtung und Verfahren zum Aufzeichnen/Wiedergeben von Videoinformation | |
JP4695129B2 (ja) | 画像符号化におけるランダム・アクセス及び段階的画像更新に対する方法 | |
DE69937462T2 (de) | Effiziente macroblockheaderkodierung zur videokompression | |
DE60104013T2 (de) | Transkodierung von progressiv-kodierten i-slice-aufgefrischten mpeg datenströmen für trickmodi | |
US8121195B2 (en) | Memory reduced H264/MPEG-4 AVC codec | |
CA2130479C (en) | Lower resolution hdtv receivers | |
KR0134166B1 (ko) | 영상신호기록장치 | |
US5745180A (en) | Low-delay encoding methods of moving pictures | |
DE60123168T2 (de) | MPEG-Dekoder | |
EP0752789B1 (de) | Verfahren, Encoder und Decoder zur Resynchronisierung auf einen fehlerbehafteten Videodatenstrom | |
JP4339784B2 (ja) | 複数個のブロックとして符号化された圧縮ビットストリーム符号化ビデオを復号する方法。 | |
DE19537508C2 (de) | Aufzeichnungs- und Wiedergabevorrichtung für digitale Videosignale | |
KR20010075465A (ko) | 이미지 포인트로 디지털 이미지를 처리하는 방법 및 장치 | |
DE10296360T5 (de) | Video-Bitstrom-Reiniger | |
JP3147475B2 (ja) | 可変長符号の記録再生装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8128 | New person/name/address of the agent |
Representative=s name: WOERDEMANN, H., DIPL.-ING., PAT.-ANW., 31787 HAMEL |
|
8110 | Request for examination paragraph 44 | ||
8120 | Willingness to grant licences paragraph 23 | ||
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20110901 |