DE4305578B4 - Fehlerverdeckung in decodierten Videosignalen - Google Patents

Fehlerverdeckung in decodierten Videosignalen Download PDF

Info

Publication number
DE4305578B4
DE4305578B4 DE4305578A DE4305578A DE4305578B4 DE 4305578 B4 DE4305578 B4 DE 4305578B4 DE 4305578 A DE4305578 A DE 4305578A DE 4305578 A DE4305578 A DE 4305578A DE 4305578 B4 DE4305578 B4 DE 4305578B4
Authority
DE
Germany
Prior art keywords
blocks
pixel values
data
block
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4305578A
Other languages
English (en)
Other versions
DE4305578A1 (de
Inventor
Huifang Sun
Joel Walter Zdepski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RCA Licensing Corp
Original Assignee
RCA Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RCA Licensing Corp filed Critical RCA Licensing Corp
Publication of DE4305578A1 publication Critical patent/DE4305578A1/de
Application granted granted Critical
Publication of DE4305578B4 publication Critical patent/DE4305578B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving MPEG packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment

Abstract

Adaptive Fehlerverdeckungs-Einrichtung zur Verdeckung von Fehlern in Videosignalen, die als Block von Pixeln decodiert sind, gekennzeichnet durch
– eine Quelle (10) eines Videosignals, das in Blöcken codierter Daten auftritt, die jeweilige Bildbereiche repräsentieren, wobei jeder Bereich mit einer Vielzahl von Pixeln repräsentiert ist;
– Mittel (16), die mit der Quelle gekoppelt sind zum Erkennen/Erfassen von Fehlern in den Blöcken codierter Daten, zum Erzeugen von Fehlersymbolen, welche die Blöcke codierter Daten anzeigen, die Fehler aufweisen, zum Aussondern von Blöcken codierter Daten mit Fehlern und zum Weiterreichen fehlerfreier Blöcke codierter Daten;
– Mittel (20) zum Decodieren der fehlerfreien Blöcke codierter Daten auf Blockbasis und zum Erzeugen korrespondierender Blöcke von Pixelwerten, welche die Bildbereiche darstellen;
– Mittel (26), zum adaptiven Bereitstellen von Pixelwerten für die Fehlerblöcke von Pixelwerten, wobei die Mittel (26) aufweisen:
– Mittel zum Erzeugen eines ersten Index mit Bezug auf Bild-Detailbetrag in zumindest einem Block...

Description

  • Die Erfindung bezieht sich auf Verfahren und Einrichtungen zum Verdecken von Bildfehlern in decodierten Fernsehsignalen, die in komprimierter Form übertragen wurden.
  • Derzeit werden hohe Anstrengungen gemacht, Einrichtungen zum Übertragen von Videosignalen zu entwickeln, die hochauflösendes Fernsehen (HDTV), Telefonanwendungen, interaktive Videoanwendungen usw. betreffen. Eine recht attraktive Lösung ist bekannt geworden unter dem Begriff bewegungskompensierte vorausschauende Codierung (motion compensated predictive encoding). Die Internationale Organisation für Standardisierung entwickelt derzeit einen Standard, der die codierte Darstellung von Video für digitale Speichermedien spezifiziert, die auf einer Variante dieses Typs der Codierung basieren. Dieser Standard unterstützt eine kontinuierliche Daten-Übertragungsrate von 1.5 Mbits/sec und wird beschrieben in dem Dokument ISO-IEC JTC1/SC2/WG11; CODING OF MOVING PICTURES AND ASSOCIATED AUDIO; MPEG90/176 Rev. 2, December 18, 1990. Dieses Format ist bekannt geworden unter dem Begriff MPEG. Entsprechend diesem Format werden Sequenzen von Vollbildern in Gruppen geteilt und jeweilige Vollbilder innerhalb jeder Gruppe codiert entsprechend einer einer Mehrzahl von Codier-Modes. Typische Codier-Modes beinhalten Intraframe-Codierung (I Vollbilder) und zwei Typen von Interframe-Predictive-Coding (P und B Vollbilder).
  • Das Forschungskonsortium für fortgeschrittenes Fernsehen (Advanced Television Research Consortium; ATRC) in den Vereinigten Staaten hat ein HDTV-System entwickelt, das auf dem MPEG-Format basiert, zum Übertragen von hochauflösenden Fernsehsignalen (HDTV) in Digitalform. Dieses HDTV-System wird beschrieben in US 5,122,875 . In dem HDTV-System, das von der ATRC entwickelt wurde, wird ein Videosignal – welches entsprechend einem MPEG-ähnlichen Format komprimiert wurde – in speziellen Service-type Transportpaketen für die Übertragung arrangiert. Diese Pakete werden einer ersten Fehlercodierung unterworfen (FCS), z. B. einer zyklischen Redundanzprüfung (CRC), wobei FCS-Fehler-Prüfcodes an die Transportpakete angehängt werden. Danach werden die Transportpakete mit den angefügten Fehler-Prüfcodes einer Vorwärts-Fehlercodierung FEC unterworfen, wie beispielsweise dem Reed-Solomon-Code, und FEC-Fehlererfassungs-/-Korrektur- Codes an diese Daten angehängt.
  • Am Empfänger wird die übertragene Information erfasst und an einen FEC-Decoder angelegt, der eine begrenzte Fehlerkorrektur mit den übertragenen Daten durchführt. Die FEC korrigiert die Grosszahl der Fehler, die während der Übertragung auftreten, jedoch werden einige Fehler den FEC- Decoder ohne Erfassung- /Korrektur passieren, weil der Fehlerprüf-Overhead-Umfang aufgrund von Bandbreiten- Beschränkungen begrenzt ist. Das FEC-codierte Signal wird dann an einen FCS-Decoder gekoppelt. Der FCS-Decoder ist in der Lage, Daten zu erfassen, jedoch keine Daten zu korrigieren. Wenn ein Fehler in einem Transportpaket erfasst wird, wird das gesamte Transportpaket ausser acht gelassen (discarded).
  • Die ausser Acht gelassenen (ausgemusterten) Transportpakete können danach mit synthetischen komprimierten Daten ersetzt werden. Als Beispiel kann die Lösung dienen, die in der nachveröffentlichten Schrift WO 93/09636 A1 eschrieben ist; sie zeigt eine Einrichtung zum Ausführen einer Vor-Dekompressions-Fehlerverdeckung und trägt den Titel "Einrichtung zum Verdecken von Fehler in einem digitalen Videoverarbeitungssystem". In diesem System erzeugt der FCS- Decoder Fehlersymbole (error tokens), die anzeigen, wenn Daten ausser Acht gelassen wurden. Abhängig von den Fehlertokens ersetzt das System ausgemusterte Daten mit bestimmten Sequenzen von komprimierten (compressed) Daten. Die Daten werden dann dekomprimiert (decompressed) zur Anzeige oder für Speicherzwecke. Abhängig vom Typ der Daten, die verloren gegangen sind, kann das Ersetzen mit synthetisierten komprimierten Daten kein zufriedenstellendes Bild ergeben.
  • Die Erfindung möchte deshalb die Fehlerverdeckung nach der Dekompression verbessern. Dies wird mit der technischen Lehre des Anspruchs 1 erreicht.
  • Dabei wird ein weiteres Signalersetzen über Bildbereiche eingesetzt, die durch synthetisierte Daten repräsentiert sind. Die Bildbereiche, die von den synthetisierten Daten repräsentiert werden, werden von Fehlertokens identifiziert, welche die dekomprimierten Videodaten begleiten. Wenn ein Bildbereich mit Daten identifiziert wird, die außer acht gelassen wurden, werden benachbarte dekomprimierte Bildbereiche hinsichtlich Bewegung und Detail untersucht. Abhängig von der relativen Menge (dem Betrag) der Bewegung bzw. des Details in den benachbarten Bildbereichen wird der aktuelle Bildbereich ersetzt durch räumlich synthetisierte (spatially synthesized) bzw. zeitlich benachbarte (temporally co-located) Daten.
  • Weitere Ausgestaltungen der Erfindung erläutern die abhängigen Ansprüche. Die Einrichtung gemäß Anspruch 1 kann mit einem entsprechenden Verfahren betrieben werden.
  • Das Verständnis der Erfindung soll durch Ausführungsbeispiele vertieft werden.
  • 1 veranschaulicht die MPEG-ähnliche Signal-Codierhierarchie.
  • 2 veranschaulicht das Format und den Inhalt eines Transportpaketes von komprimierten Videodaten (transport packet).
  • 3 ist ein Blockschaltbild eines Ausführungsbeispiels der Erfindung als Empfänger.
  • 4A bzw. 4B sind schematische Darstellungen von Makroblocks von Bilddaten bzw. Blocks von Bilddaten, die nützlich bei der Erläuterung der Ausführungsbeispiele der Erfindung sind.
  • 5 ist ein Blockschaltbild einer Einrichtung für Videosignal-Dekompression und Fehlerverdeckung nach dieser Dekompression, als Ausführungsbeispiel der Erfindung.
  • Vor der Erläuterung der Ausführungsbeispiele der Erfindung soll das MPEG-ähnlich komprimierte Signalformat unter Bezugnahme auf die 1 und 2 erläutert werden. Das MPEG-Protokoll teilt aufeinanderfolgend auftretende Vollbilder in Sequenzen von Gruppen von Vollbildern (groups of frames; GOF). Die Vollbilder (frames) in jeweiligen GOFs werden komprimiert entsprechend dreier Verfahren, dem Intraframe-Codieren (I-Vollbilder), dem Vorwärts-Interframe-Codieren (P-Vollbilder) und dem Vorwärts/Rückwärts-Interframe-Codieren (B-Vollbilder). Jeweilige Vollbilder von codierten Daten werden in Schichten/Scheiben (slices) aufgeteilt, die z. B. 16 Bildzeilen darstellen. Jeder slice wird in Makroblocks aufgeteilt, wovon jeder eine Matrix von 16 × 16 Pixeln aufweist. Jeder Makroblock ist in sechs Blocks aufgeteilt, die vier Blocks von – sich auf das Luminanzsignal beziehende – Information und zwei Blocks von – sich auf das Chrominanzsignal beziehende – Information beinhalten. Die Luminanz- und Chrominanz-Informationen werden separat codiert und dann für die Übertragung kombiniert. Die Luminanzblocks beinhalten Daten, die sich auf jeweilige 8 × 8 Matrizen von Pixeln beziehen. Jeder Chrominanzblock weist eine 8 × 8 Datenmatrix auf, die sich auf die gesamte 16 × 16 Pixel-Matrix bezieht, welche von dem Makroblock repräsentiert wird.
  • Ein Datenblock, der entsprechend der Intraframe-Codierung codiert wurde, besteht aus Matrizen von diskreten Cosinuskoeffizienten. D. h. jeweilige 8 × 8 Pixelblocks werden einer diskreten Cosinus-Transformation (DCT; Discrete Cosine Transform) unterworfen, um das codierte Signal zu erzeugen. Die Koeffizienten werden einer adaptiven Quantisierung zugeführt und sie werden lauflängen- und variabellängen- codiert (run-length; variable-length). Folglich können jeweilige Blocks von übertragenen Daten weniger als eine 8 × 8 Codewort-Matrix aufweisen. Makroblocks von intraframecodierten Daten werden – zusätzlich zu den DCT-Koeffizienten – Information beinhalten, wie den Pegel der eingesetzten Quantisierung, einen Makroblock-Adressen- oder Positions-Anzeiger und einen Makroblock-Typ.
  • Codierte Datenblocks entsprechend den P- oder B-Intraframe-Codierungen bestehen auch aus Matrizen von diskreten Cosinuskoeffizienten. Zu diesem Zeitpunkt stellen diese Koeffizienten jedoch Residuen (Reste) oder Differenzen zwischen einer vorhergesagten (predicted) 8 × 8 Pixel-Matrix und der aktuellen 8 × 8 Pixel-Matrix dar. Diese Koeffizienten werden auch einer Quantisierung und einer Lauflängen- und Variablen-Längen-Codierung unterzogen. In der Folge der Vollbilder werden die I- und P-Vollbilder die Anker-Vollbilder (anchor frames) genannt. Jedes P-Vollbild wird vorhergesagt (predicted) von dem zuletzt aufgetretenen Anker-Vollbild. Jedes B-Vollbild wird vorhergesagt von einem oder beiden der Anker-Vollbilder, zwischen denen es angeordnet ist. Das predictive Codierverfahren verwendet das Erzeugen von Verschiebungsvektoren (displacement vectors), die anzeigen, welcher Makroblock eines Anker-Vollbildes am besten zu dem Makroblock des vorhergesagten Vollbildes, das gerade codiert wird, paßt. Die Pixeldaten des passenden Blocks (matched block) in dem Anker-Vollbild wird subtrahiert auf einer Pixel-zu-Pixel-Bass von dem Block des Vollbildes, der (gerade) codiert wird, um Residuen zu bilden. Die Residuen werden der diskreten Cosinus-Transformation unterworfen und die transformierten Residuen und die Bewegungsvektoren bilden die codierten Daten für die vorhergesagten Bilder. Für intraframe-codierte Vollbilder beinhaltet der Makroblock Quantisierung, Adressen- und Typeninformation. Erwähnt werden soll dabei, daß – obgleich ein Vollbild prediktiv codiert ist – ein bestimmter Block oder Makroblock in dem prediktiven Vollbild intraframe-codiert sein kann, wenn keine angemessenen Block-Übereinstimmungen (block matches) gefunden werden können. Zusätzlich können bestimmte der Makroblocks nicht codiert sein. Makroblocks können übersprungen werden (skipped) durch Erhöhen der Adresse des nächsten codierten Makroblocks.
  • Nachdem die Videodaten codiert sind, werden sie gemäß einem MPEG-ähnlichen Protokoll angeordnet. Das hierarchische MPEG-Format beinhaltet eine Mehrzahl von Lagen/Schichten (layers), wovon jede mit jeweiliger Kopfinformation (header information) versehen ist. Nominell beinhaltet jede Kopfinformation einen Startcode, Daten bezogen auf die jeweilige Schicht und die Möglichkeit zum Hinzufügen von Kopferweiterungen (header extensions). Ein Großteil der Kopfinformation (wie in dem in Bezug genommenen MPEG-Dokument angedeutet wird) wird zu Synchronisationszwecken in einer MPEG-Systemumgebung benötigt. Zum Zweck des Bereitstellens eines komprimierten Videosignals für ein digitales HDTV-Simulcast-System (Simultanübertragung Radio/TV) wird nur beschreibende Kopfinformation benötigt, d. h. Startcodes und optionelle Erweiterungen können ausgeschlossen sein.
  • Wenn Bezug genommen wird auf das MPEG-ähnliche Signal, das von dem vorliegenden System erzeugt wird, ist damit gemeint
    • a) aufeinanderfolgende Halbbilder/Vollbilder des Videosignals werden codiert (encoded) entsprechend einer I, P, B Codiersequenz und
    • b) codierte Daten auf dem Bildpegel (picture level) sind codiert in MPEG-ähnlichen Schichten (slices) oder Gruppen von Blocks, obgleich die Anzahl der slices pro Halbbild/Vollbild unterschiedlich sein kann und die Zahl der Makroblocks pro Slice verschieden sein kann.
  • Um Speicherplatz am empfängerseitigen Ende des Übertragungssystems zu sparen oder zu bewahren, werden die Gruppen von Vollbildern – wie in 1 dargestellt – neu angeordnet, so daß die Ankerbilder, aus denen die B-Vollbilder vorherbestimmt (predicted) werden, vor den jeweiligen B-Vollbildern übertragen werden. Zum Beispiel werden die ersten vier Vollbilder (I, B, B, P) in einer GOF (Gruppe von Vollbildern) übertragen in der Reihenfolge (I, P, B, B). Die komprimierten Signale können weiterer Manipulation unterzogen werden, wie in US 5,122,875 erläutert. Letztlich kann das komprimierte Signal in Transportpaketen (transport packets) angeordnet werden, wie dies in 2 veranschaulicht wird.
  • Jeweilige Transportpackets können mehr oder weniger als eine Datenschicht (slice of data) enthalten. So kann ein bestimmtes Transportpaket Daten vom einen Ende der einen Schicht und Daten von dem Anfang der folgenden Schicht beinhalten. Transportpakete, die Videodaten beinhalten, können verschachtelt sein (interleaved) mit Transportpaketen, die andere Daten, z. B. Tondaten, enthalten. Jedes Transportpaket beinhaltet einen Servicetyp-Kopf ST, welcher die Art der Information anzeigt, die in dem jeweiligen Transportpaket enthalten ist. In diesem Beispiel ist der ST-Kopf ein 8-bit-Wort, welches anzeigt, ob Audio-, Video- oder Hilfsdaten vorliegen.
  • Jedes Transportpaket (transport pocket) beinhaltet einen Transportkopf TH, der unmittelbar dem ST-Kopf folgt. Der Transportkopf beinhaltet einen 7-bit-Makroblock-Pointer, einen 18-bit-Identifizierer und einen 7-bit-Record-Header-Pointer (Datensatzkopf-Zeiger; RH). Der Makroblock-Zeiger ist eingesetzt für die segmentierten Makroblocks oder Record-Header-Komponenten und zeigt auf den Start der nächsten decodierbaren Komponente. Zum Beispiel können – wenn das bestimmte Transportpaket Makroblockdaten beinhaltet, die mit dem Ende der Schicht n und dem Beginn der Schicht n + 1 assoziiert sind – die Daten von der Schicht n benachbart dem Transportkopf angeordnet sein und der Zeiger indiziert, daß die nächsten decodierbaren Daten benachbart dem Transportkopf TH sind.
  • Der 18-bit-Identifizierer identifiziert den aktuellen Typ des Vollbildes, die Vollbildzahl (modulo 32), die aktuelle Schichtnummer und den ersten Makroblock, der in dem Transportpaket enthalten ist.
  • Dem Transportkopf folgen entweder ein Datensatzkopf (record header, RH) oder Daten. Der Record Header für die Videodaten beinhaltet die folgende Information: ein 1-bit FLAG (Marke), welche anzeigt, ob eine Header Extension EXTEND vorliegt. Dem FLAG folgt ein Identifizierer IDENTIFY, welcher anzeigt
    • a) den Halbbild/Vollbild-Typ I, B oder P;
    • b) eine Halbbild/Vollbild-Zahl (modulo 32) FRAME 2D;
    • c) eine Schichtnummer (modulo 64) SLICE IDENTITY.
  • Es wird angemerkt, daß die Kopfdaten der Transportpakete redundante Informationen beinhalten bezüglich der Indentität der Daten in jeweiligen Paketen. D. h. identifizierende Indexe (indicia) werden in den Transportköpfen und in den komprimierten Videodaten-Köpfen eingefügt.
  • Jedes Transportpaket wird beendet mit einer 16-bit Vollbild-Prüffolge (frame check sequence, FCS), welche über alle bits in dem Transportpaket berechnet wird. Die FCS kann erzeugt werden durch Verwenden eines CRC.
  • Das Transportpaket von 2 wird aufeinanderfolgend einem Vorwärts-Fehlercodierer zugeführt, welcher
    • a) eine Vorwärts-Fehlerkorrektur-Codierung ausführt, z. B. eine REED-SOLOMON-Codierung;
    • b) Blöcke von Daten verschachtelt (interleaves), um großen Fehlerbursts nicht die Möglichkeit zu geben, lange zusammenhängende Bereiche von reproduzierten Bildern zu stören;
    • c) z.B. Barker-Codes an die Daten anhängt, um den Datenstrom im Empfänger zu synchronisieren.
  • Danach werden die komprimierten Daten an eine Übertragungsstufe, wie ein Modem, geliefert.
  • 3 veranschaulicht die allgemeine Form eines Empfängers zum Bearbeiten der zuvor beschriebenen Signale. Übertragene Signale können beispielsweise von einer (nicht dargestellten) Antenne stammen und werden dem Tuner/Demodulator 10 zugeführt; dieser stellt ein Basisbandsignal in der Form zur Verfügung, daß an den FEC-Codierer abgebbar ist. Das Basisbandsignal wird an einen FEC-Decoder 12 geliefert, der das übertragene Signal prüft und Fehlerkorrekturen entsprechend seiner Fehlerkorrektur-Fähigkeit durchführt, die im Übertragungskanal aufgetreten sind. Fehlerkorrigierte Daten von dem FEC 12 werden an ein Ratenpuffer 14 angelegt, der Daten mit relativ konstanter Rate (Zeitabstand) von dem FEC 12 erhält und Daten auf Anforderung an die nachfolgenden Verarbeitungselemente abgibt. Daten von dem Puffer werden an einen FCS-Decoder 16 geliefert, welcher die fehlerkorrigierten Daten prüft, und zwar auf unkorrigierte Fehler entsprechend den FCS-Prüfbits, die an die Transportpakete angehängt sind.
  • Der FCS-Decoder 16 gibt Transportpakete D an Element 18 zusammen mit einem Fehlersignal ED, welches anzeigt, ob die jeweiligen Transportpakete Datenfehler beinhalten. Das Element 18 ist abhängig von den Fehlerdaten und läßt Transportpakete außer acht, die Datenfehler beinhalten.
  • Fehlerfreie Transportpakete werden in Videodaten und Transport-Kopfdaten getrennt. Die Transportkopf- und Fehlerdaten ED werden eingesetzt, um zu bestimmen, welche Daten verlorengegangen sind und danach, um synthetische komprimierte Videodaten zu erzeugen und die verlorengegangenen Daten zu substituieren. Ein beispielhaftes Gerät zum Erzeugen synthetischer komprimierter Videodaten zeigt die nachveröffentlichte Schrift WO 93/09636 A1. Das Element 18 gibt die kombinierten fehlerfreien Videodaten und die synthetischen Daten an einen Dekompressor 20 (Expander). Zusätzlich gibt das Element 18 Fehlertokens an den Expander 20, welche Tokens eine Vielzahl von Funktionen haben können. Zum Beispiel kann es auftreten, daß für die Art der Daten, die in einem bestimmten Transportpaket verlorengegangen sind, eine bessere Bildreproduktion erhalten wird, wenn das Dekodieren dieses Abschnitts der Daten einfach von dem Dekompressor 20 übersprungen wird, statt synthetische komprimierte Videodaten zu erzeugen zum Anlegen an den Dekompressor. In diesem Beispiel wird das Fehlertoken so gebildet, daß es den Betriebsablauf des Dekompressors beinflußt. Alternativ kann es (beispielhaft) auftreten, daß es von vorneherein bekannt ist, daß synthetische komprimierte Daten für einen bestimmten Block wahrscheinlich keine akzeptierbare Bilder erzeugen und daß die Beeinflussung der Decodier-Abfolge des Dekompressors keine Verbesserung gegenüber der Verwendung synthetischer komprimierter Daten bringen würde. In diesem Beispiel werden die bestimmten Fehlertokens an einen weiteren Fehlerverbergungs-Prozessor 26 geleitet, welcher mit decodierten oder dekomprimierten Videosignalen arbeitet.
  • Der Dekompressor 20 verwendet Vollbildspeicher 22 bei dem Dekompressions-Verfahren. Dieser Speicher ist so angeordnet, daß er Vollbilder von decodiertem Videosignal speichert, zur Verwendung eines Bewegungskompensations-Predictiv-Decodier-Verfahrens. Decodierte Bildinformation wird aufeinanderfolgend an einen Anzeigespeicher 24 übertragen, in welchem sie im Rasterformat zur Anzeige zugänglich ist.
  • Das Fehlerverdeckungs-Element 26 wird zusammen mit den dekomprimierten Daten im Speicher 22 und ersetzt Bilddaten, die von Fehlertokens identifiziert werden. Die Substitution der Daten ist adaptiv, wobei die Adaption entsprechend signifikanter Bewegung oder entsprechend signifikantem Detail des (derzeit) betrachteten Bildbereichs erfolgt. Im letzteren Fall werden zeitlich versetzte daneben angeordnete Daten (temporally displaced co-located data) substituiert für die decodierten Daten und im ersteren Fall werden räumlich interpolierte Daten (spatially interpolated data) substituiert.
  • Luminanz- und Chrominanz-Daten werden getrennt dekomprimiert, jedoch mit einem ähnlichen Verfahren und dann rekombiniert zur Anzeige. Die folgende Diskussion bezüglich Fehlerverdeckung wird gerichtet auf Verdeckung von Fehlern in Luminanz-Daten. Fehler in Chrominanz-Daten werden in ähnlicher Weise verdeckt (concealed).
  • Die Bestimmung, ob Fehlerverdeckung durch zeitliches Ersetzen (temporal replacement) oder durch räumliche Interpolation (spatial interpolation) ausgeführt wird, wird unter Berücksichtigung der 4A erläutert. 4A veranschaulicht Blocks von Daten entsprechend einem Teil eines decodierten Bildes. Die größeren Quadrate repräsentieren Makroblocks von Luminanz-Daten und die kleineren Quadrate – beziffert ij innerhalb jedes Makroblocks – repräsentieren decodierte Pixelwerte, z. B.
  • 8 × 8 Matrizen. Es soll angenommen werden, daß ein Fehlertoken anzeigt, daß der Makroblock MB einer Fehlerverdeckung unterzogen werden soll. In einem ersten Ausführungsbeispiel wird der Makroblock MA und der daneben angeordnete Makroblock in einem vorher decodierten Vollbild untersucht, um die relativen Beträge (Größen) von Bewegung und Detail zu bestimmen, die mit ihnen assoziiert sind. Zwei statistische Werte (Indexe) werden berechnet. Der erste statistische Wert VAR wird bestimmt entsprechend der Gleichung VAR = E[(x – xa)2] (1).
  • Die zweite statistische Variable VAROR wird berechnet ensprechend der Gleichung VAROR = E[x2] – u2 (2).
  • Die Werte x korrespondieren mit den jeweiligen Pixelwerten in Makroblock MA; xa korrespondiert mit dem jeweiligen Pixelwert des daneben angeordneten Makroblocks in dem vorhergehenden decodierten Vollbild; und der Wert u ist der Mittelwert der Werte von x. Die Funktion E[...] repräsentiert den Erwartungswert (expected value) der Terme in dem Argument.
  • Der Erwartungswert kann über den gesamten Makroblock oder einen Teil desselben berechnet werden. D. h. die Berechnung kann ausgeführt werden über alle Pixel des Makroblocks MA oder mit den Pixeln in den geringeren zwei Blocks von Pixeln 02 und 03 oder über die untersten Zeilen der Pixel in den Blöcken 02 und 03 oder über eine diagonale Linie von Pixeln von – beispielsweise – dem oberen linken Eckblock 00 bis zu dem unteren rechten Eckblock 03, etc....
  • Der statistische Wert VAR tendiert dazu, die örtliche Bewegung (local motion) anzuzeigen zwischen dem durch Makroblock MA repräsentierten Bild und dem daneben angeordneten Makroblock in dem vorhergehenden Vollbild. Der statistische Wert VAROR tendiert dazu, das örtliche Raumdetail (local spatial detail) im Makroblock MA anzuzeigen. Weil vertikal benachbarte Bildbereiche dazu tendieren, redundante Bildinformation zu enthalten, werden die Bewegungs- und Detailcharakteristika des Makroblocks MA und MB ähnlich sein. Deshalb können die Charakteristika von Makroblock MA verwendet werden bei der Entscheidung des optimalen Typs von Fehlerverdeckung für den Makroblock MB.
  • Wenn VAR größer als eine vorbestimmte Schwelle, z. B. 64 ist, beinhaltet dieser Bereich keine signifikante Bildbewegung und ein Ersetzen des Makroblocks MB mit zeitlich verschobenen daneben angelegten Makroblocks kann signifikante Bewegungs-Artefakte im breiteren Bildbereich einführen. Deshalb wird es unter dieser Bedingung vorteilhaft sein, MA mit interpolierten Daten zu ersetzen, obschon potentiell geringeres Bilddetail als in daneben gelagerter Information liegt. Zusätzlich werden – wenn VAR größer als VAROR ist – räumlich interpolierte Daten als Substitutionsdaten verwendet. Letztlich werden – wenn VAR geringer als eine Schwelle oder geringer als VAROR ist – zeitlich versetzte daneben angeordnete Daten als Substitutions- oder Ersatzdaten verwendet.
  • Es wurde erkannt, daß bessere Gesamt-Leistungsfähigkeit erreicht wird, wenn der Typ von Ersatzdaten für die oberen 10, 11 und unteren 12, 13 Blocks von Makroblock MB unabhängig voneinander bestimmt werden. So werden die statistischen Werte VARA und VARORA für Makroblock MA gebildet und die statistischen Werte VARC und VARORC werden für Makroblock MC gebildet. Die statistischen Werte VARA und VARORA werden eingesetzt, um den Typ der Datenersetzung für die Blocks 10 und 11 zu bestimmen und die statistischen Werte VARC und VARORC werden zur Bestimmung des Typs des Datenersatzes für die Blocks 12 und 13 eingesetzt.
  • Das Erzeugen von räumlich interpolierten Werten kann in einer Mehrzahl von Arten erfolgen. Wichtig ist es allerdings, sicherzustellen, daß die Grenzen von angrenzenden Blocks ohne signifikante Diskontinuität ineinander übergehen. Zwei Verfahren werden mit Bezug auf 4B erläutert. In 4B repräsentieren die abgegrenzten Quadrate jeweilige Blocks von 8 × 8 Pixelwerten. Es wird angenommen, daß die Pixelwerte des Blocks B5 ersetzt werden sollen mit interpolierten Pixelwerten. Ein erstes Verfahren der Erzeugung dieser Werte ist es, vertikale GV und horizontale GH Gradienten von benachbarten Blocks von Daten zu berechnen, dann zu beginnen mit einem Wert von einem benachbarten Block, um die Matrix zu berechnen. Zum Beispiel kann ein Vertikal-Gradient GV berechnet werden durch Subtrahieren des Mittelwerts der eingekreisten Pixelwerte in Block B1 und B3 von dem Mittelwert der eingekreisten Pixelwerte in Blocks B7 und B9. Ähnlich kann ein Horizontal-Gradient GH berechnet werden durch Subtrahieren des Mittelwertes der eingekreisten Pixelwerte in Blocks B1 und B7 von dem Mittelwert der eingekreisten Pixelwerte in Blocks B3 und B9. Die Matrixwerte werden berechnetentsprechend der Gleichung Pij = B1 + i·GH + j·GV (3);wobei B1 der Wert des eingekreisten Pixels in Block B1 ist und i und j Horizontal- und Vertikal-Koordinaten der Pixel in der Matrix sind – bezüglich der oberen linken Ecke. Ein zweites Verfahren ist es, einen Vertikal-Gradienten für jede Spalte von Pixeln aus den Pixelwerten in den vertikal benachbarten Blocks zu erzeugen. Für Pixel in Spalte 5 kann ein Vertikalgradient GV berechnet werden durch Subtrahieren der Pixelwerte in den quadratischen Kästchen in Spalte 5 des Blocks B2 von dem Pixelwert in dem quadratischen Kästchen in Spalte 5 des Blocks B8. Die jeweiligen Pixelwerte in Spalte 5 des Blocks B5 werden berechnetentsprechend der Gleichung P5j = B25,8 + j·GV (4).wobei der Wert B25,8 der Wert des fünften Pixels in der achten Reihe des Blocks B2 ist.
  • Als weitere Alternative können die Blocks von Pixelwerten erzeugt werden von lokalen Pixelwerten über das Verfahren des bekannten Gradienten-Abstiegs (known gradient descent), obgleich dieses Verfahren dazu neigt, etwas höhere Rechenleistung zu binden.
  • In einem Bildbereich muß zeitliches Ersetzen von Blocks vor dem Ersetzen von räumlich interpolierten Daten erfolgen. Diese Abfolge ist erforderlich, um sicherzustellen, daß Daten verfügbar sind, um interpolierte Daten zu erzeugen. Unter der beispielhaften Annahme, daß die Blocks B1 und B9 ersetzt werden sollen mit zeitlich daneben angeordneten Daten (temporally co-located data) und Block B5 mit interpolierten Daten ersetzt werden soll, die entsprechend Gleichung (3) erzeugt wurden, ergibt sich folgendes: Wenn die Blocks B1 und B9 nicht zuerst ersetzt werden, können zutreffende Gradienten GV und GH nicht berechnet werden, was in möglichen Bild-Unstetigkeiten an den Blockgrenzen resultiert.
  • 5 zeigt ein Blockschaltbild mit einer Dekompressions-Einrichtung und der Nach-Dekompressions-Verdeckungseinrichtung. Die Elemente 300 bis 318 korrespondieren mit der Dekompressor-Schaltung. Der Betrieb dieses Typs der Schaltung ist allgemein bekannt. Kurz: die komprimierten Videodaten und die Fehlertokens werden in einem Speicher 300 gepuffert und einer Steuereinrichtung 302 übergeben. Die Steuereinrichtung sendet die Videodaten an einen variablen Längen-Decoder 303 (variable length decoder), welcher eine Decodierung variabler Länge, inverse Lauflängen-Decodierung (run length decoding), inverse Differenzpuls-Codiermodulations-Decodierung (differential pulse code modulation decoding), Entquantisierung, etc., ausführt, je nach Erfordernis. Die decodierten Videoköpfe werden dem Steuergerät 302 zurückgegeben zum Steuern des weiteren Decodierens des Signales. Die Steuereinrichtung ist in ihrer Wirkung eine Zustands-Maschine (state machine) zum Ausführen fester Sequenzen von Decoder-Operationen, welche Sequenzen von den aktuellen Video-Kopfdaten und eines Rückblicks (history) auf die (schon) verarbeiteten Daten bestimmt wird. Die decodierten DCT-Koeffizienten werden an ein inverses DCT-Element 310 weitergeleitet, welches eine inverse diskrete Cosinus-Transformation mit den Koeffizienten ausführt und Pixelwerte (I-Vollbilder) und Residuenwerte (P- oder B-Vollbilder) an den Addierer 312 abgibt. Decodierte Bewegungsvektoren werden an den Bewegungs-Kompensations-Predictor 304 angelegt. Abhängig von den Bewegungsvektoren greift der Prediktor auf vorher dekomprimierte Makroblocks von Pixelwerten aus dem Pufferspeicher 316 zu und legt diese Pixelwerte an den Addierer 312 (zum Decodieren von P- oder B-Vollbildern). Wenn I-Vollbilder bearbeitet werden, legt der Predictor 304 Nullwerte an den Addierer 312.
  • Die Dekompression von I-Vollbildern umfaßt das Weiterleiten der invers-DCT-verarbeiteten Pixelwerte über den Addierer 312 und das Speichern dieser in einem Teil des Speichers 316 zur Verwendung bei der Dekompression von P- oder B-Vollbildern. Die I-Vollbild-Pixelwerte werden auch von dem Speicher 316 an einen Anzeigespeicher 318 gekoppelt, von welchem sie im Rasterformat gelesen werden können.
  • Die Dekompression eines P-Vollbildes umfaßt – entsprechend der Richtung des jeweiligen Bewegungsvektors – auch den Zugriff auf Makroblocks des vorher decodierten I-Vollbildes (oder eines vorher decodierten P-Vollbildes, welches dem zuletzt liegenden I-Vollbild folgt, und das Anlegen der Pixelwerte der jeweiligen Blocks in den Makroblocks an den Addierer 312. Entsprechende Blocks von decodierten Residuen werden von der inversen DCT 310 an den Addierer 312 geführt, welcher Summen entsprechend den jeweiligen decodierten Pixelwerten für das aktuelle P-Vollbild erzeugt. Diese Pixelwerte werden in einen Bereich (oder: Teil) des Speichers 316 gekoppelt, der nicht von den zuletzt decodierten I- oder P-Vollbildern belegt ist und sie werden beim Decodieren der darauffolgenden B- und P-Vollbilder verwendet. Diese P-Vollbilddaten werden an den Anzeigespeicher 318 gekoppelt, nachdem darauffolgende B-Vollbilder decodiert sind (die B-Vollbilder, die vor den P-Vollbildern in der Codiersequenz auftraten).
  • B-Vollbilder von komprimierten Daten werden ähnlich zu den P-Vollbildern decodiert, ausgenommen, daß auf Makroblocks von Daten aus dem Speicher 316 zugegriffen werden kann von jedem oder beiden der Anker-Vollbilder, zwischen welchen die B-Vollbilder vor dem Codieren ursprünglich angeordnet waren. Wenn auf Daten zugegriffen wird von beiden Vollbildern für einen bestimmten Makroblock, werden die Daten interpoliert oder Bemittelt vor dem Anlegen an den Addierer, um zu den Residuenwerten hinzugefügt zu werden. B-Vollbilder werden nicht im Speicher 316 gespeichert, weil sie beim Decodieren der darauffolgenden Vollbilder nicht verwendet werden. Also werden die B-Vollbilddaten über die Speichereinrichtung 316 an den Anzeigespeicher 318 (display memory) gegeben.
  • Die Einrichtung von 5 (Nach-Dekompressions-Fehlerverdeckungs-Gerät), ist so eingerichtet, daß sie Fehler in decodierten I- und P-Vollbildern verdecken kann, nicht in decodierten B-Vollbildern. Nach-Dekompressions-Verdeckung von Fehlern in B-Vollbildern ist mit der Einrichtung von 5 nicht vorgesehen. Dies beeinflußt das Gesamtbild nicht wesentlich, da Fehler in B-Vollbildern kurz in Zeitdauer (1 Vollbild) sind und sich nicht in nachfolgende Vollbilder verlagern (propagate). Das System der 5 verwendet den Dekompressor-Pufferspeicher 316 als Fundus (repository), aus welchem Signale geschöpft werden können und in welchem Signale ersetzt werden können. Dieser Speicher speichert keine B-Vollbilder, da solche B-Vollbilder nicht für Verdeckungs-Bearbeitung zur Verfügung stehen. B-Vollbilder können aber für Fehler-Verdeckung ähnlich den P-Bildern verarbeitet werden – wie unten beschrieben -, einfach durch Hinzufügen zusätzlichen Speichers zum Speichern der B-Vollbilder.
  • Wenn Vorsorge getroffen wurde, um decodierte B-Vollbilder zu speichern, werden die statistischen Werte VAR und VAROR unter Verwendung angelagerter (co-located) Daten in aufeinanderfolgenden Anker-Vollbildern berechnet. D. h. mit Bezug auf die Vollbild-Folge von 1 werden VAR und VAROR für jedes Anker-Vollbild (I oder P) berechnet unter Verwendung der Makroblocks des Anker-Vollbildes unmittelbar zu seiner Linken (I oder P). Zusätzlich werden angelagerte Makroblocks/Blocks zum Substituieren (zeitlichen Ersetzen) in jeweiligen Anker-Vollbildern gewonnen, und zwar aus den Anker-Vollbildern, die unmittelbar zu seiner Linken angeordnet sind. wenn Vorsorge getroffen wäre, um B-Vollbilder zu speichern und zu bearbeiten, dann würden die statistischen Berechnungen für jedes Vollbild gemacht werden unter Verwendung der Daten aus den unmittelbar vorhergehenden Vollbildern in der Sequenz und zeitliche Substitutionsdaten würden gewonnen werden aus dem unmittelbar vorhergehenden Vollbild der Sequenz.
  • Zuerst wird Fehlerverdeckung in I-Vollbildern betrachtet und hierzu Bezug auf die 4A und 5 genommen. Aus 4A ist erkennbar, daß bei Abgabe von Pixeln des Makroblocks MA von dem Addierer 312 es dabei noch nicht bekannt ist, ob es erforderlich ist, die Werte VAR und VAROR über den Makroblock MA zu erzeugen, d. h. ob Makroblock MB einer Fehlerverdeckung unterzogen werden muß. Andererseits müssen Pixeldaten für den Makroblock MA sowie für seine anliegenden Gegenparts aus dem Speicher gewonnen werden, um die Berechnung durchführen zu können, wenn der Makroblock MB decodiert wird und es erforderlich ist, die Werte VAR und VAROR über den Makroblock MA zu erzeugen. Dies könnte einen Speicher-Zugriffskonflikt bewirken. Um einen solchen Konflikt zu vermeiden, werden die Werte VAR und VAROR für alle Makroblocks bei dem jeweiligen Decodieren des Makroblocks erzeugt. Die Ergebnisse werden in einem Speicherplan/-karte 342 (memory map) gespeichert und sind verfügbar, wann immer ein Fehlertoken anzeigt, daß ein bestimmter Makroblock einem Fehlerverdeckungs-Prozeß unterzogen werden muß.
  • I-Vollbild-Makroblocks werden in einer vorbestimmten Reihenfolge decodiert. Während Makroblocks von I-Vollbild-Daten decodiert werden, wird auf anliegende (co-located) Makroblocks aus dem letzten decodierten P-Vollbild im Speicher 316 zugegriffen, und zwar unter der Steuerung der Steuereinrichtung 344 zur Fehlerverdeckung, Entscheidung und Steuerung. Die I-Vollbilddaten und anliegenden P-Vollbilddaten werden an einen Rechner 340 angelegt, der die Werte VAR und VAROR erzeugt. Diese Werte werden in dem Speicher 342 für zukünftige Verwendung gespeichert. Während die I-Vollbild-Makroblocks decodiert werden, gibt die Steuerung 302 entsprechende Fehlertokens – wenn zutreffend – ab, die in einem weiteren Speicherkarte (memory map) 348 gespeichert werden. Zusätzlich wird jeweilige Vollbild-Typeninformation in der Speicherkarte (memory map) 348 gespeichert. Während des Decodierens von P-Vollbildern werden auch Bewegungsvektoren aus dem VLD 303 für korrespondierende Makroblocks mit Fehlertokens gespeichert.
  • Mehrere Reihen von Makroblocks werden decodiert/dekomprimiert, bevor die Fehler-Verdeckung begonnen wird, um Speicher-Zugriffskonflikte in dem Pufferspeicher 316 zu vermeiden. Wenn die Fehlerverdeckung einmal begann, geht die Steuereinrichtung 344 durch die Fehlertokens in der/dem Fehlerkarte/-plan 348. Wenn ein Fehlertoken anzeigt, daß die Daten in einem Makroblock ersetzt werden sollen, wird auf die Werte VAR und VAROR – die über die passenden Makroblocks berechnet wurden – aus der Speicherkarte 342 zugegriffen und sie verglichen. Wenn der Vergleich anzeigt, daß die Pixeldaten in dem Makroblock ersetzt werden müssen mit zeitlich versetzten anliegenden Daten, wird auf diese Daten im Speicher 316 zugegriffen (dem Teil, der das vorhergehend decodierte P-Vollbild speichert) und verwendet, um die Makroblock-Daten für das I-Vollbild in Speicher 316 zu ersetzen (dem Teil, der das aktuell decodierte I-Vollbild speichert), alles unter der Steuerung der Einrichtung 344.
  • Wenn der Vergleich anzeigt, daß der Makroblock ersetzt werden muß mit interpolierten Daten, wird diese Anzeige in einer Schlange plaziert, wobei geeignete Handlungen nach dem Vergleich ausgeführt werden, z. B. zwei Reihen von Makroblöcken nach dem Vergleich. Dies stellt sicher, daß zeitliches Ersetzen ausgeführt wurde – wo notwendig – in allen Blocks, die mit interpolierten Daten ersetzt werden müssen, so daß Randdaten (boundary data) verfügbar sind zum Erzeugen der interpolierten Daten. Alternativ kann das System als Doppel-Durchlauf-System programmiert werden, bei dem zeitliches Ersetzen ausgeführt wird (wo erforderlich) über das gesamte Vollbild und dann interpolierte Blocks substituiert werden (wo erforderlich) über das gesamte Vollbild. Wenn ein Block von Daten mit interpolierten Daten zu ersetzen ist, greift die Steuerung 344 auf die Grenz- oder Randdaten aus den Nachbar-Blocks in dem I-Vollbild im Speicher 316 zu und stellt diese dem Interpolator 346 zur Verfügung. Der Interpolator 346 erzeugt den Block von Daten, auf den die Steuerung 344 zugreift und der in den passenden Makroblock in dem I-Vollbild – das im Speicher 316 gespeichert ist – substituiert wird.
  • Fehlerverdeckung für/in P-Vollbildern wird ähnlich ausgeführt, mit der Ausnahme, daß bei Ersetzen von Blocks mit zeitlich versetzten Daten es keine anligenden (co-located) Daten sind. Bei Bezug auf 4A muß berücksichtigt werden, daß die P-Vollbilder interframe-codiert sind. Das komprimierte Signal beinhaltet Bewegungsvektoren, welche auf die optimalen Makroblocks in dem vorhergehenden Anker-Vollbild zeigen, aus welchem Makroblocks in dem aktuellen P-Vollbild vorhergesagt werden können. Wenn der Bewegungsvektor zum Beispiel mit dem Makroblock MF assoziiert ist, und zwar in dem aktuellen P-Vollbild, kann er anzeigen, daß der Makroblock ME in dem vorhergehenden Anker-Vollbild verwendet wurde, um den Makroblock MF in dem aktuellen P-Vollbild zu prädidzieren (vorherzusagen). Der daneben angeordnete (co-located) Makroblock MF in dem vorhergehenden Ankerbild kann wenig Ähnlichkeit mit dem Makroblock MF in dem aktuellen P-Vollbild haben. Wenn daher zeitliches Ersetzen ausgeführt wird, wird es ausgeführt unter Verwendung von Datenblocks, die durch entsprechende Bewegungsvektoren bezeichnet werden. Was – allerdings – sind die geeigneten Bewegungsvektoren? Dabei muß berücksichtigt werden, daß Bewegungsvektoren in relativen Termen codiert sind, d. h. daß sie anzeigen, wie weit nach links oder rechts oder oben oder unten – ausgehend vom Ort des aktuellen Makroblocks – die prädizierten Makroblocks in dem vorhergehenden Vollbild gefunden werden. Wenn nun angenommen wird, daß ein hoher Grad an Redundanz zwischen vertikal benachbarten Bildabschnitten besteht, dann kann man erwarten, daß die Bewegungsvektoren von den vertikal benachbarten Makroblocks auch dazu neigen, ähnlich zu sein, und so ist es auch der Fall. Daher gibt es mehrere Optionen, abhängig davon, ob man das System komplexer machen möchte. Es soll beispielhaft angenommen werden, daß Daten in Makroblock MB ersetzt werden sollen mit zeitlich verschobenen Daten. Wenn das bestimmte System VAR und VAROR über nur den Makroblock MA für den gesamten Makroblock MB berechnet wird, kann der Bewegungsvektor zum Auffinden der zeitlich versetzten Daten, die in Makroblock MB substituiert werden sollen, der Bewegungsvektor sein, der mit Makroblock MA assoziiert ist. Wenn das bestimmte System VAR und VAROR über Makroblock MA bestimmt für die oberen zwei Blocks des Makroblocks MB und VAR und VAROR über Makroblock MC für die unteren zwei Blocks des Makroblocks MB bestimmt, dann kann der Bewegungsvektor, der mit dem Makroblock MA assoziiert ist, verwendet werden zum Auffinden von Daten für die oberen zwei Blocks des Makroblocks MB und der Bewegungsvektor, der mit Makroblock MC assoziiert ist, kann verwendet werden zum Auffinden von Substitutionsdaten für die unteren zwei Blocks von Makroblock MB. In beiden Fällen können alternativ die Bewegungsvektoren, die mit beiden Makroblocks MA und MB assoziiert sind, Bemittelt werden, um einen geeigneten Bewegungsvektor zu erhalten.
  • Bewegungsvektoren, die mit horizontal benachbarten Makroblocks assoziiert sind, können auch verwendet werden zum Auffinden von Substitutionsdaten zum Ersatz in P-Vollbildern, jedoch neigen Fehlerverlust und/oder Laufzeiten in MPEG-ähnlichen Codierverfahren dazu, in Horizontal-Richtung zu liegen. Es ist daher sehr wahrscheinlich, daß zuverlässige Bewegungsvektoren nicht in horizontal benachbarten Makroblocks verfügbar sein können.
  • Wenn man die Berechnung der Werte VAR und VAROR für P-Vollbild-Fehlerverdeckung betrachtet, treten die geeigneten Makroblocks in jeweiligen Vollbildern automatisch auf. Wenn ein Makroblock des P-Vollbildes decodiert wird und vom Addierer 312 abgegeben wird, wird der geeignete Makroblock, der von dem zugeordneten Bewegungsvektor bezeichnet wird, von dem Speicher 316 zur Verfügung gestellt, und zwar im normalen Decodier-Verfahren. Deshalb sind keine Änderungen in der Einrichtung zum Berechnen von VAR und VAROR erforderlich.

Claims (6)

  1. Adaptive Fehlerverdeckungs-Einrichtung zur Verdeckung von Fehlern in Videosignalen, die als Block von Pixeln decodiert sind, gekennzeichnet durch – eine Quelle (10) eines Videosignals, das in Blöcken codierter Daten auftritt, die jeweilige Bildbereiche repräsentieren, wobei jeder Bereich mit einer Vielzahl von Pixeln repräsentiert ist; – Mittel (16), die mit der Quelle gekoppelt sind zum Erkennen/Erfassen von Fehlern in den Blöcken codierter Daten, zum Erzeugen von Fehlersymbolen, welche die Blöcke codierter Daten anzeigen, die Fehler aufweisen, zum Aussondern von Blöcken codierter Daten mit Fehlern und zum Weiterreichen fehlerfreier Blöcke codierter Daten; – Mittel (20) zum Decodieren der fehlerfreien Blöcke codierter Daten auf Blockbasis und zum Erzeugen korrespondierender Blöcke von Pixelwerten, welche die Bildbereiche darstellen; – Mittel (26), zum adaptiven Bereitstellen von Pixelwerten für die Fehlerblöcke von Pixelwerten, wobei die Mittel (26) aufweisen: – Mittel zum Erzeugen eines ersten Index mit Bezug auf Bild-Detailbetrag in zumindest einem Block von Pixelwerten benachbart zu dem Fehlerblock von Pixelwerten; – Mittel zum Erzeugen eines zweiten Index mit Bezug auf die Bildbewegung in dem zumindest einen Block von Pixelwerten benachbart zu dem Fehlerblock von Pixelwerten mit Bezug auf ein Bild in einem zuvor decodierten Vollbild; – Mittel zum Vergleichen der ersten und zweiten Indexe und zum Bereitstellen von ersten bzw. zweiten Typen von Pixeldaten für den Fehlerblock von Pixelwerten, wenn der Bild-Detailbetrag größer bzw. geringer als die Bildbewegung ist.
  2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Mittel zum Bereitstellen der ersten und zweiten Typen von Pixeldaten aufweisen: – Mittel zum Auswählen von Pixelwerten aus Blöcken von Pixelwerten, die dem Fehlerblock von Pixelwerten benachbart sind zum daraus Erzeugen eines Blocks von interpolierten Pixelwerten, wobei der Block von interpolierten Pixelwerten mit dem zweiten Typ von Pixeldaten korrespondiert; und – Mittel zum Auswählen eines Blocks von Pixelwerten aus einem Vollbild eines zuvor decodierten Videosignals, wobei der ausgewählte Block mit dem ersten Typ von Pixeldaten korrespondiert.
  3. Einrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der erste und zweite Typ von Pixeldaten mit Blöcken von zeitlich versetzten Pixelwerten bzw. Blöcken von interpolierten Pixelwerten korrespondiert.
  4. Einrichtung nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass die Mittel zum Erzeugen eines ersten Index weitere Mittel zum Berechnen der Differenz zwischen dem Quadrat des Mittelwertes der Pixelwerte in dem zumindest einen Block und dem erwarteten Wert des Quadrates der Pixelwerte in dem zumindest einen Block aufweisen.
  5. Einrichtung nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass die Mittel zum Erzeugen eines zweiten Index Mittel umfassen zum Berechnen des Erwartungswertes des Quadrates der Differenz zwischen korrespondierenden Pixelwerten in dem zumindest einen Block und Pixelwerten aus einem daneben liegenden Block in einem zeitversetzten Vollbild.
  6. Verfahren zum adaptiven Verdecken von Fehlern in MPEG-ähnlichen Fernsehsignalen, welche Makroblöcke (MA, MB, MC, ME, MF) und Blöcke (B1, B2,...B9) von Pixeldaten aufweisen – insbesondere zum Betreiben der Einrichtung gemäß Anspruch 1 -, bei dem a) Fehlersymbole erzeugt und den fehlerhaften Blöcken (B1...B9) angefügt werden; b) aus Blöcken (B1...B9) bzw. Pixeln davon, die den fehlersymbolbehafteten Blöcken benachbart sind, Schätzwerte (VAR, VAROR) hinsichtlich Blockdetail und Blockbewegung errechnet werden; c) die fehlerhaften Blöcke ersetzt werden mit zeitlich oder räumlich versetzten Pixelwerten, abhängig von einem Vergleich der Schätzwerte (VAR, VAROR).
DE4305578A 1992-03-02 1993-02-24 Fehlerverdeckung in decodierten Videosignalen Expired - Fee Related DE4305578B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/844,322 US5247363A (en) 1992-03-02 1992-03-02 Error concealment apparatus for hdtv receivers
US844,322 1992-03-02

Publications (2)

Publication Number Publication Date
DE4305578A1 DE4305578A1 (de) 1993-09-09
DE4305578B4 true DE4305578B4 (de) 2007-06-21

Family

ID=25292386

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4305578A Expired - Fee Related DE4305578B4 (de) 1992-03-02 1993-02-24 Fehlerverdeckung in decodierten Videosignalen

Country Status (4)

Country Link
US (1) US5247363A (de)
JP (1) JP3404706B2 (de)
KR (1) KR100296660B1 (de)
DE (1) DE4305578B4 (de)

Families Citing this family (120)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5337088A (en) * 1991-04-18 1994-08-09 Matsushita Electric Industrial Co. Ltd. Method of correcting an image signal decoded in block units
US5657399A (en) * 1991-05-17 1997-08-12 Canon Kabushiki Kaisha Encoding/decoding apparatus using quantizing steps information
JP3002019B2 (ja) * 1991-07-04 2000-01-24 富士通株式会社 セル廃棄補償機能を有する画像符号化伝送方式
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
GB2263373B (en) * 1992-01-09 1995-05-24 Sony Broadcast & Communication Data error concealment
JPH05244468A (ja) * 1992-02-28 1993-09-21 Mitsubishi Electric Corp 画像受信装置
KR950004129B1 (ko) * 1992-05-19 1995-04-25 주식회사금성사 가변장 부호 복호기
US5842033A (en) * 1992-06-30 1998-11-24 Discovision Associates Padding apparatus for passing an arbitrary number of bits through a buffer in a pipeline system
JPH0698313A (ja) * 1992-09-14 1994-04-08 Sony Corp 動画像復号化装置
US5446501A (en) * 1992-10-22 1995-08-29 Accom, Incorporated Three-dimensional median and recursive filtering apparatus and method for video image enhancement
JP3341781B2 (ja) * 1992-12-15 2002-11-05 ソニー株式会社 画像復号化装置および画像符号化装置
EP0604230B1 (de) * 1992-12-24 1999-03-10 Canon Kabushiki Kaisha Vorrichtung für die Wiedergabe eines Bildsignals
JP3240017B2 (ja) * 1993-01-11 2001-12-17 ソニー株式会社 Mpeg信号記録方法およびmpeg信号再生方法
US5786858A (en) * 1993-01-19 1998-07-28 Sony Corporation Method of encoding image signal, apparatus for encoding image signal, method of decoding image signal, apparatus for decoding image signal, and image signal recording medium
US5815636A (en) * 1993-03-29 1998-09-29 Canon Kabushiki Kaisha Image reproducing apparatus
US5943444A (en) * 1993-03-31 1999-08-24 Canon Kabushiki Kaisha Image reproducing apparatus
US5561532A (en) * 1993-03-31 1996-10-01 Canon Kabushiki Kaisha Image reproducing apparatus
US6266372B1 (en) * 1993-03-31 2001-07-24 Canon Kabushiki Kaisha Apparatus for image reproduction using motion estimation
US5442400A (en) * 1993-04-29 1995-08-15 Rca Thomson Licensing Corporation Error concealment apparatus for MPEG-like video data
DE69417471T2 (de) * 1993-05-12 1999-11-25 Matsushita Electric Ind Co Ltd Gerät zur Aufzeichnung und Wiedergabe von Videosignalen
US5812735A (en) * 1993-07-09 1998-09-22 Sony Corporaiton Picture signal decoding method and picture signal decoding apparatus
US5598514A (en) * 1993-08-09 1997-01-28 C-Cube Microsystems Structure and method for a multistandard video encoder/decoder
DE69524269T2 (de) * 1994-01-28 2002-07-18 Matsushita Electric Ind Co Ltd Vorrichtung und Verfahren zur Dekodierung von Kodes variabler Länge
US5442407A (en) * 1994-03-22 1995-08-15 Matsushita Electric Corporation Of America Video signal noise reduction system using time-varying filter coefficients
US5475688A (en) * 1994-04-22 1995-12-12 Thomson Consumer Electronics, Inc. Media error code generation as for a video inverse transport processor
US5619501A (en) * 1994-04-22 1997-04-08 Thomson Consumer Electronics, Inc. Conditional access filter as for a packet video signal inverse transport system
US5880786A (en) * 1994-06-15 1999-03-09 Hitachi, Ltd. Apparatus for picture decoding having frame memories commonly connected to one data bus and one address bus
JPH0818979A (ja) * 1994-06-27 1996-01-19 Canon Inc 画像処理装置
US6009236A (en) 1994-09-26 1999-12-28 Mitsubishi Denki Kabushiki Kaisha Digital video signal record and playback device and method for giving priority to a center of an I frame
US5550847A (en) * 1994-10-11 1996-08-27 Motorola, Inc. Device and method of signal loss recovery for realtime and/or interactive communications
US5734419A (en) 1994-10-21 1998-03-31 Lucent Technologies Inc. Method of encoder control
CA2157066C (en) * 1994-10-21 1999-09-21 Nelson Botsford Iii Method for controlling a compressed data buffer
KR100320450B1 (ko) * 1994-12-16 2002-06-20 구자홍 고선명티브이수상기의수신기동작상황검출장치
US5646687A (en) * 1994-12-29 1997-07-08 Lucent Technologies Inc. Temporally-pipelined predictive encoder/decoder circuit and method
KR100215428B1 (ko) * 1995-01-23 1999-08-16 윤종용 B픽처의에러은폐방법
US5621467A (en) * 1995-02-16 1997-04-15 Thomson Multimedia S.A. Temporal-spatial error concealment apparatus and method for video signal processors
JP3540855B2 (ja) * 1995-03-08 2004-07-07 シャープ株式会社 ブロック歪み補正器
US5864637A (en) * 1995-04-18 1999-01-26 Advanced Micro Devices, Inc. Method and apparatus for improved video decompression by selective reduction of spatial resolution
US5774600A (en) * 1995-04-18 1998-06-30 Advanced Micro Devices, Inc. Method of pixel averaging in a video processing apparatus
US5809173A (en) * 1995-04-18 1998-09-15 Advanced Micro Devices, Inc. Method and apparatus for improved video decompression using previous frame DCT coefficients
US5724446A (en) * 1995-04-18 1998-03-03 Advanced Micro Devices, Inc. Video decoder apparatus using non-reference frame as an additional prediction source and method therefor
US5903313A (en) * 1995-04-18 1999-05-11 Advanced Micro Devices, Inc. Method and apparatus for adaptively performing motion compensation in a video processing apparatus
US6002801A (en) * 1995-04-18 1999-12-14 Advanced Micro Devices, Inc. Method and apparatus for improved video decompression by selection of IDCT method based on image characteristics
US5610659A (en) * 1995-05-08 1997-03-11 Futuretel, Inc. MPEG encoder that concurrently determines video data encoding format and rate control
US5680482A (en) * 1995-05-17 1997-10-21 Advanced Micro Devices, Inc. Method and apparatus for improved video decompression by adaptive selection of video input buffer parameters
EP0748130B1 (de) * 1995-06-05 2002-09-25 Sony Electronics Inc. Aufnahme und Wiedergabe von digitalen Signalen
US5731850A (en) * 1995-06-07 1998-03-24 Maturi; Gregory V. Hybrid hierarchial/full-search MPEG encoder motion estimation
FR2735321B1 (fr) * 1995-06-09 1997-09-05 Sgs Thomson Microelectronics Procede et dispositif de masquage d'erreur lors du decodage d'un flux de donnees
US5751861A (en) * 1995-06-30 1998-05-12 Intel Corporation Reducing residual artifacts in video coding schemes with integer motion compensation
US5910909A (en) * 1995-08-28 1999-06-08 C-Cube Microsystems, Inc. Non-linear digital filters for interlaced video signals and method thereof
US5724369A (en) * 1995-10-26 1998-03-03 Motorola Inc. Method and device for concealment and containment of errors in a macroblock-based video codec
JPH09128529A (ja) * 1995-10-30 1997-05-16 Sony Corp ディジタル画像の雑音の投影に基づく除去方法
US5703877A (en) * 1995-11-22 1997-12-30 General Instrument Corporation Of Delaware Acquisition and error recovery of audio data carried in a packetized data stream
JP3994445B2 (ja) * 1995-12-05 2007-10-17 ソニー株式会社 動きベクトル検出装置及び動きベクトル検出方法
KR19990072122A (ko) * 1995-12-12 1999-09-27 바자니 크레이그 에스 실시간 영상 전송 방법 및 장치
KR100197368B1 (ko) * 1995-12-23 1999-06-15 전주범 영상 에러 복구 장치
KR100197366B1 (ko) * 1995-12-23 1999-06-15 전주범 영상 에러 복구 장치
KR100220678B1 (ko) * 1995-12-29 1999-09-15 전주범 블록 단위 부호화 장치로부터 전송된 영상신호에서의 채널 에러 정정 방법
US5781564A (en) * 1996-06-05 1998-07-14 Thomson Consumer Electronics, Inc. Method and apparatus for detecting and concealing data errors in stored digital data
KR100244745B1 (ko) * 1996-06-29 2000-02-15 김영환 싱크 워드 검출회로
TW357327B (en) * 1996-08-02 1999-05-01 Sony Corp Methods, apparatus and program storage device for removing scratch or wire noise, and recording media therefor
EP2320664A1 (de) * 1997-02-13 2011-05-11 Mitsubishi Denki Kabushiki Kaisha System zur Vorhersage von Bewegtbildern
US6078616A (en) * 1997-03-13 2000-06-20 Sony Corporation Methods and apparatus for error concealment utilizing temporal domain motion vector estimation
US6584226B1 (en) * 1997-03-14 2003-06-24 Microsoft Corporation Method and apparatus for implementing motion estimation in video compression
JP3217987B2 (ja) * 1997-03-31 2001-10-15 松下電器産業株式会社 動画像信号の復号方法および符号化方法
DE19716147A1 (de) 1997-04-17 1998-10-22 Alsthom Cge Alcatel Verfahren und Vorrichtung zur Fehlerverdeckung in digitalen Übertragungssystemen
US5990955A (en) * 1997-10-03 1999-11-23 Innovacom Inc. Dual encoding/compression method and system for picture quality/data density enhancement
US6563549B1 (en) * 1998-04-03 2003-05-13 Sarnoff Corporation Method and apparatus for adaptively encoding an information stream
KR100309695B1 (ko) * 1998-06-01 2001-12-28 구자홍 간헐영상의압축기록방법및압축간헐영상의재생방법
US6330366B1 (en) * 1998-12-21 2001-12-11 Intel Corporation Method and apparatus for buffer management in video processing
US6771827B1 (en) 1998-12-23 2004-08-03 Xerox Corporation System and method for directed acuity segmentation resolution compression and decompression
KR100587280B1 (ko) * 1999-01-12 2006-06-08 엘지전자 주식회사 오류 은폐방법
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US6418548B1 (en) 1999-02-12 2002-07-09 Sony Corporation Method and apparatus for preprocessing for peripheral erroneous data
US6363118B1 (en) 1999-02-12 2002-03-26 Sony Corporation Apparatus and method for the recovery of compression constants in the encoded domain
US6307979B1 (en) 1999-02-12 2001-10-23 Sony Corporation Classified adaptive error recovery method and apparatus
US6621936B1 (en) 1999-02-12 2003-09-16 Sony Corporation Method and apparatus for spatial class reduction
US6519369B1 (en) 1999-02-12 2003-02-11 Sony Corporation Method and apparatus for filter tap expansion
US6549672B1 (en) 1999-06-29 2003-04-15 Sony Corporation Method and apparatus for recovery of encoded data using central value
JP2001016623A (ja) 1999-06-30 2001-01-19 Agilent Technologies Japan Ltd 撮像素子の試験方法
JP3630590B2 (ja) * 1999-08-25 2005-03-16 沖電気工業株式会社 復号化装置及び伝送システム
US6522785B1 (en) 1999-09-24 2003-02-18 Sony Corporation Classified adaptive error recovery method and apparatus
US6351494B1 (en) 1999-09-24 2002-02-26 Sony Corporation Classified adaptive error recovery method and apparatus
US6539517B1 (en) 1999-11-09 2003-03-25 Sony Corporation Data transformation for explicit transmission of control information
GB9928022D0 (en) * 1999-11-26 2000-01-26 British Telecomm Video coding and decording
JP3526019B2 (ja) * 1999-11-30 2004-05-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像表示システム、画像表示装置、および画像表示方法
US6754371B1 (en) 1999-12-07 2004-06-22 Sony Corporation Method and apparatus for past and future motion classification
FI107680B (fi) * 1999-12-22 2001-09-14 Nokia Oyj Menetelmä videokuvien lähettämiseksi, tiedonsiirtojärjestelmä, lähettävä videopäätelaite ja vastaanottava videopäätelaite
US6859456B1 (en) * 2000-03-13 2005-02-22 Motorola, Inc. Method and apparatus for checking communicated data
US6973130B1 (en) 2000-04-25 2005-12-06 Wee Susie J Compressed video signal including information for independently coded regions
US6970510B1 (en) * 2000-04-25 2005-11-29 Wee Susie J Method for downstream editing of compressed video
US20020066101A1 (en) * 2000-11-27 2002-05-30 Gordon Donald F. Method and apparatus for delivering and displaying information for a multi-layer user interface
US7039117B2 (en) * 2001-08-16 2006-05-02 Sony Corporation Error concealment of video data using texture data recovery
US20030081564A1 (en) * 2001-10-29 2003-05-01 Chan James C. K. Wireless transmission and recording of images from a video surveillance camera
WO2003061284A1 (en) * 2001-12-21 2003-07-24 Polycom, Inc. Motion wake identification and control mechanism
KR100921858B1 (ko) * 2002-04-17 2009-10-13 톰슨 라이센싱 패킷 에러 신호 생성기
JP2003348594A (ja) * 2002-05-27 2003-12-05 Sony Corp 画像復号装置及び方法
US7020200B2 (en) * 2002-08-13 2006-03-28 Lsi Logic Corporation System and method for direct motion vector prediction in bi-predictive video frames and fields
US7813429B2 (en) * 2002-08-13 2010-10-12 Lsi Corporation System and method for segmentation of macroblocks
US8488665B2 (en) * 2003-06-25 2013-07-16 Broadcom Corporation Delta frame buffers
US20050013496A1 (en) * 2003-07-16 2005-01-20 Bruls Wilhelmus Hendrikus Alfonsus Video decoder locally uses motion-compensated interpolation to reconstruct macro-block skipped by encoder
KR100585733B1 (ko) * 2003-10-16 2006-06-07 엘지전자 주식회사 영상 처리 시스템의 손실 블록 특성 자동 판단 방법 및 장치
KR100621005B1 (ko) * 2003-12-24 2006-09-08 엘지전자 주식회사 영상 오류 복구장치 및 방법
KR101000926B1 (ko) * 2004-03-11 2010-12-13 삼성전자주식회사 영상의 불연속성을 제거하기 위한 필터 및 필터링 방법
JP2005260606A (ja) * 2004-03-11 2005-09-22 Fujitsu Ten Ltd デジタル放送受信装置
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US20060062312A1 (en) * 2004-09-22 2006-03-23 Yen-Chi Lee Video demultiplexer and decoder with efficient data recovery
EP1816871A4 (de) * 2004-10-29 2010-06-16 Sharp Kk Decodierungsvorrichtung für bewegliche bilder und decodierungsverfahren für bewegliche bilder
EP1827023A1 (de) * 2006-02-27 2007-08-29 THOMSON Licensing Verfahren und Vorrichtung zur Paketverlustentdeckung und Erzeugung von virtuellen Paketen bei SVC-Dekodierern
FR2898459B1 (fr) * 2006-03-08 2008-09-05 Canon Kk Procede et dispositif de reception d'images ayant subi des pertes en cours de transmission
CN100548051C (zh) * 2006-05-25 2009-10-07 联想(北京)有限公司 视频编解码设备和方法以及系统
EP2055108B1 (de) * 2006-08-25 2011-04-20 Thomson Licensing Verfahren und vorrichtung für partitionierung mit reduzierter auflösung
ITTO20060668A1 (it) * 2006-09-19 2008-03-20 Rai Radiotelevisione Italiana Spa Metodo per riprodurre una sequenza audio e/o video, dispositivo di riproduzione ed apparecchio riproduttore che lo utilizzano
US8379733B2 (en) 2006-09-26 2013-02-19 Qualcomm Incorporated Efficient video packetization methods for packet-switched video telephony applications
JP4875451B2 (ja) * 2006-10-17 2012-02-15 パナソニック株式会社 ディジタルデータ受信装置
WO2008139708A1 (ja) * 2007-04-27 2008-11-20 Panasonic Corporation 画像復号装置、画像復号システム、画像復号方法、及び集積回路
US9357233B2 (en) 2008-02-26 2016-05-31 Qualcomm Incorporated Video decoder error handling
EP2150060A1 (de) * 2008-07-28 2010-02-03 Alcatel, Lucent Verfahren und Anordnung zur personalisierten Videokodierung
US8837908B2 (en) * 2009-01-06 2014-09-16 Cyberlink Corp. Systems and methods for performing secure playback of media content

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1987002210A1 (en) * 1985-10-02 1987-04-09 Deutsche Thomson-Brandt Gmbh Process for correcting transmission errors
EP0471580A2 (de) * 1990-08-16 1992-02-19 Matsushita Electric Industrial Co., Ltd. Verdeckungsverfahren für Videosignal
EP0551599A1 (de) * 1991-11-30 1993-07-21 Sony Corporation Dekodiersystem für Bewegtbilder

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4021852A (en) * 1975-08-21 1977-05-03 Rca Corporation Signal defect compensation
US4232340A (en) * 1979-06-01 1980-11-04 Rca Corporation Defect compensation for color television
US4792953A (en) * 1986-03-28 1988-12-20 Ampex Corporation Digital signal error concealment
DE3804175A1 (de) * 1988-02-11 1989-08-24 Broadcast Television Syst Verfahren und schaltungsanordnung zum einschreiben und auslesen eines digitalen halbleiterspeichers fuer videosignale
US5122875A (en) * 1991-02-27 1992-06-16 General Electric Company An HDTV compression system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1987002210A1 (en) * 1985-10-02 1987-04-09 Deutsche Thomson-Brandt Gmbh Process for correcting transmission errors
EP0471580A2 (de) * 1990-08-16 1992-02-19 Matsushita Electric Industrial Co., Ltd. Verdeckungsverfahren für Videosignal
EP0551599A1 (de) * 1991-11-30 1993-07-21 Sony Corporation Dekodiersystem für Bewegtbilder

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JENG, F.-C.; LEE, S.H.: Concealment of bit error and cell loss in inter-frame coded video transmis- sion. In: IEEE International Conference on Commu- nications, ICC 91, Conference Record. 23.-26. Juni 1991, Vol. 1, S. 496-500
JENG, F.-C.; LEE, S.H.: Concealment of bit error and cell loss in inter-frame coded video transmission. In: IEEE International Conference on Commu- nications, ICC 91, Conference Record. 23.-26. Juni 1991, Vol. 1, S. 496-500 *
WADA, M.: Selective recovery of video packet loss using error concealment. In: IEEE Journal on Selected Areas in Communications, Juni 1989, Vol. 7, Ausgabe 5, S. 807-814 *

Also Published As

Publication number Publication date
JP3404706B2 (ja) 2003-05-12
US5247363A (en) 1993-09-21
KR100296660B1 (ko) 2001-10-24
KR930021006A (ko) 1993-10-20
DE4305578A1 (de) 1993-09-09
JPH0670306A (ja) 1994-03-11

Similar Documents

Publication Publication Date Title
DE4305578B4 (de) Fehlerverdeckung in decodierten Videosignalen
DE4205896B4 (de) Anordnung zur rangmäßigen Aufteilung von Daten z. B. für eine Videosignal-Verarbeitungseinrichtung
DE69735402T2 (de) System und Methode zur Bewegungskompensation mit Hilfe eines Schrägziegelspeicherformats für verbesserte Effizienz
DE69839100T2 (de) Verbesserte Videokodierung unter Verwendung von adaptiven Blockparametern für kodierte/unkodierte Blöcke
DE3704777C1 (de) Verfahren zum UEbertragen und zum Wiedergeben von Fernsehbildsequenzen
DE69727372T2 (de) System und verfahren zur erzeugung von trickwiedergabe-videodatenströmen aus einem komprimierten normalwiedergabe-videodatenstrom
DE4205898B4 (de) Anordnung zum Rekombinieren von gemäß einer Rangordnung aufgeteilten Fernsehdaten
US5262854A (en) Lower resolution HDTV receivers
DE4325032B4 (de) Anordnung zur Aufteilung digitaler Fernsehdaten
EP0579395B1 (de) Raum- und Frequenzhybridkodierung eines Videosignals zur Vereinfachung der Bildung von Bildern variabler Auflösung
US5568200A (en) Method and apparatus for improved video display of progressively refreshed coded video
DE69937462T2 (de) Effiziente macroblockheaderkodierung zur videokompression
DE69817460T2 (de) Bildsequenzdekodierungsverfahren
DE60104013T2 (de) Transkodierung von progressiv-kodierten i-slice-aufgefrischten mpeg datenströmen für trickmodi
DE69433272T2 (de) Vorrichtung zum Vermeiden von Rundungsfehlern bei der inversen Transformation von Transformationskoeffizienten eines Bewegtbildsignales
DE69917971T2 (de) Verfahren und Vorrichtung zur Verarbeitung von komprimierten Videodatenströmen
US8121195B2 (en) Memory reduced H264/MPEG-4 AVC codec
US5745180A (en) Low-delay encoding methods of moving pictures
JP2005533444A (ja) 画像符号化におけるランダム・アクセス及び段階的画像更新に対する方法
EP0752789B1 (de) Verfahren, Encoder und Decoder zur Resynchronisierung auf einen fehlerbehafteten Videodatenstrom
DE69834901T2 (de) Bewegungskompensierte prädiktive bildcodierung und -decodierung
US6590938B1 (en) DCT domain conversion of a higher definition signal to lower definition signal
EP1134981A1 (de) Automatische Bestimmung der optimalen Suchfenstergrösse für Bewegungsschätzung
EP0836785B1 (de) Verfahren zur dekodierung und kodierung eines komprimierten videodatenstroms mit reduziertem speicherbedarf
EP0533675B1 (de) Übertragungssystem

Legal Events

Date Code Title Description
8128 New person/name/address of the agent

Representative=s name: WOERDEMANN, H., DIPL.-ING., PAT.-ANW., 31787 HAMEL

8110 Request for examination paragraph 44
8120 Willingness to grant licences paragraph 23
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20110901