WO2000010328A1 - Method for operating in real time aerial photographs obtained by a high rate sensor, and implementing device - Google Patents

Method for operating in real time aerial photographs obtained by a high rate sensor, and implementing device Download PDF

Info

Publication number
WO2000010328A1
WO2000010328A1 PCT/FR1999/001957 FR9901957W WO0010328A1 WO 2000010328 A1 WO2000010328 A1 WO 2000010328A1 FR 9901957 W FR9901957 W FR 9901957W WO 0010328 A1 WO0010328 A1 WO 0010328A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
mobile
link
information
data link
Prior art date
Application number
PCT/FR1999/001957
Other languages
French (fr)
Inventor
Franck Ripert
Original Assignee
Thomson-Csf
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson-Csf filed Critical Thomson-Csf
Publication of WO2000010328A1 publication Critical patent/WO2000010328A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/002Special television systems not provided for by H04N7/007 - H04N7/18
    • H04N7/005Special television systems not provided for by H04N7/007 - H04N7/18 using at least one opto-electrical conversion device

Definitions

  • the present invention relates to a method of real-time exploitation of aerial shots obtained by a high-speed sensor, and to a device for implementing this method.
  • Data Link has very different bit rates and ranges. These bit rates are generally between 10 kbits / s and around 300 Mbits / s, and the ranges are between 100 and 400 km.
  • the digital information rates of current electro-optical sensors can be very high (almost 2000 Mbits / s).
  • the bit rate of the two sensors being 1824 Mbps.
  • a compression ratio, without loss of information, of about 2 is commonly accepted. Beyond this value, digital video compression algorithms do not guarantee the required image quality.
  • the subject of the present invention is a method of real-time exploitation of aerial shots, obtained by a sensor with a high information rate (which may be greater than 1000 Mbits / s) which can be implemented with Data.
  • a high information rate which may be greater than 1000 Mbits / s
  • Relatively low speed link (significantly less than 300 Mbits / s), without loss of information, with high reliability, even for long transmission distances (which can be greater than 100 km).
  • the present invention also relates to a device for real-time exploitation of aerial shots obtained by a high-speed electro-optical sensor, a device which is relatively inexpensive, compatible with practically all types of sensors and Data Link. .
  • the method according to the invention is applied to a mobile connected to an operating base by a “Data Link” type link, this mobile being provided with video means making it possible to film a lens and means for storing the video thus obtained, these storing means being able to be read during their recording, and it is characterized in that during the recording of the video, areas are identified of interest among the shots taken, these markers being recorded with the corresponding video, and which one reads and transmits to the base via the Data Link only the video of the areas of interest thus identified, to exploit basically, in near real time, these areas of interest.
  • the identification of areas of interest can be ordered on board the mobile, or from the base.
  • FIG. 1 is a simplified diagram of an exemplary device for implementing the method of the invention
  • FIG. 2 is a block diagram of the on-board part of the device of FIG. 1,
  • FIG. 3 is a block diagram of the ground part of the device of FIG. 1, and
  • FIG. 4 is a flowchart of an example of implementation of the method of the invention.
  • the present invention is described below with reference to aerial reconnaissance missions, but it is understood that it is not limited to this single application, and that it can be implemented when one has to transmit data, captured at high speed, by a transmission channel having a speed significantly lower than that of the data to be transmitted, and that only a "slice (area of interest for example) of this data is to be exploited in real time or almost real, and that this "slice" must be transmitted without loss of data.
  • This is in particular, but not exclusively, the case for the transmission of filmed images of satellite observation or interplanetary, underwater or medical (intra-corporeal) exploration.
  • Data can be captured by any suitable type of sensor (visible and / or infrared optoelectronic camera, laser, radar, etc.).
  • an aerial reconnaissance airplane 1 has been schematically shown flying over and filming a terrestrial area 2.
  • This airplane 1 comprises, inter alia, a sensor 3, in this case a video camera, connected to a memory 4 with dual access (write and read).
  • This memory 4 can be read at any time, without interfering with the storage of the data arriving from the sensor 3.
  • the aircraft 1 also comprises a transmission-reception and management device 5 (described below with reference to FIG. 2) communicating with a corresponding device 6 (described below with reference to FIG. 3) located in a 6A ground operating base. This communication is done by a radio link 7 (or similar) called Data Link.
  • the link 7 can use one or more relays 8, as shown in dashed lines in Figure 1.
  • This (or these) relay (s) can (can) be airborne (s) or arranged (s) in any suitable way.
  • Link 7 (or 8) has a data rate which can be much lower than the data rate of sensor 3.
  • the rate of sensor 3 can be around 1000 Mbits / s or more, while that of the link, in particular that of the downlink (towards the base on the ground) can be approximately 10 Mbits / s or even much less, which makes it possible to use conventional and inexpensive equipment for the transmission and reception of data.
  • this is only possible if only a few (those of areas of interest) of the many filmed images of the aircraft 1 are to be transmitted in flight.
  • the device 5 comprises a formatting device 9 connected to the sensor 3 and to the memory 4, as well as to a device 10 for lossless data compression and for sub-sampling.
  • the memory 4 is connected by an encryption device 11 to the on-board part 12 of the Data Link transmission system.
  • a management processor 13 is connected to elements 3, 4, 9 and 12.
  • the sensor 3 communicates to the device 9 the useful video data (filmed images proper) and data relating to the aiming position (geographical position of the aiming line on the ground).
  • the formatting device 9 is connected to a display device 14 intended for the pilot or an interpreter (operator) who has taken place on board the aircraft.
  • the formatting device 9 reads the digital video at the output of the sensor 3, "cropping” it if necessary (to remove redundancies due to overlapping images), as well as the associated control information ("Data Valid", frame and line synchronization), which constitutes said useful video signal. On the other hand, it sends to the memory 4 the video, formatted as specified above and including the position of the line of sight, in order to make it record there in three different formats (formats of the “7023” type). These three formats are:
  • full resolution format intended to be used at base 6A after the airplane has returned to this base.
  • This format corresponds to raw digital video, that is to say that has not undergone any manipulation (selection of area of interest for example) on board the aircraft.
  • This formatting makes the useful video, such as coming from the sensor 3, undergo compression without loss of resolution (compression in a ratio 2) carried out using the device 10.
  • this formatting also consists in embedding in the video digital information necessary for ground operation, for example: position of the line of sight, size of the sensor, time and date of the shots, as well as various other parameters that can be measured in flight (altitude, weather, etc.) .), and finally marks (produced in flight under the control of the pilot or an interpreter) delimiting one or more areas of interest.
  • the formatting device 9 performs a sub-sampling of the useful video arriving from the sensor 3 (the sub-sampling ratio depends on the scanning frequency of the sensor), and embeds in the digital video the same information as that relating to the "full resolution” format, as well as the marks delimiting at least one area of interest.
  • “waterfall” format waterfall, that is to say horizontal or vertical scrolling of the images
  • the formatting device 9 performs a subsampling of the useful video and embeds the same information in the digital video.
  • the device 9 formats the video, in a manner known per se, to allow viewing thereof on board the aircraft according to a scrolling in "waterfall”.
  • the management processor 13 receives commands from the ground station 6A to activate either the reading in “full field” format or the reading in “full resolution” format of the memory 4, and / or commands determining the start addresses and the end of the video sequence to be transmitted via the Data Link. These addresses generally correspond to said marks embedded in the video on board the aircraft to delimit an area of interest.
  • the management processor receives a “report” of the operation of the Data Link (signaling it, for example, transmission interruptions, transmission errors, etc.).
  • the processor 13 receives the different flight parameters (line of sight, time, date, altitude, etc.) so that the device 9 can embed them in the images intended to be used on the ground.
  • the processor 13 receives from an appropriate switch, manipulated by the pilot (or by another person on board the aircraft) marking signals to be embedded in the stored images to delimit areas of interest, and it therefore controls memory 4.
  • the processor 13 controls the memory 4 to write the useful video therein with the above-mentioned embedded data, and to play it back-to-back or in real time.
  • the information read in the memory 4 is, on the one hand sent by the Data Link to the station 6A, and, on the other hand, directly to the on-board display device 14. Those passing through the Data Link are only sent if this link is free and undisturbed (or not too disturbed, to allow transmission at the minimum possible rate depending on the amount of video to be transmitted, which can be relatively low, for example 10 Mbits / s or even less) , and if the pilot authorizes it.
  • the commands transmitted to the memory 4 include in particular the choice of the video format to be played ("full field” or “full resolution”), the start and end addresses of sequences to be transmitted.
  • the processor 13 sends to the memory 4 read stop commands; then resume reading as soon as possible.
  • the processor 13 When the data read from memory 4 is intended for on-board display, the processor 13 sends it mode choice commands (real time or deferred) and the start and end addresses of the quences to view. In addition, the processor 13 can send, if necessary, commands to the sensor 3, for example if the latter comprises several sub-assemblies, in order to activate them all, or a part of them.
  • FIG. 3 shows the block diagram of the circuits of the ground station 6A. It includes a Data Link device 15, homologous to the device 12 in FIG. 2. The output of the device 15 is connected by a decryption device 16 (complementary to the encryption device 11) to a deformatting device 17 (complementary to the formatting 9), itself connected to a device 18 for decompression without loss of data, its output being connected to a device 19 for analyzing and using data.
  • a decryption device 16 complementary to the encryption device 11
  • deformatting device 17 complementary to the formatting 9
  • the device 17 is also connected to a mission rendering reader 20 (suitable for reading the memory 4 when the aircraft returns to the base).
  • the device 19 is connected to a reader / recorder 21 of information coming from the Data Link and to an archiving recorder / reader 21 A (for example of the tape type).
  • the device 19 is also connected to the device 15 (to control the reading of areas of interest from the memory 4 via the Data Link and to receive a report on the operation of the link), to the device 17 (to send it commands), to the reader 20, to the readers / recorders 21 and 21 A (to send them commands and receive operating reports) and to display screens 19A.
  • the functions of the formatting-deformatting device 17 are as follows. It decompresses, without loss of data, the compressed video arriving by the downlink of the Data Link, and that coming from the player 20. It plays an interface role on the one hand between the player 20 and the station 19 to provide the latter with the useful video stored in the memory 4, on the other hand between the station 19 and the recorder 21, to save the images or sequences of images used (with marking of the zones or sites identified, comments and, if necessary, adjustments to the deo, relating to these images, and finally between the player 20 and the recorder 21 for saving all of the video relating to the mission. Station 19 performs the following functions:
  • the “full field” format corresponds to video sub-sampled either during recording by the recorder 21 or on board the aircraft (by the trainer 9) for transmission to the ground.
  • the “full field” display is done in continuous scrolling (waterfall), and the selected areas of interest are displayed in “full resolution”.
  • This “full resolution” format also refers to the video transmitted via the Data Link.
  • the display screens 19A also display the information embedded in the video by the formatting device 9.
  • the display device controlling the screens 19A also performs other conventional functions such as stopping and resuming the scrolling of the images (rotation, mirror, zoom %), control of image transcoding (for example if the pixels are coded by sensor 3 in 12 bits, transcoding on 8 bits, maximum generally accepted for the resolution of the eye, i.e. 256 levels of gray), calculation and adjustment of contrast and brightness (dynamically) of the images to be displayed, histogram of the images displayed (for a possible gamma correction), corrected tion of the length / width ratio of the images to be displayed, to compensate for variations in aircraft speed and distance to the ground,
  • image transcoding for example if the pixels are coded by sensor 3 in 12 bits, transcoding on 8 bits, maximum generally accepted for the resolution of the eye, i.e. 256 levels of gray
  • contrast and brightness dynamically
  • histogram of the images displayed for a possible gamma correction
  • corrected tion of the length / width ratio of the images to be displayed to compensate for variations in aircraft speed and distance to the
  • FIG. 4 shows the different stages of the processing of the images captured by the sensor 3 and sent to the ground.
  • This sensor 3 transmits useful digital video signals (or digitized) to the formatting device 9, which performs compression (by a factor of 2) in real time.
  • the information thus compressed is recorded in memory 4.
  • the latter is read simultaneously (or slightly delayed) in “full field” or “full resolution” format (at the option of the operator on board or on the ground) as indicated in 22
  • the selected format is coded and encrypted in real time (in 1 1), transmitted to the ground by the Data Link.
  • This link can either be recognized as good, and there is then continuation of the airplane by the antennas on the ground (at 23), or be cut or of too poor quality, and there is then “dropout” and search for plane (in 24).
  • an indicator (15A) indicates the state of the link (established or interrupted).
  • the information sent from the aircraft to the ground base arrives there or not (which is symbolized by a switch 25). If the connection is good, the information arriving on the ground is, on the one hand, recorded by the recorder 21 (with the indication of the identity of the area recorded, to guide the operator, as noted in 26). On the other hand, as indicated by switch 27, this video information or else that available on the ground is chosen by the operator for further processing. As symbolized at 28, said information available on the ground is either that read at 21, or that recorded in memory 4 and read by the reader 20 after returning to the ground of the aircraft, then archived at 21 A.
  • the processing, downstream of 27, consists of a real-time shaping (in 17) of the video chosen (in 27 and 28) by the operator, then in a "full field” or “full resolution” display ( operator choice in 29).
  • a "full field” or “full resolution” display operator choice in 29.
  • the operator displays either the video arriving directly via the Data Link, or that having been recorded on the ground (choice 31).
  • the display includes the indication of the identity of the selected area of interest, this indication being either that embedded in the video coming directly from the aircraft (32), or that (33) of the area selected from those recorded. on the ground in 21.
  • the operator can order a freeze frame and / or select an area of interest (35). If he selects an area of interest, he can order (36) the transmission, via the Data Link, of the corresponding video, in "full resolution” format, stored in memory 4, and view it on one at least 19A screens in "full resolution” format (37). Of course, as long as there is no selection (at 35) of area of interest, the “waterfall” display continues (arrow 38). Similarly, after transmission of the area of interest (36) and display (37), the display in "waterfall” can continue, if it is not completed (arrow 39). In step 40, said display device controlling the screens 19A performs the aforementioned video manipulations (rotation, mirror, zoom, transcoding, etc.).

Abstract

The invention concerns a method for transmitting to the ground the video pictures shot at very high rate (> 1000 Mbits/s) via a low rate Datalink service (about 10 kbits/s to 10 Mbits/s), which consists in storing (4) on board the reconnaissance aircraft (1) in a high capacity flash memory the videotape, and in transmitting to the ground (in real time or slightly delayed) only the video pictures showing zones of interest.

Description

PROCEDE D'EXPLOITATION EN TEMPS REEL DE PRISES DE VUES METHOD FOR REAL-TIME OPERATION OF SHOOTINGS
AERIENNES OBTENUES PAR UN SENSEUR A HAUT DEBIT, ETAERIALS OBTAINED BY A HIGH SPEED SENSOR, AND
DISPOSITIF DE MISE EN ŒUVRE.IMPLEMENTATION DEVICE.
La présente invention se rapporte à un procédé d'exploitation en temps réel de prises de vues aériennes obtenues par un senseur à haut débit, et à un dispositif de mise en oeuvre de ce procédé.The present invention relates to a method of real-time exploitation of aerial shots obtained by a high-speed sensor, and to a device for implementing this method.
A l'origine, les procédés de reconnaissance aérienne ont fait appel à des caméras, et les films pris pendant les missions étaient exploités après le retour à la base des avions de reconnaissance. Par la suite, on a éprouvé la nécessité de disposer des informations de reconnaissance plus rapidement, afin de pouvoir les exploiter sans perte de temps. A cet effet, il fallait, d'une part, stocker ces informations sur un support pouvant être lu bien plus rapidement et plus facilement qu'un film. On a donc développé à cet effet des mémoires électroniques à très grande capacité (à base de mémoires « flash » en particulier). D'autre part, pour transmettre au sol les informations lues dans ces mémoires depuis l'avion de reconnaissance en vol, on a développé des moyens de transmission communément appelés « Data Link ». On estime aujourd'hui que la durée de vie d'une information acquise au cours d'une mission de renseignement (c'est-à-dire sa durée de validité) est généralement comprise entre six et vingt-quatre heures. Il est donc primordial de chercher à minimiser le temps nécessaire à la transmission du renseignement. La transmission classique par Data Link est une amorce de solution de ce problème, car elle permet de disposer en temps quasi-réel (après lecture de la mémoire de stockage) des informations recueillies. Une telle liaison est adaptée à l'utilisation de capteurs optroniques qui délivrent des informations numériques. Toutefois, elle ne dispense pas de conserver l'enregistrement à bord, afin d'éviter le risque de perte totale d'images pouvant parfois résulter de mauvaises conditions de transmission. Les liaisons « Data Link » connues ont des débits et des portées très différents. Ces dé- bits sont généralement compris entre 10 kbits/s et environ 300 Mbits/s, et les portées sont comprises entre 100 et 400 km. Les débits d'informations numériques des capteurs électro-optiques actuels peuvent être très élevés (près de 2000 Mbits/s). Dans certaines applications à la reconnaissance aérienne, on peut par exemple utiliser, dans le domaine du visible, deux matrices ayant une définition de 1928 x 1084 pixels avec deux sorties de 38 pixels codés chacun sur 12 bits, le débit des deux capteurs étant de 1824 Mbits/s. Le dé- bit des Data Link connus ne permet pas de transmettre en temps réel de tels débits sans perte d'information. Pour y remédier, on pourrait envisager de comprimer l'information. Un taux de compression, sans perte d'informations, d'environ 2 est couramment accepté. Au-delà de cette valeur, les algorithmes de compression de vidéo numérique ne permettent pas de garantir la qualité d'image requise. Par conséquent, même en ayant recours aux techniques de compression d'information, les procédés connus ne permettent pas de transmettre à haut débit (supérieur à 1 000 Mbits/s) les images de reconnaissance aérienne sans dégradation de la qualité de ces images. En outre, même si l'on se contentait d'un débit d'environOriginally, the aerial reconnaissance procedures used cameras, and the films taken during the missions were exploited after the return to the base of the reconnaissance planes. Subsequently, we felt the need to have recognition information more quickly, in order to be able to use it without wasting time. For this purpose, it was necessary, on the one hand, to store this information on a support which can be read much more quickly and more easily than a film. To this end, electronic memories with very large capacity have been developed (based on “flash” memories in particular). On the other hand, to transmit the information read in these memories from the flight recognition aircraft to the ground, transmission means commonly known as "Data Link" have been developed. It is now estimated that the lifespan of information acquired during an intelligence mission (i.e. its period of validity) is generally between six and twenty-four hours. It is therefore essential to seek to minimize the time necessary for the transmission of information. The traditional transmission by Data Link is a beginning of solution of this problem, because it makes it possible to have in quasi-real time (after reading of the storage memory) of the collected information. Such a link is suitable for the use of optronic sensors which deliver digital information. However, it does not exempt from keeping the recording on board, in order to avoid the risk of total loss of images which can sometimes result from poor transmission conditions. The known “Data Link” links have very different bit rates and ranges. These bit rates are generally between 10 kbits / s and around 300 Mbits / s, and the ranges are between 100 and 400 km. The digital information rates of current electro-optical sensors can be very high (almost 2000 Mbits / s). In certain aerial reconnaissance applications, it is possible, for example, to use, in the visible field, two matrices having a definition of 1928 x 1084 pixels with two outputs of 38 pixels each coded on 12 bits, the bit rate of the two sensors being 1824 Mbps. Of the- bit of known data links does not allow real-time transmission of such data rates without loss of information. To remedy this, one could consider compressing the information. A compression ratio, without loss of information, of about 2 is commonly accepted. Beyond this value, digital video compression algorithms do not guarantee the required image quality. Consequently, even by using information compression techniques, the known methods do not make it possible to transmit at high speed (greater than 1000 Mbits / s) the aerial reconnaissance images without degrading the quality of these images. In addition, even if we were satisfied with a flow of about
300 Mbits/s, les équipements actuels ne permettent pas de maintenir constamment un tel débit sans erreurs de transmission, en particulier pour des distances de transmission relativement grandes (supérieures à 100 km). En effet, pour assurer une transmission sans erreurs, il faut mettre en oeuvre un protocole de correction d'erreurs qui diminue le débit d'informations utiles, cette diminution étant d'autant plus importante que les conditions de transmission sont mauvaises, que la distance de transmission est grande et que le débit d'informations utiles est important, ce qui fait que même lorsque le débit global d'informations (informations utiles + correction d'erreurs + don- nées de service) est annoncé pour 300 Mbits/s, le débit d'informations utiles (vidéo + données incrustées) est en réalité nettement inférieur.300 Mbits / s, current equipment does not allow this speed to be constantly maintained without transmission errors, in particular for relatively large transmission distances (greater than 100 km). Indeed, to ensure transmission without errors, it is necessary to implement an error correction protocol which decreases the bit rate of useful information, this reduction being all the more important as the transmission conditions are bad, as the distance transmission speed is high and the useful information rate is high, which means that even when the overall information rate (useful information + error correction + service data) is announced for 300 Mbits / s, the rate of useful information (video + embedded data) is actually much lower.
La présente invention a pour objet un procédé d'exploitation en temps réel de prises de vue aériennes, obtenues par un senseur à haut débit d'information (pouvant être supérieur à 1 000 Mbits/s) qui puisse être mis en oeuvre avec des Data Link à relativement faible débit (nettement inférieur à 300 Mbits/s), et ce, sans perte d'informations, avec une haute fiabilité, même pour des distances de transmission élevées (pouvant être supérieures à 100 km).The subject of the present invention is a method of real-time exploitation of aerial shots, obtained by a sensor with a high information rate (which may be greater than 1000 Mbits / s) which can be implemented with Data. Relatively low speed link (significantly less than 300 Mbits / s), without loss of information, with high reliability, even for long transmission distances (which can be greater than 100 km).
La présente invention a également pour objet un dispositif d'exploitation en temps réel de prises de vue aériennes obtenues par un senseur électro-optique à haut débit, dispositif qui soit relativement peu onéreux, compatible avec pratiquement tous les types de senseurs et de Data Link.The present invention also relates to a device for real-time exploitation of aerial shots obtained by a high-speed electro-optical sensor, a device which is relatively inexpensive, compatible with practically all types of sensors and Data Link. .
Le procédé conforme à l'invention est appliqué à un mobile relié à une base d'exploitation par une liaison de type « Data Link », ce mobile étant muni de moyens vidéo permettant de filmer un objectif et de moyens de mémorisation de la vidéo ainsi obtenue, ces moyens de mémorisation pouvant être lus pendant leur enregistrement, et il est caractérisé en ce que pendant l'enregistrement de la vidéo, on repère des zones d'intérêt parmi les prises de vue effectuées, ces repères étant enregistrés avec la vidéo correspondante, et que l'on ne lit et ne transmet à la base via la liaison Data Link que la vidéo des zones d'intérêt ainsi repérées, pour exploiter à la base, en temps quasi-réel ces zones d'intérêt. Le repérage des zones d'intérêt peut être commandé à bord du mobile, ou bien depuis la base. La présente invention sera mieux comprise à la lecture de la description détaillée d'un exemple de mise en oeuvre, illustré par le dessin annexé, sur lequel :The method according to the invention is applied to a mobile connected to an operating base by a “Data Link” type link, this mobile being provided with video means making it possible to film a lens and means for storing the video thus obtained, these storing means being able to be read during their recording, and it is characterized in that during the recording of the video, areas are identified of interest among the shots taken, these markers being recorded with the corresponding video, and which one reads and transmits to the base via the Data Link only the video of the areas of interest thus identified, to exploit basically, in near real time, these areas of interest. The identification of areas of interest can be ordered on board the mobile, or from the base. The present invention will be better understood on reading the detailed description of an exemplary implementation, illustrated by the appended drawing, in which:
• la figure 1 est un schéma simplifié d'un exemple de dispositif de mise en oeuvre du procédé de l'invention, « la figure 2 est un bloc-diagramme de la partie embarquée du dispositif de la figure 1 ,FIG. 1 is a simplified diagram of an exemplary device for implementing the method of the invention, FIG. 2 is a block diagram of the on-board part of the device of FIG. 1,
• la figure 3 est un bloc-diagramme de la partie au sol du dispositif de la figure 1 , etFIG. 3 is a block diagram of the ground part of the device of FIG. 1, and
• la figure 4 est un organigramme d'un exemple de mise en oeu- vre du procédé de l'invention.FIG. 4 is a flowchart of an example of implementation of the method of the invention.
La présente invention est décrite ci-dessous en référence à des missions de reconnaissance aérienne, mais il est bien entendu qu'elle n'est pas limitée à cette seule application, et qu'elle peut être mise en oeuvre lorsque l'on a à transmettre des données, captées à débit élevé, par un canal de transmission ayant un débit nettement plus faible que celui des données à transmettre, et que seulement une « tranche (zone d'intérêt par exemple) de ces données est à exploiter en temps réel ou quasi-réel, et que cette « tranche » doit être transmise sans perte de données. Ceci est en particulier, mais non exclusivement, le cas pour la transmission d'images filmées d'observation par satellite ou d'exploration interplanétaire, sous-marine ou médicale (intra-corporelle). Les données peuvent être captées par tout type de senseur approprié (caméra optoélectronique en visible et/ou en infrarouge, laser, radar, ...).The present invention is described below with reference to aerial reconnaissance missions, but it is understood that it is not limited to this single application, and that it can be implemented when one has to transmit data, captured at high speed, by a transmission channel having a speed significantly lower than that of the data to be transmitted, and that only a "slice (area of interest for example) of this data is to be exploited in real time or almost real, and that this "slice" must be transmitted without loss of data. This is in particular, but not exclusively, the case for the transmission of filmed images of satellite observation or interplanetary, underwater or medical (intra-corporeal) exploration. Data can be captured by any suitable type of sensor (visible and / or infrared optoelectronic camera, laser, radar, etc.).
Sur la figure 1 , on a schématiquement représenté un avion 1 de reconnaissance aérienne survolant et filmant une zone terrestre 2. Cet avion 1 comporte, entre autres, un senseur 3, en l'occurrence une caméra vidéo, relié à une mémoire 4 à double accès (écriture et lecture). Cette mémoire 4 peut être lue à tout instant, sans gêner la mémorisation des données arrivant du senseur 3. Elle est avantageusement une mémoire état solide, par exem- pie du type « flash ». L'avion 1 comporte également un dispositif 5 d'émission-réception et de gestion, (décrit ci-dessous en référence à la figure 2) communiquant avec un dispositif 6 correspondant (décrit ci-dessous en référence à la figure 3) situé dans une base d'exploitation au sol 6A. Cette communication se fait par une liaison hertzienne 7 (ou similaire) dite Data Link. En variante, si la distance entre l'avion 1 et la base au sol est supérieure à la portée de la liaison et/ou si des obstacles gênent la liaison, la liaison 7 peut utiliser un ou plusieurs relais 8, comme représenté en traits interrompus sur la figure 1. Ce (ou ces) relais peut (peuvent) être aéroporté (s) ou disposé (s) de toute façon appropriée. La liaison 7 (ou 8) a un débit de don- nées qui peut être nettement inférieur au débit de données du senseur 3. Le débit du senseur 3 peut être d'environ 1 000 Mbits/s ou plus, alors que celui de la liaison, en particulier celui de la voie descendante (vers la base au sol) peut être d'environ 10 Mbits/s ou même beaucoup moins, ce qui permet d'utiliser un matériel classique et peu onéreux pour l'émission et la réception des données. Bien entendu, ceci n'est possible que si on ne doit transmettre en vol à la base que quelques unes (celles de zones d'intérêt) des nombreuses images filmées de l'avion 1.In FIG. 1, an aerial reconnaissance airplane 1 has been schematically shown flying over and filming a terrestrial area 2. This airplane 1 comprises, inter alia, a sensor 3, in this case a video camera, connected to a memory 4 with dual access (write and read). This memory 4 can be read at any time, without interfering with the storage of the data arriving from the sensor 3. It is advantageously a solid state memory, for example of the “flash” type. The aircraft 1 also comprises a transmission-reception and management device 5 (described below with reference to FIG. 2) communicating with a corresponding device 6 (described below with reference to FIG. 3) located in a 6A ground operating base. This communication is done by a radio link 7 (or similar) called Data Link. As a variant, if the distance between the airplane 1 and the base on the ground is greater than the range of the link and / or if obstacles obstruct the link, the link 7 can use one or more relays 8, as shown in dashed lines in Figure 1. This (or these) relay (s) can (can) be airborne (s) or arranged (s) in any suitable way. Link 7 (or 8) has a data rate which can be much lower than the data rate of sensor 3. The rate of sensor 3 can be around 1000 Mbits / s or more, while that of the link, in particular that of the downlink (towards the base on the ground) can be approximately 10 Mbits / s or even much less, which makes it possible to use conventional and inexpensive equipment for the transmission and reception of data. Of course, this is only possible if only a few (those of areas of interest) of the many filmed images of the aircraft 1 are to be transmitted in flight.
Comme représenté en figure 2, le dispositif 5 comporte un dispositif de formatage 9 relié au senseur 3 et à la mémoire 4, ainsi qu'à un dispo- sitif 10 de compression de données sans perte et de sous-échantillonnage. La mémoire 4 est reliée par un dispositif de cryptage 11 à la partie embarquée 12 du système de transmission Data Link. Un processeur de gestion 13 est relié aux éléments 3, 4, 9 et 12.As shown in FIG. 2, the device 5 comprises a formatting device 9 connected to the sensor 3 and to the memory 4, as well as to a device 10 for lossless data compression and for sub-sampling. The memory 4 is connected by an encryption device 11 to the on-board part 12 of the Data Link transmission system. A management processor 13 is connected to elements 3, 4, 9 and 12.
Le senseur 3 communique au dispositif 9 les données de vidéo utile (images filmées proprement dites) et des données relatives à la position de visée (position géographique de la ligne de visée au sol). Le dispositif de formatage 9 est relié à un dispositif 14 de visualisation destiné au pilote ou à un interprétateur (opérateur) ayant pris place à bord de l'avion.The sensor 3 communicates to the device 9 the useful video data (filmed images proper) and data relating to the aiming position (geographical position of the aiming line on the ground). The formatting device 9 is connected to a display device 14 intended for the pilot or an interpreter (operator) who has taken place on board the aircraft.
Les fonctions des divers éléments de la figure 2 sont les suivan- tes. Le dispositif de formatage 9 lit la vidéo numérique à la sortie du senseur 3, en la « recadrant » si nécessaire (pour supprimer des redondances dues à des chevauchements d'images), ainsi que les informations de contrôle associées (« Data Valid », synchronisation de trame et de ligne), ce qui constitue ledit signal de vidéo utile. D'autre part, il envoie à la mémoire 4 la vidéo, formatée comme précisé ci-dessus et incluant la position de la ligne de visée, pour l'y faire enregistrer sous trois formats différents (formats de type « 7023 »). Ces trois formats sont les suivants :The functions of the various elements in FIG. 2 are as follows. The formatting device 9 reads the digital video at the output of the sensor 3, "cropping" it if necessary (to remove redundancies due to overlapping images), as well as the associated control information ("Data Valid", frame and line synchronization), which constitutes said useful video signal. On the other hand, it sends to the memory 4 the video, formatted as specified above and including the position of the line of sight, in order to make it record there in three different formats (formats of the “7023” type). These three formats are:
-a) : format « pleine résolution » destiné à être exploité à la base 6A après le retour de l'avion à cette base. Ce format correspond à de la vidéo numérique brute, c'est-à-dire n'ayant subi aucune manipulation (sélection de zone d'intérêt par exemple) à bord de l'avion. Ce formatage fait subir à la vidéo utile, telle que provenant du senseur 3, une compression sans perte de résolution (compression dans un rapport 2) effectuée à l'aide du dispositif 10. En outre, ce formatage consiste également à incruster dans la vidéo numérique des renseignements nécessaires à l'exploitation au sol, par exemple : position de la ligne de visée, taille du capteur, heure et date des prises de vue, ainsi que divers autres paramètres pouvant être mesurés en vol (altitude, météo, ...), et enfin des marques (produites en vol sous la com- mande du pilote ou d'un interpretateur) délimitant une ou plusieurs zones d'intérêt.-a): "full resolution" format intended to be used at base 6A after the airplane has returned to this base. This format corresponds to raw digital video, that is to say that has not undergone any manipulation (selection of area of interest for example) on board the aircraft. This formatting makes the useful video, such as coming from the sensor 3, undergo compression without loss of resolution (compression in a ratio 2) carried out using the device 10. In addition, this formatting also consists in embedding in the video digital information necessary for ground operation, for example: position of the line of sight, size of the sensor, time and date of the shots, as well as various other parameters that can be measured in flight (altitude, weather, etc.) .), and finally marks (produced in flight under the control of the pilot or an interpreter) delimiting one or more areas of interest.
-b) format « plein champ », destiné également à la base 6A. Le dispositif de formatage 9 effectue un sous-échantillonnage de la vidéo utile arrivant du senseur 3 (le rapport de sous-échantillonnage dépend de la fré- quence de balayage du senseur), et incruste dans la vidéo numérique les mêmes renseignements que ceux relatifs au format « pleine résolution », ainsi que les marques délimitant au moins une zone d'intérêt.-b) "full field" format, also intended for base 6A. The formatting device 9 performs a sub-sampling of the useful video arriving from the sensor 3 (the sub-sampling ratio depends on the scanning frequency of the sensor), and embeds in the digital video the same information as that relating to the "full resolution" format, as well as the marks delimiting at least one area of interest.
-c) format « waterfall » (chute d'eau, c'est-à-dire défilement horizontal ou vertical des images) destiné au dispositif de visualisation du pilote. Comme pour le format « plein champ », le dispositif de formatage 9 effectue un sous-échantillonnage de la vidéo utile et incruste dans la vidéo numérique les mêmes renseignements. En outre, le dispositif 9 met en forme la vidéo, de façon connue en soi, pour en permettre la visualisation à bord de l'avion selon un défilement en « waterfall ». Le processeur de gestion 13 reçoit de la station au sol 6A des commandes pour activer soit la lecture au format « plein champ », soit la lecture au format « pleine résolution » de la mémoire 4, et/ou des commandes déterminant les adresses de début et de fin de la séquence vidéo à transmettre via la liaison Data Link. Ces adresses correspondent en général auxdites marques incrustées dans la vidéo à bord de l'avion pour délimiter une zone d'intérêt.-c) “waterfall” format (waterfall, that is to say horizontal or vertical scrolling of the images) intended for the pilot's display device. As with the "full field" format, the formatting device 9 performs a subsampling of the useful video and embeds the same information in the digital video. In addition, the device 9 formats the video, in a manner known per se, to allow viewing thereof on board the aircraft according to a scrolling in "waterfall". The management processor 13 receives commands from the ground station 6A to activate either the reading in “full field” format or the reading in “full resolution” format of the memory 4, and / or commands determining the start addresses and the end of the video sequence to be transmitted via the Data Link. These addresses generally correspond to said marks embedded in the video on board the aircraft to delimit an area of interest.
Du dispositif 12, le processeur de gestion reçoit un « compte rendu » de fonctionnement de la liaison Data Link (lui signalant par exemple des interruptions de transmission, des erreurs de transmission, ...).From the device 12, the management processor receives a “report” of the operation of the Data Link (signaling it, for example, transmission interruptions, transmission errors, etc.).
Des appareils de bord de l'avion, le processeur 13 reçoit les différents paramètres de vol (ligne de visée, heure, date, altitude...) pour les faire incruster par le dispositif 9 dans les images destinées à être exploitées au sol. En outre, le processeur 13 reçoit d'un commutateur approprié, manipulé par le pilote (ou par une autre personne à bord de l'avion) des signaux de marquage à incruster dans les images mémorisées pour délimiter des zones d'intérêt, et il commande en conséquence la mémoire 4.On board aircraft, the processor 13 receives the different flight parameters (line of sight, time, date, altitude, etc.) so that the device 9 can embed them in the images intended to be used on the ground. In addition, the processor 13 receives from an appropriate switch, manipulated by the pilot (or by another person on board the aircraft) marking signals to be embedded in the stored images to delimit areas of interest, and it therefore controls memory 4.
Le processeur 13 commande la mémoire 4 pour y inscrire la vidéo utile avec les données incrustées précitées, et pour la lire en différé ou en temps réel. Les informations lues dans la mémoire 4 sont, d'une part envoyées par le Data Link vers la station 6A, et, d'autre part, directement vers le dispositif de visualisation embarqué 14. Celles transitant via le Data Link ne sont envoyées que si cette liaison est libre et non perturbée (ou pas trop perturbée, pour permettre la transmission au débit minimal possible en fonc- tion de la quantité de vidéo à transmettre, qui peut être relativement faible, par exemple de 10 Mbits/s ou même moins), et si le pilote l'autorise. Dans l'affirmative, les commandes transmises à la mémoire 4 comportent en particulier le choix du format vidéo à lire (« plein champ » ou « pleine résolution »), les adresses de début et de fin de séquences à transmettre. En cas de coupure de la liaison Data Link (ou de trop mauvaise qualité), le processeur 13 envoie à la mémoire 4 des ordres d'arrêt de lecture; puis de reprise de lecture dès que possible.The processor 13 controls the memory 4 to write the useful video therein with the above-mentioned embedded data, and to play it back-to-back or in real time. The information read in the memory 4 is, on the one hand sent by the Data Link to the station 6A, and, on the other hand, directly to the on-board display device 14. Those passing through the Data Link are only sent if this link is free and undisturbed (or not too disturbed, to allow transmission at the minimum possible rate depending on the amount of video to be transmitted, which can be relatively low, for example 10 Mbits / s or even less) , and if the pilot authorizes it. If so, the commands transmitted to the memory 4 include in particular the choice of the video format to be played ("full field" or "full resolution"), the start and end addresses of sequences to be transmitted. In the event of the Data Link link being cut (or of too poor quality), the processor 13 sends to the memory 4 read stop commands; then resume reading as soon as possible.
Lorsque les données lues dans la mémoire 4 sont destinées à la visualisation de bord, le processeur 13 lui envoie des commandes de choix de mode (temps réel ou différé) et les adresses de début et de fin des se- quences à visualiser. De plus, le processeur 13 peut envoyer, le cas échéant, des commandes au senseur 3, par exemple si ce dernier comporte plusieurs sous-ensembles, afin de les activer tous, ou une partie d'entre eux. Le dispositif 12, de même que son homologue 15 de la station 6A, assure plusieurs fonctions.When the data read from memory 4 is intended for on-board display, the processor 13 sends it mode choice commands (real time or deferred) and the start and end addresses of the quences to view. In addition, the processor 13 can send, if necessary, commands to the sensor 3, for example if the latter comprises several sub-assemblies, in order to activate them all, or a part of them. The device 12, like its counterpart 15 of the station 6A, performs several functions.
D'une part, il gère les antennes de transmission (pointage, accrochage, décrochage, raccrochage). D'autre part, il effectue le codage des signaux à émettre et le décodage des signaux reçus, en mettant en oeuvre des processus appropriés de correction d'erreurs. On a représenté en figure 3 le bloc-diagramme des circuits de la station au sol 6A. Elle comporte un dispositif 15 de Data Link, homologue du dispositif 12 de la figure 2. La sortie du dispositif 15 est reliée par un dispositif 16 de décryptage (complémentaire du dispositif de cryptage 11) à un dispositif 17 de déformatage (complémentaire du dispositif de formatage 9), lui- même relié à un dispositif 18 de décompression sans perte de données, sa sortie étant reliée à un dispositif 19 de dépouillement et d'exploitation de données. Le dispositif 17 est également relié à un lecteur 20 de restitution de mission (approprié à la lecture de la mémoire 4 au retour de l'avion à la base). Le dispositif 19 est relié à un lecteur/enregistreur 21 d'informations provenant du Data Link et à un enregistreur/lecteur d'archivage 21 A (par exemple du type à bande). Le dispositif 19 est relié par ailleurs au dispositif 15 (pour commander via le Data Link la lecture de zones d'intérêt de la mémoire 4 et pour en recevoir un compte rendu de fonctionnement de la liaison), au dispositif 17 (pour lui envoyer des commandes), au lecteur 20, aux lecteurs/enregistreurs 21 et 21 A (pour leur envoyer des commandes et en recevoir des comptes rendus de fonctionnement) et à des écrans de visualisation 19A.On the one hand, it manages the transmission antennas (pointing, hanging, dropping, hanging up). On the other hand, it performs the coding of the signals to be transmitted and the decoding of the signals received, by implementing appropriate error correction processes. FIG. 3 shows the block diagram of the circuits of the ground station 6A. It includes a Data Link device 15, homologous to the device 12 in FIG. 2. The output of the device 15 is connected by a decryption device 16 (complementary to the encryption device 11) to a deformatting device 17 (complementary to the formatting 9), itself connected to a device 18 for decompression without loss of data, its output being connected to a device 19 for analyzing and using data. The device 17 is also connected to a mission rendering reader 20 (suitable for reading the memory 4 when the aircraft returns to the base). The device 19 is connected to a reader / recorder 21 of information coming from the Data Link and to an archiving recorder / reader 21 A (for example of the tape type). The device 19 is also connected to the device 15 (to control the reading of areas of interest from the memory 4 via the Data Link and to receive a report on the operation of the link), to the device 17 (to send it commands), to the reader 20, to the readers / recorders 21 and 21 A (to send them commands and receive operating reports) and to display screens 19A.
Les fonctions du dispositif 17 de formatage-déformatage sont les suivantes. Il décompresse, sans perte de données, la vidéo compressée arri- vant par la voie descendante de la liaison Data Link, et celle provenant du lecteur 20. Il joue un rôle d'interface d'une part entre le lecteur 20 et la station 19 pour fournir à cette dernière la vidéo utile mémorisée dans la mémoire 4, d'autre part entre la station 19 et l'enregistreur 21 , pour effectuer la sauvegarde des images ou séquences d'images exploitées (avec marquage des zones ou sites repérés, commentaires et, le cas échéant, réglages de la vi- déo, relatifs à ces images, et enfin entre le lecteur 20 et l'enregistreur 21 pour la sauvegarde de la totalité de la vidéo relative à la mission. La station 19 assure les fonctions suivantes :The functions of the formatting-deformatting device 17 are as follows. It decompresses, without loss of data, the compressed video arriving by the downlink of the Data Link, and that coming from the player 20. It plays an interface role on the one hand between the player 20 and the station 19 to provide the latter with the useful video stored in the memory 4, on the other hand between the station 19 and the recorder 21, to save the images or sequences of images used (with marking of the zones or sites identified, comments and, if necessary, adjustments to the deo, relating to these images, and finally between the player 20 and the recorder 21 for saving all of the video relating to the mission. Station 19 performs the following functions:
• elle supervise le dispositif 15 pour lire le compte rendu de fonc- tionnement de la liaison et pour envoyer des commandes de lecture de la mémoire 4 (elle lui envoie des adresses de début et de fin des séquences sélectionnées par l'opérateur au sol,It supervises the device 15 to read the report on the operation of the link and to send read commands from the memory 4 (it sends it start and end addresses of the sequences selected by the operator on the ground,
• elle commande l'enregistrement de la vidéo utile et des données provenant du Data Link ou de l'enregistreur d'archivage 21 A sur un support de travail convenant au dépouillement, tel qu'une mémoire tampon,• it controls the recording of the useful video and of the data coming from the Data Link or from the 21 A archiving recorder on a work support suitable for analysis, such as a buffer memory,
• elle commande le lecteur 20 et les lecteurs/enregistreurs 21 et 21 A et gère leurs comptes rendus,• it controls the reader 20 and the readers / recorders 21 and 21 A and manages their reports,
• elle met en forme la vidéo utile dudit support de travail (mémoire tampon), qui est avantageusement du type à écriture et lecture simultanées. Cette mise en forme consiste essentiellement à trier les images par ordre chronologique d'acquisition en vol, à les sur-échantillonner (pour en augmenter le rapport signal/bruit) et à convertir la vidéo ainsi traitée du format « plein champ » au format « waterfall »,• it formats the useful video of said working medium (buffer memory), which is advantageously of the type for simultaneous writing and reading. This formatting essentially consists of sorting the images in chronological order of acquisition in flight, oversampling them (to increase the signal / noise ratio) and converting the video thus treated from the "full field" format to the " waterfall ",
• elle assure la visualisation sur au moins un écran 19A soit au format « plein champ », soit au format « pleine résolution ». Le format « plein champ » correspond à de la vidéo sous-échantillonnée soit lors de l'enregistrement par l'enregistreur 21 soit à bord de l'avion (par le formateur 9) pour transmission au sol. La visualisation « plein champ » se fait en défilement continu (waterfall), et les zones d'intérêt sélectionnées sont visuali- sées en « pleine résolution ». Ce format « pleine résolution » se rapporte également à la vidéo transmise via le Data Link. Les écrans de visualisation 19A affichent également les informations incrustées dans la vidéo par le dispositif de formatage 9. Le dispositif de visualisation commandant les écrans 19A assure également d'autres fonctions classiques telles que l'arrêt et la reprise de défilement des images (rotation, miroir, zoom...), le contrôle du transcodage des images (par exemple si les pixels sont codés par le senseur 3 en 12 bits, transcodage sur 8 bits, maximum généralement admis pour la résolution de l'oeil, soit 256 niveaux de gris), calcul et réglage de contraste et de luminosité (de façon dynamique) des images à visualiser, histogramme des images visualisées (pour une éventuelle correction de gamma), correc- tion du rapport longueur/largeur des images à afficher, pour compenser des variations de vitesse de l'avion et de distance au sol,• it provides display on at least one screen 19A either in "full field" format or in "full resolution" format. The "full field" format corresponds to video sub-sampled either during recording by the recorder 21 or on board the aircraft (by the trainer 9) for transmission to the ground. The “full field” display is done in continuous scrolling (waterfall), and the selected areas of interest are displayed in “full resolution”. This “full resolution” format also refers to the video transmitted via the Data Link. The display screens 19A also display the information embedded in the video by the formatting device 9. The display device controlling the screens 19A also performs other conventional functions such as stopping and resuming the scrolling of the images (rotation, mirror, zoom ...), control of image transcoding (for example if the pixels are coded by sensor 3 in 12 bits, transcoding on 8 bits, maximum generally accepted for the resolution of the eye, i.e. 256 levels of gray), calculation and adjustment of contrast and brightness (dynamically) of the images to be displayed, histogram of the images displayed (for a possible gamma correction), corrected tion of the length / width ratio of the images to be displayed, to compensate for variations in aircraft speed and distance to the ground,
• impression des images sélectionnées lors de la visualisation des images du senseur, • repérage automatique des prises de vue sur une carte numérisée, simultanément avec la visualisation• printing of the selected images when viewing the sensor images, • automatic location of the shots on a digitized card, simultaneously with the viewing
• création d'un dossier d'exploitation concernant : l'incrustation sur les images visualisées des commentaires et des annotations spécifiques de l'interprétateur, des graphiques spécifiques, la superposition des images du senseur (formats « plein champ » et « pleine résolution »), superposition des images du senseur et d'une carte correspondante (ou de repères géographiques) ...• creation of an operating file concerning: the overlay on the visualized images of comments and specific annotations of the interpreter, specific graphics, the superimposition of the images of the sensor ("full field" and "full resolution" formats) ), superimposition of the images of the sensor and of a corresponding map (or geographic landmarks) ...
• extraction automatique d'objets connus (route, rivière, bâtiments...) en faisant appel à des routines connues d'aide à la détection, à la reconnaissance et à l'identification de ces objets,• automatic extraction of known objects (road, river, buildings, etc.) using known routines to assist in the detection, recognition and identification of these objects,
• détection automatique de contours,• automatic contour detection,
• exploitation en 3D• 3D operation
• distribution du résultat de l'exploitation sur un réseau approprié. Selon une variante de l'invention, on utilise plusieurs voies de transmission Data Link en parallèle pour diminuer le taux d'erreurs de transmission et/ou pour permettre l'exploitation au sol par plusieurs opérateurs.• distribution of the operating result on an appropriate network. According to a variant of the invention, several Data Link transmission channels are used in parallel to reduce the transmission error rate and / or to allow operation on the ground by several operators.
On a représenté en figure 4 les différentes étapes du traitement des images captées par le senseur 3 et envoyées au sol. Ce senseur 3 transmet des signaux de vidéo utile numérique (ou numérisée) au dispositif de formatage 9, qui effectue une compression (d'un facteur 2) en temps réel. Les informations ainsi comprimées sont enregistrées dans la mémoire 4. Cette dernière est lue simultanément (ou en léger différé) au format « plein champ » ou « pleine résolution » (au choix de l'opérateur à bord ou au sol) comme indiqué en 22. Le format sélectionné est codé et crypté en temps réel (en 1 1 ), transmis au sol par le Data Link. Cette liaison peut être soit reconnue bonne, et il y a alors poursuite de l'avion par les antennes au sol (en 23), soit être coupée ou de trop mauvaise qualité, et il y a alors « décrochage » et recherche de l'avion (en 24). De façon avantageuse, un indicateur (15A) indique l'état de la liaison (établie ou interrompue). Les informations envoyées de l'avion vers la base au sol y parviennent ou non (ce qui est symbolisé par un interrupteur 25). Si la liaison est bonne, les informations arrivant au sol sont, d'une part, enregistrées par l'enregistreur 21 (avec l'indication de l'identité de la zone enregistrée, pour guider l'opérateur, comme noté en 26). D'autre part, comme indiqué par interrupteur 27, ces informations vidéo ou bien celles disponibles au sol sont choisies par l'opérateur pour traitement ultérieur. Comme symbolisé en 28, lesdites informations disponibles au sol sont soit celles lues en 21 , soit celles enregistrées dans la mémoire 4 et lues par le lecteur 20 après le retour au sol de l'avion, puis archivées en 21 A.FIG. 4 shows the different stages of the processing of the images captured by the sensor 3 and sent to the ground. This sensor 3 transmits useful digital video signals (or digitized) to the formatting device 9, which performs compression (by a factor of 2) in real time. The information thus compressed is recorded in memory 4. The latter is read simultaneously (or slightly delayed) in “full field” or “full resolution” format (at the option of the operator on board or on the ground) as indicated in 22 The selected format is coded and encrypted in real time (in 1 1), transmitted to the ground by the Data Link. This link can either be recognized as good, and there is then continuation of the airplane by the antennas on the ground (at 23), or be cut or of too poor quality, and there is then “dropout” and search for plane (in 24). Advantageously, an indicator (15A) indicates the state of the link (established or interrupted). The information sent from the aircraft to the ground base arrives there or not (which is symbolized by a switch 25). If the connection is good, the information arriving on the ground is, on the one hand, recorded by the recorder 21 (with the indication of the identity of the area recorded, to guide the operator, as noted in 26). On the other hand, as indicated by switch 27, this video information or else that available on the ground is chosen by the operator for further processing. As symbolized at 28, said information available on the ground is either that read at 21, or that recorded in memory 4 and read by the reader 20 after returning to the ground of the aircraft, then archived at 21 A.
Le traitement, en aval de 27, consiste en une mise en forme en temps réel (en 17) de la vidéo choisie (en 27 et 28) par l'opérateur, puis en une visualisation « plein champ » ou « pleine résolution » (choix de l'opérateur en 29). Pour l'option « pleine résolution » (30), l'opérateur affiche soit la vidéo arrivant directement par le Data Link, soit celle ayant été enregistrée au sol (choix 31 ). L'affichage comporte l'indication de l'identité de la zone d'intérêt sélectionnée, cette indication étant soit celle incrustée dans la vidéo parvenant directement de l'avion (32), soit celle (33) de la zone sélectionnée parmi celles enregistrées au sol en 21.The processing, downstream of 27, consists of a real-time shaping (in 17) of the video chosen (in 27 and 28) by the operator, then in a "full field" or "full resolution" display ( operator choice in 29). For the “full resolution” option (30), the operator displays either the video arriving directly via the Data Link, or that having been recorded on the ground (choice 31). The display includes the indication of the identity of the selected area of interest, this indication being either that embedded in the video coming directly from the aircraft (32), or that (33) of the area selected from those recorded. on the ground in 21.
Pour l'option « plein champ » (34), avec visualisation en mode « waterfall », l'opérateur peut commander un arrêt sur image et/ou sélection- ner une zone d'intérêt (35). S'il sélectionne une zone d'intérêt, il peut commander (36) l'émission, via le Data Link, de la vidéo correspondante, au format « pleine résolution », mémorisée dans la mémoire 4, et la visualiser sur l'un au moins des écrans 19A en format « pleine résolution » (37). Bien entendu, tant qu'il n'y a pas sélection (en 35) de zone d'intérêt, la visualisation « waterfall » continue (flèche 38). De même, après transmission de la zone d'intérêt (36) et visualisation (37), la visualisation en « waterfall » peut continuer, si elle n'est pas achevée (flèche 39). A l'étape 40, ledit dispositif de visualisation commandant les écrans 19A effectue les manipulations vidéo précitées (rotation, miroir, zoom, transcodage...). For the "full field" option (34), with display in "waterfall" mode, the operator can order a freeze frame and / or select an area of interest (35). If he selects an area of interest, he can order (36) the transmission, via the Data Link, of the corresponding video, in "full resolution" format, stored in memory 4, and view it on one at least 19A screens in "full resolution" format (37). Of course, as long as there is no selection (at 35) of area of interest, the “waterfall” display continues (arrow 38). Similarly, after transmission of the area of interest (36) and display (37), the display in "waterfall" can continue, if it is not completed (arrow 39). In step 40, said display device controlling the screens 19A performs the aforementioned video manipulations (rotation, mirror, zoom, transcoding, etc.).

Claims

REVENDICATIONS
1. Procédé d'exploitation en temps réel de prises de vues aérien- nés obtenues par un senseur (3) à haut débit d'informations et appliqué à un mobile (1) relié à une base d'exploitation par au moins une liaison de type « Data Link » (12, 15), ce mobile étant muni de moyens de mémorisation de la vidéo ainsi obtenue, ces moyens de mémorisation pouvant être lus pendant leur enregistrement, caractérisé en ce que pendant l'enregistrement de la vidéo, on repère des zones d'intérêt parmi les prises de vue effectuées, ces repères étant enregistrés avec la vidéo correspondante, et que l'on ne lit et ne transmet à la base via la liaison Data Link que la vidéo correspondant aux zones d'intérêt.1. Method for real-time exploitation of aerial shots obtained by a sensor (3) with high information rate and applied to a mobile (1) connected to an operating base by at least one communication link “Data Link” type (12, 15), this mobile being provided with means for storing the video thus obtained, these storing means being able to be read during their recording, characterized in that during the recording of the video, reference is made areas of interest among the shots taken, these markers being recorded with the corresponding video, and only the video corresponding to the areas of interest is read and transmitted to the base via the Data Link.
2. Procédé selon la revendication 1 , caractérisé en ce que le repérage des zones d'intérêt est commandé à bord du mobile.2. Method according to claim 1, characterized in that the location of the areas of interest is controlled on board the mobile.
3. Procédé selon la revendication 1 , caractérisé en ce que le repérage des zones d'intérêt est commandé depuis la base d'exploitation.3. Method according to claim 1, characterized in that the location of the areas of interest is controlled from the operating base.
4. Procédé selon l'une des revendications précédentes, caractérisé en ce que l'on incruste dans la vidéo l'un au moins des renseignements suivants : la position de la ligne de visée, la taille du capteur, heure et date des prises de vue, altitude du mobile, renseignements météo.4. Method according to one of the preceding claims, characterized in that at least one of the following information is embedded in the video: the position of the line of sight, the size of the sensor, time and date of the shots of view, mobile altitude, weather information.
5. Procédé selon l'une des revendications précédentes, caractérisé en ce que l'on enregistre à bord du mobile la vidéo en trois formats : « pleine résolution », « plein champ » et « waterfall ».5. Method according to one of the preceding claims, characterized in that the video is recorded on board the mobile in three formats: "full resolution", "full field" and "waterfall".
6. Procédé selon l'une des revendications précédentes, caractérisé en ce que l'on visualise à bord du mobile (14) au moins une partie des informations vidéo enregistrées dans les moyens de mémorisation.6. Method according to one of the preceding claims, characterized in that at least one part of the video information recorded in the storage means is displayed on board the mobile (14).
7. Procédé selon l'une des revendications précédentes, caractéri- se en ce qu'à la base d'exploitation on enregistre les informations provenant de la liaison « Data Link », celles provenant directement des moyens de mémorisation après le retour du mobile à la base, et ces dernières après exploitation.7. Method according to one of the preceding claims, characterized in that at the operating base the information coming from is recorded of the "Data Link" link, those coming directly from the storage means after the return of the mobile to the base, and the latter after operation.
8. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'à la base d'exploitation on effectue au moins l'une des opérations suivantes lors de la visualisation de la vidéo : rotation, miroir, zoom, mi- échantillonnage ou sous-échantillonnage de la vidéo, transcodage du nombre de niveaux de gris, réglage de contraste et de luminosité, histogramme, correction du rapport longueur/largeur des images.8. Method according to one of the preceding claims, characterized in that at the operating base at least one of the following operations is carried out when viewing the video: rotation, mirror, zoom, mid-sampling or video subsampling, transcoding of the number of gray levels, contrast and brightness adjustment, histogram, correction of the length / width ratio of the images.
9. Dispositif d'exploitation en temps réel de prises de vue aériennes obtenues par un senseur (3) à haut débit disposé sur un mobile (1) relié à une base d'exploitation (6A) par une liaison de type « Data Link » (12, 15), ce mobile étant muni de moyens (4) de mémorisation de la vidéo ainsi obtenue, ces moyens de mémorisation pouvant être lus pendant leur enregistrement, caractérisé en ce que la liaison « Data Link » a un débit de transmission inférieur à celui du senseur, et que le mobile comporte des moyens (13) permettant d'ajouter à la vidéo enregistrée des marques de début et de fin de séquences repérées à transmettre à la base.9. Device for real-time operation of aerial shots obtained by a high-speed sensor (3) arranged on a mobile (1) connected to an operating base (6A) by a “Data Link” type link (12, 15), this mobile being provided with means (4) for storing the video thus obtained, these storing means being able to be read during their recording, characterized in that the "Data Link" link has a lower transmission rate to that of the sensor, and that the mobile comprises means (13) making it possible to add to the recorded video marks at the start and end of identified sequences to be transmitted to the base.
10. Dispositif selon la revendication 9, caractérisé en ce que la base d'exploitation comporte un dispositif d'enregistrement/lecture (21 ) des informations provenant par le « Data Link » et un dispositif d'enregistrement/lecture (21 A) d'archivage. 10. Device according to claim 9, characterized in that the operating base comprises a recording / reading device (21) of information coming from the "Data Link" and a recording / reading device (21 A) d archiving.
PCT/FR1999/001957 1998-08-11 1999-08-06 Method for operating in real time aerial photographs obtained by a high rate sensor, and implementing device WO2000010328A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9810304A FR2782427B1 (en) 1998-08-11 1998-08-11 METHOD FOR THE REAL-TIME EXPLOITATION OF AERIAL PHOTOGRAPHS OBTAINED BY A HIGH-SPEED SENSOR, AND DEVICE FOR IMPLEMENTING SAME
FR98/10304 1998-08-11

Publications (1)

Publication Number Publication Date
WO2000010328A1 true WO2000010328A1 (en) 2000-02-24

Family

ID=9529600

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR1999/001957 WO2000010328A1 (en) 1998-08-11 1999-08-06 Method for operating in real time aerial photographs obtained by a high rate sensor, and implementing device

Country Status (2)

Country Link
FR (1) FR2782427B1 (en)
WO (1) WO2000010328A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111025942B (en) * 2019-12-13 2021-07-16 中国航空工业集团公司西安飞机设计研究所 MBIT control method for airplane multi-stage equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4405943A (en) * 1981-08-19 1983-09-20 Harris Corporation Low bandwidth closed loop imagery control and communication system for remotely piloted vehicle
US5644386A (en) * 1995-01-11 1997-07-01 Loral Vought Systems Corp. Visual recognition system for LADAR sensors

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4405943A (en) * 1981-08-19 1983-09-20 Harris Corporation Low bandwidth closed loop imagery control and communication system for remotely piloted vehicle
US5644386A (en) * 1995-01-11 1997-07-01 Loral Vought Systems Corp. Visual recognition system for LADAR sensors

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BUSSE D J ET AL: "FORWARD OBSERVATION REMOTE TARGET ACQUISITION SYSTEM (FORTAS)", UNMANNED SYSTEMS, vol. 10, no. 4, 21 September 1992 (1992-09-21), pages 14 - 19, XP000600830 *

Also Published As

Publication number Publication date
FR2782427B1 (en) 2000-11-10
FR2782427A1 (en) 2000-02-18

Similar Documents

Publication Publication Date Title
US11483518B2 (en) Real-time moving platform management system
US5883584A (en) Earth observation method
KR20200134677A (en) Ship remote control system using real time ship monitoring
EP3217658A1 (en) Method for encoding and decoding video of a drone, and devices thereof
FR2699361A1 (en) Set and method for electro-optical panoramic scanning sector recognition.
EP0146428A1 (en) Automatic guiding method and apparatsu for moving objects especially for driverless self-propelled vehicles
EP0575251A1 (en) System for remotely displaying a radar output
CN107040741A (en) A kind of vehicle intelligent camera
JPWO2020090512A1 (en) Imaging device, control method, and program
US20230079285A1 (en) Display control device, display control method, and program
WO2000010328A1 (en) Method for operating in real time aerial photographs obtained by a high rate sensor, and implementing device
EP2342841B1 (en) Method and system for acquiring and bringing back data from a satellite
EP0707297A1 (en) Room surveillance device and vehicle with such a device
US20080174697A1 (en) Apparatus of processing image sections and control method thereof
US10440310B1 (en) Systems and methods for increasing the persistence of forensically relevant video information on space limited storage media
EP3367353B1 (en) Control method of a ptz camera, associated computer program product and control device
EP0307283A1 (en) Stereoscopic visualizing system using a camera mounted on a moving carrier
FR2693068A1 (en) Telemetry system for civilian or military aircraft - uses microcomputer to analyse and display parameters in real=time after demodulation
US11830080B1 (en) Property damage assessment system
FR3139680A1 (en) METHOD FOR TRANSMITTING DETECTION DATA OF TYPICAL OBJECTS, PROCESSING METHOD IN AN ELECTRONIC DEVICE RECEIVING DETECTION DATA TRANSMITTED BY A PLURALITY OF ACQUISITION DEVICES; ASSOCIATED TRANSMITTER AND RECEIVER DEVICES
JP7302227B2 (en) Photographed image recording system and photographed image recording method
FR2760551A1 (en) Position detecting method for Virtual imaging of moving sports players
Medrzycka Contrasting glacier behaviour, and methods for monitoring glacier change, in the northern Canadian Arctic Archipelago
Bettovil et al. 1994 activities of the NVWS Meteor Section, the Netherlands
JP5616069B2 (en) Image transmission system from aircraft

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase