WO2017025521A1 - Device and method for detecting obstacles suitable for a mobile robot - Google Patents

Device and method for detecting obstacles suitable for a mobile robot Download PDF

Info

Publication number
WO2017025521A1
WO2017025521A1 PCT/EP2016/068916 EP2016068916W WO2017025521A1 WO 2017025521 A1 WO2017025521 A1 WO 2017025521A1 EP 2016068916 W EP2016068916 W EP 2016068916W WO 2017025521 A1 WO2017025521 A1 WO 2017025521A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
vii
environment
objects
cloud
Prior art date
Application number
PCT/EP2016/068916
Other languages
French (fr)
Inventor
David MARQUEZ GAMEZ
Original Assignee
Institut De Recherche Technologique Jules Verne
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut De Recherche Technologique Jules Verne filed Critical Institut De Recherche Technologique Jules Verne
Priority to EP16750807.6A priority Critical patent/EP3332299A1/en
Publication of WO2017025521A1 publication Critical patent/WO2017025521A1/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser

Definitions

  • the invention relates to a device and a method for detecting obstacles adapted to a mobile robot.
  • the invention is more particularly, but not exclusively, suitable for driving an autonomous robot, operating in a congested environment, with obstacles that can move over time.
  • An autonomous mobile robot is localized in its environment according to a simultaneous mapping and localization method designated under the general acronym of "SLAM" for “Simultaneous Location And Mapping”.
  • the robot locates its position in initial mapping, using proprioceptive sensors, such as an odometer, and by means of environmental sensors such as vision sensors, or by means of beacons.
  • proprioceptive sensors such as an odometer
  • environmental sensors such as vision sensors, or by means of beacons.
  • the robot When the environment is changing, by the appearance of obstacles not mapped initially or by the irruption into the environment of the robot of moving objects such as another robot or an operator, the robot must, to take into account these changes, on the one hand, detect the modifications of this environment and on the other hand integrate these modifications into its cartography, so as to modify its trajectory if necessary, or more generally its behavior, according to the detected modifications.
  • the robot environment In an industrial production environment such as the assembly of an aircraft structure or a naval structure, the robot environment includes "traps" such as traps, as well as objects or operators with which the robot absolutely can not contact or even approach for security reasons. Also, the detection of obstacles and their integration in the cartography must be carried out at a sufficient distance from said obstacles.
  • Certain obstacles such as hatches or wells, known as negative obstacles, are likely to be crossed if they are covered with a grid and impassable in other circumstances. So, the robot must be able to detect an obstacle remotely, from its sensory means, to determine the contours and locate said obstacle in relation to its position and to determine whether or not it can cross this obstacle without modifying its trajectory. In the case where the obstacle is moving, it must, in addition, estimate its trajectory and speed. These tasks are not easy to implement.
  • a stereoscopic camera, a radar, or a laser scanning system is able to detect and locate an object known in its environment, for example to use it as a bitter and draw an allothetic information from positioning
  • the individual identification of a priori unknown objects in a scene instantly visualized by such a device is a complex task, especially when several obstacles, not initially mapped , are likely to be simultaneously in the field observed by the robot at different distances.
  • the document WO 2014 152254 describes an onboard device for the detection of obstacles in an environment and a method implementing this device.
  • the method comprises comparing a three-dimensional reference image of the environment obtained from two images whose point of view is shifted, with a current three-dimensional image of this environment obtained by similar means. This information is superimposed so as to reveal the disparities and thus detect changes in the environment and the presence of foreign objects.
  • This technique of the prior art requires heavy computer processing means and the need to obtain reference images of the environment. Thus, this method the prior art remains limited to relatively stable environments, which do not correspond to the applications covered by the invention.
  • the device described in this prior art uses information from distance sensors, obtained by a radar or a scanning by means of a laser, and video information obtained by a stereoscopic camera. These two types of information are combined to self-calibrate and make disparities more robust, thus, according to this prior art, these two types of sensors are used as two independent sources of information, which further justifies their use. for these purposes of self-calibration
  • the document US 2014 136414 describes an autonomous vehicle adapted to deliver in a community. Said robot moves on a sidewalk, in a community or suburban area, that is to say in a relatively open environment.
  • the document US 2008 027591 describes a semi-autonomous vehicle capable of evolving in an urban environment, particularly during military operations.
  • the vehicle has a certain degree of autonomy but remains permanently connected to a remote human operator for his movements.
  • the invention aims at solving the disadvantages of the prior art and for this purpose concerns a robot adapted to evolve in a defined environment, in particular an aircraft fuselage section in a phase of installation of the systems in said section, which robot is provided with a plurality of sensors comprising:
  • a vision device combining a lighting unit and
  • processing and control means comprising a computer and memory means comprising a map of the defined environment, able to acquire the information from the sensors, whose processing and control means include in memory the three-dimensional characteristics of all the objects likely to be in the defined environment.
  • the robot object of the invention combines information from different sensors, each providing a different view of the same concentric environment, to detect the presence of obstacles.
  • the calculator is able to associate the contours acquired during the observation of the concentric environment of the robot to specific objects and to deduce behaviors according to the nature of these obstacles objects, in order to define the behavior to adopt. to said obstacles.
  • the defined environment whose mapping is stored in the memory of the processing and control means of the robot corresponds to a defined phase of the assembly operations and the robot uses its environmental recognition capabilities to take account of the evolution of said environment compared to the initial mapping.
  • LiDAR is applied to an active sensor measuring the round trip delay of a light beam emitted by a laser to determine the position and distance of a target from the transmitter.
  • a vision device combining a lighting unit and an imaging unit is described in WO2007 / 043036.
  • This type of device is known commercially under the Carminé® brand and used in particular in Kinect® type cameras.
  • the angular resolution of the LiDAR robot object of the invention is less than or equal to 0.25 °.
  • said system is able to detect an obstacle of small thickness, for example a cable of 8 mm in diameter, at a distance of 2 meters.
  • the plurality of sensors of the robot which is the subject of the invention comprises:
  • said second LiDAR is more particularly specialized for the detection of negative obstacles and carries out its concentric scanning in masked time and possibly at a frequency different from the first LiDAR, which also makes it possible to specialize the first LiDAR for particular detection tasks.
  • the invention also relates to a method for controlling the evolution of a robot according to the invention in a defined congested environment, which method comprises steps of:
  • step iv processing the data from the scan of step iv) so as to isolate regions of interest
  • step vii. classifying the obstacles present in the environment from the image obtained in step vi) according to their crossing characteristics by the robot, the ranking operation comprising the steps of:
  • VII.B downsample the point cloud obtained at sequence vii. at) ; VII.C. eliminate the aberrant singular points of the scatter plot obtained in sequence vii.b);
  • step viii adapt the trajectory the behavior of the robot and function of information from step vii) and the task to be performed defined in step iii).
  • the robot object of the invention uses the information from the plurality of sensors to analyze its environment, more particularly the LiDAR systems, insensitive to light and atmospheric conditions allows a first detection and classification of obstacles likely, including at relatively large distances.
  • This first classification makes it possible to concentrate the action of the mink sensors on the areas of interest which are thus observed with a higher resolution.
  • the combined use of the two types of vision means makes it possible to reduce the measurement noise and the amount of data to be processed for a more precise classification of the obstacles.
  • the different filtering sequences make the calculation faster and the detection of obstacles more robust vis-à-vis in particular "false obstacles" that is to say zones detected as obstacles but which are only artifices of measurement .
  • step vii) of the method which is the subject of the invention comprises sequences consisting of:
  • vii. g identify the objects present in the image by projecting the contours of said objects from the three-dimensional characteristics of said objects obtained in step ii).
  • the robot is aware of the nature of the obstacles present in its environment.
  • the recognition of the objects present in the environment also makes it possible to associate with these objects spatial attributes which are not accessible during the measurement. For example, it makes it possible to associate with an object that would only be seen on the wafer, a length in a direction perpendicular to said wafer.
  • object recognition is also useful for tracking said objects and their relative trajectory between two successive measurements.
  • the method which is the subject of the invention comprises, before step viii), the steps of:
  • xi determine the trajectory of the objects detected in the robot environment.
  • the method that is the subject of the invention enables the robot to obtain a dynamic vision of its environment.
  • the image acquisitions of the environment of steps iv) and vi) of the method that is the subject of the invention are carried out continuously and stored in a buffer memory zone before being processed.
  • the robot has a frequently updated vision of its environment and combines if necessary several successive acquisitions of this environment to obtain a more robust representation.
  • the environment of the robot comprises a second robot sharing the same cartography of the environment, the two robots being able to exchange information, which method comprises a step consisting of:
  • the method which is the subject of the invention comprises the steps of:
  • xiii. perform a soil sweep using a LiDAR and detect a negative obstacle
  • FIG. 1 shows in a schematic side view, an embodiment of a robot according to the invention in its environment
  • FIG. 2 represents a logic diagram of an exemplary embodiment of the method that is the subject of the invention
  • FIG. 3 shows schematically; according to the same view as FIG. 1, the principle of detection of a negative obstacle by the robot and the method which are the subject of the invention.
  • the robot (100) object of the invention comprises a base (1 10) supporting motorization means (not shown), energy storage means such as a battery of accumulators (not shown) as well as computer means (not shown) used to process the information and drive said robot, including the motorization means.
  • the motorization means control displacement means, for example wheels (120) according to this embodiment.
  • Said displacement means comprise propulsive elements and directional elements so as to allow the robot (100) to follow a trajectory defined in its environment.
  • the base supports mechanized tooling means, for example, according to this embodiment, the base supports an articulated arm (130) terminated by an effector (135).
  • said effector (135) is suitable for the installation of fasteners such as bolts or rivets, or else it is suitable for producing a continuous or spot weld, or else comprises machining means. such as drilling or boring means or means for milling, grinding or deburring, without these examples being limiting or exhaustive.
  • the robot (100) object of the invention comprises a plurality of sensors whose information they can acquire, used alone or in combination, allow the robot to know its concentric environment.
  • the concentric environment of the robot corresponds to a zone analyzed, centered on the robot and corresponding to the surface or the volume visible by the sensors installed on said robot, possibly moving said sensors to perform a scan, or alternatively or complementary by performing a rotation or a portion of rotation of the robot on him- even.
  • the robot object of the invention comprises a first LiDAR (140) mounted on a platform (145) for moving said LiDAR in panoramic movements.
  • Said panoramic platform makes it possible to move the LiDAR along two axes, for example a horizontal panoramic axis and a vertical panoramic axis, corresponding to yaw and pitch movements with respect to the optical axis of the LiDAR.
  • the panoramic platform makes it possible to move the LiDAR along a vertical panoramic axis (yaw) and around the optical axis of the sensor in a roll motion.
  • the platform (145) includes angular position sensors such that the platform orientation information is combined with the information from the LiDAR during each scan.
  • a LiDAR consists of a device capable of emitting a laser beam and a sensor capable of detecting such a laser beam.
  • the LiDAR emits a laser beam and receives on its sensor said beam reflected by a target, that is to say an object in the environment of the robot.
  • the time between the emission of the reception makes it possible to measure the distance of the point on which this reflection takes place and thus to position said point with respect to the LiDAR.
  • the LiDAR used by the robot which is the subject of the invention is of the Hokuyo UTM-30LX-EX type, making it possible to measure up to a distance of 30 meters and having a resolution of the order millimeter in depth and an angular resolution of 0.25 °.
  • the scanning performed by LiDAR describes a plane sector of 270 ° in 25 ms.
  • the panoramic movement, in particular vertical makes it possible to obtain a three-dimensional image of the environment.
  • Horizontal panning increases the field of view at short range.
  • the resolution of this LiDAR makes it possible to detect the presence of a cable 8 mm in diameter at 2 meters from the robot.
  • This performance is more particularly adapted to the use of the robot object of the invention in an aeronautical environment, in particular in a fuselage section.
  • the skilled person adapts the resolution of said LiDAR according to the environment of the robot, from the following formula:
  • D is the distance at which obstacle must be detected
  • d is the dimension visible from the obstacle, for example the diameter of the cable
  • 0 is the angular resolution of the LiDAR, this data being provided by the manufacturer.
  • the robot comprises a second LiDAR (150) pointed towards the ground and able to detect obstacles, more particularly negative obstacles (holes) at ground level.
  • the robot object of the invention uses for this second LiDAR a Hokuyo URG-04LX material. This equipment can scan a flat area between 60 mm and 4 meters from the robot at a scan angle of 240 ° in 100 ms.
  • LiDAR systems allow to quickly obtain a representation of the environment, including remote distance.
  • these devices are not sensitive to the conditions of illumination of objects and are insensitive to atmospheric conditions.
  • the robot object of the invention comprises two cameras (161, 162) monocular digital distant from each other.
  • the two cameras are the same and are mounted so that their optical axes are parallel and their focal planes in the same plane.
  • the images of said cameras are usable independently of one another or jointly so as to obtain a stereoscopic image of the environment, or to use said cameras as a range finder vis-à-vis specific environmental details robot (100).
  • both cameras are cameras providing a color image.
  • the robot object of the invention comprises a device (170) for vision comprising imaging means and projection means in the infrared spectrum.
  • a device (170) for vision comprising imaging means and projection means in the infrared spectrum.
  • the robot object of the invention uses for this purpose a Carminé® device.
  • Such a device projects an infrared light source structured on the environment which allows it to obtain depth information for each elementary point of the image.
  • the set of sensors of the robot object of the invention is placed in a modular manner in different locations on said robot according to the nature of the obstacles encountered on the site in which the robot evolves to optimize the detection of said obstacles.
  • the robot evolves in a defined environment, for example a stretch of aircraft fuselage, or a hull of a ship or submarine, which environment is mapped to the storage means of the robot, but in which non-mapped objects are likely to appear and collide with said robot.
  • these are static obstacles, such as thresholds or hatches (191), tools placed in the environment, in particular by operators, for example a service (192), or objects suspended from the ceiling, eg cables (193).
  • the robot To move in the collision-free environment, the robot must detect these objects and define trajectories or appropriate behavior. For example, it will have to bypass a hatch (191), but it is possible to pass under a cable using an appropriate configuration of the arm (130) manipulator.
  • Static obstacles are added mobile obstacles (not shown) such as operators or other robots, or cobots.
  • the robot object of the invention must evaluate its environment quickly and make appropriate decisions, but as an autonomous robot, it has only a limited computing capacity.
  • the principle of the method that is the subject of the invention consists in using the particularities of each sensor in order to focus the robot's calculation means on the useful zones of the representation of the environment, which allows a fast processing of the information and uses less computing resources.
  • the LiDAR (140,150) gives an environment rich in depth information but with few details.
  • the image from digital video cameras (161, 162) is rich in detail but poorer in depth information.
  • the image from the device (170) of vision is intermediate but allows to enrich in a given area the representation of LiDAR.
  • FIG. 2 according to initialization steps of the method that is the subject of the invention, a cartography of the evolution medium of the robot is loaded (210) in the memory means of said robot.
  • the robot object of the invention is mainly intended to evolve in a relatively small space spatially like an aircraft fuselage section, for example to perform system installation operations in said section. These operations consist, for example, to install supports in said section and to perform drilling and shore operations, see assisting an operator in these operations. Also, as the systems are installed in the section, the mapping of it evolves.
  • said mapping loaded in the memory means takes into account the evolution of the progress of work.
  • the cartography is a 3D cartography or a 2D cartography in which the contour of the obstacles is projected.
  • each object is associated with an identification code or label, a three-dimensional representation of the object in a reference frame which is linked to it and a security volume describing a polyhedral or ellipsoidal envelope surrounding the object. object away from it and defining an area that should not be crossed for security reasons.
  • the three-dimensional definition of the object is advantageously a simplified definition limited to its outer contours.
  • the information relating to each object includes color and hue information, thus, by choosing a suitable hue for each object the presence of it is easily detected from a color image.
  • the list is updated according to the manufacturing phase concerned, so as to limit it to what is strictly necessary.
  • object should be understood in a broad sense and includes, among other things, a three-dimensional definition with a volume of security, and depending on the environment, the color and hue information relating to a human operator that may evolve. in the environment.
  • the mapping of the intervention medium is recorded in the memory means of the robot, the latter is able to locate in this medium at any time using idiothetic information, for example the number of wheel turns propellant wheels and the orientation of the directional wheels, or by a digital compass, and allothetic information, for example by triangulation of tags placed in the intervention environment.
  • the tasks that the robot is made to perform in the environment and the location of these tasks in the environment are also recorded (216) in the memory means.
  • the robot simultaneously performs a scanning (221) of the environment by means of the first LiDAR, a scanning (222) of the environment by means of the second LiDAR, when comprises two, image acquisition (223) by means of the vision device, and image acquisition (224) by means of each digital video camera.
  • These acquisitions are recorded (230) in a buffer memory and timestamped in order to be processed.
  • several successive acquisitions are averaged.
  • the first processing (240) consists, from images from one or more LiDARs, in extracting from these images areas of interest. These areas of interest are, for example, areas of acquisition whose outlines differ from the map.
  • a second treatment said areas of interest are examined by their representation in the acquisition performed by the viewing means.
  • a first processing sequence (251) the corresponding point cloud is filtered from the measured conditions of reflection in the infrared. This first filtering sequence makes it possible to eliminate the remote points of the robot from the processing.
  • a second (252) processing sequence the point cloud is downsampled.
  • the space is meshed according to an appropriate polyhedral mesh, for example a cubic mesh.
  • all the points in the same mesh are replaced by a point positioned at the center of said mesh and taking as value the average of the points or any other appropriate weighting. This treatment reduces the noise and the number of points to be treated.
  • a third (253) processing sequence consists in eliminating from the cloud of points the singular points considered as aberrant. For this purpose, each measurement obtained at a point is compared to the measurement obtained on its closest neighbors by calculating the square of the measurement difference between these points. Assuming that for a given group of points, the distribution of the measure follows a law of x 2 , the points at more than n standard deviations of the mean are eliminated. This technique avoids stochastic variations inside the scatterplot, but it limits the ability to detect sharp edges.
  • the orientation of the normals is calculated at each point of the point cloud. The orientation of the norms makes it possible in the course of an analysis step (255) to determine the points and the zones presenting potential difficulties of crossing. Thus, an area is passable when its normal is vertical. When the normal has a horizontal component, the zone presents difficulties of crossing.
  • an identification step (260) the image from one or both digital video cameras is superimposed on the image obtained previously.
  • the high resolution of these images makes it possible, in particular, to identify the contours or the hue of the objects likely to be found in the zones presenting crossing difficulties, and, by combining this information with the information relating to the normals to the surfaces, to identify and to label objects in the environment.
  • the robot is able to decide (270) an appropriate avoidance sequence.
  • the preceding steps (221 ... 260) are repeated and the acquisitions are correlated (265) so as to determine a speed of movement and a trajectory of the present objects. in the robot environment.
  • the decision (270) of an avoidance sequence takes this information into account.
  • the LiDAR or the second LiDAR (150) of the robot object of the invention is pointed or pointable towards the ground to detect a negative obstacle (191).
  • the acquisition made on this occasion constitutes a second cloud of points.
  • the negative obstacle is replaced, for processing, by a positive virtual obstacle (391) having horizontal normals (390) on its lateral faces.
  • said virtual obstacle (391) resumes the contour of the actual negative obstacle (191), but a predefined lateral wall height, for example 1 meter, so that it is immediately recognizable.
  • Said virtual obstacle is integrated in the scene observed and treated with the remainder of the acquisition from the fourth step of the method object of the invention.
  • the invention achieves the intended objectives, in particular, the invention allows an autonomous robot to locate accurately in a changing and congested environment. Said robot is thus advantageously put for assembly operations and system installations including in an aircraft section or in a naval structure.
  • the autonomous robot object of the invention is particularly suitable for interventions in environments difficult to access or in particular environmental or hazardous conditions such as in the presence of gas, heat or cold or ionizing radiation.
  • the robot object of the invention comprises means specifically adapted for repair operations on hull or fuselage, said operations comprising additive manufacturing operations.
  • the robot object of the invention comprises according to this embodiment:
  • an additive manufacturing effector carried by the articulated arm for example a molten powder spraying nozzle or a thermoplastic wire extrusion nozzle;

Abstract

The invention relates to a robot able to move in a defined environment, such as a section of aircraft fuselage, the robot being equipped with a plurality of sensors comprising: • two monocular digital video cameras; • a vision device including a lighting unit and an imaging unit; • a LiDAR system mounted on a panoramic platform; • processing and controlling means comprising a computer and storage means including a map of the environment, the means being able to acquire information from the sensors and comprising in memory the three-dimensional characteristics of all the objects liable to be found in the environment.

Description

DISPOSITIF ET PROCÉDÉ POUR LA DÉTECTION D'OBSTACLES  DEVICE AND METHOD FOR DETECTING OBSTACLES
ADAPTÉS À UN ROBOT MOBILE  SUITABLE FOR A MOBILE ROBOT
L'invention concerne un dispositif et un procédé pour la détection d'obstacles adaptés à un robot mobile. L'invention est plus particulièrement, mais non exclusivement, adaptée à la conduite d'un robot autonome, évoluant dans un environnement encombré, comportant des obstacles susceptibles de se déplacer dans le temps. The invention relates to a device and a method for detecting obstacles adapted to a mobile robot. The invention is more particularly, but not exclusively, suitable for driving an autonomous robot, operating in a congested environment, with obstacles that can move over time.
Un robot mobile autonome se localise dans son environnement selon une méthode de cartographie et de localisation simultanée désignée sous l'acronyme général de « SLAM » pour « Simultaneous Localisation And Mapping ». Le robot repère sa position dans une cartographie initiale, au moyen de capteurs proprioceptifs, comme un odomètre, et au moyen de capteurs environnementaux tels que des capteurs de vision, ou encore au moyen de balises. Ces capteurs délivrent ainsi des informations idiothétiques et des informations allothétiques qui combinées, lui permettent de connaître sa position exacte dans un environnement cartographié et ainsi de prévoir sa trajectoire dans l'instant qui suit, en fonction de cette position et de ladite cartographie. Ce principe fonctionne parfaitement dans un environnement stable. Lorsque l'environnement est changeant, par l'apparition d'obstacles non cartographiés initialement ou par l'irruption dans l'environnement du robot d'objets mobiles tels qu'un autre robot ou un opérateur, le robot doit, pour prendre en compte ces changements, d'une part, détecter les modifications de cet environnement et d'autre part intégrer ces modifications dans sa cartographie, de sorte à modifier sa trajectoire si nécessaire, ou plus généralement son comportement, en fonction des modifications détectées. Dans un environnement industriel de production tel que celui de l'assemblage d'une structure d'aéronef ou d'une structure navale, l'environnement du robot comprend des « pièges » tels que des trappes, ainsi que des objets ou des opérateurs avec lesquels le robot ne peut absolument pas entrer en contact ou même s'approcher pour des raisons de sécurité. Aussi, la détection des obstacles et leur intégration à la cartographie doivent être réalisées à une distance suffisante desdits obstacles. Certains obstacles tels que des trappes ou des puits, dits obstacles négatifs, sont susceptibles d'être franchissables s'ils sont recouverts d'une grille et infranchissables dans d'autres circonstances. Ainsi, le robot doit être en mesure de détecter un obstacle à distance, à partir de ses moyens sensoriels, d'en déterminer les contours et de localiser ledit obstacle par rapport à sa position et de déterminer s'il peut franchir ou non cet obstacle sans modifier sa trajectoire. Dans le cas où l'obstacle est en déplacement, il doit, de plus, en estimer la trajectoire et la vitesse. Ces tâches ne sont pas aisées de mise en œuvre. En effet, si une caméra stéréoscopie, un radar, ou un système de balayage laser est capable de détecter et de localiser un objet connu dans son environnement, par exemple pour s'en servir comme d'un amer et en tirer une information allothétique de positionnement, l'identification individuelle d'objets a priori inconnus dans une scène visualisée instantanément par un tel dispositif, qui ne dispose pas des capacités cognitives d'un être vivant supérieur, est une tâche complexe, plus particulièrement lorsque plusieurs obstacles, non initialement cartographiés, sont susceptibles de se trouver simultanément dans le champ observé par le robot à des distances différentes. An autonomous mobile robot is localized in its environment according to a simultaneous mapping and localization method designated under the general acronym of "SLAM" for "Simultaneous Location And Mapping". The robot locates its position in initial mapping, using proprioceptive sensors, such as an odometer, and by means of environmental sensors such as vision sensors, or by means of beacons. These sensors thus provide idiothetic information and allothetic information that combined, allow him to know its exact position in a mapped environment and thus to predict its trajectory in the next moment, according to this position and said mapping. This principle works perfectly in a stable environment. When the environment is changing, by the appearance of obstacles not mapped initially or by the irruption into the environment of the robot of moving objects such as another robot or an operator, the robot must, to take into account these changes, on the one hand, detect the modifications of this environment and on the other hand integrate these modifications into its cartography, so as to modify its trajectory if necessary, or more generally its behavior, according to the detected modifications. In an industrial production environment such as the assembly of an aircraft structure or a naval structure, the robot environment includes "traps" such as traps, as well as objects or operators with which the robot absolutely can not contact or even approach for security reasons. Also, the detection of obstacles and their integration in the cartography must be carried out at a sufficient distance from said obstacles. Certain obstacles such as hatches or wells, known as negative obstacles, are likely to be crossed if they are covered with a grid and impassable in other circumstances. So, the robot must be able to detect an obstacle remotely, from its sensory means, to determine the contours and locate said obstacle in relation to its position and to determine whether or not it can cross this obstacle without modifying its trajectory. In the case where the obstacle is moving, it must, in addition, estimate its trajectory and speed. These tasks are not easy to implement. Indeed, if a stereoscopic camera, a radar, or a laser scanning system is able to detect and locate an object known in its environment, for example to use it as a bitter and draw an allothetic information from positioning, the individual identification of a priori unknown objects in a scene instantly visualized by such a device, which does not have the cognitive abilities of a higher living being, is a complex task, especially when several obstacles, not initially mapped , are likely to be simultaneously in the field observed by the robot at different distances.
Le document WO 2014 152254 décrit un dispositif embarqué pour la détection d'obstacles dans un environnement et un procédé mettant en œuvre ce dispositif. Le procédé consiste à comparer une image tridimensionnelle de référence de l'environnement obtenue à partir de deux images dont le point de vue est décalé, avec une image tridimensionnelle actuelle de cet environnement obtenue par des moyens similaires. Ces informations sont superposées de sorte à en révéler les disparités et ainsi détecter les modifications de l'environnement et la présence d'objets étrangers. Cette technique de l'art antérieur nécessite des moyens de traitement informatiques lourds et la nécessité d'obtenir des images de référence de l'environnement. Ainsi, ce procédé l'art antérieur reste limité à des environnements relativement stables, qui ne correspondent pas aux applications visées par l'invention. Le dispositif décrit dans cet art antérieur utilise les informations issues de capteurs de distance, obtenues par un radar ou un balayage au moyen d'un laser, et des informations vidéo obtenues par une caméra stéréoscopique. Ces deux types d'informations sont combinés pour s'auto- calibrer et rendre plus robuste des disparités, ainsi, selon cet art antérieur, ces deux types de capteurs sont utilisés comme deux sources d'information indépendantes, ce qui justifie du reste leur utilisation à ces fins d'auto-calibration.  The document WO 2014 152254 describes an onboard device for the detection of obstacles in an environment and a method implementing this device. The method comprises comparing a three-dimensional reference image of the environment obtained from two images whose point of view is shifted, with a current three-dimensional image of this environment obtained by similar means. This information is superimposed so as to reveal the disparities and thus detect changes in the environment and the presence of foreign objects. This technique of the prior art requires heavy computer processing means and the need to obtain reference images of the environment. Thus, this method the prior art remains limited to relatively stable environments, which do not correspond to the applications covered by the invention. The device described in this prior art uses information from distance sensors, obtained by a radar or a scanning by means of a laser, and video information obtained by a stereoscopic camera. These two types of information are combined to self-calibrate and make disparities more robust, thus, according to this prior art, these two types of sensors are used as two independent sources of information, which further justifies their use. for these purposes of self-calibration.
Le document US 2008 0009965 décrit un procédé de détection dynamique de l'environnement concentrique d'un robot mobile. Selon ce procédé de l'art antérieur, la cartographie du lieu d'évolution du robot est réglée selon une grille, et chaque carreau de cette grille est associé à une probabilité d'occupation, c'est-à-dire une probabilité que ledit carreau soit occupé par un objet avec lequel le robot serait susceptible d'entrer en collision. À partir de la carte de l'environnement et de la répartition de l'occupation de la grille, le robot calcule un trajet sans collision pour se déplacer d'un point à un autre. Au cours de son déplacement, le robot scrute son environnement concentrique au moyen d'une pluralité de capteurs et, en fonction des informations issues de ces capteurs, il met à jour la grille de probabilité d'occupation, et modifie en conséquence sa trajectoire ou sa vitesse de déplacement. Ce principe théorique se heurte cependant à la capacité d'interprétation, par le robot, des informations délivrées par les capteurs, de sorte que, selon cet art antérieur, l'autonomie du robot est limitée et que celui-ci est supplémenté dans cette dernière tâche par un opérateur humain, apte à interpréter son environnement, à partir des informations visuelles délivrées par le robot. Document US 2008 0009965 describes a method of dynamically detecting the concentric environment of a mobile robot. According to this method of the prior art, the mapping the place of evolution of the robot is set according to a grid, and each tile of this grid is associated with a probability of occupation, that is to say a probability that said tile is occupied by an object with which the robot would be likely to collide. From the map of the environment and the distribution of the occupation of the grid, the robot calculates a path without collision to move from one point to another. During its movement, the robot scans its concentric environment by means of a plurality of sensors and, according to the information from these sensors, it updates the occupancy probability grid, and consequently modifies its trajectory or his speed of movement. This theoretical principle however comes up against the ability of the robot to interpret the information delivered by the sensors, so that, according to this prior art, the autonomy of the robot is limited and that it is supplemented in the latter. task by a human operator, able to interpret his environment, from the visual information delivered by the robot.
Le document US 2012 182392 décrit un robot adapté pour évoluer dans une maison ou un hôpital, comme pour le dispositif et le procédé décrit dans le document WO 2014 152254, le système décrit dans cet art antérieur superpose l'image acquise de son environnement au moyen de ces capteurs à une cartographie théorique de sont environnement de sorte à détecter les différences. Ce type de système n'est pas adapté à un environnement susceptible d'évoluer fortement sur une période de temps relativement courte.  Document US 2012 182392 describes a robot adapted to evolve in a house or a hospital, as for the device and the method described in document WO 2014 152254, the system described in this prior art superimposes the acquired image of its environment by means of from these sensors to a theoretical mapping of are environment so as to detect the differences. This type of system is not suitable for an environment that is likely to change significantly over a relatively short period of time.
Le document US 2014 136414 décrit un véhicule autonome adapté à réaliser des livraison dans une communauté. Ledit robot se déplace sur un trottoir, dans une communauté ou zone pavillonnaire, c'est-à-dire dans un environnement relativement dégagé.  The document US 2014 136414 describes an autonomous vehicle adapted to deliver in a community. Said robot moves on a sidewalk, in a community or suburban area, that is to say in a relatively open environment.
Le document US 2008 027591 décrit un véhicule semi-autonome apte à évoluer dans un environnement urbain notamment lors d'opérations militaire. Ledit véhicule possède un certain degré d'autonomie mais reste en permanence connecté à un opérateur humain distant pour ses déplacements.  The document US 2008 027591 describes a semi-autonomous vehicle capable of evolving in an urban environment, particularly during military operations. The vehicle has a certain degree of autonomy but remains permanently connected to a remote human operator for his movements.
D'autres obstacles posent des problèmes de détection par les systèmes de vision ou de balayage conventionnels, comme les obstacles dits négatifs tels qu'une trappe dans un plancher, ou les obstacles qui, selon le point de vue, présentent une faible dimension, tels que des câbles, l'arête d'une paroi ou un obstacle de faible épaisseur tel qu'une table s'étendant essentiellement dans un plan parallèle au plancher sur lequel le robot évolue. Other obstacles pose detection problems by conventional vision or scanning systems, such as so-called negative obstacles such as a hatch in a floor, or obstacles which, according to the point of view, have a small dimension, such as only cables, the edge of a wall or a thin obstacle such as a table extending substantially in a plane parallel to the floor on which the robot evolves.
Le document US 8 688 275 décrit un robot équipé de deux systèmes de balayage de l'environnement par un faisceau laser, le plan médian de balayage de l'un des deux systèmes n'étant pas parallèle au plancher sur lequel évolue ledit robot. La combinaison des informations issues de ces deux dispositifs de reconnaissance de l'environnement permet notamment de détecter les obstacles négatifs et les obstacles s'étendant dans un plan parallèle au plancher.  Document US Pat. No. 8,688,275 describes a robot equipped with two systems for scanning the environment by a laser beam, the median scanning plane of one of the two systems not being parallel to the floor on which said robot is moving. The combination of information from these two environmental recognition devices makes it possible in particular to detect the negative obstacles and the obstacles extending in a plane parallel to the floor.
Tous les arts antérieurs cités s'appliquent à l'évolution autonome d'un robot dans des environnements relativement simples avec un faible nombre d'obstacles présents dans l'environnement. En revanche l'environnement rencontré par un robot dans une situation industrielle notamment dans un tronçon de fuselage d'aéronef lors d'opérations d'installation des systèmes comprend une très grande variété obstacles et une forte densité d'objets dans un volume réduit, objets susceptibles de changer de localisation dans ledit volume. Ainsi, au-delà de la capacité de détection des différents types d'obstacles, l'évolution dans un tel environnement nécessite que le robot soit en mesure de prendre les décisions adaptées, sans quoi celui-ci reste simplement immobile.  All the above mentioned arts apply to the autonomous evolution of a robot in relatively simple environments with a small number of obstacles present in the environment. On the other hand, the environment encountered by a robot in an industrial situation, in particular in an aircraft fuselage section during system installation operations, comprises a very large variety of obstacles and a high density of objects in a reduced volume, objects likely to change location in that volume. Thus, beyond the ability to detect different types of obstacles, the evolution in such an environment requires that the robot is able to make the appropriate decisions, otherwise it simply remains motionless.
L'invention vise à résoudre les inconvénients de l'art antérieur et concerne à cette fin un robot adapté pour évoluer dans un environnement défini, notamment un tronçon de fuselage d'aéronef dans une phase d'installation des systèmes dans ledit tronçon, lequel robot est muni d'une pluralité de capteurs comprenant :  The invention aims at solving the disadvantages of the prior art and for this purpose concerns a robot adapted to evolve in a defined environment, in particular an aircraft fuselage section in a phase of installation of the systems in said section, which robot is provided with a plurality of sensors comprising:
a. deux caméras vidéo numériques monoculaires ;  at. two monocular digital video cameras;
b. un dispositif de vision combinant une unité d'éclairage et  b. a vision device combining a lighting unit and
d'imagerie ;  imaging;
c. un système LiDAR monté sur une plate-forme panoramique  vs. a LiDAR system mounted on a panoramic platform
d. des moyens de traitements et de contrôle comprenant un calculateur et des moyens de mémoire comprenant une cartographie de l'environnement défini, aptes à acquérir les informations issues des capteurs, dont les moyens de traitement et de contrôle comprennent en mémoire les caractéristiques tridimensionnelles de tous les objets susceptibles de se trouver dans l'environnement défini.  d. processing and control means comprising a computer and memory means comprising a map of the defined environment, able to acquire the information from the sensors, whose processing and control means include in memory the three-dimensional characteristics of all the objects likely to be in the defined environment.
Ainsi le robot objet de l'invention combine les informations issues de différents capteurs, fournissant chacun une vision différente d'un même environnement concentrique, pour détecter la présence d'obstacles. Le calculateur est apte à associer les contours acquis lors de l'observation de l'environnement concentrique du robot à des objets spécifiques et d'en déduire des comportements en fonction de la nature de ces objets obstacles, afin de définir le comportement à adopter vis-à-vis desdits obstacles. Thus the robot object of the invention combines information from different sensors, each providing a different view of the same concentric environment, to detect the presence of obstacles. The calculator is able to associate the contours acquired during the observation of the concentric environment of the robot to specific objects and to deduce behaviors according to the nature of these obstacles objects, in order to define the behavior to adopt. to said obstacles.
Avantageusement l'environnement défini dont la cartographie est enregistrée dans la mémoire des moyens de traitement et de contrôle du robot correspond à une phase définie des opérations d'assemblage et le robot utilise ses capacités de reconnaissance de l'environnement pour prendre en compte l'évolution dudit environnement en regard de la cartographie initiale.  Advantageously, the defined environment whose mapping is stored in the memory of the processing and control means of the robot corresponds to a defined phase of the assembly operations and the robot uses its environmental recognition capabilities to take account of the evolution of said environment compared to the initial mapping.
Le terme LiDAR s'applique à un capteur actif mesurant le temps de propagation aller et retour d'un faisceau lumineux, émis par un laser, pour déterminer la position et la distance d'une cible par rapport à l'émetteur.  The term LiDAR is applied to an active sensor measuring the round trip delay of a light beam emitted by a laser to determine the position and distance of a target from the transmitter.
Un exemple de dispositif de vision combinant une unité d'éclairage et une unité d'imagerie est décrit dans le document WO2007/043036. Ce type de dispositif est connu commercialement sous la marque Carminé® et utilisé notamment dans les caméras de type Kinect®.  An example of a vision device combining a lighting unit and an imaging unit is described in WO2007 / 043036. This type of device is known commercially under the Carminé® brand and used in particular in Kinect® type cameras.
L'invention est avantageusement mise en œuvre selon les modes de réalisation et variantes exposés ci-après, lesquels sont à considérer individuellement et selon toute combinaison techniquement opérante.  The invention is advantageously implemented according to the embodiments and variants described below, which are to be considered individually and in any technically operative combination.
Avantageusement, la résolution angulaire du LiDAR du robot objet de l'invention, est inférieure ou égale à 0,25°. Ainsi, ledit système est apte à détecter un obstacle de faible épaisseur, par exemple un câble de 8 mm de diamètre, à une distance de 2 mètres.  Advantageously, the angular resolution of the LiDAR robot object of the invention is less than or equal to 0.25 °. Thus, said system is able to detect an obstacle of small thickness, for example a cable of 8 mm in diameter, at a distance of 2 meters.
Selon un mode de réalisation avantageux, la pluralité de capteurs du robot objet de l'invention comprend :  According to an advantageous embodiment, the plurality of sensors of the robot which is the subject of the invention comprises:
e. un second système LiDAR pointé vers le sol ;  e. a second LiDAR system pointing to the ground;
Ainsi ledit second LiDAR est plus particulièrement spécialisé pour la détection des obstacles négatifs et réalise son balayage concentrique en temps masqué et éventuellement à une fréquence différente du premier LiDAR, ce qui permet également de spécialiser le premier LiDAR pour des tâches de détection particulières.  Thus, said second LiDAR is more particularly specialized for the detection of negative obstacles and carries out its concentric scanning in masked time and possibly at a frequency different from the first LiDAR, which also makes it possible to specialize the first LiDAR for particular detection tasks.
L'invention concerne également un procédé pour piloter l'évolution d'un robot selon l'invention dans un environnement défini encombré, lequel procédé comprend des étapes consistant à : The invention also relates to a method for controlling the evolution of a robot according to the invention in a defined congested environment, which method comprises steps of:
i. obtenir et enregistrer dans la mémoire des moyens de traitement et de contrôle du robot, une cartographie de l'environnement défini dans lequel le robot évolue ;  i. obtaining and storing in the memory means for processing and controlling the robot, mapping the defined environment in which the robot is evolving;
ii. obtenir et enregistrer dans la mémoire des moyens de traitement et de contrôle du robot une liste d'objets et les caractéristiques tridimensionnelles desdits objets susceptibles de se trouver dans l'environnement défini du robot ;  ii. obtaining and storing in the memory of the robot processing and control means a list of objects and the three-dimensional characteristics of said objects that may be in the defined environment of the robot;
iii. obtenir et enregistrer dans les moyens de mémoire du robot une liste de tâches à réaliser et la localisation d'exécution desdites tâches dans l'environnement défini ;  iii. obtaining and saving in the memory means of the robot a list of tasks to be performed and the location of execution of said tasks in the defined environment;
iv. réaliser un balayage de l'environnement du robot au moyen des systèmes  iv. perform a scan of the robot environment using the systems
LiDAR ;  LiDAR;
v. traiter les données issues du balayage de l'étape iv) de sorte à isoler des régions d'intérêt ;  v. processing the data from the scan of step iv) so as to isolate regions of interest;
vi. obtenir une image des régions d'intérêt au moyen des caméras et du dispositif de vision ;  vi. obtain an image of the regions of interest by means of the cameras and the vision device;
vii. classer les obstacles présents dans l'environnement à partir de l'image obtenue à l'étape vi) en fonction de leurs caractéristiques de franchissement par le robot, l'opération de classement comprenant les étapes consistant à :  vii. classifying the obstacles present in the environment from the image obtained in step vi) according to their crossing characteristics by the robot, the ranking operation comprising the steps of:
vii. a filtrer le nuage de points correspondant aux données issues du dispositif de vision ;  vii. filtering the cloud of points corresponding to the data from the vision device;
vii.b. sous-échantillonner le nuage de point obtenu à la séquence vii. a) ; vii.c. éliminer les points singuliers aberrants du nuage de points obtenu à la séquence vii.b) ;  VII.B. downsample the point cloud obtained at sequence vii. at) ; VII.C. eliminate the aberrant singular points of the scatter plot obtained in sequence vii.b);
vii.d. déterminer la normale à la surface en chaque point du nuage obtenu à la séquence vii.c) ;  VII.D. determine the normal to the surface at each point of the cloud obtained in sequence vii.c);
vii. e classer les normales obtenues à la séquence vii.d) en normales franchissables et normales infranchissables  vii. e classify the normals obtained in sequence vii.d) into normal crossings and normal impassable
viii. adapter la trajectoire le comportement du robot et fonction des informations issues de l'étape vii) et de la tâche à réaliser définie à l'étape iii). viii. adapt the trajectory the behavior of the robot and function of information from step vii) and the task to be performed defined in step iii).
Ainsi le robot objet de l'invention utilise les informations provenant de la pluralité de capteurs pour analyser son environnement, plus particulièrement les systèmes LiDAR, peu sensibles à l'éclairement et aux conditions atmosphériques permet une première détection et une classification des obstacles probable, y compris à des distances relativement importantes. Cette première classification permet de concentrer l'action des capteurs de vison sur les zones d'intérêt qui sont ainsi observées avec une résolution plus élevée. L'utilisation combinée des deux types de moyens de vision permet de réduire le bruit de mesure et la quantité de données à traiter pour une classification plus précise des obstacles. Les différentes séquences de filtrage rendent le calcul plus rapide et la détection des obstacles plus robuste vis-à-vis notamment de « faux obstacles » c'est-à-dire des zones détectées comme des obstacles mais qui ne sont que des artifices de mesure.  Thus the robot object of the invention uses the information from the plurality of sensors to analyze its environment, more particularly the LiDAR systems, insensitive to light and atmospheric conditions allows a first detection and classification of obstacles likely, including at relatively large distances. This first classification makes it possible to concentrate the action of the mink sensors on the areas of interest which are thus observed with a higher resolution. The combined use of the two types of vision means makes it possible to reduce the measurement noise and the amount of data to be processed for a more precise classification of the obstacles. The different filtering sequences make the calculation faster and the detection of obstacles more robust vis-à-vis in particular "false obstacles" that is to say zones detected as obstacles but which are only artifices of measurement .
Avantageusement, l'étape vii) du procédé objet de l'invention comprend des séquences consistant à :  Advantageously, step vii) of the method which is the subject of the invention comprises sequences consisting of:
vii.f combiner les images issues du dispositif de vision et celles issues d'une caméra monoculaire pour obtenir un contour précis des objets présents dans ladite image ;  vii.f combining the images from the vision device and those from a monocular camera to obtain a precise outline of the objects present in said image;
vii. g identifier les objets présents dans l'image en projetant les contours desdits objets issus des caractéristiques tridimensionnelles desdits objets obtenues à l'étape ii).  vii. g identify the objects present in the image by projecting the contours of said objects from the three-dimensional characteristics of said objects obtained in step ii).
Ainsi, à l'issue de la séquence vii. g) le robot a connaissance de la nature des obstacles présents dans son environnement. Ainsi il lui est possible d'adapter son comportement en fonction desdits objets, par exemple, en respectant à tout moment une distance minimale par rapport à un type d'objet. La reconnaissance des objets présents dans l'environnement permet également d'associer à ces objets des attributs spatiaux qui ne sont pas accessibles lors de la mesure. Par exemple, elle permet d'associer à un objet qui ne serait vu que sur la tranche, une longueur selon une direction perpendiculaire à ladite tranche. Ainsi, la reconnaissance des objets est également utile pour le suivi desdits objets et de leur trajectoire relative entre deux mesures successives. Ainsi, selon un mode de réalisation, le procédé objet de l'invention comprend avant l'étape viii) les étapes consistant à : Thus, at the end of the sequence vii. g) the robot is aware of the nature of the obstacles present in its environment. Thus it is possible for him to adapt his behavior according to said objects, for example, respecting at any time a minimum distance from a type of object. The recognition of the objects present in the environment also makes it possible to associate with these objects spatial attributes which are not accessible during the measurement. For example, it makes it possible to associate with an object that would only be seen on the wafer, a length in a direction perpendicular to said wafer. Thus, object recognition is also useful for tracking said objects and their relative trajectory between two successive measurements. Thus, according to one embodiment, the method which is the subject of the invention comprises, before step viii), the steps of:
ix. réaliser une première acquisition selon les étapes i) à vii) ;  ix. make a first acquisition according to steps i) to vii);
x. réaliser une deuxième acquisition selon les étapes i) à vii) ;  x. make a second acquisition according to steps i) to vii);
xi. déterminer la trajectoire des objets détectés dans l'environnement du robot.  xi. determine the trajectory of the objects detected in the robot environment.
Ainsi le procédé objet de l'invention permet au robot d'obtenir une vision dynamique de son environnement.  Thus, the method that is the subject of the invention enables the robot to obtain a dynamic vision of its environment.
Avantageusement, les acquisitions d'images de l'environnement des étapes iv) et vi) du procédé objet de l'invention sont réalisées en continu et stockées dans une zone de mémoire tampon avant d'être traitées. Ainsi, le robot dispose d'une vision fréquemment actualisée de son environnement et combine si nécessaire plusieurs acquisitions successives de cet environnement afin d'obtenir une représentation plus robuste.  Advantageously, the image acquisitions of the environment of steps iv) and vi) of the method that is the subject of the invention are carried out continuously and stored in a buffer memory zone before being processed. Thus, the robot has a frequently updated vision of its environment and combines if necessary several successive acquisitions of this environment to obtain a more robust representation.
Selon un mode de réalisation particulier du procédé objet de l'invention, l'environnement du robot comprend un deuxième robot partageant une même cartographie de l'environnement, les deux robots étant aptes à échanger des informations, lequel procédé comprend une étape consistant à :  According to a particular embodiment of the method which is the subject of the invention, the environment of the robot comprises a second robot sharing the same cartography of the environment, the two robots being able to exchange information, which method comprises a step consisting of:
xii. transmettre au deuxième robot les informations issues de l'étape xi). Ainsi les robots présents dans l'environnement d'intervention échangent des informations, ce qui leur permet d'anticiper des événements  xii. transmit to the second robot the information from step xi). Thus the robots present in the intervention environment exchange information, which enables them to anticipate events
Avantageusement, le procédé objet de l'invention comprend les étapes consistant à :  Advantageously, the method which is the subject of the invention comprises the steps of:
xiii. réaliser un balayage du sol au moyen d'un LiDAR et détecter un obstacle négatif ;  xiii. perform a soil sweep using a LiDAR and detect a negative obstacle;
xiv. remplacer ledit obstacle négatif dans le nuage de points obtenu lors du balayage de l'étape xiii) par un obstacle virtuel positif dont le contour reprend celui de l'obstacle négatif ;  xiv. replacing said negative obstacle in the cloud of points obtained during the scanning of step xiii) by a positive virtual obstacle whose contour resumes that of the negative obstacle;
xv. intégrer ledit obstacle virtuel positif au nuage de points obtenu à l'étape iv).  xv. integrating said positive virtual obstacle with the cloud of points obtained in step iv).
Ainsi, la détection et l'évitement d'un obstacle négatif suivent le même processus que pour les autres obstacles. L'invention est exposée ci-après selon ses modes de réalisation préférés, nullement limitatifs, et en référence aux figures 1 à 3, dans lesquelles : Thus, the detection and avoidance of a negative obstacle follow the same process as for other obstacles. The invention is explained below according to its preferred embodiments, in no way limiting, and with reference to FIGS. 1 to 3, in which:
- la figure 1 montre selon une vue schématique de profil, un exemple de réalisation d'un robot selon l'invention dans son environnement ;  - Figure 1 shows in a schematic side view, an embodiment of a robot according to the invention in its environment;
- la figure 2 représente un logigramme d'un exemple de réalisation du procédé objet de l'invention ;  FIG. 2 represents a logic diagram of an exemplary embodiment of the method that is the subject of the invention;
- et la figure 3, représente schématiquement; selon la même vue que la figure 1 , le principe de détection d'un obstacle négatif par le robot et le procédé objets de l'invention.  - and Figure 3, shows schematically; according to the same view as FIG. 1, the principle of detection of a negative obstacle by the robot and the method which are the subject of the invention.
Figure 1 , selon un exemple de réalisation, le robot (100) objet de l'invention comporte une base (1 10) supportant des moyens de motorisation (non représentés), des moyens de stockage d'énergie tels qu'une batterie d'accumulateurs (non représentée) ainsi que des moyens informatiques (non représentés) utilisés pour traiter les informations et piloter ledit robot, notamment les moyens de motorisation. Les moyens de motorisation commandent des moyens de déplacement, par exemple des roues (120) selon cet exemple de réalisation. Lesdits moyens de déplacement comportent des éléments propulsifs et des éléments directionnels de sorte à permettre au robot (100) de suivre une trajectoire définie dans son environnement. La base supporte des moyens d'outillage mécanisés, par exemple, selon cet exemple de réalisation, la base supporte un bras articulé (130) terminé par un effecteur (135). Selon des exemples de réalisation ledit effecteur (135) est adapté à la pose de fixations tels que des boulons ou des rivets, ou encore, est adapté à la réalisation d'une soudure continue ou par points, ou encore comporte des moyens d'usinage comme des moyens de perçage ou d'alésage ou des moyens de fraisage, de meulage ou d'ébavurage, sans que ces exemples ne soient limitatifs ni exhaustifs.  1, according to an exemplary embodiment, the robot (100) object of the invention comprises a base (1 10) supporting motorization means (not shown), energy storage means such as a battery of accumulators (not shown) as well as computer means (not shown) used to process the information and drive said robot, including the motorization means. The motorization means control displacement means, for example wheels (120) according to this embodiment. Said displacement means comprise propulsive elements and directional elements so as to allow the robot (100) to follow a trajectory defined in its environment. The base supports mechanized tooling means, for example, according to this embodiment, the base supports an articulated arm (130) terminated by an effector (135). According to exemplary embodiments, said effector (135) is suitable for the installation of fasteners such as bolts or rivets, or else it is suitable for producing a continuous or spot weld, or else comprises machining means. such as drilling or boring means or means for milling, grinding or deburring, without these examples being limiting or exhaustive.
Le robot (100) objet de l'invention comprend une pluralité de capteurs dont les informations qu'ils permettent d'acquérir, utilisées seules ou en combinaison, permettent au robot de connaître son environnement concentrique. L'environnement concentrique du robot correspond à une zone analysée, centrée sur le robot et correspondant à la surface ou au volume visible par les capteurs installés sur ledit robot, le cas échéant en déplaçant lesdits capteurs afin de réaliser un balayage, ou de manière alternative ou complémentaire en effectuant une rotation ou une portion de rotation du robot sur lui- même. The robot (100) object of the invention comprises a plurality of sensors whose information they can acquire, used alone or in combination, allow the robot to know its concentric environment. The concentric environment of the robot corresponds to a zone analyzed, centered on the robot and corresponding to the surface or the volume visible by the sensors installed on said robot, possibly moving said sensors to perform a scan, or alternatively or complementary by performing a rotation or a portion of rotation of the robot on him- even.
Selon cet exemple de réalisation, le robot objet de l'invention comporte un premier LiDAR (140) monté sur une plate-forme (145) permettant de déplacer ledit LiDAR selon des mouvements panoramiques. Ladite plate-forme panoramique permet de déplacer le LiDAR selon deux axes, par exemple un axe panoramique horizontal et un axe panoramique vertical, correspondant à des mouvements de lacet et de tangage par rapport à l'axe optique du LiDAR. Selon un autre mode de réalisation, la plate-forme panoramique permet de déplacer le LiDAR selon un axe panoramique vertical (lacet) et autour de l'axe optique du capteur dans un mouvement de roulis. Ladite plate-forme (145) comprend des capteurs angulaires de position se sorte que les informations d'orientation de la plate-forme sont combinées avec les informations issues du LiDAR lors de chaque balayage. Un LiDAR consiste en un dispositif apte à émettre un rayon faisceau laser et un capteur apte à détecter un tel faisceau laser. Ainsi, le LiDAR émet un faisceau laser et reçoit sur son capteur ledit faisceau réfléchi par une cible, c'est-à- dire un objet dans l'environnement du robot. Le temps séparant l'émission de la réception permet de mesurer la distance du point sur lequel a lieu cette réflexion et ainsi de positionner ledit point par rapport au LiDAR. À titre d'exemple non limitatif, le LiDAR utilisé par le robot objet de l'invention est de type Hokuyo UTM-30LX-EX, pemettant de réaliser une mesure jusqu'à une distance de 30 mètres et présentant une résolution de l'ordre du millimètre en profondeur et une résolution angulaire de 0,25°. Le balayage réalisé par le LiDAR décrit un secteur plan de 270° en 25 ms. Le déplacement panoramique, notamment vertical permet d'obtenir une image tridimensionnelle de l'environnement. Le déplacement panoramique horizontal permet d'augmenter le champ de vision à courte distance. La résolution de ce LiDAR permet de détecter la présence d'un câble de 8 mm de diamètre à 2 mètres du robot. Cette performance est plus particulièrement adaptée à l'utilisation du robot objet de l'invention en milieu aéronautique notamment dans un tronçon de fuselage. L'homme du métier adapte la résolution dudit LiDAR en fonction de l'environnement du robot, à partir de la formule suivante :  According to this embodiment, the robot object of the invention comprises a first LiDAR (140) mounted on a platform (145) for moving said LiDAR in panoramic movements. Said panoramic platform makes it possible to move the LiDAR along two axes, for example a horizontal panoramic axis and a vertical panoramic axis, corresponding to yaw and pitch movements with respect to the optical axis of the LiDAR. According to another embodiment, the panoramic platform makes it possible to move the LiDAR along a vertical panoramic axis (yaw) and around the optical axis of the sensor in a roll motion. The platform (145) includes angular position sensors such that the platform orientation information is combined with the information from the LiDAR during each scan. A LiDAR consists of a device capable of emitting a laser beam and a sensor capable of detecting such a laser beam. Thus, the LiDAR emits a laser beam and receives on its sensor said beam reflected by a target, that is to say an object in the environment of the robot. The time between the emission of the reception makes it possible to measure the distance of the point on which this reflection takes place and thus to position said point with respect to the LiDAR. By way of non-limiting example, the LiDAR used by the robot which is the subject of the invention is of the Hokuyo UTM-30LX-EX type, making it possible to measure up to a distance of 30 meters and having a resolution of the order millimeter in depth and an angular resolution of 0.25 °. The scanning performed by LiDAR describes a plane sector of 270 ° in 25 ms. The panoramic movement, in particular vertical, makes it possible to obtain a three-dimensional image of the environment. Horizontal panning increases the field of view at short range. The resolution of this LiDAR makes it possible to detect the presence of a cable 8 mm in diameter at 2 meters from the robot. This performance is more particularly adapted to the use of the robot object of the invention in an aeronautical environment, in particular in a fuselage section. The skilled person adapts the resolution of said LiDAR according to the environment of the robot, from the following formula:
d = 2D.sm(0/2)  d = 2D.sm (0/2)
où D est la distance à laquelle d'obstacle doit être détecté, d est la dimension visible de l'obstacle, par exemple le diamètre du câble et 0 est la résolution angulaire du LiDAR, cette donnée étant fournie par le constructeur. where D is the distance at which obstacle must be detected, d is the dimension visible from the obstacle, for example the diameter of the cable and 0 is the angular resolution of the LiDAR, this data being provided by the manufacturer.
Selon un exemple de réalisation, le robot comporte un second LiDAR (150) pointé vers le sol et apte à détecter des obstacles, plus particulièrement des obstacles négatifs (trous) au niveau du sol. À titre d'exemple non limitatif, le robot objet de l'invention utilise pour ce second LiDAR un matériel Hokuyo URG-04LX. Ce matériel permet de balayer une zone plane comprise à une distance de 60 mm à 4 mètres du robot, selon un angle de balayage de 240° en 100 ms.  According to an exemplary embodiment, the robot comprises a second LiDAR (150) pointed towards the ground and able to detect obstacles, more particularly negative obstacles (holes) at ground level. By way of non-limiting example, the robot object of the invention uses for this second LiDAR a Hokuyo URG-04LX material. This equipment can scan a flat area between 60 mm and 4 meters from the robot at a scan angle of 240 ° in 100 ms.
Ainsi les systèmes LiDAR permettent d'obtenir rapidement une représentation de l'environnement, y compris à distance éloignée. Utilisant la réflexion d'un faisceau laser qu'ils émettent, ces dispositifs ne sont pas sensibles aux conditions d'éclairement des objets et sont peu sensibles aux conditions atmosphériques.  Thus LiDAR systems allow to quickly obtain a representation of the environment, including remote distance. Using the reflection of a laser beam that they emit, these devices are not sensitive to the conditions of illumination of objects and are insensitive to atmospheric conditions.
Le robot objet de l'invention comporte deux caméras (161 , 162) numériques monoculaires distantes l'une de l'autre. Selon cet exemple de réalisation, les deux caméras sont les mêmes et sont montées de sorte que leurs axes optiques soient parallèles et leurs plans focaux dans le même plan. Ainsi les images desdites caméras sont utilisables indépendamment l'une de l'autre ou conjointement de sorte à obtenir une image stéréoscopique de l'environnement, ou d'utiliser lesdites caméras comme un télémètre vis-à-vis de détails spécifiques de l'environnement du robot (100). Avantageusement les deux caméras sont des caméras dispensant une image en couleur.  The robot object of the invention comprises two cameras (161, 162) monocular digital distant from each other. According to this exemplary embodiment, the two cameras are the same and are mounted so that their optical axes are parallel and their focal planes in the same plane. Thus the images of said cameras are usable independently of one another or jointly so as to obtain a stereoscopic image of the environment, or to use said cameras as a range finder vis-à-vis specific environmental details robot (100). Advantageously both cameras are cameras providing a color image.
Finalement, le robot objet de l'invention comporte un dispositif (170) de vision comprenant des moyens d'imagerie et des moyens de projection dans le spectre infrarouge. À titre d'exemple non limitatif le robot objet de l'invention utilise à cette fin un dispositif Carminé®. Un tel dispositif projette une source de lumière infrarouge structurée sur l'environnement ce qui lui permet d'obtenir des informations de profondeur pour chaque point élémentaire de l'image.  Finally, the robot object of the invention comprises a device (170) for vision comprising imaging means and projection means in the infrared spectrum. By way of non-limiting example, the robot object of the invention uses for this purpose a Carminé® device. Such a device projects an infrared light source structured on the environment which allows it to obtain depth information for each elementary point of the image.
L'ensemble de capteurs du robot objet de l'invention est placé de manière modulaire en différents emplacements sur ledit robot selon la nature des obstacles rencontrés sur le site dans lequel le robot évolue afin d'optimaliser la détection desdits obstacles.  The set of sensors of the robot object of the invention is placed in a modular manner in different locations on said robot according to the nature of the obstacles encountered on the site in which the robot evolves to optimize the detection of said obstacles.
Le robot évolue dans un environnement défini, par exemple un tronçon de fuselage d'aéronef, ou une coque de navire ou de sous-marin, lequel environnement fait l'objet d'une cartographie enregistrée dans les moyens de mémoire du robot, mais dans lequel des objets non cartographiés sont susceptibles d'apparaître et d'entrer en collision avec ledit robot. À titre d'exemple, il s'agit d'obstacles statiques, tels que des seuils ou des trappes (191 ), d'outillages posés dans l'environnement, notamment par des opérateurs, par exemple une desserte (192), ou d'objets pendant du plafond, par exemple des câbles (193). Pour se déplacer dans l'environnement sans collision, le robot doit détecter ces objets et définir des trajectoires ou un comportement approprié. Par exemple, il lui faudra contourner une trappe (191 ), mais il est possible de passer sous un câble en utilisant une configuration appropriée du bras (130) manipulateur. The robot evolves in a defined environment, for example a stretch of aircraft fuselage, or a hull of a ship or submarine, which environment is mapped to the storage means of the robot, but in which non-mapped objects are likely to appear and collide with said robot. By way of example, these are static obstacles, such as thresholds or hatches (191), tools placed in the environment, in particular by operators, for example a service (192), or objects suspended from the ceiling, eg cables (193). To move in the collision-free environment, the robot must detect these objects and define trajectories or appropriate behavior. For example, it will have to bypass a hatch (191), but it is possible to pass under a cable using an appropriate configuration of the arm (130) manipulator.
Aux obstacles statiques, s'ajoutent d'obstacles mobiles (non représentés) tels que des opérateurs ou d'autres robots, ou cobots. Ainsi, le robot objet de l'invention doit évaluer son environnement rapidement et prendre des décisions adéquates, mais, en tant que robot autonome, il ne dispose que d'une capacité de calcul limitée.  Static obstacles are added mobile obstacles (not shown) such as operators or other robots, or cobots. Thus, the robot object of the invention must evaluate its environment quickly and make appropriate decisions, but as an autonomous robot, it has only a limited computing capacity.
Le principe du procédé objet de l'invention consiste à utiliser les particularités de chaque capteur afin de focaliser les moyens de calcul du robot sur les zones utiles de la représentation de l'environnement, ce qui permet un traitement rapide de l'information et utilise moins de ressources de calcul.  The principle of the method that is the subject of the invention consists in using the particularities of each sensor in order to focus the robot's calculation means on the useful zones of the representation of the environment, which allows a fast processing of the information and uses less computing resources.
Ainsi le ou les LiDAR (140,150) donnent une im age de l'environnement riche en informations de profondeur mais comprenant peu de détails. À l'inverse l'image issue des caméras vidéos (161 , 162) numériques est riche en détails mais plus pauvre en informations de profondeur. L'image issue du dispositif (170) de vision est intermédiaire mais permet d'enrichir dans une zone donnée la représentation des LiDAR.  Thus the LiDAR (140,150) gives an environment rich in depth information but with few details. Conversely, the image from digital video cameras (161, 162) is rich in detail but poorer in depth information. The image from the device (170) of vision is intermediate but allows to enrich in a given area the representation of LiDAR.
Figure 2, selon des étapes d'initialisation du procédé objet de l'invention, une cartographie du milieu d'évolution du robot est chargée (210) dans les moyens de mémoire dudit robot. Le robot objet de l'invention est principalement destiné à évoluer dans un milieu assez restreint spatialement comme un tronçon de fuselage d'aéronef, par exemple pour réaliser des opérations d'installation de systèmes dans ledit tronçon. Ces opérations consistent, par exemple, à installer des supports dans ledit tronçon et à réaliser des opérations de perçage et de rivage, voir à assister un opérateur dans ces opérations. Aussi, à mesure que les systèmes sont installés dans le tronçon, la cartographie de celui-ci évolue. Ainsi, selon un exemple de mise en œuvre du procédé objet de l'invention, ladite cartographie chargée dans les moyens de mémoire prend en compte l'évolution de l'avancement des travaux. Selon des exemples de réalisation la cartographie est une cartographie 3D ou une cartographie 2D dans laquelle le contour des obstacles est projeté. FIG. 2, according to initialization steps of the method that is the subject of the invention, a cartography of the evolution medium of the robot is loaded (210) in the memory means of said robot. The robot object of the invention is mainly intended to evolve in a relatively small space spatially like an aircraft fuselage section, for example to perform system installation operations in said section. These operations consist, for example, to install supports in said section and to perform drilling and shore operations, see assisting an operator in these operations. Also, as the systems are installed in the section, the mapping of it evolves. Thus, according to an example of implementation of the method object of the invention, said mapping loaded in the memory means takes into account the evolution of the progress of work. According to exemplary embodiments, the cartography is a 3D cartography or a 2D cartography in which the contour of the obstacles is projected.
Selon une autre étape (215) d'initialisation, l'ensemble des objets susceptibles d'être présents dans l'environnement du robot, par exemple dans le tronçon de fuselage sont enregistrés dans les moyens de mémoire. Selon un exemple de mise en œuvre, chaque objet est associé à un code d'identification ou étiquette, à une représentation tridimensionnelle de l'objet dans un repère qui lui est lié et à un volume de sécurité décrivant une enveloppe polyédrique ou ellipsoïdale entourant l'objet à distance de celui-ci et définissant une zone qui ne doit pas être franchie pour des raisons de sécurité. La définition tridimensionnelle de l'objet est avantageusement une définition simplifiée limitée à ses contours extérieurs. Avantageusement également, les informations relatives à chaque objet comprennent des informations de couleur et de teinte, ainsi, en choisissant une teinte appropriée pour chaque objet la présence de celui-ci est facilement détectée à partir d'une image en couleur. Tout comme la cartographie, selon un mode de réalisation particulier, la liste est mise à jour en fonction de la phase de fabrication concernée, de sorte à la limiter au strict nécessaire. Le terme « objet » doit être compris au sens large et comprend, entre autres, une définition tridimensionnelle assortie d'un volume de sécurité, et selon l'environnement, les informations de couleur et de teinte relatives à un opérateur humain susceptible d'évoluer dans l'environnement.  According to another initialization step (215), all the objects that may be present in the environment of the robot, for example in the fuselage section, are recorded in the memory means. According to an implementation example, each object is associated with an identification code or label, a three-dimensional representation of the object in a reference frame which is linked to it and a security volume describing a polyhedral or ellipsoidal envelope surrounding the object. object away from it and defining an area that should not be crossed for security reasons. The three-dimensional definition of the object is advantageously a simplified definition limited to its outer contours. Advantageously also, the information relating to each object includes color and hue information, thus, by choosing a suitable hue for each object the presence of it is easily detected from a color image. Like cartography, according to a particular embodiment, the list is updated according to the manufacturing phase concerned, so as to limit it to what is strictly necessary. The term "object" should be understood in a broad sense and includes, among other things, a three-dimensional definition with a volume of security, and depending on the environment, the color and hue information relating to a human operator that may evolve. in the environment.
La cartographie du milieu d'intervention étant enregistrée dans les moyens de mémoire du robot, celui-ci est à même de se localiser dans ce milieu à tout moment en utilisant des informations idiothétiques, par exemple le nombre de tours de roue des roues propulsives et l'orientation des roues directionnelles, ou par une boussole numérique, et des informations allothétiques, par exemple par triangulation de balises posées dans le milieu d'intervention. Ces méthodes sont connues de l'art antérieur et ne sont pas exposées plus avant.  The mapping of the intervention medium is recorded in the memory means of the robot, the latter is able to locate in this medium at any time using idiothetic information, for example the number of wheel turns propellant wheels and the orientation of the directional wheels, or by a digital compass, and allothetic information, for example by triangulation of tags placed in the intervention environment. These methods are known from the prior art and are not discussed further.
Les tâches que le robot est amené à réaliser dans l'environnement ainsi que la localisation de ces tâches dans l'environnement sont également enregistrées (216) dans les moyens de mémoire. Afin de déterminer son environnement concentrique, selon un exemple de réalisation, le robot réalise simultanément un balayage (221 ) de l'environnement au moyen du premier LiDAR, un balayage (222) de l'environnement au moyen du deuxième LiDAR, lorsqu'il en comporte deux, une acquisition d'image (223) au moyen du dispositif de vision, et une acquisition (224) d'image au moyen de chaque caméra vidéo numérique. Ces acquisitions sont enregistrées (230) dans une mémoire tampon et horodatées afin d'être traitées. Selon un mode de réalisation particulier, afin de réduire le bruit dans les images, plusieurs acquisitions successives sont moyennées. The tasks that the robot is made to perform in the environment and the location of these tasks in the environment are also recorded (216) in the memory means. In order to determine its concentric environment, according to an exemplary embodiment, the robot simultaneously performs a scanning (221) of the environment by means of the first LiDAR, a scanning (222) of the environment by means of the second LiDAR, when comprises two, image acquisition (223) by means of the vision device, and image acquisition (224) by means of each digital video camera. These acquisitions are recorded (230) in a buffer memory and timestamped in order to be processed. According to a particular embodiment, in order to reduce the noise in the images, several successive acquisitions are averaged.
Le premier traitement (240) consiste, à partir des images issues d'un ou des LiDAR, à extraire de ces images des zones d'intérêt. Ces zones d'intérêt sont, par exemple, des zones de l'acquisition dont les contours diffèrent de la cartographie.  The first processing (240) consists, from images from one or more LiDARs, in extracting from these images areas of interest. These areas of interest are, for example, areas of acquisition whose outlines differ from the map.
Au cours d'un deuxième traitement (250) lesdites zones d'intérêt sont examinées par leur représentation dans l'acquisition réalisée par les moyens de vision. Selon une première séquence de traitement (251 ) le nuage de points correspondant est filtré à partir des conditions mesurées de réflexion dans l'infrarouge. Cette première séquence de filtrage permet de supprimer du traitement les points éloignés du robot. Selon une deuxième (252) séquence de traitement, le nuage de points est sous-échantillonné. Afin de réduire le nombre de points à traiter, l'espace est maillé selon un maillage polyédrique approprié, par exemple un maillage cubique. Selon un exemple de traitement tous les points se trouvant dans une même maille sont remplacés par un point positionné au centre de ladite maille et prenant pour valeur la moyenne des points ou toute autre pondération appropriée. Ce traitement réduit le bruit et le nombre de points à traiter. Une troisième (253) séquence de traitement consiste à éliminer du nuage de points, les points singuliers considérés comme aberrants. À cette fin, chaque mesure obtenue en un point est comparée à la mesure obtenue sur ses plus proches voisins en calculant le carré de l'écart de mesure entre ces points. Étant supposé que pour un groupe de points donné, la distribution de la mesure suit une loi de x2, les points situés à plus de n écarts type de la moyenne sont éliminés. Cette technique permet d'éviter les variations stochastiques à l'intérieur du nuage de points, en revanche il limite les capacités de détecter des arêtes vives. Selon une quatrième séquence (254) de traitement, l'orientation des normales est calculée en chaque point du nuage de points. L'orientation des normales permet au cours d'une étape d'analyse (255) de déterminer les points et les zones présentant des difficultés potentielles de franchissement. Ainsi, une zone est franchissable lorsque sa normale est verticale. Lorsque la normale présente une composante horizontale, la zone présente des difficultés de franchissement. During a second treatment (250) said areas of interest are examined by their representation in the acquisition performed by the viewing means. According to a first processing sequence (251) the corresponding point cloud is filtered from the measured conditions of reflection in the infrared. This first filtering sequence makes it possible to eliminate the remote points of the robot from the processing. According to a second (252) processing sequence, the point cloud is downsampled. In order to reduce the number of points to be treated, the space is meshed according to an appropriate polyhedral mesh, for example a cubic mesh. According to an example of treatment, all the points in the same mesh are replaced by a point positioned at the center of said mesh and taking as value the average of the points or any other appropriate weighting. This treatment reduces the noise and the number of points to be treated. A third (253) processing sequence consists in eliminating from the cloud of points the singular points considered as aberrant. For this purpose, each measurement obtained at a point is compared to the measurement obtained on its closest neighbors by calculating the square of the measurement difference between these points. Assuming that for a given group of points, the distribution of the measure follows a law of x 2 , the points at more than n standard deviations of the mean are eliminated. This technique avoids stochastic variations inside the scatterplot, but it limits the ability to detect sharp edges. According to a fourth processing sequence (254), the orientation of the normals is calculated at each point of the point cloud. The orientation of the norms makes it possible in the course of an analysis step (255) to determine the points and the zones presenting potential difficulties of crossing. Thus, an area is passable when its normal is vertical. When the normal has a horizontal component, the zone presents difficulties of crossing.
Au cours d'une étape d'identification (260) l'image issue d'une ou des deux caméras vidéos numériques, est superposée à l'image obtenue précédemment. La haute résolution de ces images permet notamment d'identifier les contours ou la teinte des objets susceptibles de se trouver dans les zones présentant des difficultés de franchissement, et, en combinant ces informations avec les informations relatives aux normales aux surfaces, d'identifier et d'étiqueter les objets présents dans l'environnement. Ainsi, à partir de ces informations le robot est en mesure de décider (270) d'une séquence d'évitement appropriée.  During an identification step (260) the image from one or both digital video cameras is superimposed on the image obtained previously. The high resolution of these images makes it possible, in particular, to identify the contours or the hue of the objects likely to be found in the zones presenting crossing difficulties, and, by combining this information with the information relating to the normals to the surfaces, to identify and to label objects in the environment. Thus, from this information the robot is able to decide (270) an appropriate avoidance sequence.
Selon un mode de réalisation tenant compte du déplacement des objets dans l'environnement, les étapes précédentes (221 ... 260) sont répétées et les acquisitions sont corrélées (265) de sorte à déterminer une vitesse de déplacement et une trajectoire des objets présents dans l'environnement du robot. Ainsi la décision (270) d'une séquence d'évitement tient compte de ces informations.  According to an embodiment taking into account the displacement of the objects in the environment, the preceding steps (221 ... 260) are repeated and the acquisitions are correlated (265) so as to determine a speed of movement and a trajectory of the present objects. in the robot environment. Thus, the decision (270) of an avoidance sequence takes this information into account.
Figure 3, selon un exemple de mise en œuvre, le LiDAR ou le second LiDAR (150) du robot objet de l'invention est pointé ou pointable vers le sol afin de détecter un obstacle négatif (191 ). L'acquisition réalisée à cette occasion constitue un second nuage de points. Afin de traiter ce nuage de points selon un processus similaire au premier, l'obstacle négatif est remplacé, pour le traitement, par un obstacle (391 ) virtuel positif, présentant des normales horizontales (390) sur ses faces latérales. Selon un exemple de mise œuvre, ledit obstacle virtuel (391 ) reprend le contour de l'obstacle négatif (191 ) réel, mais une hauteur de parois latérales prédéfinie, par exemple 1 mètre, de sorte que celui-ci est immédiatement reconnaissable. Ledit obstacle virtuel est intégré dans la scène observée et traitée avec le reste de l'acquisition à partir de la quatrième étape du procédé objet de l'invention.  Figure 3, according to an exemplary implementation, the LiDAR or the second LiDAR (150) of the robot object of the invention is pointed or pointable towards the ground to detect a negative obstacle (191). The acquisition made on this occasion constitutes a second cloud of points. In order to treat this point cloud in a process similar to the first, the negative obstacle is replaced, for processing, by a positive virtual obstacle (391) having horizontal normals (390) on its lateral faces. According to an exemplary implementation, said virtual obstacle (391) resumes the contour of the actual negative obstacle (191), but a predefined lateral wall height, for example 1 meter, so that it is immediately recognizable. Said virtual obstacle is integrated in the scene observed and treated with the remainder of the acquisition from the fourth step of the method object of the invention.
La description ci-avant montre que l'invention atteint les objectifs visés, en particulier, l'invention permet à un robot autonome de se repérer de manière précise dans un environnement évolutif et encombré. Ledit robot est ainsi avantageusement mis en oeuvre pour des opérations d'assemblage et d'installations de systèmes notamment dans un tronçon d'aéronef ou dans une structure navale. Le robot autonome objet de l'invention est particulièrement adapté à des interventions en milieu difficiles d'accès ou dans des conditions d'environnement particulières ou dangereuses telles qu'en présence de gaz, de chaleur ou de froid ou encore de rayonnement ionisants. Selon d'autres modes de mise en oeuvre, le robot objet de l'invention comprend des moyens spécifiquement adaptés pour des opérations de réparation sur coque ou sur fuselage, lesdites opérations comprenant des opérations de fabrication additive. À cette fin le robot objet de l'invention comporte selon ce mode de réalisation : The above description shows that the invention achieves the intended objectives, in particular, the invention allows an autonomous robot to locate accurately in a changing and congested environment. Said robot is thus advantageously put for assembly operations and system installations including in an aircraft section or in a naval structure. The autonomous robot object of the invention is particularly suitable for interventions in environments difficult to access or in particular environmental or hazardous conditions such as in the presence of gas, heat or cold or ionizing radiation. According to other modes of implementation, the robot object of the invention comprises means specifically adapted for repair operations on hull or fuselage, said operations comprising additive manufacturing operations. For this purpose the robot object of the invention comprises according to this embodiment:
- un effecteur de fabrication additive, porté par le bras articulé, par exemple une buse à projection de poudre en fusion ou une buse d'extrusion de fil thermoplastique ;  an additive manufacturing effector carried by the articulated arm, for example a molten powder spraying nozzle or a thermoplastic wire extrusion nozzle;
- des moyens pour ajuster la position dudit effecteur en fonction des informations issues de la pluralité de capteurs, notamment par reconnaissance de la pièce à assembler ou à réparer.  - Means for adjusting the position of said effector according to the information from the plurality of sensors, in particular by recognizing the part to be assembled or repaired.

Claims

REVENDICATIONS
Robot (100) adapté pour évoluer dans un environnement défini, notamment un tronçon de fuselage d'aéronef dans une phase d'installation des systèmes dans ledit tronçon, lequel robot (100) est muni d'une pluralité de capteurs comprenant : A robot (100) adapted to evolve in a defined environment, including an aircraft fuselage section in an installation phase of the systems in said section, which robot (100) is provided with a plurality of sensors comprising:
a. deux caméras vidéo (161 , 162) numériques monoculaires ; at. two monocular digital video cameras (161, 162);
b. un dispositif (170) de vision comportant une unité d'éclairage et une unité d'imagerie ; b. a vision device (170) comprising a lighting unit and an imaging unit;
c. un système LiDAR (140) monté sur une plate-forme (145) panoramique ; vs. a LiDAR system (140) mounted on a panoramic platform (145);
d. des moyens de traitements et de contrôle comprenant un calculateur et des moyens de mémoire comportant une cartographie de l'environnement défini, aptes à acquérir les informations issues des capteurs; d. processing and control means comprising a computer and memory means including a mapping of the defined environment, able to acquire the information from the sensors;
caractérisé en ce que les moyens de traitement et de contrôle comprennent en mémoire les caractéristiques tridimensionnelles de tous les objets susceptibles de se trouver dans l'environnement défini. characterized in that the processing and control means comprise in memory the three-dimensional characteristics of all objects likely to be in the defined environment.
Robot selon la revendication 1 , dans lequel la résolution angulaire du système LiDAR (140) est inférieure ou égale à 0,25°. The robot of claim 1, wherein the angular resolution of the LiDAR system (140) is less than or equal to 0.25 °.
Robot selon les revendications 1 ou 2, dans lequel la pluralité de capteurs comprend : The robot of claims 1 or 2, wherein the plurality of sensors comprises:
e. un second système LiDAR (150) pointé vers le sol ; e. a second LiDAR system (150) pointed towards the ground;
Procédé pour piloter l'évolution d'un robot selon l'une quelconque des revendications 1 à 3, dans un environnement défini encombré, caractérisé en ce qu'il comprend des étapes consistant à : Method for controlling the evolution of a robot according to any one of claims 1 to 3, in a defined congested environment, characterized in that it comprises the steps of:
i. obtenir (210) et enregistrer dans la mémoire des moyens de traitement et de contrôle du robot, une cartographie de l'environnement défini dans lequel le robot évolue ; i. obtaining (210) and storing in the memory means for processing and controlling the robot, mapping the defined environment in which the robot is evolving;
ii. obtenir (215) et enregistrer dans la mémoire des moyens de traitement et de contrôle du robot une liste d'objets et les caractéristiques tridimensionnelles desdits objets susceptibles de se trouver dans l'environnement défini du robot ; ii. obtain (215) and record in the memory means of processing and controlling the robot a list of objects and the three-dimensional characteristics of said objects likely to be in the defined environment of the robot;
obtenir (216) et enregistrer dans Is moyens de mémoire du robot une liste de tâches à réaliser et la localisation d'exécution desdites tâches dans l'environnement défini ;  obtaining (216) and storing in the memory means of the robot a list of tasks to be performed and the location of execution of said tasks in the defined environment;
réaliser (221 ) un balayage de l'environnement concentrique du robot au moyen des systèmes LiDAR ;  performing (221) a scan of the concentric environment of the robot using LiDAR systems;
traiter (240) les données issues du balayage de l'étape iv) de sorte à isoler des régions d'intérêt ;  processing (240) the data from the scan of step iv) so as to isolate regions of interest;
obtenir une image des régions d'intérêt au moyen des caméras et du dispositif de vision ;  obtain an image of the regions of interest by means of the cameras and the vision device;
classer (255) les obstacles présents dans l'environnement à partir de l'image obtenue à l'étape vi) en fonction de leurs caractéristique de franchissement par le robot, l'opération de classement comprenant les étapes consistant à :  classifying (255) the obstacles present in the environment from the image obtained in step vi) according to their crossing characteristics by the robot, the classification operation comprising the steps of:
vii.a filtrer (251 ) le nuage de points correspondant aux données issues du dispositif de vision ;  vii.a filter (251) the cloud of points corresponding to the data from the vision device;
vii.b. sous-échantillonner (252) le nuage de point obtenu à la séquence vii.a) ;  VII.B. downsampling (252) the point cloud obtained in sequence vii.a);
vii.c. éliminer les points singuliers aberrants (253) du nuage de points obtenu à la séquence vii.b) ;  VII.C. eliminating the aberrant singular points (253) from the scatter plot obtained in sequence vii.b);
vii.d. déterminer (254) la normale à la surface en chaque point du nuage obtenu à la séquence vii.c) ;  VII.D. determine (254) the normal at the surface at each point of the cloud obtained in sequence vii.c);
vii.e classer (255) les normales obtenues à la séquence vii.d) en normales franchissables et normales infranchissables, adapter (270) la trajectoire et le comportement du robot en fonction des informations issues de l'étape vii) et de la tâche à réaliser définie à l'étape iii).  vii.e classify (255) the normals obtained in the sequence vii.d) into passable normals and normal impassable, adapt (270) the trajectory and the behavior of the robot according to the information from step vii) and from the task to achieve defined in step iii).
Procédé selon la revendication 4, dans lequel l'étape vii) comprend les séquences consistant à : vii.a filtrer (251 ) le nuage de points correspondant aux données issues du dispositif de vision ; The method of claim 4 wherein step vii) comprises the sequences of: vii.a filter (251) the cloud of points corresponding to the data from the vision device;
vii.b. sous-échantillonner (252) le nuage de point obtenu à la séquence vii.a) ; VII.B. downsampling (252) the point cloud obtained in sequence vii.a);
vii.c. éliminer les points singuliers aberrants (253) du nuage de points obtenu à la séquence vii.b) ; VII.C. eliminating the aberrant singular points (253) from the scatter plot obtained in sequence vii.b);
vii.d. déterminer (254) la normale à la surface en chaque point du nuage obtenu à la séquence vii.c) ; VII.D. determine (254) the normal at the surface at each point of the cloud obtained in sequence vii.c);
vii.e classer (255) les normales obtenues à la séquence vii.d) en normales franchissables et normales infranchissables. vii.e classify (255) the normals obtained in sequence vii.d) into passable normals and normal impassable.
Procédé selon les revendications 4 ou 5, dans lequel l'étape vii) comprend des séquences consistant à : The method of claims 4 or 5, wherein step vii) comprises sequences consisting of:
vii.f combiner (260) les images issues du dispositif de vision et celles issues d'une caméra monoculaire pour obtenir un contour précis des objets présents dans ladite image ; vii.f combining (260) the images from the vision device and those from a monocular camera to obtain a precise outline of the objects present in said image;
vii. g identifier les objets présents dans l'image en projetant les contours desdits objets issus des caractéristiques tridimensionnelles desdits objets obtenues à l'étape ii). vii. g identify the objects present in the image by projecting the contours of said objects from the three-dimensional characteristics of said objects obtained in step ii).
Procédé selon l'une quelconque des revendications 4 à 6, comprenant avant l'étape viii) les étapes consistant à : A method according to any of claims 4 to 6, comprising before step viii) the steps of:
ix. réaliser une première acquisition selon les étapes i) à vii) ; ix. make a first acquisition according to steps i) to vii);
x. réaliser une deuxième acquisition selon les étape i) à vii) ; x. perform a second acquisition according to steps i) to vii);
xi. déterminer (265) la trajectoire des objets détectés dans l'environnement du robot. xi. determine (265) the trajectory of the objects detected in the robot environment.
Procédé selon l'une quelconque des revendications 4 à 7, dans lequel les acquisitions d'images de l'environnement des étapes iv) et vi) sont réalisées en continu et stockées dans une zone de mémoire tampon avant d'être traitées. A method according to any of claims 4 to 7, wherein the image acquisitions of the environment of steps iv) and vi) are performed continuously and stored in a buffer area before being processed.
Procédé selon l'une quelconque des revendications 4 à 8, dans lequel l'environnement du robot comprend un deuxième robot partageant une même cartographie de l'environnement, les deux robots étant aptes à échanger des informations, et qui comprend une étape consistant à : xii. transmettre au deuxième robot les informations issues de l'étape xi). A method according to any one of claims 4 to 8, wherein the robot environment comprises a second robot sharing a same mapping of the environment, the two robots being able to exchange information, and which comprises a step of: xii. transmit to the second robot the information from step xi).
Procédé selon l'une quelconque des revendications 4à 9, comprenant les étapes consistant à : A method as claimed in any one of claims 4 to 9, comprising the steps of:
xiii. réaliser un balayage du sol au moyen d'un LiDAR (140, 150) et détecter un obstacle (191 ) négatif ; xiii. performing a ground scan using a LiDAR (140, 150) and detecting a negative obstacle (191);
xiv. remplacer ledit obstacle négatif (191 ) dans le nuage de points obtenu lors du balayage de l'étape xiii), par un obstacle virtuel positif dont le contour reprend celui de l'obstacle (191 ) négatif ; xv. Intégrer ledit obstacle virtuel (391 ) positif au nuage de points obtenu à l'étape iv). xiv. replacing said negative obstacle (191) in the cloud of points obtained during the scanning of step xiii) by a positive virtual obstacle whose contour resumes that of the negative obstacle (191); xv. Integrate said virtual obstacle (391) positive to the cloud of points obtained in step iv).
PCT/EP2016/068916 2015-08-07 2016-08-08 Device and method for detecting obstacles suitable for a mobile robot WO2017025521A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP16750807.6A EP3332299A1 (en) 2015-08-07 2016-08-08 Device and method for detecting obstacles suitable for a mobile robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1557615 2015-08-07
FR1557615A FR3039904B1 (en) 2015-08-07 2015-08-07 DEVICE AND METHOD FOR DETECTING OBSTACLES ADAPTED TO A MOBILE ROBOT

Publications (1)

Publication Number Publication Date
WO2017025521A1 true WO2017025521A1 (en) 2017-02-16

Family

ID=54207576

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/068916 WO2017025521A1 (en) 2015-08-07 2016-08-08 Device and method for detecting obstacles suitable for a mobile robot

Country Status (3)

Country Link
EP (1) EP3332299A1 (en)
FR (1) FR3039904B1 (en)
WO (1) WO2017025521A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108571962A (en) * 2017-03-13 2018-09-25 劳斯莱斯有限公司 system for building situation awareness
CN111429520A (en) * 2020-03-02 2020-07-17 广州视源电子科技股份有限公司 Negative obstacle detection method and device, terminal device and storage medium
CN111427363A (en) * 2020-04-24 2020-07-17 深圳国信泰富科技有限公司 Robot navigation control method and system
CN113126640A (en) * 2019-12-31 2021-07-16 北京三快在线科技有限公司 Obstacle detection method and device for unmanned aerial vehicle, unmanned aerial vehicle and storage medium
CN113900435A (en) * 2021-08-31 2022-01-07 深圳蓝因机器人科技有限公司 Mobile robot obstacle avoidance method, equipment, medium and product based on double cameras
CN115040031A (en) * 2021-02-26 2022-09-13 云米互联科技(广东)有限公司 Environmental information acquisition method, sweeper, terminal equipment and readable storage medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017221134A1 (en) * 2017-11-27 2019-05-29 Robert Bosch Gmbh Method and apparatus for operating a mobile system
CN111152237B (en) * 2020-01-22 2023-12-22 深圳国信泰富科技有限公司 Robot head with laser radars arranged on two sides and environment sampling method thereof
CN111988524A (en) * 2020-08-21 2020-11-24 广东电网有限责任公司清远供电局 Unmanned aerial vehicle and camera collaborative obstacle avoidance method, server and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6151539A (en) * 1997-11-03 2000-11-21 Volkswagen Ag Autonomous vehicle arrangement and method for controlling an autonomous vehicle
US20120182392A1 (en) * 2010-05-20 2012-07-19 Irobot Corporation Mobile Human Interface Robot
US20130231779A1 (en) * 2012-03-01 2013-09-05 Irobot Corporation Mobile Inspection Robot
WO2014152254A2 (en) * 2013-03-15 2014-09-25 Carnegie Robotics Llc Methods, systems, and apparatus for multi-sensory stereo vision for robotics

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
US9373149B2 (en) * 2006-03-17 2016-06-21 Fatdoor, Inc. Autonomous neighborhood vehicle commerce network and community
US7822266B2 (en) * 2006-06-02 2010-10-26 Carnegie Mellon University System and method for generating a terrain model for autonomous navigation in vegetation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6151539A (en) * 1997-11-03 2000-11-21 Volkswagen Ag Autonomous vehicle arrangement and method for controlling an autonomous vehicle
US20120182392A1 (en) * 2010-05-20 2012-07-19 Irobot Corporation Mobile Human Interface Robot
US20130231779A1 (en) * 2012-03-01 2013-09-05 Irobot Corporation Mobile Inspection Robot
WO2014152254A2 (en) * 2013-03-15 2014-09-25 Carnegie Robotics Llc Methods, systems, and apparatus for multi-sensory stereo vision for robotics

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108571962A (en) * 2017-03-13 2018-09-25 劳斯莱斯有限公司 system for building situation awareness
CN108571962B (en) * 2017-03-13 2023-11-03 劳斯莱斯有限公司 System for building situational awareness
CN113126640A (en) * 2019-12-31 2021-07-16 北京三快在线科技有限公司 Obstacle detection method and device for unmanned aerial vehicle, unmanned aerial vehicle and storage medium
CN113126640B (en) * 2019-12-31 2022-06-28 北京三快在线科技有限公司 Obstacle detection method and device for unmanned aerial vehicle, unmanned aerial vehicle and storage medium
CN111429520A (en) * 2020-03-02 2020-07-17 广州视源电子科技股份有限公司 Negative obstacle detection method and device, terminal device and storage medium
CN111429520B (en) * 2020-03-02 2023-11-03 广州视源电子科技股份有限公司 Negative obstacle detection method, device, terminal equipment and storage medium
CN111427363A (en) * 2020-04-24 2020-07-17 深圳国信泰富科技有限公司 Robot navigation control method and system
CN111427363B (en) * 2020-04-24 2023-05-05 深圳国信泰富科技有限公司 Robot navigation control method and system
CN115040031A (en) * 2021-02-26 2022-09-13 云米互联科技(广东)有限公司 Environmental information acquisition method, sweeper, terminal equipment and readable storage medium
CN115040031B (en) * 2021-02-26 2024-03-29 云米互联科技(广东)有限公司 Environment information acquisition method, sweeper, terminal equipment and readable storage medium
CN113900435A (en) * 2021-08-31 2022-01-07 深圳蓝因机器人科技有限公司 Mobile robot obstacle avoidance method, equipment, medium and product based on double cameras

Also Published As

Publication number Publication date
FR3039904A1 (en) 2017-02-10
FR3039904B1 (en) 2019-06-14
EP3332299A1 (en) 2018-06-13

Similar Documents

Publication Publication Date Title
FR3039904B1 (en) DEVICE AND METHOD FOR DETECTING OBSTACLES ADAPTED TO A MOBILE ROBOT
US10884110B2 (en) Calibration of laser and vision sensors
CA2940824C (en) Variable resolution light radar system
US10776639B2 (en) Detecting objects based on reflectivity fingerprints
US11657595B1 (en) Detecting and locating actors in scenes based on degraded or supersaturated depth data
US11754721B2 (en) Visualization and semantic monitoring using lidar data
US11527084B2 (en) Method and system for generating a bird's eye view bounding box associated with an object
Huh et al. Integrated navigation system using camera and gimbaled laser scanner for indoor and outdoor autonomous flight of UAVs
EP3152593B1 (en) Device for detecting an obstacle by means of intersecting planes and detection method using such a device
GB2573635A (en) Object detection system and method
Filisetti et al. Developments and applications of underwater LiDAR systems in support of marine science
Baek et al. Curbscan: Curb detection and tracking using multi-sensor fusion
EP2924458A2 (en) Method for detecting and displaying artificial obstacles of a rotary-wing aircraft
JP2022547262A (en) Systems and methods for changing the field of view of LIDAR
WO2014146884A1 (en) Method for observing an area by means of a drone
KR101888170B1 (en) Method and device for deleting noise in detecting obstacle by unmanned surface vessel
Rana et al. Comparative study of Automotive Sensor technologies used for Unmanned Driving
EP3757943B1 (en) Method and device for passive telemetry by image processing and use of three-dimensional models
US20240073545A1 (en) System and method for reducing stray light interference in optical systems
Guerrero-Bañales et al. Use of LiDAR for Negative Obstacle Detection: A Thorough Review
Hwang A Vehicle Tracking System Using Thermal and Lidar Data
WO2023107320A1 (en) Non-contiguous 3d lidar imaging of targets with complex motion

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16750807

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016750807

Country of ref document: EP