DE69732666T2 - Vorrichtung zur raumkoordinatenbestimmung und verfahren zu deren kalibrierung - Google Patents

Vorrichtung zur raumkoordinatenbestimmung und verfahren zu deren kalibrierung Download PDF

Info

Publication number
DE69732666T2
DE69732666T2 DE69732666T DE69732666T DE69732666T2 DE 69732666 T2 DE69732666 T2 DE 69732666T2 DE 69732666 T DE69732666 T DE 69732666T DE 69732666 T DE69732666 T DE 69732666T DE 69732666 T2 DE69732666 T2 DE 69732666T2
Authority
DE
Germany
Prior art keywords
probe
control points
network
camera
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69732666T
Other languages
English (en)
Other versions
DE69732666D1 (de
Inventor
Alf Pettersen
Oyvind Rotvold
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metronor Industrial AS
Original Assignee
Metronor AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metronor AS filed Critical Metronor AS
Publication of DE69732666D1 publication Critical patent/DE69732666D1/de
Application granted granted Critical
Publication of DE69732666T2 publication Critical patent/DE69732666T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/58Wireless transmission of information between a sensor or probe and a control or evaluation unit

Description

  • Die vorliegende Erfindung bezieht sich auf ein System zur Bestimmung der Raumkoordinaten von Punkten und Verfahren, die sich auf die Kalibrierung einer Sonde beziehen und ihre Kontakteinheit und auf die Bestimmung der Position von Punkten in einem Netzwerk.
  • Das norwegische Patent Nr. 174 025 (WO 93/07443) beschreibt ein System zur Bestimmung von Raumkoordinaten von Punkten auf einer Oberseite oder einem Objekt, wobei die Messsonde in der Form eines Lichtstiftes hergestellt ist, der Lichtquellen aufweist, an bekannten Koordinaten relativ zu einem sondenfesten Koordinatensystem, und bei dem die Raumkoordinaten bestimmt werden, indem ein Bild der Lichtquellen auf einem Sensor in einer einzigen stationären Kamera aufgenommen wird. Die Position des Lichtstiftes wird folglich in einem Koordinatensystem bestimmt, das durch die Position der Kamera vorgegeben wird. Das System führt zu beschränkter Genauigkeit, gegeben durch die Abmessungen des Lichtstiftes und das Gesichtsfeld der Kamera.
  • Die norwegischen Patente Nr. 164 946 und 165 046 (WO 89/09922) beschreiben Systeme und Verfahren, die auf zwei oder mehr stationären oder beweglichen Kameras basieren. Große Genauigkeit wird erzielt unter Verwendung derselben, wobei der Messpunkt aus zwei oder mehreren Kamerapositionen beobachtet wird.
  • Es ist die Aufgabe der vorliegenden Erfindung, die Beschränkungen zu beseitigen, die mit bekannten Lösungen in Verbindung gebracht werden. Das System gemäß der vorliegenden Erfindung ist folglich gekennzeichnet durch die Merkmale, welche in den nachfolgenden Patentansprüchen dargelegt sind. Die Verfahren, die oben erwähnt werden, sind ebenso gekennzeichnet durch Merkmale, die in den nachfolgenden Ansprüchen dargelegt werden. Diese und zusätzliche unterschei dende Merkmale der Erfindung werden ebenso in der folgenden Beschreibung mit Bezug auf die beigefügten Zeichnungen dargelegt werden.
  • Neue miniaturisierte Kameras ermöglichen eine von Hand gehaltene Sonde, die eine Kamera enthält, und bei der ihre Position und Orientierung auf der Basis der Registrierung eines Bildes eines fest angebrachten Netzwerks von Referenzpunkten bestimmt wird. Der Unterschied vom vorhergehenden System, wie im norwegischen Patent Nr. 174 025 dargelegt, ist folglich jener, dass ein Netzwerk von Referenzpunkten stationär ist relativ zum Objekt, welches vermessen werden soll, während die Sonde, welche gemäß der vorliegenden Erfindung eine oder mehrere Kameras enthält, über das Objekt, welches zu messen ist, bewegt wird. Beträchtlich höhere Genauigkeit wird mit dieser Lösung erzielt als mit dem zuvor patentierten System basierend auf einer Kamera und einem Lichtstift. Dies liegt an der Tatsache, dass Bilder von verschiedenen Punkten bei jeder Aufnahme gemacht werden können und ihre geometrische Verteilung derartig angepasst werden können, so dass sie über das gesamte Gesichtsfeld der Kamera verteilt sind und in verschiedenen Abständen von der kamera-basierenden Sonde.
  • Die erzielbare Genauigkeit mit dieser Systemlösung ist vergleichbar mit jenem, was zuvor mit einem Minimum von zwei Kameras erzielbar war, welche das zu vermessende Objekt von zwei verschiedenen Betrachtungsrichtungen betrachten. Die Erfindung stellt deswegen ein System bereit, das viel einfacher ist, geringeres Gewicht und Komplexität aufweist und niedrige Herstellungskosten.
  • Die Sonde kann ebenso drahtlos hergestellt werden, wobei das Bild von der Kamera zu einer Zentraleinheit über Funksignale oder Infrarot-Kommunikation übertragen wird.
  • 1a und 1b zeigen ein Messsystem und dessen Verwendung.
  • 2a, 2b und 2c zeigen eine kamera-basierende Sonde, jeweils in Seitenansicht, Draufsicht und von unten.
  • 3 zeigt ein vereinfachtes ideales Kameramodell.
  • 4 zeigt die Bestimmung einer Kameraposition in einem Netzwerk, das bekannte Koordinaten aufweist.
  • 5 zeigt, wie die Position der Kontakteinheit bestimmt werden kann.
  • 6 zeigt eine Sonde mit verschiedenen Kameraeinheiten.
  • 7 veranschaulicht die Verwendung der Erfindung zur dreidimensionalen Messung in Verbindung mit einem dreidimensionalen Objekt, z.B. einem Fahrzeugmodell.
  • 8 zeigt das Prinzip der drahtlosen Übertragung der Signale zwischen Sonde und Systemeinheit.
  • 9 zeigt die Sonde, die auf einem Roboter angebracht ist.
  • Das Messsystem und die Verwendung desselben werden in 1a und 1b skizziert. Das System besteht aus einer Messsonde 1, die auf einer oder mehreren Kameras basiert, in einer Einheit, und einem Netzwerk 2 von Kontrollpunkten 3, einer Systemeinheit, die eine Computereinheit 5 enthält, und eine Bedienkonsole 6, 7. Gewöhnlich wird die Bedienkonsole aus einer Tastatur 6 und einem Monitor 7 bestehen. Die Messsonde 1 ist normalerweise mit der Systemeinheit 5 über ein Kabel 8 verbunden. Das Prinzip der Messung ist jenes, dass die kamerabasierende Sonde 1 das Objekt 4 an dem Punkt berührt, dessen Koordinate zu bestimmen ist, dass die Kamera in dieser Position Bilder des gesamten oder von Teilen des Netzwerks 2 von Kontrollpunkten 3 aufnimmt und dass die räumliche Position der Sonde auf der Basis des aufgenommenen Bildes berechnet wird.
  • Wie gezeigt in 2a, 2b und 2c besteht die Sonde aus einer Kamera 9 mit einem Handgriff 12, der darauf angebracht ist, Aufnahmeknopf 13 und Kontakteinheit 14. Normalerweise ist die Kamera eine Videokamera 10, z.B. basierend auf CCD (Charge Coupled Device)- oder CID(Charge Injected Device)-Sensortechnologie, mit Linse 11. Der Aufnahmeknopf 13 wird betätigt, um eine Bildherstellung des Netzwerkes 2 von Kontrollpunkten 3 auszulösen. Die Kontakteinheit 14 ist eine ersetzbare Einheit, z.B. in der Form einer Spitze oder Kugel. Die Position der Sonde 1 steht mit dem Zentrum der Kontakteinheit 14 in Bezug. Dies setzt voraus, dass die Position des Zentrums relativ zum Koordinatensystem der Sonde 1 bekannt ist. Verfahren dafür werden nachfolgend beschrieben. Falls die Kontakteinheit 14 eine Kugel ist, muss die Analyse der Messergebnisse einen Ausgleich für den Radius der Kugel beinhalten. Dies könnte vermieden werden, indem stattdessen eine spitzenförmige Kontakteinheit verwendet wird.
  • Gemäß dem Kameramodell, welches in 3 skizziert wird, kann die Optik 11 der Kamera 9 als kleines Loch dargestellt werden, ein sogennantes „Nadelöhr" 17. Bilder von allen Punkten 3 werden auf dem Sensor 10 als ideale rechtwinklige Projektion durch das Loch 17 aufgezeichnet (das Projektionszentrum) eines Bildpunktes 18. In einer praktischen Kamera wird der Linsenfehler, so wie eine Verzerrung, bewirken, dass die gerade Linie vom Objektpunkt durch die Linse abgefälscht werden wird. Es ist möglich, den Fehler, der als Ergebnis dieser Abweichung vom einfachsten Kameramodell auftritt, zu kompensieren, indem die Kamera kalibriert wird. In diesem Kontext bedeutet Kalibrieren das Bestimmen der Beziehung zwischen dem wahren Bild eines Punktes auf dem Sensor und der räumlichen Richtung des Punktes relativ zu einem kamerafesten Koordinatensystem.
  • Ein Netzwerk 2 von Kontrollpunkten 3 ist um das zu messende Objekt herum angebracht. In 1 und 2 sind Kontrollpunkte lediglich auf einer Ebene auf einer Seite des zu messenden Objektes vorgegeben. Es würde vorteilhaft sein, Kontrollpunkte auf verschiedenen Seiten des Objekts zu haben, optional oberhalb und/oder unterhalb und in verschiedenen Abständen vom Objekt. Dies würde eine verbesserte Genauigkeit bewirken und unzweideutige mathematische Lösungen sicherstellen. Die Kontrollpunkte sind so geformt, dass sie einfach in Bezug auf den Hintergrund identifizierbar sind. Dies kann sein als Punkte oder Muster (Kreise, Kreuze), die in weiß auf einen schwarzen Hintergrund gemalt sind, reflektierende Messpunkte, sogenannte Targets, oder aktive Lichtquellen (z.B. licht emittierende Dioden). Andere leicht identifizierbare Muster können ebenso verwendet werden. Um reflektierende Ziele aufzunehmen, sollte die Kamera eine kraftvolle Lichtquelle aufweisen, die darauf montiert ist, d.h. eine Blitzeinheit 15, welche die Punkte 3 beleuchtet, wenn Bilder erzeugt werden. Falls aktive Lichtquellen anstatt von reflektierenden Zielen verwendet werden, können diese fortwährend an sein oder können synchron mit der Aufnahmesteuerung der Kamera eingeschaltet werden.
  • Das Netzwerk 2 kann auf einem beweglichen Objekt, d.h. einem Rahmen, montiert sein, welches zum zu messenden Objekt gebracht wird.
  • Die Position der individuellen Kontrollpunkte 3 im Netzwerk 2 müssen bekannt sein, mit der größtmöglichen Genauigkeit, um dazu in der Lage zu sein, die Position der Sonde 1 auf der Basis eines einzelnen Bildes zu berechnen. Verfahren zur Bestimmung der Position der Kontrollpunkte in Bezug aufeinander werden nachfolgend beschrieben.
  • Die Bestimmung der Kameraposition relativ zum Netzwerk von Punkten 2, die bekannte Koordinaten aufweisen, wird nachfolgend in größerem Detail beschrieben. Um diese Beschreibung zu verstehen, ist es wesentlich, zwischen den folgenden Koordinatensystemen zu unterscheiden:
    • • Das räumliche Koordinatensystem des Netzwerks. Die Koordinaten von Netzwerkpunkten 3 sind bekannt relativ zu diesem Koordinatensystem.
    • • Das interne Koordinatensystem der Kamera (Sonde). Alle Aufnahmen durch den Sensor der Kamera stehen zu diesem Koordinatensystem in Bezug.
    • • Das Koordinatensystem des zu messenden Objektes. Wenn z.B. Punkte auf einem Fahrzeugkörper vermessen werden, ist es wünschenswert, dass diese zu einem fahrzeugfesten Koordinatensystem in Bezug stehen. Ein Koordinatensystem dieser Art wird durch spezifische Punkte auf dem Ob jekt vorgegeben, wobei diese Punkte definiert werden, indem sie bestimmte Koordinatenwerte haben.
  • Das Bild des Netzwerks 2 von Kontrollpunkten 3 liefert eine Anzahl von Bildpunkten 18 auf dem Sensor 10 der Kamera, wie gezeigt in 4. Auf der Basis dieser aufgenommenen Bildpunkte im Koordinatensystem der Kamera (Sonde) und dem Wissen der räumlichen Koordinaten der Kontrollpunkte 3 in einem stationären, raumfesten Koordinatensystem ist es möglich, die Position und Orientierung der Sonde 1 relativ zum stationären, raumfesten Koordinatensystem 2 zu berechnen.
  • Es gibt verschiedene Verfahren zur Durchführung dieser Berechnung. Das einfachste wäre, eine direkte Koordinatentransformation zwischen den Koordinaten der Bildpunkte im kamerafesten Koordinatensystem und den zugeordneten, bekannten Koordinaten der Punkte des Koordinatensystems des Netzwerks durchzuführen. Ein genaues und anerkanntes Verfahren besteht in der Herstellung einer Bündeljustage, wie bekannt aus der photogrammetrischen Technik.
  • Eine wirksame Berechnung setzt voraus, dass es bekannt ist oder rasch entdeckt wird, welche Bildpunkte welchen Punkten im Netzwerk entsprechen. Dies kann auf den Punkten im Netzwerk basieren, welche in leicht erkennbaren Mustern angeordnet sind, und darin, dass Standardalgorithmen zur Mustererkennung zur Identifikation verwendet werden.
  • Es gibt keine Beschränkungen für die Orientierung der Sonde 1, aber die Genauigkeit der Bestimmung ihrer Position und ihrer Orientierung wird davon abhängen, von wie vielen der Kontrollpunkte 3 Bilder gemacht werden und deren räumlichen Verteilung. Die Bildherstellung der Netzwerkpunkte muss so schnell stattfinden, dass Vibrationen der Bewegungen des Bedieners keinen Einfluss auf die Messgenauigkeit haben. Die Aufnahmezeit wird typischerweise ungefähr 1/1000 Sekunde betragen.
  • Ein Verfahren zur Kalibrierung einer Videokamera, um die räumliche Richtung zu bestimmen, wird im norwegischen Patent Nr. 165 046 beschrieben. Auf dem Gebiet der Photogrammetrie sind andere Verfahren bekannt, die auf einem Netzwerk von bekannten Punkten in bekannten oder unbekannten Positionen basieren, das von einer Kamera in verschiedenen Positionen und Orientierungen relativ zum Netzwerk fotografiert wird. Die Kalibrierung der Kamera besteht in einer Anzahl von Korrekturparametern, die bestimmt werden, so dass das Bild eines Punktes als eine ideale Projektion durch das Projektionszentrum der Kamera betrachtet werden kann. Als eine Alternative zu Korrekturparametern kann eine Kalibrierungstabelle abgeschätzt werden, die der Beziehung zwischen dem realen und idealen Bild eines Punktes entspricht.
  • Photogrammetrische Kalibrierungsverfahren sind beschrieben in z.B. H. M. Kamara (Ed.): Nicht-tophographische Photogrammetrie. Zweite Auflage, 1987.
  • Die Kalibrierung der Kontakteinheit relativ zu einem sondenfesten Koordinatensystem wird nun in mehr Detail beschrieben werden. Wenn ein Punkt vermessen wird, muss die Position der Sonde 1 in Bezug auf das Zentrum der Kontakteinheit 14 stehen. Dies erfordert das Wissen der Position der Kontakteinheit 14 relativ zum Koordinatensystem der Sonde 1 (Kamera). Ein einfaches Verfahren zur Bestimmung der Position der Kontakteinheit 14 wird in 5 skizziert. Dies besteht im Halten der Kontakteinheit 14 an einem festen Punkt, während die Sonde selbst um den festen Punkt herum bewegt wird. Eine Anzahl von Aufnahmen (z.B. wie im veranschaulichten Beispiel) der Position und Orientierung der Sonde 1 (Kamera) relativ zum Netzwerk 2 werden bei verschiedenen Orientierungen der Sonde durchgeführt. Durch Kombination der aufgenommenen Position und Orientierung der Sonde 1 für jede Aufnahme mit Information darüber, dass der Kontaktpunkt 14 stillgehalten wurde, kann die Position des Zentrums der Kontakteinheit 14 relativ sowohl zum Netzwerkkoordinatensystem 2 als auch zum internen Koordinatensystem 1 der Sonde bestimmt werden.
  • Dieses Verfahren ist so einfach und schnell durchzuführen, dass es die Verwendung von ersetzbaren Kontakteinheiten ermöglicht, um verschiedene Längen und Orientierungen der Kontakteinheit relativ zum Rest der Sonde zu ermöglichen.
  • Die Koordinaten der individuellen Punkte 3 im Netzwerk 2 können bestimmt werden, indem Bilder der Kontrollpunkte 3 aus verschiedenen Richtungen mittels der Sondeneinheit 1 durchgeführt werden. Dies erfordert die Beobachtung von jedem individuellen Kontrollpunkt 3 aus einem Minimum von zwei verschiedenen Richtungen. Dieses Verfahren kann als separater Ablauf ausgeführt werden, indem eine vorkalibrierte Sondeneinheit verwendet wird, oder kann mit der Kalibrierung der Sonde kombiniert werden.
  • Um in der Lage zu sein, den Abmessungen des Netzwerks einen korrekten Maßstab zu geben, muss der Abstand zwischen einem Minimum von zwei der Punkten im Netzwerk bekannt sein, so dass er verwendet werden kann als Skalierungsfaktor bei der Bündeljustage. Falls es keine bekannten Abstände zwischen festen Punkten im Netzwerk gibt, ist es möglich, das Netzwerk zu vermessen, um einen Abstandstandard im Netzwerk bereitzustellen. Der Abstandstandard kann in der Form eines Messstabes 21 vorliegen, die Kontrollpunkte derselben Art wie im Netzwerk aufweist. Der Abstand zwischen diesen Kontrollpunkten muss bekannt sein.
  • Die Genauigkeit der Bestimmung der Position und Orientierung der Sonde wird durch eine Anzahl von geometrischen Faktoren beeinflusst werden:
    • • Abmessungen des Netzwerks und der Abstand zwischen der Sonde und dem Netzwerk
    • • Dichte und Form der Kontrollpunkte im Netzwerk
    • • das Gesichtsfeld der Kamera (Blendenöffnung)
  • Verbesserte Genauigkeit kann erzielt werden, indem verschiedene Kameraeinheiten mit zugeordneten Linsen 11', 11'', 11''' zusammen in einer einzigen Sonde montiert werden, wie gezeigt in 6a und 6b. Diese können gesamte oder teilweise überlappende Gesichtsfelder aufweisen, wie angezeigt in 6a, oder verschiedene Gesichtsfelder, wie angezeigt in 6b. Die gesamte Sonde kann denselben Grundbetriebsmodus aufweisen, wie zuvor beschrieben, für eine Sonde, die eine einzige Kamera enthält. Die Beobachtungen der individuellen Kameras werden alle zu einem gemeinsamen sondenfesten Koordinatensystem in Bezug stehen. Die Aufnahmedurchführung des Netzwerks muss synchron durch die individuellen Kameras durchgeführt werden.
  • Das Kalibrierungsverfahren, das für eine Sonde basierend auf einer Kamera beschrieben wurde, kann ausgeweitet werden, um mehrere Kameras in einer Einheit zu behandeln. Diese werden unabhängige Kalibrierungsparameter haben. Zusätzlich kann die Position und Orientierung der individuellen Kameras bestimmt werden relativ zum gemeinsamen sondenfesten Koordinatensystem.
  • 7 zeigt, wie die Sonde 1' verwendet werden kann, um die Punkte auf der Oberfläche eines Autos zu messen, und wobei das Netzwerk 2 in verschiedene Unternetzwerke 2', 2'' und 2''' von Punkten 3 unterteilt wird.
  • Um Probleme mit der Verkabelung mit der Sonde zu vermeiden, kann die Sonde drahtlos hergestellt werden, indem darin ein Modul 16, 17 installiert wird, um das Bild zu einem Empfangsmodul 18, 19 auf der Zentraleinheit über Funksignale oder Infrarot-Kommunikation zu übertragen. Es ist nicht notwendig, Steuerungssignale zurück zur Sondeneinheit zu führen. 8 zeigt, wie die Sonde 1 mit einem Sender 16 verbunden ist, der eine Antenne 17 aufweist, und wo die Systemeinheit 5 mit einem Empfänger 18 ausgestattet ist, der eine Antenne 19 aufweist. Obwohl die Konfiguration primär für Funksignale bestimmt ist, kann es verstanden werden, dass die Anordnung mit einigen Abwandlungen ebenso zur Infrarot-Kommunikation geeignet ist.
  • Das Messverfahren kann automatisiert werden, indem die Sonde auf einem Roboter 20 oder einer anderen mechanischen Vorrichtung angebracht wird, um die Sonde zu einer Anzahl von ausgewählten Messpunkten zu führen. Die Sonde 1 kann eine Sensoreinheit 22 enthalten, um zu registrieren, dass die Kontakteinheit 14 sich in physikalischem Kontakt mit dem Objekt befindet. Wenn der Kontakt registriert wird, werden die Position und Orientierung der Sonde automatisch registriert, indem eine Aufnahme vom Netzwerk 2 gemacht wird.

Claims (9)

  1. System zur Bestimmung der Raumkoordinaten von Punkten, worin das System einen festen Bereich eines Netzwerks (2) von Kontrollpunkten (3) einbezieht, umfassend – eine manuelle oder mechanisch manipulierbare Messsonde (1; 1'), die wenigstens eine Kamera (9' 9'', 9''') enthält und worin die Messsonde (1; 1') für den physikalischen Kontakt mit einem Messpunkt auf einem Objekt (4) entworfen ist, welches über eine fest befestigte Kontakteinheit (14) gemessen werden soll, die von der Messsonde hervorspringt, welche eine bekannte, vorgegebene Position im Koordinatensystem der Messsonde hat; – eine Systemeinheit (5), welche die Position der Kontakteinheit (14) relativ zu einem Koordinatensystem berechnet, das durch die Kontrollpunkte (3) vorgegeben ist, auf der Basis der Bildherstellung von Kontrollpunkten (3) durch die Probe (1; 1') und der bekannten Position der Kontakteinheit (14) im Koordinatensystem der Messsonde (1; 1'), und worin – die Kontrollpunkte (3) aus einem oder mehreren der folgenden Typen bestehen: aktive Lichtquellen, passive Lichtquellen, lichtreflektierende Ziele, einfach identifizierbare Objekte oder Muster, wobei das Netzwerk (2) von Kontrollpunkten (3) auf einem beweglichen Objekt angebracht ist.
  2. System wie offenbart in Anspruch 1, bei dem – die Messsonde (1; 1') einen Kontaktsensor (20) aufweist, welcher funktional mit der Kontakteinheit (14) verbunden ist, zur Registrierung eines mechanischen Kontakts zwischen der Kontakteinheit (14) und dem Objekt (4), welches gemessen werden soll am Messpunkt, wobei der Kontaktsensor (20) bei der Registrierung die automatische Positionsmessung veranlasst.
  3. System wie offenbart in Anspruch 1, bei dem – die Messsonde 1 mit einer leistungsfähigen Lichtquelle ausgestattet ist, d.h. einer Blitzeinheit (15).
  4. Verfahren zur Kalibrierung einer Messsonde in einem System, das verwendet wird, um die Raumkoordinaten von Punkten zu bestimmen, wobei das System beinhaltet: einen festen Bereich von Netzwerkkontrnllpunkten, eine manuell oder mechanische manipulierbare Messsonde, die wenigstens eine Kamera enthält, wobei die Messsonde für physikalischen Kontakt mit einem Messpunkt entworfen ist, auf einem Objekt, welches über eine festangebrachte Kontakteinheit, die von der Messsonde vorspringt, gemessen werden soll, welche eine bekannte vorgegebene Position im Koordinatensystem der Messsonde hat, und eine Systemeinheit zur Berechnung der Position der Kontakteinheit relativ zu einem Koordinatensystem, das durch die Kontrollpunkte vorgegeben wird auf der Basis der Bildherstellung von Kontrollpunkten durch die Messsonde und der bekannten Position der Kontakteinheit im Koordinatensystem der Messsonde, wobei das Verfahren die Schritte aufweist, von: – Bewegung der wenigstens einen Kamera der Messsonde zu einer Anzahl von verschiedenen Beobachtungsrichtungen oder Orientierungen; – nachfolgend Aufzeichnung in der wenigstens einen Kamera von Bildern des festen Bereiches von Kontrollpunkten im Netzwerk aus den verschiedenen Beobachtungsrichtungen oder Orientierungen; – Korrelieren der aufeinanderfolgenden Bilder miteinander, um eine Anzahl von Korrekturparametern zu etablieren oder eine Kalibrierungstabelle, welche dem Verhältnis zwischen dem wirklichen und idealen Bild eines Punktes entspricht, das sich aus den optischen Eigenschaften der wenigstens einen Kamera ergibt.
  5. Verfahren wie offenbart in Anspruch 4, bei dem die Messsonde wenigstens zwei Kameras aufweist, das weiter die Schritte aufweist, von: – Veranlassung der Bestimmungen der optischen Eigenschaften von jeder Kamera durch Bündeljustage.
  6. Verfahren zur Bestimmung der Position von Kontrollpunkten in einem Netzwerk, welches Teil eines Systems ist, das zur Bestimmung von Raumkoordinaten von Punkten verwendet wird, wobei das System beinhaltet: einen festen Bereich eines Netzwerks von Kontrollpunkten, eine manuell oder mechanische manipulierbare Messsonde, welche wenigstens eine Kamera enthält, wobei die Messsonde für physikalischen Kontakt mit einem Messpunkt auf einem Objekt entworfen ist, welches über eine fest angebrachte Kontakteinheit gemessen werden soll, die von der Messsonde vorspringt, welche eine bekannte vorgegebene Position im Koordinatensystem der Messsonde einnimmt; und eine Systemeinheit zur Berechnung der Position der Kontakteinheit relativ zu einem Koordinatensystem vorgegeben durch die Kontrollpunkte auf der Basis der Bildherstellung der Kontrollpunkte durch die Messsonde und der bekannten Position der Kontakteinheit im Koordinatensystem der Messsonde, worin der Abstand zwischen wenigstens zwei Kontrollpunkten bekannt ist, wobei das Verfahren die Schritte umfasst von: – Bewegen der wenigstens einen Kamera einer kalibrierten Messsonde zu wenigstens zwei verschiedenen Beobachtungsrichtungen – Aufzeichnung in der wenigstens einen Kamera eines Bildes des festen Bereiches von Kontrollpunkten im Netzwerk aus den verschiedenen Beobachtungsrichtungen; – Etablierung einer Tabelle von Koordinatenwerten für die Kontrollpunkte in einem Koordinatensystem für das Netzwerk, die durch eine Auswahl von Kontrollpunkten vorgegeben sind.
  7. Verfahren wie offenbart in Anspruch 6, weiter umfassend den Schritt von – Veranlassung der Bestimmungen der Raumkoordinaten der Kontrollpunkte durch Bündeljustage.
  8. Verfahren zur Kalibrierung einer Messsonde in einem System, das zur Bestimmung von Raumkoordinaten von Punkten verwendet wird, wobei das System beinhaltet: einen festen Bereich eines Netzwerkes von Kontrollpunkten, eine manuell oder mechanisch manipulierbare Messsonde, die wenigstens eine Kamera beinhaltet, wobei die Messsonde für physikalischen Kontakt mit einem Messpunkt auf einem Objekt entworfen ist, welches über eine festangebrachte Kontakteinheit gemessen werden soll, die von der Messsonde hervorspringt, welche eine vorgegebene Position im Koordinatensystem der Messsonde einnimmt; und eine Systemeinheit zur Berechnung der Position der Kontakteinheit relativ zu einem Koordinatensystem, das durch die Kontrollpunkte vorgegeben ist auf der Basis der Bildherstellung von Kontrollpunkten durch die Messsonde und der bekannten Position der Kontakteinheit im Koordinatensystem der Messsonde, bei dem die Position der Kontrollpunkte in einem Netzwerk, die einen Teil des Systems bilden, gleichzeitig bestimmt wird, wobei der Abstand zwischen wenigstens zwei der Kontrollpunkte bekannt ist, wobei das Verfahren die Schritte aufweist von: – Bewegung der wenigstens einen Kamera der kalibrierten Messsonde zu wenigstens zwei verschiedenen Beobachtungsrichtungen; – Aufzeichnung in der wenigstens einen Kamera eines Bildes des festen Bereiches von Kontrollpunkten im Netzwerk aus den verschiedenen Beobachtungsrichtungen; – Etablierung einer Tabelle von Koordinatenwerten für die Kontrollpunkte in einem Koordinatensystem für das Netzwerk, vorgegeben durch eine Auswahl von Kontrollpunkten, und bei derselben Berechnung Korrelation der Bilder zur Etablierung einer Anzahl von Korrekturparametern oder einer Kalibrierungstabelle, die einer Relation zwischen dem wirklichen und dem idealen Bild eines Punktes entspricht.
  9. Verfahren zur Kalibrierung der Kontakteinheit auf einer Messsonde in einem System, das zur Bestimmung von Raumkoordinaten von Punkten verwendet wird, wobei das System beinhaltet: einen festen Bereich von Netzwerkkontrollpunkten, eine manuell oder mechanisch manipulierbare Messsonde, welche wenigstens eine Kamera enthält, wobei die Messsonde für physikalischen Kontakt mit einem Messpunkt auf einem Objekt entworfen ist, welches über eine festmontierte Kontakteinheit gemessen werden soll, die von der Messsonde vorspringt, welche eine bekannte vorgegebene Position im Koordinatensystem der Messsonde einnimmt; und eine Systemeinheit zur Berechnung der Position der Kontakteinheit relativ zu einem Koordinatensystem, das durch die Kontrollpunkte vorgegeben ist auf der Basis der Bilder von den Kontrollpunkten, die durch die Messsonde hergestellt werden und der bekannten Position der Kontakteinheit im Koordinatensystem der Messsonde, umfassend die Schritte von: – Bewegung der wenigstens einen Kamera der Messsonde zu einer Anzahl von verschiedenen Beobachtungsrichtungen oder Orientierungen, während ihre Kontakteinheit in Kontakt mit einem festen Referenzpunkt oder Messpunkt auf einem Objekt verbleibt; – Registrierung der Position und Orientierung der Messsonde relativ zu einem Netzwerk von Kontrollpunkten, indem in der wenigstens einen Kamera ein Bild eines festen Bereichs von Kontrollpunkten im Netzwerk für jede der Richtungen oder Orientierungen aufgezeichnet wird; – Kombinieren der aufgezeichneten Position und Orientierung der Messsonde für jede Aufzeichnung mit Information, dass der Kontaktpunkt für die Kontakteinheit derselbe ist, wodurch die Position des Zentrums der Kontakteinheit in Bezug auf das Netzwerkkoordinatensystem bestimmt wird und das interne Koordinatensystem der Messsonde.
DE69732666T 1996-07-22 1997-07-21 Vorrichtung zur raumkoordinatenbestimmung und verfahren zu deren kalibrierung Expired - Lifetime DE69732666T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
NO963047A NO303595B1 (no) 1996-07-22 1996-07-22 System og fremgangsmÕte for bestemmelse av romlige koordinater
NO963047 1996-07-22
PCT/NO1997/000189 WO1998004881A1 (en) 1996-07-22 1997-07-21 System and method for determining spatial coordinates

Publications (2)

Publication Number Publication Date
DE69732666D1 DE69732666D1 (de) 2005-04-07
DE69732666T2 true DE69732666T2 (de) 2005-12-29

Family

ID=19899637

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69732666T Expired - Lifetime DE69732666T2 (de) 1996-07-22 1997-07-21 Vorrichtung zur raumkoordinatenbestimmung und verfahren zu deren kalibrierung

Country Status (7)

Country Link
US (1) US6389158B1 (de)
EP (1) EP1015845B1 (de)
AT (1) ATE290201T1 (de)
AU (1) AU3636597A (de)
DE (1) DE69732666T2 (de)
NO (1) NO303595B1 (de)
WO (1) WO1998004881A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018123815A1 (de) * 2018-09-26 2020-03-26 Ebm-Papst Mulfingen Gmbh & Co. Kg Verfahren zur Positionsbestimmung in einem Raum

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NO313113B1 (no) * 1999-07-13 2002-08-12 Metronor Asa System for scanning av store objekters geometri
DE10012273B4 (de) * 2000-03-14 2006-09-28 Daimlerchrysler Ag Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
WO2001088471A1 (de) * 2000-05-16 2001-11-22 Steinbichler Optotechnik Gmbh Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes
US20020122117A1 (en) * 2000-12-26 2002-09-05 Masamichi Nakagawa Camera device, camera system and image processing method
JP4877891B2 (ja) * 2001-08-03 2012-02-15 株式会社トプコン 校正用被写体
US20050233770A1 (en) * 2002-02-06 2005-10-20 Ramsey Craig C Wireless substrate-like sensor
US20050224902A1 (en) * 2002-02-06 2005-10-13 Ramsey Craig C Wireless substrate-like sensor
US7289230B2 (en) * 2002-02-06 2007-10-30 Cyberoptics Semiconductors, Inc. Wireless substrate-like sensor
DE10303551A1 (de) * 2003-01-29 2004-08-12 Dr. Johannes Heidenhain Gmbh Verfahren zum Übertragen von Steuerbefehlen von einem Sendeelement zu einem Messtaster
EP1447644A1 (de) * 2003-02-14 2004-08-18 Metronor ASA Messung von räumlichen Koordinaten
DE50301235D1 (de) * 2003-07-17 2006-02-02 Axios 3D Services Gmbh Lokator und optisches Messsystem
US6950775B2 (en) * 2003-12-01 2005-09-27 Snap-On Incorporated Coordinate measuring system and field-of-view indicators therefor
US7403295B2 (en) * 2004-10-25 2008-07-22 Hoya Corporation Position-detecting system
DE202006020719U1 (de) 2006-01-25 2009-08-27 Axios 3D Services Gmbh Positionsbestimmungssystem
WO2007098149A2 (en) * 2006-02-21 2007-08-30 Cyberoptics Semiconductor, Inc. Capacitive distance sensing in semiconductor processing tools
US7893697B2 (en) * 2006-02-21 2011-02-22 Cyberoptics Semiconductor, Inc. Capacitive distance sensing in semiconductor processing tools
GB2455006A (en) 2006-09-29 2009-05-27 Cyberoptics Semiconductor Inc Substrate-like particle sensor
US7778793B2 (en) * 2007-03-12 2010-08-17 Cyberoptics Semiconductor, Inc. Wireless sensor for semiconductor processing systems
US20080246493A1 (en) * 2007-04-05 2008-10-09 Gardner Delrae H Semiconductor Processing System With Integrated Showerhead Distance Measuring Device
US20090015268A1 (en) * 2007-07-13 2009-01-15 Gardner Delrae H Device and method for compensating a capacitive sensor measurement for variations caused by environmental conditions in a semiconductor processing environment
EP2249580B1 (de) * 2009-05-05 2019-09-04 Kapsch TrafficCom AG Verfahren zur kalibrierung des bildes einer kamera
DE102009032262A1 (de) * 2009-07-08 2011-01-13 Steinbichler Optotechnik Gmbh Verfahren zur Bestimmung der 3D-Koordinaten eines Objekts
FR2980844B1 (fr) * 2011-10-03 2014-05-09 Renault Sa Procede d'etalonnage d'une barre de mise a l'echelle
EP2586396A1 (de) 2011-10-26 2013-05-01 Metronor AS System zur Sicherstellung der Präzision bei medizinischen Behandlungen
EP2698596A1 (de) * 2012-08-16 2014-02-19 Hexagon Technology Center GmbH Verfahren und System zur Bestimmung der räumlichen Koordinaten mit einer mobilen Koordinatenmessmaschine
CN103389072B (zh) * 2013-07-22 2015-04-22 北京信息科技大学 一种基于直线拟合的像点定位精度评估方法
JP6325896B2 (ja) 2014-03-28 2018-05-16 株式会社キーエンス 光学式座標測定装置
JP6325871B2 (ja) 2014-03-28 2018-05-16 株式会社キーエンス 光学式座標測定装置
JP6325877B2 (ja) 2014-04-18 2018-05-16 株式会社キーエンス 光学式座標測定装置
EP3141864B1 (de) * 2014-04-30 2019-06-05 Shinano Kenshi Co., Ltd. Messvorrichtung
WO2015166915A1 (ja) 2014-04-30 2015-11-05 シナノケンシ株式会社 計測装置
JP6316663B2 (ja) 2014-05-30 2018-04-25 株式会社キーエンス 座標測定装置
CN105423912A (zh) * 2015-11-05 2016-03-23 天津大学 光笔跟踪系统
US10024760B2 (en) * 2015-12-17 2018-07-17 General Electric Company Methods for monitoring turbine components
EP3203179B1 (de) * 2016-02-05 2019-04-03 Hexagon Technology Center GmbH Messmaschine auf grundlage einer deltaroboteranordnung
DE102016118617B4 (de) * 2016-09-30 2019-02-28 Carl Zeiss Industrielle Messtechnik Gmbh Messsystem
US10955236B2 (en) * 2019-04-05 2021-03-23 Faro Technologies, Inc. Three-dimensional measuring system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NO174025C (no) * 1991-10-11 1994-03-02 Metronor Sa System for punktvis maaling av romlige koordinater
US5175601A (en) * 1991-10-15 1992-12-29 Electro-Optical Information Systems High-speed 3-D surface measurement surface inspection and reverse-CAD system
US5305091A (en) * 1992-12-07 1994-04-19 Oreo Products Inc. Optical coordinate measuring system for large objects
JP3000819B2 (ja) * 1993-03-15 2000-01-17 松下電器産業株式会社 三次元測定用プローブ及び形状測定方法
US5557410A (en) 1994-05-26 1996-09-17 Lockheed Missiles & Space Company, Inc. Method of calibrating a three-dimensional optical measurement system
NO301999B1 (no) * 1995-10-12 1998-01-05 Metronor As Kombinasjon av laser tracker og kamerabasert koordinatmåling

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018123815A1 (de) * 2018-09-26 2020-03-26 Ebm-Papst Mulfingen Gmbh & Co. Kg Verfahren zur Positionsbestimmung in einem Raum

Also Published As

Publication number Publication date
NO963047L (no) 1998-01-23
DE69732666D1 (de) 2005-04-07
US6389158B1 (en) 2002-05-14
EP1015845B1 (de) 2005-03-02
EP1015845A1 (de) 2000-07-05
ATE290201T1 (de) 2005-03-15
WO1998004881A1 (en) 1998-02-05
NO963047D0 (no) 1996-07-22
NO303595B1 (no) 1998-08-03
AU3636597A (en) 1998-02-20

Similar Documents

Publication Publication Date Title
DE69732666T2 (de) Vorrichtung zur raumkoordinatenbestimmung und verfahren zu deren kalibrierung
DE69735273T2 (de) Messeinrichtung für fahrzeuge
EP1342051B1 (de) Kalibrierung eines messenden sensors auf einem koordinatenmessgerät mit einer kugel, deren mittelpunkt bekannt ist
EP2489977B1 (de) Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
EP2156139B1 (de) Vorrichtung und verfahren zum berührungslosen erfassen räumlicher koordinaten einer oberfläche
DE19721903C1 (de) Verfahren und Anlage zur meßtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE102011114674B4 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
DE102018200154A1 (de) Kalibrationsvorrichtung, Kalibrationsverfahren und Programm für einen visuellen Sensor
DE19618283A1 (de) Bildaufnahmevorrichtung und Verfahren für die dreidimensionale berührungsfreie Messung
DE102006048725A1 (de) Verfahren zum Ermitteln der Drehachse eines Fahrzeugrades
EP3182065A1 (de) Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
DE112010005008T5 (de) System und Verfahren zur Laufzeitbestimmung von Kamerafehlkalibrierung
DE112012005524T5 (de) Verfahren und Vorrichtung zur Verwendung von Gesten zur Steuerung eines Lasertrackers
DE10246067A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug
EP1497613A1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes
DE102006005036A1 (de) Vorrichtung und Verfahren zur verbesserten Formcharakterisierung
WO2012019877A1 (de) Verfahren zum kalibrieren eines messsystems und vorrichtung zum durchführen des verfahrens
DE102006004153A1 (de) Automatisches Einmessen kooperierender Roboter
DE102017100885B4 (de) Verfahren und vorrichtung zum erzeugen und projizieren eines 3d-thermogramms samt daten zu den aufnahmebedingungen
DE102017126495A1 (de) Kalibrierung eines stationären Kamerasystems zur Positionserfassung eines mobilen Roboters
DE102010031056A1 (de) Verfahren zum Kalibrieren eines Messsystems und eines Messplatzes zur Fahrzeugvermessung
DE102009047324A1 (de) Einrichtung und Verfahren für die Kalibrierung eines optischen Sensors
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts

Legal Events

Date Code Title Description
8364 No opposition during term of opposition