DE3523303A1 - Bearbeitungsanordnung - Google Patents

Bearbeitungsanordnung

Info

Publication number
DE3523303A1
DE3523303A1 DE19853523303 DE3523303A DE3523303A1 DE 3523303 A1 DE3523303 A1 DE 3523303A1 DE 19853523303 DE19853523303 DE 19853523303 DE 3523303 A DE3523303 A DE 3523303A DE 3523303 A1 DE3523303 A1 DE 3523303A1
Authority
DE
Germany
Prior art keywords
data
during
phase
correlation
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19853523303
Other languages
English (en)
Other versions
DE3523303C2 (de
Inventor
Christopher John Tucker
George Dr Brown
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BAE Systems Electronics Ltd
Original Assignee
GEC Marconi Ltd
Marconi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEC Marconi Ltd, Marconi Co Ltd filed Critical GEC Marconi Ltd
Publication of DE3523303A1 publication Critical patent/DE3523303A1/de
Application granted granted Critical
Publication of DE3523303C2 publication Critical patent/DE3523303C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • F41G7/343Direction control systems for self-propelled missiles based on predetermined target position data comparing observed and stored data of target position or of distinctive marks along the path towards the target

Description

Die Erfindung betrifft eine Bearbeitungsanordnung, die befä­ higt ist, unterschiedliche Aufgaben unter Benutzung einer ge­ meinsamen Hardware-Struktur auszuführen. Die Erfindung ist be­ sonders geeignet zum Leiten des Durchlaufes eines bewegten Kör­ pers unter Benutzung von Korrealationstechniken. Grundsätzlich unterschiedliche Leittechniken können bei verschiedenen Stufen der Überwachung und Leitung benutzt werden, und es ist vorge­ schlagen worden, bei jeder dieser unterschiedlichen Stufen einen speziellen Steuermechanismus zu benutzen. Eine solche Anordnung kann ungebührlich teuer und sperrig sein.
Die vorliegende Erfindung ist darauf gerichtet, eine verbesserte Bearbeitungsanordnung zu schaffen.
Dazu enthält in einer ersten Ausführungsform dieser Erfindung eine Korrelationsbearbeitungsanordnung zum Leiten eines Körpers Mittel, die während einer ersten Leitphase zur Korrelierung von Szenendaten wirksam sind, die während der Bewegung des Körpers gesammelt werden und die für die betrachtete Umgebung repräsen­ tativ sind, mit vorbestimmten gespeicherten Daten, die für ein erwartetes Blickfeld repräsentativ sind, wobei diese Mittel wäh­ rend einer weiteren Leitphase zum Korrelieren von Daten wirk­ sam sind, welche während der Bewegung des Körpers gesammelt wer­ den, mit Daten, die von Szenendaten abgeleitet werden, die vorher während der Bewegung des Körpers gesammelt werden, und Mittel zur Übertragung der Leitsteuerung von der ersten Betriebsphase zu der zweiten Betriebsphase in Abhängigkeit von der Position des Kör­ pers.
Nach einer zweiten Ausführungsform der Erfindung enthält ein Korrelationsprozessor zum Leiten eines sich in der Luft bewegen­ den Körpers längs eines Pfades Mittel zum Annehmen von für das betrachtete Terrain, über das der Körper sich bewegt, repräsenta­ tiven Szenendaten, Korrelationsmittel, die während einer Naviga­ tionsphase wirksam sind, von den Szenendaten abgeleitete Daten mit den von vorher gespeicherten, für die Terrainszenen, die der Kör­ per zu überschreiten erwartet wird, repräsentativen Daten, abgeleiteten Daten zu korrelieren, und die Ergebnisse der Korrelation zum Navigieren des Körpers benutzende Mittel, Mittel zum Erfassen einer Bestimmungsstelle und zum Umgestalten des Betriebes der Korrelationsmittel zur Verwendung während einer darauffolgenden Zielleitungsphase in der Weise, daß die Korrelationsmittel während der Zielleitungs­ phase wirksam sind, um von den Szenendaten abgeleitete Daten mit Szenendaten zu korrelieren, die vorher während der Bewegung des Körpers längs des Pfades gesammelt wurden, und Mittel, die die Resultate der während der Zielleitungsphase ausgeführten Korrelation zur Leitung des Körpers zu der Bestimmungsstelle benutzen.
Nach einer dritten Ausführungsform der Erfindung enthält eine Korrelationsbearbeitungsanordnung zum Leiten eines Körpers längs eines Pfades zu einem Bestimmungsort hin während einer ersten Leitphase zum periodischen Korrelieren von Binärszenendaten, die während der Bewegung des Körpers gesammelt werden und für seine Umgebung repräsentativ sind, mit vorbestimmten gespeicherten Bi­ närdaten, die für einen Abschnitt eines erwarteten Gesichtsfel­ des repräsentativ sind wirksame Korrelationsmittel, und während einer darauffolgenden Leitphase des Betriebes zum Korrelieren von mehrpegeligen digitalen Szenendaten, die während der Bewe­ gung des Körpers gesammelt wurden, mit gleichartigen Daten, die aus vorher während der Bewegung des Körpers gesammelten Daten ab­ geleitet sind, wirksame Korrelationsmittel, und während einer Zwi­ schenleitphase auf die Erfassung des Bestimmungsorts in der auf­ genommenen Umgebung reagierende Mittel zum Übertragen des Be­ triebes der Korrelationsmittel von binären Daten zu mehrpegeligen Daten.
Die Erfindung ist besonders zum Navigieren eines sich in der Lufthülle bewegenden Fahrzeuges über eine relativ große Entfer­ nung zu einer genau spezifizierten Bestimmungsstelle längs eines vorbestimmten Pfades geeignet. Um dies zu erreichen, wird die Be­ wegung des Fahrzeuges längs des Pfades zu seiner Bestimmung in drei unterschiedliche Phasen unterteilt. Die erste dieser Pha­ sen kann üblicherweise die Navigationsphase genannt werden, die zum genauen Leiten des Fahrzeuges über sehr große Entfer­ nungen geeignet ist. Die Navigationsphase wird erfüllt auf Grundlage von Szenenanpassungs-Korrelationstechniken, d. h. die Szene des Bodens, über den das Fahrzeug fliegt, wird mit ge­ speicherten Daten verglichen, die an Bord mitgeführt werden und dem Terrain entsprechen, über das das Fahrzeug zu fliegen erwartet wird, falls es seinen korrekten Kurs beibehält. Zu diesem Zweck führt das Fahrzeug eine optische oder eine Infra­ rotkamera oder dergleichen mit sich,um Videosignale zu erzeu­ gen, die für das äußere Blickfeld repräsentativ sind. Durch peri­ odisches Vergleichen der externen Szene und des entsprechenden Abschnittes der an Bord mitgeführten Daten wird die tatsächliche Position des Fahrzeuges bestimmt und kleinere Korrekturen für das Navigationssystem können hergestellt werden, um so den Kurs einzuhalten, der zur Bewegung des Fahrzeuges längs des vorbestimm­ ten Pfades erforderlich ist. Diese Navigationsphase hält an, bis das sich im Luftraum bewegende Fahrzeug genügend dicht zum Be­ stimmungsort oder Ziel gekommen ist, wie man üblicherweise sagen kann, um das Ziel innerhalb seinem Blickfeld aufzunehmen und zu beobachten. Die Aufnahme des Zieles wird während einer Zeit durchgeführt, die als Zielerfassungsphase bezeichnet wird.
Sobald das Ziel positiv identifiziert wurde, wird die Steuerung des Leitens in die dritte und abschließende Phase übergeführt, die als Zielleitphase bezeichnet wird. In der Zielleitphase wer­ den ausgewählte Blickfelder des identifizierten Zieles als Re­ ferenzdaten für darauffolgend erzeugte Blickfelder zurückgehalten, während der Körper sich dichter an das Ziel hin bewegt. Dieser Betrieb benutzt eine unterschiedliche Art von Bearbeitungsfähig­ keit, da es notwendig ist, die Identität des Zieles aufrecht zu erhalten, während sich seine Form und Ausrichtung in bezug zu dem Blickfeld ändert, da das Fahrzeug sich nähert und Manöver relativ zum Ziel unternimmt. Damit ist klar ersichtlich, daß während der Zielleitphase eine fortgesetzte und sehr rasche Überprüfung der Position des Fahrzeuges erforderlich ist, auch wenn die das Blickfeld repräsentierenden Datenmengen relativ gering sind. Das steht im Gegensatz zur Navigationsphase, bei der sehr große Datenmengen, die ein großes Gesichtsfeld repräsentieren, mit relativ nicht sehr häufig auftretenden Abständen bearbei­ tet werden.
Die Erfindung wird weiter beispielsweise anhand der Zeichnung erläutert, in der die einzige Figur - in schematischer Weise eine Bearbeitungsanordnung gemäß der Erfindung zeigt.
Mit Bezug auf die Zeichnung wird angenommen, daß das den Luft­ raum durchfliegende Fahrzeug ein solches ist, welches seine eigenen Flugparameter, wie Höhe, Zielrichtung und Geschwindig­ keit während des Fluges mißt. Diese Parameter werden in einen dafür bestimmten Steuerprozessor 1 eingeleitet, dessen Betrieb durch einen Systemüberwacher 2 bestimmt wird, der einen System­ speicher 3 benutzt, um den Flug des Körpers zu beeinflussen. Die drei Geräte Steuerprozessor 1, Systemüberwacher 2 und System­ speicher 3 können von ziemlich üblichem Aufbau sein. Das den Luftraum durch fliegende Fahrzeug überwacht sein Blickfeld typischerweise mittels einer Videokamera-Überwachungsanordnung 4, die ein be­ arbeitetes Videosignal erzeugt, das über eine Sensorschnitt­ stelle 5 und ein Filter 6 zu einem Szenenspeicher 7 geführt und dort zeitweilig gespeichert wird. Damit werden die externe Szene, die das sich im Luftraum bewegende Fahrzeug überfliegt, betref­ fende Daten periodisch in den Szenenspeicher 7 eingebracht, und periodisch unter Beeinflussung durch einen Zuordner (sequencer) 8 mit ausgewählten Daten verglichen, die in einem Referenz­ speicher 9 gehalten sind.
Die Daten im Referenzspeicher 9 werden von einem Hauptspeicher 10 abgezogen, wenn und sobald es erforderlich ist. Typischerweise hält der Hauptspeicher 10 alle möglichen Referenzszenen, von denen angenommen wird, daß das Fahrzeug sie überfliegt, und die Referenz­ szene, die der gegenwärtigen Stellung des Fahrzeuges entspricht, wird herausgezogen, wenn und sobald benötigt, und über einen Geo­ metrie-Prozessor 11 zu dem Referenzspeicher 9 geleitet, so daß ein bequemer Vergleich mit dem entsprechenden Gehalt des Sze­ nenspeichers 7 möglich ist. Das Filter 6 modifiziert die ankom­ menden Daten so, daß hervorstechende geometrische Merkmale, wie Straßenkreuzungen, Kanäle, Eisenbahnlinien, Flußmündungen usw. identifiziert werden. Das wird durch Erfassung von "Kanten" in dem Datenmuster erreicht und ein solches Filter ist in der Pa­ tentanmeldung in Großbritannien Nr. 8219081 beschrieben. Der Geometrie-Prozessor 11 ist zum Ausgleich der Höhe und Zielrich­ tung des sich im Luftraum bewegenden Körpers vorhanden. Er nimmt die in der Patentanmeldung in Großbritannien 8219082 beschriebene Form an. So kann er Vergrößerung und Winkelneigung bezüglich des überflogenen Terrains ausgleichen, so daß die in den Referenzspei­ cher 9 gelangenden Daten eine Größe und Ausrichtung besitzen, die denen der Daten im Szenenspeicher entspricht. Der Ähnlichkeitsgrad zwischen dem Inhalt des Szenenspeichers 7 und dem Inhalt des Refe­ renzspeichers 9 wird durch einen Korrelator 12 bestimmt, der sein Ausgangssignal an einen Analysator 13 weiterleitet, welcher ein Signal erzeugt, das den Ähnlichkeitsgrad repräsentiert und die Wahrscheinlichkeit bewertet, daß der sich im Luftraum bewegende Körper an einer bestimmten Stelle ist. Die Art in der die Daten in Ordnungsweise organisiert werden, so daß sie mit hoher Geschwin­ digkeit zu den beiden Eingängen des Zuordners geführt werden kön­ nen, ist in der Patentanmeldung P 34 47 93D.9 beschrieben.
Während dieser Phase befinden sich die Szenendaten und die Refe­ renzdaten in Binärform, da die zu behandelnde Datenmenge sehr groß sein kann, weil sie ein beträchtliches geografisches Gebiet überdeckt. Binärdaten sind außerordentlich geeignet zum Identi­ fizieren unterschiedlicher geografischer Merkmale wie Straßen­ kreuzungen oder Eisenbahnlinien.
Während der anfänglichen Navigationsphase werden alle in den Szenenspeicher 7 eingegebenen Daten von dem Videokamerasystem 4 abgeleitet. Auf diese Weise kann das Durchlaufen des sich im Luft­ raum bewegenden Fahrzeuges relativ zu bestimmten Landkennzeichen überwacht werden. So enthält der Hauptspeicher 10 vorbereitete Binärdaten, die vor dem Beginn des Fluges zusammengestellt wurden und sich auf bestimmte Straßenkreuzungen, Eisenbahnknoten, Seen und Flüsse, Küstenlinien, Flußmündungen usw. beziehen, in einem binären Format. Je nach der Geschwindigkeit des sich im Luftraum bewegenden Fahrzeuges werden die entsprechenden Infor­ mationsbilder zum richtigen Zeitpunkt ausgezogen und in den Re­ ferenzspeicher 9 eingegeben, nachdem sie vorher zur Berücksichti­ gung der Ausrichtung und Höhe des sich im Luftraum bewegenden Fahrzeuges modifiziert wurden, wie bereits erwähnt. Diese ge­ speicherten Daten werden dann mit den Realzeitdaten verglichen, die in den Szenenspeicher 7 gelangten. Wenn ein Abschnitt des Szenenspeichers gefunden ist, der vorher gespeicherten Daten entspricht, zeigt der Korrelationsanalysator an, daß die gegen­ wärtige Stellung des sich im Luftraum bewegenden Fahrzeuges be­ stimmt wurde.
Irgendwelche kleinen Stellungsfehler, d. h. Abweichungen von dem vorbestimmten Pfad, werden durch das Ausgangssignal so ausgegli­ chen, daß die Richtung, Geschwindigkeit oder Höhe des sich im Luftraum bewegenden Körpers geringfügig geändert wird, um ihn zu der nächstbezeichneten Referenzszene hin zu richten. Dieser Vor­ gang hält an, möglicherweise über viele 100 km, während das sich im Luftraum bewegende Fahrzeug sich stetig seiner vorbestimmten Be­ stimmung nähert. Der Abstand der Stellen der Referenzszenen wird selbstverständlich ausgewählt mit Bezug auf das Ausmaß der mög­ licherweise auftretenden Navigationsabweichung. In jedem Fall muß die Größe des Referenzgebietes und die Größe des Real zeit-Blick­ feldes, wie es durch das Videosignal bestimmt wird, ausreichend sein, um diese Navigationsabweichung zu erlauben, und ein Ein­ fangen der gegenwärtigen Position auch dann zu ermöglichen, wenn sie geringfügig von dem vorbestimmten Flugpfad abweicht.
Dieser Vorgang wird fortgesetzt, bis die Bestimmung oder das Ziel im Blickfeld gefunden wird. Damit wird eines der Bilder im Haupt­ speicher 10 aus der Darstellung des Zieles bestehen, wie es durch das sich im Luftraum nähernde Fahrzeug gesehen wird. Aus der Kenntnis des geplanten Flugweges und der verstrichenen Flugzeit wird die Erfassung des Zieles vorhergesagt, und das Leitsteuer­ system arbeitet in seiner zweiten, der Erfassungsphase.
Das Ziel kann eine geografische Gestaltung umfassen, in einer Weise, die analog zu den Daten ist, welche während der Navigations­ phase benutzt wurden, jedoch kann auch alternativ das Ziel ein Gehäuse oder Gebäude sein mit einem unterscheidungsfähigen ther­ mischen Kennzeichen. In diesem letzteren Falle wird ein nach vorne gerichteter Infrarotfühler zur Erfassung des Zieles benutzt. In weiter Sicht erscheint irgendein heißes Ziel als eine punktför­ mige Hitzequelle mit hohem Kontrast im Vergleich zu seiner Umge­ bung, und so kann sein Vorhandensein durch Verwendung einer ent­ sprechenden Filterausgestaltung hervorgehoben werden. Damit kann das Filter 6 benutzt werden, ein wahrscheinliches Ziel in großer Entfernung während der zweiten Leitphase zu identifizieren. Aus der Kenntnis der erwarteten Position des Zieles und der Höhe des sich im Luftraum bewegenden Körpers können unkorrekte Ziele ausgeschlossen werden, um ein Übergehen von der Navigationsphase als Reaktion auf Pseudorauschsignale zu vermeiden, die einem Ziel­ kennzeichen ähneln; es ist die Bestätigung wünschenswert, daß das Ziel an derselben Stelle in aufeinanderfolgenden Bildern des op­ tischen oder thermischen Fühlersystems erscheint.
Sobald ein Ziel erfaßt wurde, geht die Leitsteuerung in die dritte Betriebsphase über, und der Analysator 13 errechnet die Position der Zielflächenmitte und bestimmt einen Annäherungspfad. Während der dritten Phase, die als die Zielleitphase bezeichnet wird, muß der Körper seine eigene Position bezüglich des Zieles verfolgen, während er zur Erreichung des Zieles manövriert. Um dies zu er­ möglichen, wird eine Mehrpegeldaten-Bearbeitung benutzt, bei der die durch Graupegel gewährten Vorteile ausgenützt werden. Ein großes Gebiet des das Ziel umgebenden Geländes repräsentierende Videosignale werden vom Videoüberwachungssystem in den Szenen­ speicher eingebracht, und ein ebenfalls an dem Zielpunkt zentrier­ ter kleinerer Bereich wird unter Steuerung des Zuordners 8 in den Referenzspeicher 9 übertragen. Beide Sätze von Video­ signalen sind im Mehrpegelformat, und der Betrieb des Zuordners und des Korrealtionsanalysators geschieht viel schneller, da ir­ gendwelche kleinere Abweichungen von dem erforderlichen Flug­ pfad sehr schnell korrigiert werden müssen. Da jedoch die Größe der Szene relativ sehr gering ist, kann diese Bearbeitung durch den gleichen Zuordner und den gleichen Korrelationsanalysator ganz adäquat vorgenommen werden, auch wenn Mehrbit-Daten benutzt werden. Eine derartige Organisation des Korrelationsvorganges wird in der Patentanmeldung P 34 47 929.5 beschrieben.
Während dieser Phase bestimmt der Korrelatonsanalysator 13 Ziel­ bewegung relativ zum Körper durch Erfassen der Stellung der Spitze des termischen Kennzeichens des Zieles. Vorteilhafterweise sorgt er auch für die folgenden Funktionen:
  • 1. Die Erfüllung eines einfachen Vorhersagefilters, so daß, wenn das Ziel durch den Korrelationsvorgang innerhalb des Gesichts­ feldes des Überwachungssystemes nicht gefunden werden kann, seine Position vorhergesagt wird auf Grundlage der vorhergehen­ den Dynamik des Zieles.
  • 2. Die Erzeugung eines Fehlersignales für das Leitsystem des sich im Luftraum bewegenden Fahrzeuges.
  • 3. Die Bestimmung, wann die Inhalte des Referenzspeichers durch Übertragung von Daten vom Szenenspeicher erneuert werden - das ist periodisch notwendig, weil das Abbild des Zieles im Gesichtsfeld wächst, wenn das sich im Luftraum bewegende Fahr­ zeug näher zu dem Ziel gelangt, und, wenn der Speicher nicht nachgestellt würde, die Referenzdaten mehr und mehr dem realen Ziel unähnlicher wären, bis es nicht länger erfaßt werden könnte.
  • 4. Koordinaten für die Mitte des in den Szenenspeicher einzuge­ benden Bereiches zu schaffen für den darauffolgenden Betriebs­ bildrahmen.
Das in Funktion 2 erhaltene Fehlersignal wird dem Flugsteuersystem zugeführt, um den Flugpfad zu ändern. Die Referenz-Nachstell­ parameter werden zu dem Zuordner zurückgeführt, während die vorausgesagte oder wahre Zielposition zu der Sensorschnitt­ stelle zurückgeführt wird, um das Blickfeld für die Überwachung zu bestimmen.
Der Systemüberwacher 2 bewirkt eine Überwachung des Betriebes des Korrelationsanalysators 13 und seines Ausgangssignales, und stellt die Bearbeitungsanordnung so um, daß sie befähigt ist, nacheinander in den drei unterschiedlichen Leitphasen, die be­ schrieben wurden, zu arbeiten. Auf diese Weise kann eine relativ geringe Anzahl von Bearbeitungsblöcken benutzt werden, um die unterschiedlichen, jedoch analogen Funktionen während des Flu­ ges des sich im Luftraum bewegenden Fahrzeuges zu schaffen. Jeder Block ist von relativ einfacher und auf ein Ziel gerich­ teter Natur, und die Hauptblöcke sind in jedem Fall so aufgebaut, wie sie in den erwähnten vorherigen Patentanmeldungen beschrie­ ben sind.

Claims (3)

1. Korrelationsbearbeitungsanordnung, gekennzeich­ net durch Mittel, die während einer ersten Leitphase wirksam sind zur Korrelierung von während der Bewegung des Körpers gesammelten und für die aufgenommene Umgebung reprä­ sentativen Szenendaten mit vorbestimmten gespeicherten Daten, welche für ein erwartetes Gesichtsfeld repräsentativ sind, wobei die Mittel während einer weiteren Leitphase zur Korre­ lierung von Daten wirksam sind, welche während der Bewegung des Körpers gesammelt werden, mit von Szenendaten abgeleite­ ten Daten, die vorher während der Bewegung des Körpers ge­ sammelt sind, und von der Position des Körpers abhängigen Mitteln zum Übertragen der Leitsteuerung von der ersten Betriebsphase zu der zweiten Betriebsphase.
2. Korrelationsbearbeitungsanordnung zum Leiten eines sich im Luftraum bewegenden Körpers längs eines Pfades, gekenn­ zeichnet durch Mittel zum Annehmen von Szenendaten, die für das erfaßte Terrain, über das der Körper sich be­ wegt, repräsentativ sind, Korrelationsmittel, die während einer Navigationsphase zur Korrelierung von Daten tätig sind, welche von den Szenendaten abgeleitet sind, mit Daten, die von vorbestimmten gespeicherten, für die Terrainszenen, über die der Körper zu bewegen erwartet wird, repräsentativen Daten abgeleitet sind, und Mittel, die die Resultate der Korrelierung zum Navigieren des Körpers benutzen, Mittel zum Erfassen eines Bestimmungsortes und zum Umgestalten des Betriebes der Korre­ lationsmittel zur Verwendung während der nachfolgenden Ziel­ leitphase so, daß die Korrelationsmittel während der Ziel­ leitphase zum Korrelieren von Daten wirksam sind, welche von den Szenendaten abgeleitet sind, mit Szenendaten, die vorher während der Bewegung des Körpers längs des Weges gesammelt wurden, und Mittel, die die Ergebnisse der während der Ziel­ leitphase ausgeführten Korrelation zum Leiten des Körpers zu der Bestimmung benutzen.
3. Korrelationsbearbeitungsanordnung zum Leiten eines Körpers längs eines Weges zu einer Bestimmung hin, gekenn­ zeichnet durch Korrelationsmittel, die während einer ersten Leitphase wirksam sind zum periodichen Korrelieren von binären Szenendaten, welche während der Bewegung des Kör­ pers gesammelt werden, und die für seine Umgebung repräsen­ tativ sind, mit vorbestimmten gespeicherten Binärdaten, die für einen Abschnitt eines erwarteten Gesichtsfeldes repräsen­ tativ sind, und Korrelierungsmittel, die während einer darauf­ folgenden Leit-Betriebsphase wirksam sind zum Korrelieren von Mehrpegel-Digital-Szenendaten, welche während der Bewegung des Körpers gesammelt wurden, mit gleichartigen Daten, die von vorher während der Bewegung des Körpers gesammelten Daten abgeleitet sind, und Mittel, die während einer da­ zwischenliegenden Leitphase auf die Erfassung der Bestim­ mung in der aufgenommenen Umgebung reagieren zum Übertra­ gen des Betriebes der Korrelationsmittel von Binärdaten zu Mehrpegeldaten.
DE3523303A 1984-06-29 1985-06-28 Korrelationsprozessoranordnung Expired - Fee Related DE3523303C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GB8416616A GB2293067B (en) 1984-06-29 1984-06-29 Processor arrangement

Publications (2)

Publication Number Publication Date
DE3523303A1 true DE3523303A1 (de) 1996-05-02
DE3523303C2 DE3523303C2 (de) 1998-03-12

Family

ID=10563181

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3523303A Expired - Fee Related DE3523303C2 (de) 1984-06-29 1985-06-28 Korrelationsprozessoranordnung

Country Status (6)

Country Link
US (1) US5564650A (de)
DE (1) DE3523303C2 (de)
FR (1) FR2726104B1 (de)
GB (1) GB2293067B (de)
IT (1) IT8548288A0 (de)
NL (1) NL194282C (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5801970A (en) * 1995-12-06 1998-09-01 Martin Marietta Corporation Model-based feature tracking system
US6079665A (en) * 1996-11-04 2000-06-27 Trw Inc. Hyperspectral air-to-air missile seeker
US5881969A (en) 1996-12-17 1999-03-16 Raytheon Ti Systems, Inc. Lock-on-after launch missile guidance system using three dimensional scene reconstruction
US6260759B1 (en) * 1998-08-11 2001-07-17 Northrop Grumman Corporation Method for tracking a target having substantially constrained movement
DE19849857C2 (de) 1998-10-29 2003-08-21 Eads Deutschland Gmbh Fernlenkverfahren für ein unbemanntes Luftfahrzeug
DE10139846C1 (de) * 2001-08-14 2003-02-06 Daimler Chrysler Ag Geometrisches Matching zur Lösung von Lokalisationsproblemen
DE10158666A1 (de) * 2001-11-28 2003-06-18 Lfk Gmbh Vorrichtung und Verfahren zur autarken Zielführung eines Flugkörpers mit Hilfe außerhalb des Zielpunktes liegender Orientierungsmerkmale
IL157098A (en) * 2003-07-24 2009-07-20 Rafael Advanced Defense Sys Spectral tracking of a target
US7512462B2 (en) * 2004-11-16 2009-03-31 Northrop Grumman Corporation Automatic contingency generator
JP2007033434A (ja) * 2005-06-20 2007-02-08 Denso Corp 車両用現在位置検出装置、及び車両制御装置
US8406464B2 (en) * 2005-06-23 2013-03-26 Israel Aerospace Industries Ltd. System and method for tracking moving objects
CN1996194A (zh) * 2005-12-31 2007-07-11 清华大学 一种运动物体定位纠偏系统及其运动跟踪方法
US7970506B2 (en) * 2006-01-19 2011-06-28 Lockheed Martin Corporation System for maintaining communication between teams of vehicles
US8244455B2 (en) * 2008-09-09 2012-08-14 Honeywell International Inc. Apparatus and method for determining the position of a vehicle with respect to a terrain
DE102011010987A1 (de) * 2010-03-24 2011-09-29 Lfk-Lenkflugkörpersysteme Gmbh Navigationsverfahren für einen Flugkörper
US8525088B1 (en) * 2012-03-21 2013-09-03 Rosemont Aerospace, Inc. View-point guided weapon system and target designation method
IL219639A (en) 2012-05-08 2016-04-21 Israel Aerospace Ind Ltd Remote object tracking
US10212396B2 (en) 2013-01-15 2019-02-19 Israel Aerospace Industries Ltd Remote tracking of objects
IL224273B (en) 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
IL227982B (en) * 2013-08-15 2018-11-29 Rafael Advanced Defense Systems Ltd A missile system with navigation capability based on image processing
US11371806B2 (en) 2019-08-05 2022-06-28 Bae Systems Information And Electronic Systems Integration Inc. Midbody camera/sensor navigation and automatic target recognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2938853A1 (de) * 1979-09-26 1981-04-09 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luftfahrzeuge
DE3011556A1 (de) * 1980-03-26 1981-10-01 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luft- und/oder wasserfahrzeuge
DE3447930C1 (de) * 1983-07-15 1996-04-25 Marconi Gec Ltd Datenprozessor

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3459392A (en) * 1959-09-24 1969-08-05 Goodyear Aerospace Corp Passive homing guidance system
US3416752A (en) * 1966-03-23 1968-12-17 Martin Marietta Corp Correlation guidance system having multiple switchable field of view
US3943277A (en) * 1969-02-20 1976-03-09 The United States Of America As Represented By The Secretary Of The Navy Digital memory area correlation tracker
GB1568058A (en) * 1975-11-21 1980-05-21 Emi Ltd Tracking and/or huidance systems
DE2831825C2 (de) * 1978-07-20 1986-05-07 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Zielanflugverfahren für einen sich selbst lenkenden Flugkörper
DE2914693C2 (de) * 1979-04-11 1982-05-27 Messerschmitt-Bölkow-Blohm GmbH, 8000 München Vorrichtung zur Präzisionsnavigation
EP0069541A3 (de) * 1981-07-04 1985-12-27 Gec-Marconi Limited Datenverarbeitungsanordnung
US4546433A (en) * 1981-07-04 1985-10-08 Gec Avionics Limited Arrangement for processing data in a two-dimensional array
DE3241896A1 (de) * 1982-11-12 1984-05-17 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Verfahren zur verbesserung der bildverarbeitung bei optronischen flugkoerpererfassungsgeraeten
US4602336A (en) * 1983-05-16 1986-07-22 Gec Avionics Limited Guidance systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2938853A1 (de) * 1979-09-26 1981-04-09 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luftfahrzeuge
DE3011556A1 (de) * 1980-03-26 1981-10-01 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luft- und/oder wasserfahrzeuge
DE3447930C1 (de) * 1983-07-15 1996-04-25 Marconi Gec Ltd Datenprozessor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Wehrtechnik 10, 1979, S. 23-25 *

Also Published As

Publication number Publication date
GB8416616D0 (en) 1995-11-22
US5564650A (en) 1996-10-15
GB2293067A (en) 1996-03-13
DE3523303C2 (de) 1998-03-12
FR2726104A1 (fr) 1996-04-26
NL194282B (nl) 2001-07-02
GB2293067A8 (en) 1999-03-25
FR2726104B1 (fr) 1998-01-02
NL8501822A (nl) 1996-10-01
GB2293067B (en) 1996-07-10
NL194282C (nl) 2001-11-05
IT8548288A0 (it) 1985-06-27

Similar Documents

Publication Publication Date Title
DE3523303C2 (de) Korrelationsprozessoranordnung
DE69333693T2 (de) Leit- und Zielführungssystem
DE102017125493A1 (de) Verkehrszeichenerkennung
DE60202743T2 (de) Verfahren zur Erkennung einer Verkehrsumgebung und System zu dessen Durchführung
EP2916106B1 (de) Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
DE102016107705A1 (de) Reaktive Pfadplanung für autonomes Fahren
EP2963631B1 (de) Verfahren zum ermitteln eines parkplatzes aus einer anzahl von messpunkten
DE102007054950B4 (de) Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
EP1418444A1 (de) Verfahren zur Bestimmung einer Eigenbewegung eines Fahrzeugs
DE4138270C2 (de) Verfahren zur Navigation eines selbstfahrenden Landfahrzeugs
DE112019004290T5 (de) Vorrichtung und program zum erzeugen von fahrttrajektoriedaten in einerkreuzung und fahrzeugmontierte vorrichtung
DE102016205870A1 (de) Verfahren zur Bestimmung einer Pose eines wenigstens teilautomatisiert fahrenden Fahrzeugs in einer Umgebung mittels Landmarken
DE102018111935A1 (de) Bildverarbeitungssystem, Bildverarbeitungsverfahren, Informationsverarbeitungsvorrichtung und Aufzeichnungsmedium
Behringer et al. Autonomous road vehicle guidance from autobahnen to narrow curves
EP2387017B1 (de) Verfahren und Vorrichtung zur Erfassung von Verkehrsdaten aus digitalen Luftbildsequenzen
EP2799903A2 (de) Verfahren zur Erfassung von Geschwindigkeitsverstößen mit restriktiver Datenspeicherung
EP0290633B1 (de) Verfahren zum Erkennen von Änderungen in Fahrraum eines unbemannten Fahrzeuges
DE3626030C2 (de) Verfahren und Vorrichtung zur Entdeckung einer bevorstehenden Sichtverbindungsunterbrechung zwischen einem Flugzeug und einem Ziel, insbesondere in einem Laser-Feuerleitsystem
DE3512127A1 (de) Ortungs- und navigationssystem fuer landfahrzeuge
EP2394247B1 (de) Verfahren und vorrichtung zum betrieb eines videobasierten fahrerassistenzsystems in einem fahrzeug
DE112016001568T5 (de) Bildverarbeitungsapparat
DE4218600C2 (de) Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers
DE102022202548B3 (de) Verfahren zum Trainieren eines Computerprogrammprodukts
DD241471A1 (de) Verfahren und anordnung zur automatischen steuerung von luftbildkameras
DE3110691A1 (de) Navigations- und lenksystem fuer flugkoerper

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: BAE SYSTEMS ELECTRONICS LTD., FARNBOROUGH, HAMPSHI

8339 Ceased/non-payment of the annual fee