DE3523303A1 - Bearbeitungsanordnung - Google Patents
BearbeitungsanordnungInfo
- Publication number
- DE3523303A1 DE3523303A1 DE19853523303 DE3523303A DE3523303A1 DE 3523303 A1 DE3523303 A1 DE 3523303A1 DE 19853523303 DE19853523303 DE 19853523303 DE 3523303 A DE3523303 A DE 3523303A DE 3523303 A1 DE3523303 A1 DE 3523303A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- during
- phase
- correlation
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2226—Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2253—Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2273—Homing guidance systems characterised by the type of waves
- F41G7/2293—Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/34—Direction control systems for self-propelled missiles based on predetermined target position data
- F41G7/343—Direction control systems for self-propelled missiles based on predetermined target position data comparing observed and stored data of target position or of distinctive marks along the path towards the target
Description
Die Erfindung betrifft eine Bearbeitungsanordnung, die befä
higt ist, unterschiedliche Aufgaben unter Benutzung einer ge
meinsamen Hardware-Struktur auszuführen. Die Erfindung ist be
sonders geeignet zum Leiten des Durchlaufes eines bewegten Kör
pers unter Benutzung von Korrealationstechniken. Grundsätzlich
unterschiedliche Leittechniken können bei verschiedenen Stufen
der Überwachung und Leitung benutzt werden, und es ist vorge
schlagen worden, bei jeder dieser unterschiedlichen Stufen einen
speziellen Steuermechanismus zu benutzen. Eine solche Anordnung
kann ungebührlich teuer und sperrig sein.
Die vorliegende Erfindung ist darauf gerichtet, eine verbesserte
Bearbeitungsanordnung zu schaffen.
Dazu enthält in einer ersten Ausführungsform dieser Erfindung
eine Korrelationsbearbeitungsanordnung zum Leiten eines Körpers
Mittel, die während einer ersten Leitphase zur Korrelierung von
Szenendaten wirksam sind, die während der Bewegung des Körpers
gesammelt werden und die für die betrachtete Umgebung repräsen
tativ sind, mit vorbestimmten gespeicherten Daten, die für ein
erwartetes Blickfeld repräsentativ sind, wobei diese Mittel wäh
rend einer weiteren Leitphase zum Korrelieren von Daten wirk
sam sind, welche während der Bewegung des Körpers gesammelt wer
den, mit Daten, die von Szenendaten abgeleitet werden, die vorher
während der Bewegung des Körpers gesammelt werden, und Mittel zur
Übertragung der Leitsteuerung von der ersten Betriebsphase zu der
zweiten Betriebsphase in Abhängigkeit von der Position des Kör
pers.
Nach einer zweiten Ausführungsform der Erfindung enthält ein
Korrelationsprozessor zum Leiten eines sich in der Luft bewegen
den Körpers längs eines Pfades Mittel zum Annehmen von für das
betrachtete Terrain, über das der Körper sich bewegt, repräsenta
tiven Szenendaten, Korrelationsmittel, die während einer Naviga
tionsphase wirksam sind, von den Szenendaten abgeleitete Daten mit
den von vorher gespeicherten, für die Terrainszenen, die der Kör
per zu überschreiten erwartet wird, repräsentativen
Daten, abgeleiteten Daten zu korrelieren,
und die Ergebnisse der Korrelation zum Navigieren des Körpers
benutzende Mittel, Mittel zum Erfassen einer Bestimmungsstelle
und zum Umgestalten des Betriebes der Korrelationsmittel zur
Verwendung während einer darauffolgenden Zielleitungsphase in
der Weise, daß die Korrelationsmittel während der Zielleitungs
phase wirksam sind, um von den Szenendaten abgeleitete Daten
mit Szenendaten zu korrelieren, die vorher während der Bewegung
des Körpers längs des Pfades gesammelt wurden, und Mittel, die
die Resultate der während der Zielleitungsphase ausgeführten
Korrelation zur Leitung des Körpers zu der Bestimmungsstelle
benutzen.
Nach einer dritten Ausführungsform der Erfindung enthält eine
Korrelationsbearbeitungsanordnung zum Leiten eines Körpers längs
eines Pfades zu einem Bestimmungsort hin während einer ersten
Leitphase zum periodischen Korrelieren von Binärszenendaten, die
während der Bewegung des Körpers gesammelt werden und für seine
Umgebung repräsentativ sind, mit vorbestimmten gespeicherten Bi
närdaten, die für einen Abschnitt eines erwarteten Gesichtsfel
des repräsentativ sind wirksame Korrelationsmittel, und während
einer darauffolgenden Leitphase des Betriebes zum Korrelieren
von mehrpegeligen digitalen Szenendaten, die während der Bewe
gung des Körpers gesammelt wurden, mit gleichartigen Daten, die
aus vorher während der Bewegung des Körpers gesammelten Daten ab
geleitet sind, wirksame Korrelationsmittel, und während einer Zwi
schenleitphase auf die Erfassung des Bestimmungsorts in der auf
genommenen Umgebung reagierende Mittel zum Übertragen des Be
triebes der Korrelationsmittel von binären Daten zu mehrpegeligen
Daten.
Die Erfindung ist besonders zum Navigieren eines sich in der
Lufthülle bewegenden Fahrzeuges über eine relativ große Entfer
nung zu einer genau spezifizierten Bestimmungsstelle längs eines
vorbestimmten Pfades geeignet. Um dies zu erreichen, wird die Be
wegung des Fahrzeuges längs des Pfades zu seiner Bestimmung in
drei unterschiedliche Phasen unterteilt. Die erste dieser Pha
sen kann üblicherweise die Navigationsphase genannt werden,
die zum genauen Leiten des Fahrzeuges über sehr große Entfer
nungen geeignet ist. Die Navigationsphase wird erfüllt auf
Grundlage von Szenenanpassungs-Korrelationstechniken, d. h. die
Szene des Bodens, über den das Fahrzeug fliegt, wird mit ge
speicherten Daten verglichen, die an Bord mitgeführt werden
und dem Terrain entsprechen, über das das Fahrzeug zu fliegen
erwartet wird, falls es seinen korrekten Kurs beibehält. Zu
diesem Zweck führt das Fahrzeug eine optische oder eine Infra
rotkamera oder dergleichen mit sich,um Videosignale zu erzeu
gen, die für das äußere Blickfeld repräsentativ sind. Durch peri
odisches Vergleichen der externen Szene und des entsprechenden
Abschnittes der an Bord mitgeführten Daten wird die tatsächliche
Position des Fahrzeuges bestimmt und kleinere Korrekturen für
das Navigationssystem können hergestellt werden, um so den Kurs
einzuhalten, der zur Bewegung des Fahrzeuges längs des vorbestimm
ten Pfades erforderlich ist. Diese Navigationsphase hält an, bis
das sich im Luftraum bewegende Fahrzeug genügend dicht zum Be
stimmungsort oder Ziel gekommen ist, wie man üblicherweise sagen
kann, um das Ziel innerhalb seinem Blickfeld aufzunehmen und zu
beobachten. Die Aufnahme des Zieles wird während einer Zeit
durchgeführt, die als Zielerfassungsphase bezeichnet wird.
Sobald das Ziel positiv identifiziert wurde, wird die Steuerung
des Leitens in die dritte und abschließende Phase übergeführt,
die als Zielleitphase bezeichnet wird. In der Zielleitphase wer
den ausgewählte Blickfelder des identifizierten Zieles als Re
ferenzdaten für darauffolgend erzeugte Blickfelder zurückgehalten,
während der Körper sich dichter an das Ziel hin bewegt. Dieser
Betrieb benutzt eine unterschiedliche Art von Bearbeitungsfähig
keit, da es notwendig ist, die Identität des Zieles aufrecht zu
erhalten, während sich seine Form und Ausrichtung in bezug zu dem
Blickfeld ändert, da das Fahrzeug sich nähert und Manöver relativ
zum Ziel unternimmt. Damit ist klar ersichtlich, daß während der
Zielleitphase eine fortgesetzte und sehr rasche Überprüfung der
Position des Fahrzeuges erforderlich ist, auch wenn die das
Blickfeld repräsentierenden Datenmengen relativ gering sind.
Das steht im Gegensatz zur Navigationsphase, bei der sehr
große Datenmengen, die ein großes Gesichtsfeld repräsentieren,
mit relativ nicht sehr häufig auftretenden Abständen bearbei
tet werden.
Die Erfindung wird weiter beispielsweise anhand der Zeichnung
erläutert, in der die einzige Figur - in schematischer Weise eine
Bearbeitungsanordnung gemäß der Erfindung zeigt.
Mit Bezug auf die Zeichnung wird angenommen, daß das den Luft
raum durchfliegende Fahrzeug ein solches ist, welches seine
eigenen Flugparameter, wie Höhe, Zielrichtung und Geschwindig
keit während des Fluges mißt. Diese Parameter werden in einen
dafür bestimmten Steuerprozessor 1 eingeleitet, dessen Betrieb
durch einen Systemüberwacher 2 bestimmt wird, der einen System
speicher 3 benutzt, um den Flug des Körpers zu beeinflussen.
Die drei Geräte Steuerprozessor 1, Systemüberwacher 2 und System
speicher 3 können von ziemlich üblichem Aufbau sein. Das den
Luftraum durch fliegende Fahrzeug überwacht sein Blickfeld typischerweise
mittels einer Videokamera-Überwachungsanordnung 4, die ein be
arbeitetes Videosignal erzeugt, das über eine Sensorschnitt
stelle 5 und ein Filter 6 zu einem Szenenspeicher 7 geführt und
dort zeitweilig gespeichert wird. Damit werden die externe Szene,
die das sich im Luftraum bewegende Fahrzeug überfliegt, betref
fende Daten periodisch in den Szenenspeicher 7 eingebracht, und
periodisch unter Beeinflussung durch einen Zuordner (sequencer)
8 mit ausgewählten Daten verglichen, die in einem Referenz
speicher 9 gehalten sind.
Die Daten im Referenzspeicher 9 werden von einem Hauptspeicher 10
abgezogen, wenn und sobald es erforderlich ist. Typischerweise
hält der Hauptspeicher 10 alle möglichen Referenzszenen, von denen
angenommen wird, daß das Fahrzeug sie überfliegt, und die Referenz
szene, die der gegenwärtigen Stellung des Fahrzeuges entspricht,
wird herausgezogen, wenn und sobald benötigt, und über einen Geo
metrie-Prozessor 11 zu dem Referenzspeicher 9 geleitet, so daß
ein bequemer Vergleich mit dem entsprechenden Gehalt des Sze
nenspeichers 7 möglich ist. Das Filter 6 modifiziert die ankom
menden Daten so, daß hervorstechende geometrische Merkmale, wie
Straßenkreuzungen, Kanäle, Eisenbahnlinien, Flußmündungen usw.
identifiziert werden. Das wird durch Erfassung von "Kanten" in
dem Datenmuster erreicht und ein solches Filter ist in der Pa
tentanmeldung in Großbritannien Nr. 8219081 beschrieben. Der
Geometrie-Prozessor 11 ist zum Ausgleich der Höhe und Zielrich
tung des sich im Luftraum bewegenden Körpers vorhanden. Er nimmt
die in der Patentanmeldung in Großbritannien 8219082 beschriebene
Form an. So kann er Vergrößerung und Winkelneigung bezüglich des
überflogenen Terrains ausgleichen, so daß die in den Referenzspei
cher 9 gelangenden Daten eine Größe und Ausrichtung besitzen, die
denen der Daten im Szenenspeicher entspricht. Der Ähnlichkeitsgrad
zwischen dem Inhalt des Szenenspeichers 7 und dem Inhalt des Refe
renzspeichers 9 wird durch einen Korrelator 12 bestimmt, der sein
Ausgangssignal an einen Analysator 13 weiterleitet, welcher ein
Signal erzeugt, das den Ähnlichkeitsgrad repräsentiert und die
Wahrscheinlichkeit bewertet, daß der sich im Luftraum bewegende
Körper an einer bestimmten Stelle ist. Die Art in der die Daten in
Ordnungsweise organisiert werden, so daß sie mit hoher Geschwin
digkeit zu den beiden Eingängen des Zuordners geführt werden kön
nen, ist in der Patentanmeldung P 34 47 93D.9 beschrieben.
Während dieser Phase befinden sich die Szenendaten und die Refe
renzdaten in Binärform, da die zu behandelnde Datenmenge sehr
groß sein kann, weil sie ein beträchtliches geografisches Gebiet
überdeckt. Binärdaten sind außerordentlich geeignet zum Identi
fizieren unterschiedlicher geografischer Merkmale wie Straßen
kreuzungen oder Eisenbahnlinien.
Während der anfänglichen Navigationsphase werden alle in den
Szenenspeicher 7 eingegebenen Daten von dem Videokamerasystem 4
abgeleitet. Auf diese Weise kann das Durchlaufen des sich im Luft
raum bewegenden Fahrzeuges relativ zu bestimmten Landkennzeichen
überwacht werden. So enthält der Hauptspeicher 10 vorbereitete
Binärdaten, die vor dem Beginn des Fluges zusammengestellt
wurden und sich auf bestimmte Straßenkreuzungen, Eisenbahnknoten,
Seen und Flüsse, Küstenlinien, Flußmündungen usw. beziehen, in
einem binären Format. Je nach der Geschwindigkeit des sich im
Luftraum bewegenden Fahrzeuges werden die entsprechenden Infor
mationsbilder zum richtigen Zeitpunkt ausgezogen und in den Re
ferenzspeicher 9 eingegeben, nachdem sie vorher zur Berücksichti
gung der Ausrichtung und Höhe des sich im Luftraum bewegenden
Fahrzeuges modifiziert wurden, wie bereits erwähnt. Diese ge
speicherten Daten werden dann mit den Realzeitdaten verglichen,
die in den Szenenspeicher 7 gelangten. Wenn ein Abschnitt des
Szenenspeichers gefunden ist, der vorher gespeicherten Daten
entspricht, zeigt der Korrelationsanalysator an, daß die gegen
wärtige Stellung des sich im Luftraum bewegenden Fahrzeuges be
stimmt wurde.
Irgendwelche kleinen Stellungsfehler, d. h. Abweichungen von dem
vorbestimmten Pfad, werden durch das Ausgangssignal so ausgegli
chen, daß die Richtung, Geschwindigkeit oder Höhe des sich im
Luftraum bewegenden Körpers geringfügig geändert wird, um ihn zu
der nächstbezeichneten Referenzszene hin zu richten. Dieser Vor
gang hält an, möglicherweise über viele 100 km, während das sich
im Luftraum bewegende Fahrzeug sich stetig seiner vorbestimmten Be
stimmung nähert. Der Abstand der Stellen der Referenzszenen wird
selbstverständlich ausgewählt mit Bezug auf das Ausmaß der mög
licherweise auftretenden Navigationsabweichung. In jedem Fall muß
die Größe des Referenzgebietes und die Größe des Real zeit-Blick
feldes, wie es durch das Videosignal bestimmt wird, ausreichend
sein, um diese Navigationsabweichung zu erlauben, und ein Ein
fangen der gegenwärtigen Position auch dann zu ermöglichen, wenn
sie geringfügig von dem vorbestimmten Flugpfad abweicht.
Dieser Vorgang wird fortgesetzt, bis die Bestimmung oder das Ziel
im Blickfeld gefunden wird. Damit wird eines der Bilder im Haupt
speicher 10 aus der Darstellung des Zieles bestehen, wie es durch
das sich im Luftraum nähernde Fahrzeug gesehen wird. Aus der
Kenntnis des geplanten Flugweges und der verstrichenen Flugzeit
wird die Erfassung des Zieles vorhergesagt, und das Leitsteuer
system arbeitet in seiner zweiten, der Erfassungsphase.
Das Ziel kann eine geografische Gestaltung umfassen, in einer
Weise, die analog zu den Daten ist, welche während der Navigations
phase benutzt wurden, jedoch kann auch alternativ das Ziel ein
Gehäuse oder Gebäude sein mit einem unterscheidungsfähigen ther
mischen Kennzeichen. In diesem letzteren Falle wird ein nach vorne
gerichteter Infrarotfühler zur Erfassung des Zieles benutzt. In
weiter Sicht erscheint irgendein heißes Ziel als eine punktför
mige Hitzequelle mit hohem Kontrast im Vergleich zu seiner Umge
bung, und so kann sein Vorhandensein durch Verwendung einer ent
sprechenden Filterausgestaltung hervorgehoben werden. Damit kann
das Filter 6 benutzt werden, ein wahrscheinliches Ziel in großer
Entfernung während der zweiten Leitphase zu identifizieren.
Aus der Kenntnis der erwarteten Position des Zieles und der Höhe
des sich im Luftraum bewegenden Körpers können unkorrekte Ziele
ausgeschlossen werden, um ein Übergehen von der Navigationsphase
als Reaktion auf Pseudorauschsignale zu vermeiden, die einem Ziel
kennzeichen ähneln; es ist die Bestätigung wünschenswert, daß das
Ziel an derselben Stelle in aufeinanderfolgenden Bildern des op
tischen oder thermischen Fühlersystems erscheint.
Sobald ein Ziel erfaßt wurde, geht die Leitsteuerung in die dritte
Betriebsphase über, und der Analysator 13 errechnet die Position
der Zielflächenmitte und bestimmt einen Annäherungspfad. Während
der dritten Phase, die als die Zielleitphase bezeichnet wird, muß
der Körper seine eigene Position bezüglich des Zieles verfolgen,
während er zur Erreichung des Zieles manövriert. Um dies zu er
möglichen, wird eine Mehrpegeldaten-Bearbeitung benutzt, bei der
die durch Graupegel gewährten Vorteile ausgenützt werden. Ein
großes Gebiet des das Ziel umgebenden Geländes repräsentierende
Videosignale werden vom Videoüberwachungssystem in den Szenen
speicher eingebracht, und ein ebenfalls an dem Zielpunkt zentrier
ter kleinerer Bereich wird unter Steuerung des Zuordners 8
in den Referenzspeicher 9 übertragen. Beide Sätze von Video
signalen sind im Mehrpegelformat, und der Betrieb des Zuordners
und des Korrealtionsanalysators geschieht viel schneller, da ir
gendwelche kleinere Abweichungen von dem erforderlichen Flug
pfad sehr schnell korrigiert werden müssen. Da jedoch die Größe
der Szene relativ sehr gering ist, kann diese Bearbeitung durch
den gleichen Zuordner und den gleichen Korrelationsanalysator
ganz adäquat vorgenommen werden, auch wenn Mehrbit-Daten benutzt
werden. Eine derartige Organisation des Korrelationsvorganges
wird in der Patentanmeldung P 34 47 929.5 beschrieben.
Während dieser Phase bestimmt der Korrelatonsanalysator 13 Ziel
bewegung relativ zum Körper durch Erfassen der Stellung der
Spitze des termischen Kennzeichens des Zieles. Vorteilhafterweise
sorgt er auch für die folgenden Funktionen:
- 1. Die Erfüllung eines einfachen Vorhersagefilters, so daß, wenn das Ziel durch den Korrelationsvorgang innerhalb des Gesichts feldes des Überwachungssystemes nicht gefunden werden kann, seine Position vorhergesagt wird auf Grundlage der vorhergehen den Dynamik des Zieles.
- 2. Die Erzeugung eines Fehlersignales für das Leitsystem des sich im Luftraum bewegenden Fahrzeuges.
- 3. Die Bestimmung, wann die Inhalte des Referenzspeichers durch Übertragung von Daten vom Szenenspeicher erneuert werden - das ist periodisch notwendig, weil das Abbild des Zieles im Gesichtsfeld wächst, wenn das sich im Luftraum bewegende Fahr zeug näher zu dem Ziel gelangt, und, wenn der Speicher nicht nachgestellt würde, die Referenzdaten mehr und mehr dem realen Ziel unähnlicher wären, bis es nicht länger erfaßt werden könnte.
- 4. Koordinaten für die Mitte des in den Szenenspeicher einzuge benden Bereiches zu schaffen für den darauffolgenden Betriebs bildrahmen.
Das in Funktion 2 erhaltene Fehlersignal wird dem Flugsteuersystem
zugeführt, um den Flugpfad zu ändern. Die Referenz-Nachstell
parameter werden zu dem Zuordner zurückgeführt, während die
vorausgesagte oder wahre Zielposition zu der Sensorschnitt
stelle zurückgeführt wird, um das Blickfeld für die Überwachung
zu bestimmen.
Der Systemüberwacher 2 bewirkt eine Überwachung des Betriebes
des Korrelationsanalysators 13 und seines Ausgangssignales, und
stellt die Bearbeitungsanordnung so um, daß sie befähigt ist,
nacheinander in den drei unterschiedlichen Leitphasen, die be
schrieben wurden, zu arbeiten. Auf diese Weise kann eine relativ
geringe Anzahl von Bearbeitungsblöcken benutzt werden, um die
unterschiedlichen, jedoch analogen Funktionen während des Flu
ges des sich im Luftraum bewegenden Fahrzeuges zu schaffen.
Jeder Block ist von relativ einfacher und auf ein Ziel gerich
teter Natur, und die Hauptblöcke sind in jedem Fall so aufgebaut,
wie sie in den erwähnten vorherigen Patentanmeldungen beschrie
ben sind.
Claims (3)
1. Korrelationsbearbeitungsanordnung, gekennzeich
net durch Mittel, die während einer ersten Leitphase
wirksam sind zur Korrelierung von während der Bewegung des
Körpers gesammelten und für die aufgenommene Umgebung reprä
sentativen Szenendaten mit vorbestimmten gespeicherten Daten,
welche für ein erwartetes Gesichtsfeld repräsentativ sind,
wobei die Mittel während einer weiteren Leitphase zur Korre
lierung von Daten wirksam sind, welche während der Bewegung
des Körpers gesammelt werden, mit von Szenendaten abgeleite
ten Daten, die vorher während der Bewegung des Körpers ge
sammelt sind, und von der Position des Körpers abhängigen
Mitteln zum Übertragen der Leitsteuerung von der ersten
Betriebsphase zu der zweiten Betriebsphase.
2. Korrelationsbearbeitungsanordnung zum Leiten eines sich im
Luftraum bewegenden Körpers längs eines Pfades, gekenn
zeichnet durch Mittel zum Annehmen von Szenendaten,
die für das erfaßte Terrain, über das der Körper sich be
wegt, repräsentativ sind, Korrelationsmittel, die während
einer Navigationsphase zur Korrelierung von Daten tätig sind,
welche von den Szenendaten abgeleitet sind, mit Daten, die
von vorbestimmten gespeicherten, für die Terrainszenen, über
die der Körper zu bewegen erwartet wird, repräsentativen Daten
abgeleitet sind, und Mittel, die die Resultate der Korrelierung
zum Navigieren des Körpers benutzen, Mittel zum Erfassen eines
Bestimmungsortes und zum Umgestalten des Betriebes der Korre
lationsmittel zur Verwendung während der nachfolgenden Ziel
leitphase so, daß die Korrelationsmittel während der Ziel
leitphase zum Korrelieren von Daten wirksam sind, welche von
den Szenendaten abgeleitet sind, mit Szenendaten, die vorher
während der Bewegung des Körpers längs des Weges gesammelt
wurden, und Mittel, die die Ergebnisse der während der Ziel
leitphase ausgeführten Korrelation zum Leiten des Körpers
zu der Bestimmung benutzen.
3. Korrelationsbearbeitungsanordnung zum Leiten eines Körpers
längs eines Weges zu einer Bestimmung hin, gekenn
zeichnet durch Korrelationsmittel, die während einer
ersten Leitphase wirksam sind zum periodichen Korrelieren
von binären Szenendaten, welche während der Bewegung des Kör
pers gesammelt werden, und die für seine Umgebung repräsen
tativ sind, mit vorbestimmten gespeicherten Binärdaten, die
für einen Abschnitt eines erwarteten Gesichtsfeldes repräsen
tativ sind, und Korrelierungsmittel, die während einer darauf
folgenden Leit-Betriebsphase wirksam sind zum Korrelieren von
Mehrpegel-Digital-Szenendaten, welche während der Bewegung
des Körpers gesammelt wurden, mit gleichartigen Daten, die
von vorher während der Bewegung des Körpers gesammelten
Daten abgeleitet sind, und Mittel, die während einer da
zwischenliegenden Leitphase auf die Erfassung der Bestim
mung in der aufgenommenen Umgebung reagieren zum Übertra
gen des Betriebes der Korrelationsmittel von Binärdaten
zu Mehrpegeldaten.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB8416616A GB2293067B (en) | 1984-06-29 | 1984-06-29 | Processor arrangement |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3523303A1 true DE3523303A1 (de) | 1996-05-02 |
DE3523303C2 DE3523303C2 (de) | 1998-03-12 |
Family
ID=10563181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3523303A Expired - Fee Related DE3523303C2 (de) | 1984-06-29 | 1985-06-28 | Korrelationsprozessoranordnung |
Country Status (6)
Country | Link |
---|---|
US (1) | US5564650A (de) |
DE (1) | DE3523303C2 (de) |
FR (1) | FR2726104B1 (de) |
GB (1) | GB2293067B (de) |
IT (1) | IT8548288A0 (de) |
NL (1) | NL194282C (de) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5801970A (en) * | 1995-12-06 | 1998-09-01 | Martin Marietta Corporation | Model-based feature tracking system |
US6079665A (en) * | 1996-11-04 | 2000-06-27 | Trw Inc. | Hyperspectral air-to-air missile seeker |
US5881969A (en) | 1996-12-17 | 1999-03-16 | Raytheon Ti Systems, Inc. | Lock-on-after launch missile guidance system using three dimensional scene reconstruction |
US6260759B1 (en) * | 1998-08-11 | 2001-07-17 | Northrop Grumman Corporation | Method for tracking a target having substantially constrained movement |
DE19849857C2 (de) | 1998-10-29 | 2003-08-21 | Eads Deutschland Gmbh | Fernlenkverfahren für ein unbemanntes Luftfahrzeug |
DE10139846C1 (de) * | 2001-08-14 | 2003-02-06 | Daimler Chrysler Ag | Geometrisches Matching zur Lösung von Lokalisationsproblemen |
DE10158666A1 (de) * | 2001-11-28 | 2003-06-18 | Lfk Gmbh | Vorrichtung und Verfahren zur autarken Zielführung eines Flugkörpers mit Hilfe außerhalb des Zielpunktes liegender Orientierungsmerkmale |
IL157098A (en) * | 2003-07-24 | 2009-07-20 | Rafael Advanced Defense Sys | Spectral tracking of a target |
US7512462B2 (en) * | 2004-11-16 | 2009-03-31 | Northrop Grumman Corporation | Automatic contingency generator |
JP2007033434A (ja) * | 2005-06-20 | 2007-02-08 | Denso Corp | 車両用現在位置検出装置、及び車両制御装置 |
US8406464B2 (en) * | 2005-06-23 | 2013-03-26 | Israel Aerospace Industries Ltd. | System and method for tracking moving objects |
CN1996194A (zh) * | 2005-12-31 | 2007-07-11 | 清华大学 | 一种运动物体定位纠偏系统及其运动跟踪方法 |
US7970506B2 (en) * | 2006-01-19 | 2011-06-28 | Lockheed Martin Corporation | System for maintaining communication between teams of vehicles |
US8244455B2 (en) * | 2008-09-09 | 2012-08-14 | Honeywell International Inc. | Apparatus and method for determining the position of a vehicle with respect to a terrain |
DE102011010987A1 (de) * | 2010-03-24 | 2011-09-29 | Lfk-Lenkflugkörpersysteme Gmbh | Navigationsverfahren für einen Flugkörper |
US8525088B1 (en) * | 2012-03-21 | 2013-09-03 | Rosemont Aerospace, Inc. | View-point guided weapon system and target designation method |
IL219639A (en) | 2012-05-08 | 2016-04-21 | Israel Aerospace Ind Ltd | Remote object tracking |
US10212396B2 (en) | 2013-01-15 | 2019-02-19 | Israel Aerospace Industries Ltd | Remote tracking of objects |
IL224273B (en) | 2013-01-17 | 2018-05-31 | Cohen Yossi | Delay compensation during remote sensor control |
IL227982B (en) * | 2013-08-15 | 2018-11-29 | Rafael Advanced Defense Systems Ltd | A missile system with navigation capability based on image processing |
US11371806B2 (en) | 2019-08-05 | 2022-06-28 | Bae Systems Information And Electronic Systems Integration Inc. | Midbody camera/sensor navigation and automatic target recognition |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2938853A1 (de) * | 1979-09-26 | 1981-04-09 | Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen | Flaechennavigationssystem fuer luftfahrzeuge |
DE3011556A1 (de) * | 1980-03-26 | 1981-10-01 | Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen | Flaechennavigationssystem fuer luft- und/oder wasserfahrzeuge |
DE3447930C1 (de) * | 1983-07-15 | 1996-04-25 | Marconi Gec Ltd | Datenprozessor |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3459392A (en) * | 1959-09-24 | 1969-08-05 | Goodyear Aerospace Corp | Passive homing guidance system |
US3416752A (en) * | 1966-03-23 | 1968-12-17 | Martin Marietta Corp | Correlation guidance system having multiple switchable field of view |
US3943277A (en) * | 1969-02-20 | 1976-03-09 | The United States Of America As Represented By The Secretary Of The Navy | Digital memory area correlation tracker |
GB1568058A (en) * | 1975-11-21 | 1980-05-21 | Emi Ltd | Tracking and/or huidance systems |
DE2831825C2 (de) * | 1978-07-20 | 1986-05-07 | Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt | Zielanflugverfahren für einen sich selbst lenkenden Flugkörper |
DE2914693C2 (de) * | 1979-04-11 | 1982-05-27 | Messerschmitt-Bölkow-Blohm GmbH, 8000 München | Vorrichtung zur Präzisionsnavigation |
EP0069541A3 (de) * | 1981-07-04 | 1985-12-27 | Gec-Marconi Limited | Datenverarbeitungsanordnung |
US4546433A (en) * | 1981-07-04 | 1985-10-08 | Gec Avionics Limited | Arrangement for processing data in a two-dimensional array |
DE3241896A1 (de) * | 1982-11-12 | 1984-05-17 | Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt | Verfahren zur verbesserung der bildverarbeitung bei optronischen flugkoerpererfassungsgeraeten |
US4602336A (en) * | 1983-05-16 | 1986-07-22 | Gec Avionics Limited | Guidance systems |
-
1984
- 1984-06-29 GB GB8416616A patent/GB2293067B/en not_active Expired - Fee Related
-
1985
- 1985-06-18 US US06/788,546 patent/US5564650A/en not_active Expired - Fee Related
- 1985-06-24 NL NL8501822A patent/NL194282C/nl not_active IP Right Cessation
- 1985-06-27 IT IT8548288A patent/IT8548288A0/it unknown
- 1985-06-28 FR FR8509930A patent/FR2726104B1/fr not_active Expired - Fee Related
- 1985-06-28 DE DE3523303A patent/DE3523303C2/de not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2938853A1 (de) * | 1979-09-26 | 1981-04-09 | Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen | Flaechennavigationssystem fuer luftfahrzeuge |
DE3011556A1 (de) * | 1980-03-26 | 1981-10-01 | Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen | Flaechennavigationssystem fuer luft- und/oder wasserfahrzeuge |
DE3447930C1 (de) * | 1983-07-15 | 1996-04-25 | Marconi Gec Ltd | Datenprozessor |
Non-Patent Citations (1)
Title |
---|
Wehrtechnik 10, 1979, S. 23-25 * |
Also Published As
Publication number | Publication date |
---|---|
GB8416616D0 (en) | 1995-11-22 |
US5564650A (en) | 1996-10-15 |
GB2293067A (en) | 1996-03-13 |
DE3523303C2 (de) | 1998-03-12 |
FR2726104A1 (fr) | 1996-04-26 |
NL194282B (nl) | 2001-07-02 |
GB2293067A8 (en) | 1999-03-25 |
FR2726104B1 (fr) | 1998-01-02 |
NL8501822A (nl) | 1996-10-01 |
GB2293067B (en) | 1996-07-10 |
NL194282C (nl) | 2001-11-05 |
IT8548288A0 (it) | 1985-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3523303C2 (de) | Korrelationsprozessoranordnung | |
DE69333693T2 (de) | Leit- und Zielführungssystem | |
DE102017125493A1 (de) | Verkehrszeichenerkennung | |
DE60202743T2 (de) | Verfahren zur Erkennung einer Verkehrsumgebung und System zu dessen Durchführung | |
EP2916106B1 (de) | Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder | |
DE102016107705A1 (de) | Reaktive Pfadplanung für autonomes Fahren | |
EP2963631B1 (de) | Verfahren zum ermitteln eines parkplatzes aus einer anzahl von messpunkten | |
DE102007054950B4 (de) | Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers | |
EP1418444A1 (de) | Verfahren zur Bestimmung einer Eigenbewegung eines Fahrzeugs | |
DE4138270C2 (de) | Verfahren zur Navigation eines selbstfahrenden Landfahrzeugs | |
DE112019004290T5 (de) | Vorrichtung und program zum erzeugen von fahrttrajektoriedaten in einerkreuzung und fahrzeugmontierte vorrichtung | |
DE102016205870A1 (de) | Verfahren zur Bestimmung einer Pose eines wenigstens teilautomatisiert fahrenden Fahrzeugs in einer Umgebung mittels Landmarken | |
DE102018111935A1 (de) | Bildverarbeitungssystem, Bildverarbeitungsverfahren, Informationsverarbeitungsvorrichtung und Aufzeichnungsmedium | |
Behringer et al. | Autonomous road vehicle guidance from autobahnen to narrow curves | |
EP2387017B1 (de) | Verfahren und Vorrichtung zur Erfassung von Verkehrsdaten aus digitalen Luftbildsequenzen | |
EP2799903A2 (de) | Verfahren zur Erfassung von Geschwindigkeitsverstößen mit restriktiver Datenspeicherung | |
EP0290633B1 (de) | Verfahren zum Erkennen von Änderungen in Fahrraum eines unbemannten Fahrzeuges | |
DE3626030C2 (de) | Verfahren und Vorrichtung zur Entdeckung einer bevorstehenden Sichtverbindungsunterbrechung zwischen einem Flugzeug und einem Ziel, insbesondere in einem Laser-Feuerleitsystem | |
DE3512127A1 (de) | Ortungs- und navigationssystem fuer landfahrzeuge | |
EP2394247B1 (de) | Verfahren und vorrichtung zum betrieb eines videobasierten fahrerassistenzsystems in einem fahrzeug | |
DE112016001568T5 (de) | Bildverarbeitungsapparat | |
DE4218600C2 (de) | Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers | |
DE102022202548B3 (de) | Verfahren zum Trainieren eines Computerprogrammprodukts | |
DD241471A1 (de) | Verfahren und anordnung zur automatischen steuerung von luftbildkameras | |
DE3110691A1 (de) | Navigations- und lenksystem fuer flugkoerper |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: BAE SYSTEMS ELECTRONICS LTD., FARNBOROUGH, HAMPSHI |
|
8339 | Ceased/non-payment of the annual fee |