Geschwindigkeitsradar basierend auf Time-of-Flight Technologie

Die Seite wird erstellt Kai-Uwe Bachmann
 
WEITER LESEN
Geschwindigkeitsradar basierend auf Time-of-Flight Technologie
Bachelorarbeit

     Geschwindigkeitsradar basierend auf
              Time-of-Flight Technologie

Dokumentation über den Entwurf und Bau eines optischen Geschwindigkeitssensors
zur Erlangung des akademischen Grades Bachelor of Science in Systemtechnik an
             der Interstaatlichen Hochschule für Technik Buchs SG.

            Verfasser:                Michael Furxer
                                      Philipp Bruhin

            Vertiefungsrichtung:      Elektronik und Regelungstechnik
            Industriepartner:         CEDES AG, Landquart
            Referent:                 Dipl.-Ing. Laszlo Arato
            Korreferent:              Dipl.-Ing. Kurt Schenk
            Datum:                    13. August 2010
Geschwindigkeitsradar basierend auf Time-of-Flight Technologie
Zusammenfassung

Zusammenfassung

Der unbestrittene Wunsch nach mehr Lebensqualität in unseren Städten und Dörfern
ist eng verknüpft mit grösserer Verkehrssicherheit, sowie weniger Lärm und Abgasen.
Diese Bedürfnisse sind mit dem Drang nach Mobilität vereinbar, wenn die Chancen der
Mobilität genutzt und deren Risiken gleichzeitig minimiert werden. Genau auf diesem
Leitmotiv baut diese Bachelorarbeit auf.

Zur Verkehrsberuhigung in Tempo-30-Zonen haben wir zusammen mit unserem In-
dustriepartner CEDES AG aus Landquart einen Geschwindigkeitssensor entwickelt,
der die Geschwindigkeit von allen Verkehrsteilnehmern messen kann, egal ob Mofa-
fahrer oder LKW.

Als Grundlage verwenden wir ein low cost 3D-Kamerasensor von CEDES, der mit der
Time-of-Flight Technologie arbeitet. Der Sensor sendet ein moduliertes Signal im Infra-
rotbereich und berechnet aus der phasenverschobenen Reflexion ein Umgebungsbild
mit echten Distanzinformationen.

Den 3D-Kamerasensor haben wir so umgebaut, dass er aus der Ableitung der Distanz
über die Zeit die Geschwindigkeit ermitteln kann. Eine der grössten Herausforderungen
bestand darin, genügend optische Leistung auszusenden, sodass das reflektierte Infra-
rotlicht klar ausgewertet werden kann. Es zeigte sich, dass mit einer optischen Leis-
tung von 10 W eine Reichweite von etwa 70 m erreicht wird. Eine Hauptschwierigkeit
stellte das Herausfiltern und Verfolgen eines Verkehrsteilnehmers auf dem Kamerabild
dar. Mit der Bildverarbeitungs-Toolbox von MATLAB gelang es jedoch, dieses Problem
zu lösen.

Versuche unter verschiedenen Bedingungen im öffentlichen Verkehr lieferten erstaunli-
che Ergebnisse. Als Messpunkte werden gut reflektierende Bauteile wie Nummern-
schilder oder Rücklichter detektiert. Eingeschaltete Scheinwerfer wirken störend und
erschweren die Messung. Anfängliche Befürchtungen, dass das Signal durch Sonnen-
licht beeinträchtigt wird, bewahrheiteten sich nicht. Bei Geschwindigkeiten bis 40 km/h
wird eine Genauigkeit von ±1 km/h erreicht.

Eine rationale Betrachtung der Ergebnisse zeigt, dass es sicherlich noch einige Her-
ausforderungen zu bewältigen gäbe, um dieses Produkt zur Serienreife zu führen. Die
Vorteile gegenüber einem konventionellen Radarsystem sind jedoch beträchtlich. Das
Produkt kann kompakt und kostengünstig hergestellt werden und es können Ver-
kehrsteilnehmer verschiedener Grösse detektiert werden.

                                           Seite i
Geschwindigkeitsradar basierend auf Time-of-Flight Technologie
Summary

Summary

The undisputed desire for better quality of life in our towns and villages is closely linked
with greater traffic safety, lower noise and less exhaust fumes. These needs are com-
patible with the urge for mobility, if the use of mobility opportunities and their risks are
minimized simultaneously. Our Bachelor Thesis is based on exactly this issue.

Together with our industrial partner CEDES AG in Landquart we have developed a
speed sensor that can measure the speed of all motorized road users, whether moped
riders or trucks.

As a basis we use a low cost 3D camera sensor from CEDES with Time-of-Flight tech-
nology. The sensor sends a modulated signal in the infrared range and calculates a
picture from the phase-shifted reflection with real distance information.

We have modified the 3D camera sensor, so that it can determine the speed by diffe-
rentiating the distance over time. One of the biggest challenges was to emit enough
optical power so that the reflected infra-red light can be analyzed clearly. It was found
that with an output power of 10 W a distance of about 70 meters can be achieved. A
major difficulty was filtering out and tracking a road participant on the camera image.
With the image processing toolbox of MATLAB, however, we managed to solve this
problem.

Experiments under different conditions in public transport provided astonishing results.
Reflective components such as license plates or tail lights are detected as measuring
points. Activated headlights act interfering with the process and make measuring diffi-
cult. Initial concerns that the signal is affected by sunlight proved not to be true. At
speeds up to 40 km/h an accuracy of ± 1 km/h is achieved.

A rational analysis of the results shows that there are probably still some challenges to
deal with, to make this product ready for production. The advantages over a conven-
tional radar system are considerable. The product can be made compact and inexpen-
sive. Furthermore, it can measure road users of different sizes.

                                          Seite ii
Geschwindigkeitsradar basierend auf Time-of-Flight Technologie
Eidesstattliche Erklärung

Eidesstattliche Erklärung

Hiermit versichern wir, die vorliegende Studienarbeit eigenständig und unter Verwen-
dung der angegebenen Hilfsmittel durchgeführt zu haben.

Michael Furxer:                                           Datum:   13. August 2010

Philipp Bruhin:                                           Datum:   13. August 2010

                                      Seite iii
Geschwindigkeitsradar basierend auf Time-of-Flight Technologie
Inhaltsverzeichnis

Inhaltsverzeichnis

1     Offizielle Aufgabenstellung ................................................................................ 1

    1.1     Allgemeine Beschreibung............................................................................... 1

    1.2     Ziel der Arbeit................................................................................................. 1

    1.3     Der Industriepartner CEDES AG .................................................................... 2

2     Einführung in das Funktionsprinzip .................................................................. 3

    2.1     Time-of-Flight Technologie ............................................................................. 3

    2.2     TOF Anwendung beim Sensor IMS 100 von CEDES ..................................... 4

    2.3     Prinzip der Geschwindigkeitsmessung ........................................................... 7

    2.4     Hardwarebeschreibung CEDES TOF Kamerasensor IMS 100 ....................... 9

3     Evaluation und Aufbau Geschwindigkeitssensor ............................................11

    3.1     Elektronischer Aufbau ...................................................................................12

      3.1.1        Hardwarekomponenten 10-LED-Print.....................................................13

      3.1.2        Berechnungen und Schaltungsbeschreibung 10-LED-Print ....................14

          3.1.2.1        Testresultate und Folgerungen 10-LED-Print ..................................16

      3.1.3        Augensicherheit und optische Leistung ..................................................16

      3.1.4        Aufbau definitiver Beleuchtungsprint ......................................................17

    3.2     Mechanischer Aufbau Geschwindigkeitssensor.............................................19

4     Software ..............................................................................................................20

    4.1     DSP Software ...............................................................................................20

      4.1.1        Zeitmessung ..........................................................................................21

      4.1.2        Reichweite .............................................................................................21

      4.1.3        Bildrate...................................................................................................21

    4.2     Objektverfolgung ...........................................................................................23

      4.2.1        Stillstehende Objekte entfernen .............................................................23

      4.2.2        Binärbild erzeugen .................................................................................25

      4.2.3        Entfernung messen ................................................................................26

      4.2.4        Geschwindigkeit berechnen ...................................................................27

    4.3     Benutzeroberfläche .......................................................................................28

                                                          Seite iv
Geschwindigkeitsradar basierend auf Time-of-Flight Technologie
Inhaltsverzeichnis

      4.3.1        Datenquelle ............................................................................................28

      4.3.2        Programmsteuerung ..............................................................................29

      4.3.3        Aufnahme ..............................................................................................29

      4.3.4        Kameraeinstellungen .............................................................................29

      4.3.5        Anzeige der Ergebnisse .........................................................................30

5     Mess- und Testergebnisse ................................................................................31

    5.1      Beleuchtung ..................................................................................................31

    5.2      Distanzgenauigkeit ........................................................................................34

    5.3      Reichweite ....................................................................................................37

    5.4      Fremdlichteinflüsse .......................................................................................38

    5.5      Geschwindigkeitsgenauigkeit ........................................................................39

6     Kundennutzen ....................................................................................................42

7     Schlussfolgerung und Ausblick ........................................................................43

8     Danksagung........................................................................................................44

Glossar.......................................................................................................................45

Abbildungsverzeichnis .............................................................................................46

Tabellenverzeichnis ..................................................................................................47

Formelverzeichnis .....................................................................................................47

Literaturverzeichnis ..................................................................................................48

                                                           Seite v
Geschwindigkeitsradar basierend auf Time-of-Flight Technologie
1 Offizielle Aufgabenstellung

1 Offizielle Aufgabenstellung

Mit der 3D-Kameratechnologie Time-of-Flight, abgekürzt TOF, lässt sich die Distanz
zwischen Kamera und einem Objekt sehr genau ermitteln. Die Firma CEDES hat Ka-
merachips entwickelt, welche in der Lage sind, aus einem Umgebungsbild die Distanz-
information für jedes einzelne Pixel aufzuzeichnen. Aus diesen Distanzinformationen
kann man mithilfe der ersten Ableitung über die Zeit auf die Geschwindigkeit eines Ob-
jektes schliessen.

1.1 Allgemeine Beschreibung
Die TOF-Technologie soll die Basis für ein Mess- und Anzeigesystem sein, das die
Geschwindigkeit von Fahrzeugen in Tempo-30-Zonen erfasst und darstellt. Die Neuheit
dieser Anwendung besteht darin, dass die Messung nicht auf Mikrowellen, sondern auf
Infrarotwellen mit einer Wellenlänge von 850 nm basiert. Das Spektrum für elektro-
magnetische Wellen kann der Abbildung 1-1 entnommen werden. Als Grundlage für
die Schaltung dient ein Sensorboard von CEDES. Neu entwickelt werden muss die
Sende- und Empfangsoptik, die Beleuchtungselektronik, die Sensor-Auswertesoftware
sowie eine Anzeigeeinrichtung. Als Stromzufuhr kann von einer 24 VDC Laborversor-
gung ausgegangen werden.

                     Abbildung 1-1: Spektrum elektromagnetische Wellen

1.2 Ziel der Arbeit
Mit dieser Arbeit soll aufgezeigt werden, dass ein robustes und kostengünstiges Ge-
schwindigkeitsmesssystem, basierend auf der TOF-Technologie, realisiert werden
kann. Als Ziel der Arbeit soll ein System, bestehend aus einem Geschwindigkeitssen-
sor, integriert in einer Anzeige vorliegen. Es sollen Geschwindigkeiten im Bereich von
10 bis 99 km/h gemessen und angezeigt werden können. Widrige Umgebungsverhält-
nisse wie starke Sonneneinstrahlung, Dunkelheit oder Nebel sollen das Messergebnis
nicht beeinträchtigen. Die Einsatzreichweite soll mindestens 50 m betragen. Zudem
soll die Grösse des Messfehlers quantifiziert werden. Mögliche Massnahmen zur Un-
terdrückung von Falschanzeigen sind ebenfalls Bestandteil der Aufgabe. Planung und
Vorgehensweise liegen dem Anhang bei.

                                         Seite 1
1 Offizielle Aufgabenstellung

1.3 Der Industriepartner CEDES AG
Die Firma CEDES aus Landquart entwickelt seit 1986 innovative Lösungen für Si-
cherheits- und Informationssysteme, Überwachungen, industrielle Rechner und Steue-
rungen. Dabei arbeitet CEDES mit optischen Sensoren auf Basis der aktiven Infrarot-
technik und der Bildverarbeitung.

Die Produkte gliedern sich in zwei Bereiche:

   •   Aufzugsindustrie
       CEDES ist ein weltweit anerkannter Lieferant von Komfort- und Sicherheitssen-
       sorik in der Aufzugskabine sowie von anspruchsvoller Sensorik für die Positio-
       nierung und Sicherheitsüberwachung im Aufzugsschacht.
   •   Tür- und Torindustrie
       Auf dem Markt von Sensorlösungen für Tür und Tor bietet CEDES zuverlässige
       Sensoren zur Türüberwachung, Industrieabsicherung oder auch Zutrittkontroll-
       systeme und Sensorschleusen an.

                                         Seite 2
2 Einführung in das Funktionsprinzip

2 Einführung in das Funktionsprinzip

Die von CEDES angewendete Time-of-Flight Technologie für Distanzkameras wurde
im Jahr 2000 durch Robert Lange an der Universität-Gesamthochschule Siegen im
Rahmen einer Doktorarbeit erforscht. Seine Analysen sind im elektronischen Anhang
[1] abgelegt. In diesem Kapitel wird in einem ersten Teil auf die TOF-Technologie all-
gemein eingegangen, danach folgt die Beschreibung der spezifischen Anwendung für
die Geschwindigkeitskamera.

2.1 Time-of-Flight Technologie
Beim TOF Prinzip wird mittels der Zeitdifferenz vom Aussenden eines optischen Sig-
nals bis zum Wiedereintreffen auf die Distanz zwischen Sensor und Target geschlos-
sen (Formel 1).

                                          ∙ Δt
                                    =                                             Formel 1
                                           2

:         Distanz [m]
:         Lichtgeschwindigkeit (299’792’458 m/s)
Δt:        Zeitdifferenz [s]

Eine schematische Darstellung für einen möglichen TOF Sensor wird in Abbildung 2-1
gezeigt.

               Abbildung 2-1: Schematischer Aufbau eines Geschwindigkeitssensors

Wird mittels einer LED ein optisches Signal ausgesendet, startet gleichzeitig eine Zeit-
messung. Das Signal wird vom Zielobjekt reflektiert und fällt auf die Fotodiode zurück,
die Zeitmessung wird gestoppt. Das Licht legt in 6.67 ns einen Meter zurück. Mit dieser
Information ergibt sich die Distanz und durch die Ableitung über die Zeit, die Ge-
schwindigkeit.

                                            Seite 3
2 Einführung in das Funktionsprinzip

Anstatt die Zeitdifferenz zu messen, kann man auch die Phasenverschiebung einer
optischen Schwingung messen, um den Abstand zwischen Sensor und Target zu er-
mitteln. Sendet man beispielsweise eine optische Sinusschwingung aus, wird diese
Schwingung am Zielobjekt reflektiert, visualisiert in Abbildung 2-2. Das reflektierte Sig-
nal weist eine Phasenverschiebung zum ausgesendeten Signal auf. Mit der Laufzeit
des Lichtes und der Phasenverschiebung kann man auf die Distanz zwischen Sensor
und Target schliessen.

                                                Δφ
                              =             ∙
                                   2∙            2                             Formel 2

     :   Frequenz des modulierten Signals [Hz]
Δφ       Phasenverschiebung [rad]

                    Abbildung 2-2: Phasenverschiebung beim TOF Prinzip

Der in dieser Bachelor-Arbeit als Grundlage dienende Sensor IMS 100 von CEDES
baut auf dem beschriebenen Effekt auf. Er misst jedoch nicht nur die Distanz eines
einzelnen Punktes, sondern den Distanzwert jedes einzelnen Kamerapixels. Somit
erhält man ein 3D-Bild der Situation.

2.2 TOF Anwendung beim Sensor IMS 100 von CEDES
Die Phasenverschiebung wird beim IMS 100 Sensor von CEDES durch Integration der
reflektierten optischen Sinusschwingung gemessen. Die Schwingungsfrequenz beträgt
20 MHz. Wie in Abbildung 2-3 auf der folgenden Seite gezeigt, wird keine permanente
Sinusschwingung ausgesendet. Das Signal wird je nach Konfiguration nur ca. 5 bis
50 ms ausgesendet.

                                            Seite 4
2 Einführung in das Funktionsprinzip

                     Abbildung 2-3: Sinusschwingung nur während bestimmter Zeit

Die reflektierten Photonen erzeugen unter dem Photogate des CCD-Kamerachips freie
Elektronen. Die Elektronen werden in sogenannten Taps gesammelt, was eine Integra-
tion über die Zeit bedeutet. Pro Pixel gibt es zwei Taps, wobei abwechselnd bei 0°,
90°, 180° und 270° eine Integration gestartet wird. Abbildung 2-4 zeigt in grauer Farbe
die ausgestrahlte Sinusschwingung, die reflektierte Schwingung wird rot dargestellt.
                                                  Intensität
    Intensität
    Intensität

                                                 Intensität

                 Abbildung 2-4: Integration der einfallenden optischen Sinusschwingung

Das Signal wird durch die beiden Taps während der Belichtungszeit von 5 bis 50 ms
integriert. Der Wert des ersten Belichtungsimpulses wird auf A0 und A2 aufgeteilt, der
zweite Belichtungsimpuls auf A1 und A3. Nach den Integrationen während zwei Belich-

                                               Seite 5
2 Einführung in das Funktionsprinzip

tungsimpulsen kann die effektive Phasenverschiebung mit Formel 3 berechnet werden.
Es gilt zu beachten, dass die Taps bei zu grosser Belichtungszeit in die Sättigung gera-
ten, die Pixel übersteuern dann.

                                              0 − 2
                              Δφ =                                              Formel 3
                                              3 − 1

A0:        φ
A1:        φ
A2:        φ
A3:        φ 

Eine entsprechende Visualisierung findet sich in Abbildung 2-5.

            Abbildung 2-5: Ermittlung der Phasenverschiebung mit Arcustangensfunktion

Damit ein allfälliger Fehler durch unterschiedliches Integrationsverhalten der Pixel un-
terdrückt werden kann, wird jedes 90°-Segment von beiden Taps je einmal integriert.
Der Durchschnitt beider Taps wird zur Berechnung der Phasenverschiebung verwen-
det.

Mit dem gleichen Verfahren kann auch die Amplitude des reflektierten Signals nach
Formel 4 berechnet werden. Mit dieser Information kann für jedes Pixel zusätzlich zum
Distanzbild auch das Grauwertbild aufgenommen werden.

                          A = !(A0 − A2) + (A1 − A3)                                  Formel 4

:         Amplitude des reflektierenden Signals (Grauwert)

Die Wellenlänge der ausgesendeten Sinusschwingung bei einer Modulationsfrequenz
von 20 MHz beträgt 15 m (Formel 5). Folglich kann der IMS 100 Distanzen von 7.5 m
messen1. Danach beträgt die Phasenverschiebung wieder 0 ° und die Distanz beginnt
wieder bei 0 m. Beispielsweise wird bei einem Objekt, welches in Realität 10 m entfernt
ist, eine Distanz von 2.5 m gemessen.

1
    Hin- und Rückweg betragen je 7.5 m, die Wellenlänge ist 15 m.

                                              Seite 6
2 Einführung in das Funktionsprinzip

                                  299′792′458 m/s
                      λ=       =                   ≈ 154                      Formel 5
                                      20 ∙ 100 12

λ:       Wellenlänge [m]
 :       Aufmodulierte Frequenz [Hz]

2.3 Prinzip der Geschwindigkeitsmessung
Die Geschwindigkeit eines Objektes kann berechnet werden, wenn die zurückgelegte
Strecke des Objektes und die dafür benötigte Zeit bekannt sind. Wird die Distanz eines
bewegten Objektes fortlaufend gemessen, kann dessen Geschwindigkeit nach Formel
6 berechnet werden:

                                        6 − 67
                                   5=                                         Formel 6
                                           ∆

v:       Geschwindigkeit [m/s]
6 :     Abstand aktuelles Distanzbild [m]
67 :   Abstand altes Distanzbild [m]
∆:      Zeitdifferenz zwischen aktuellem und altem Distanzbild [s]

Da sich, wie in Kapitel 2.2 beschrieben, die gemessene Distanz in einem bestimmten
Intervall wiederholt, ergibt sich durch die Aufnahmezeit und die Länge des kontinuierli-
chen Distanzintervalls eine Beschränkung der maximal messbaren Geschwindigkeit.
Ein Objekt darf sich zwischen zwei Messungen maximal ein halbes Distanzintervall
bewegen, um eine eindeutige Geschwindigkeitsmessung zu ermöglichen. Diese Be-
schränkung ergibt sich aus der Anwendung des Nyquist-Shannon-Abtasttheorems auf
den Distanzverlauf, der durch die sich wiederholenden Distanzintervalle eine periodi-
sche Schwingung darstellt. Wird das Abtasttheorem eingehalten, kann der Sprung von
7.5 m auf 0 m durch einfaches Addieren der Maximaldistanz (7.5 m) herausgerechnet
werden. Bewegt sich ein Objekt auf die Kamera zu, wird die Geschwindigkeit negativ
und es muss daher die Maximaldistanz vom Messwert subtrahiert werden. Die folgen-
den Abbildungen stellen den Sachverhalt anschaulich dar. Zur Berechnung der Dia-
gramme wurde eine Abtastzeit von 244 ms gewählt. Diese Zeit wird vom TOF-Sensor
mit Originalsoftware bei einer Belichtungszeit von 10 ms für die Aufnahme eines Bildes
benötigt. Die Maximalgeschwindigkeit in Abhängigkeit der Abtastzeit lässt sich nach
Formel 7 berechnen.

                                             Seite 7
2 Einführung in das Funktionsprinzip

                                                        :;       7.54           4        B4
               5   :;                       =                 =           = 15.37 = 55.23                                                           Formel 7
                                                     2 ∗ =>? 2 ∗ 0.244A        A         ℎ

5   :; :    Maximal auswertbare Geschwindigkeit [m/s]
   :; :    Maximaler Abstand [m]

In Abbildung 2-6 und in Abbildung 2-7 beträgt die Geschwindigkeit des Objektes
30 km/h, das Abtasttheorem wird also eingehalten. Die gemessenen Geschwindigkei-
ten sind jeweils zwischen den beiden zugehörigen Distanzmesspunkten (rot) aufgetra-
gen. In Abbildung 2-6 wird die Geschwindigkeit ohne Berücksichtigung des Distanz-
sprunges berechnet und führt daher in jenem Intervall, indem der Sprung stattfindet zu
einer Fehlmessung. In Abbildung 2-7 wird dieser Fehler durch Addition von 7.5 m zum
zweiten Distanzmesswert vermieden.

                                                                          Geschwindigkeit des Objekts: 30 km/h dt: 0.244 s

                                            7

                                            6                                                                                      30
                    gemessene Distanz [m]

                                                                             30
                                            5

                                            4                                                                          30
                                                                                          -80.7
                                                               30
                                            3

                                            2                                                               30
                                                    30
                                            1

                                            0
                                                0        0.2        0.4           0.6      0.8              1    1.2         1.4        1.6   1.8
                                                                                                 Zeit [s]

           Abbildung 2-6: Distanzmessung ohne Berücksichtigung Distanzsprung bei 30 km/h

                                                                          Geschwindigkeit des Objekts: 30 km/h dt: 0.244 s

                                            7
                                                                                                                                   30
                    gemessene Distanz [m]

                                            6
                                                                             30
                                            5

                                            4                                                                          30
                                                                                          30
                                                               30
                                            3

                                            2                                                               30
                                                    30
                                            1

                                            0
                                                0        0.2        0.4           0.6      0.8              1    1.2         1.4        1.6   1.8
                                                                                                 Zeit [s]

           Abbildung 2-7: Distanzmessung mit Berücksichtigung Distanzsprung bei 30 km/h

Auf Abbildung 2-8 und Abbildung 2-9 wird das Abtasttheorem verletzt (Geschwindig-
keit: 60 km/h). Wenn ein Sprung stattfindet, ist eine Korrektur des Ergebnisses nicht
mehr möglich, da die Bewegungsrichtung nicht mehr eindeutig festgestellt werden
kann. In diesem Fall führt dies zu einem Messwert von -50.7 km/h anstelle der erwarte-
ten 60 km/h.

                                                                                         Seite 8
2 Einführung in das Funktionsprinzip

                                                                    Geschwindigkeit des Objekts: 60 km/h dt: 0.244 s

                                        7

                                        6

                gemessene Distanz [m]
                                        5

                                        4                                                                     60
                                                                                   -50.7
                                                      60
                                        3

                                        2

                                        1

                                        0
                                            0   0.1           0.2         0.3        0.4              0.5   0.6        0.7   0.8   0.9
                                                                                           Zeit [s]

       Abbildung 2-8: Distanzmessung ohne Berücksichtigung Distanzsprung bei 60 km/h

                                                                    Geschwindigkeit des Objekts: 60 km/h dt: 0.244 s

                                        7

                                        6
               gemessene Distanz [m]

                                        5

                                        4                                                                     -50.7
                                                                                   -50.7
                                                      -50.7
                                        3

                                        2

                                        1

                                        0
                                            0   0.1           0.2         0.3        0.4              0.5   0.6        0.7   0.8   0.9
                                                                                           Zeit [s]

        Abbildung 2-9: Distanzmessung mit Berücksichtigung Distanzsprung bei 60 km/h

Um hohe Geschwindigkeiten messen zu können, ist es aus oben genannten Gründen
wichtig, die Bildaufnahmezeit möglichst kurz zu halten. Die Berechnungen können dem
M-File Speed_Aliasing.m entnommen werden.

2.4 Hardwarebeschreibung CEDES TOF Kamerasensor IMS 100
Der Kamerasensor besteht aus zwei Leiterplatten. Auf dem einen Print befinden sich
die Beleuchtung mit 16 Infrarot-LEDs und eine 5 V Spannungserzeugung. Ausgelegt ist
diese Konstruktion für Abstände bis zu 2.5 m, jedoch mit einem relativ breiten Ab-
strahlwinkel. Der Abstrahlwinkel der LEDs wird durch eine in das Kunststoffgehäuse
eingearbeitete Linse beeinflusst.

Der zweite Print beherbergt die Empfangsoptik, den CCD Chip und die Steuerungs-
elektronik. Zum Einsatz kommt ein DSP TMS320F2801 von Texas Instruments.

Der CCD Kamerachip besitzt eine maximale Auflösung von 24 x 100 Pixel. Die aktuelle
Firmware wertet jedoch nur 24 x 80 Pixel aus, da die Speichergrösse des DSP keine
höhere Auflösung zulässt. Die Framerate ist abhängig von der eingestellten Belich-
tungszeit und beträgt bei 10 ms Belichtungszeit ca. 5 Bilder pro Sekunde. Wird das Bild
über die serielle Schnittstelle übertragen, reduziert sich die Framerate auf 4 Bilder pro
Sekunde.

                                                                                   Seite 9
2 Einführung in das Funktionsprinzip

Der Arbeitsbereich des Kamerasensors beträgt 0.6 m bis 2.5 m. die Versorgungsspan-
nung ist 24 VDC.

Die Distanzbilder können mittels USB Verbindung und der TOF Visualization Software
(abgekürzt TVS) von CEDES auf dem PC angezeigt werden. Programmierung und
Debugging wird über die JTAG Schnittstelle ermöglicht.

                      Abbildung 2-10: CEDES 3D-Sensor IMS 100 [2]

Abbildung 2-10 zeigt den ungefähr 100 mm langen Kamerasensor, eingebettet in ein
robustes Kunststoffgehäuse. Das vollständige Elekronikschema sowie das PCB Layout
findet man im elektronischen Anhang unter CEDES › PCB_CEDES.

                                       Seite 10
3 Evaluation und Aufbau Geschwindigkeitssensor

3 Evaluation und Aufbau Geschwindigkeitssensor

Für die geforderte Aufgabe ist der gegebene Aufbau ungeeignet. Der Abstrahlwinkel
muss klein sein, um eine Reichweite von mindestens 50 m zu erreichen. Dieser Forde-
rung wird mit einem neuen Beleuchtungskonzept Rechnung getragen.

Die durchdachte Konstruktion des IMS 100 erlaubt es, einen eigenständigen Beleuch-
tungsprint aufzubauen. Auf diesem Print wird zudem 5 VDC aus der 24 VDC Versor-
gungsspannung generiert. Ein Schnittstellenbeschrieb kann Abbildung 3-1 entnommen
werden.

            Abbildung 3-1: Schnittstellenbeschreibung Beleuchtung und TOF-Print

Da der Beleuchtungsprint viel mehr Platz beansprucht, wurde ebenfalls eine neue Hal-
terung für den Sensor konstruiert. Eine alte Spiegelreflexkamera Minolta XD7 dient als
Optik für den CCD Chip. Verschiedene aufsteckbare Objektive bieten Flexibilität be-
züglich Brennweite und Blendengrösse in der Testphase.

Eine perspektivische Zeichnung des Aufbaus findet sich in Abbildung 3-2. Die Spiegel-
reflexkamera beherbergt den TOF-Print von CEDES. An diesem Print wurden keine
Änderungen an der Harware vorgenommen. Die Haltevorrichtung für den TOF-Print,
der grosse Beleuchtungsprint und der Aluminiumwinkel wurden neu konstruiert.

                                         Seite 11
3 Evaluation und Aufbau Geschwindigkeitssensor

                   Abbildung 3-2: Aufbau des TOF Geschwindigkeitssensors

3.1 Elektronischer Aufbau
Aus dem Elektronikschema kann man entnehmen, dass CEDES pro Strang zwei LEDs
in Serie schaltet. Angesteuert werden die 8 Stränge durch bipolare Transistoren. Zum
Startzeitpunkt dieser Bachelorarbeit testete CEDES bereits eine Ansteuerung von
mehr als zwei LEDs in Serie, geschaltet durch einen MOSFET.

Durch Streuung und tiefe Reflexionsfaktoren geht viel optische Leistung verloren. In
Abbildung 3-3 wird die Problematik wiedergegeben. Es darf nicht unterschätzt werden,
dass die Sonne im Wellenlängenbereich um 850 nm eine beachtliche Strahlungsinten-
sität besitzt. Gefordert ist also eine leistungsstarke Sendequelle, um die Belichtungs-
zeit kurz zu halten.

                                          Seite 12
3 Evaluation und Aufbau Geschwindigkeitssensor

                        Abbildung 3-3: Reflexionswinkel am Target

In einer ersten Testphase wurde ein Beleuchtungsprint mit 10 LEDs in Serie angefertigt
(Abbildung 3-4).

                               Abbildung 3-4: 10-LED-Print

3.1.1 Hardwarekomponenten 10-LED-Print

Nachfolgend werden die wichtigsten Hardwarekomponenten, die die Evaluation für sich
entscheiden konnten, mit deren Eigenschaften und Vorteilen kurz beschrieben.

IR-Lumnezdiode SFH4550 (850 nm) [3]
   •   Infrarot LED im gewünschten Wellenbereich 850 nm mit hoher Ausgangsleis-
       tung
   •   Durch den engen Abstrahlwinkel von ± 3 ° entfällt die Optik
   •   Die sehr schnelle Schaltzeit von 10 % auf 90 % bei 100 mA beträgt gerade
       12 ns

                                        Seite 13
3 Evaluation und Aufbau Geschwindigkeitssensor

MOSFET PMF370XN [4]
     •    Sehr kleine Gate-Ladung von 0.65 nC
     •    Geringer RDSon von 550 mΩ

Treiber 74LVC1G126 [5]
     •    Sehr kurze Flanken Anstiegs- und Abfallzeit
     •    Hoher Ausgangsstrom von ±24 mA

3.1.2 Berechnungen und Schaltungsbeschreibung 10-LED-Print

Die Schaltung wird mit 24 VDC Spannung versorgt. Aus dem Datenblatt im elektroni-
schen Anhang kann man entnehmen, dass bei einem angestrebten Stromfluss von
200 mA pro Leuchtdiode ca. 1.68 V abfallen. Der Spannungsabfall über den MOSFETs
ist sehr gering, pro Bauteil 0.047 V. Der Vorwiderstand wird nach Formel 8 bis Formel
10 berechnet. Es wird ein Strangstrom von 200 mA angestrebt. Da die LEDs mit einem
Tastverhältnis von 50% angesteuert werden, darf in der eingeschalteten Phase der
doppelte Strom fliessen als beim Betrieb mit Gleichspannung erlaubt wäre.

                        DEFGH       IJ   = KLM    N   ∙ OMPQ:NR = 0.37Ω ∙ 0.2
                                                                                                  Formel 8
                                          DEFGH    IJ   = 0.047T

DEFGH IJ :          Spannungsabfall 0.047 V je MOSFET bei 200 mA
KLM N :              Widerstand je MOSFET 370 mΩ bei VGS = 4.5 V; ID = 0.2 A; Tj = 25 °C
OMPQ:NR :            Strangstrom von 200 mA

DU   Q   = DV   P   − 10 ∙ DMGWXYY − 2 ∙ DEFGH           IJ   = 24T − 10 ∙ 1.68T − 2 ∙ 0.047T
                                                                                                  Formel 9
                                              DU   Q   = 7.106T

DU Q :               Spannung am Vorwiderstand [V]
DV P                 Totale Strangspannung = 24 V
DMGWXYY :           Spannungsabfall 1.68 V je LED bei 200 mA

                                     DU   Q       7.106T
                       KU   Q   =             =          = 35.53Ω ≈ 33.33Ω
                                    OMPQ:NR        0.2                                           Formel 10

KU Q :               Vorwiderstand R1 ║ R2 ║ R3 [Ω]

                                                          Seite 14
3 Evaluation und Aufbau Geschwindigkeitssensor

                                                                                      V24

                                                                                                       C3      C1
                                                                                R1      R2     R3
                                                                                                       100nF   1000uF
                                                                                100     100    100

    LED1            LED2           LED3            LED4          LED5

    SFH4550         SFH4550        SFH4550         SFH4550       SFH4550
      LED6            LED7           LED8            LED9             LED10

      SFH4550         SFH4550        SFH4550         SFH4550          SFH4550

                                                                V24

                                                                     R4
                                                                     4K7
                                                                                            Q1
                                                                                            PMF370XN

                                                  D1                  C4
                                                  BZX84-C20V          100nF

                                                               GND

                                                                D2
                                                                                            Q2
                                                                                            PMF370XN
                              V5
                                                                1N4148

                                             U1
                                                    R5                     Q3
     20 MHz Clock                  C5                                      2N2907A
                                                    1K
                                   1uF
                                             74LVC1G126

                                                                                      GND

                                          Abbildung 3-5: Schema 10-LED-Print

Als Stützkondensatoren walten C1 und C3. Diode D2 in Verbindung mit dem Bipolar-
Transistor Q3 sollen ein schnelles Entladen des Q2-Gates ermöglichen. Q1 versucht
den Millereffekt der Transistorschaltung zu reduzieren. Es konnte jedoch kein positiver
Effekt festgestellt werden.

                                                             Seite 15
3 Evaluation und Aufbau Geschwindigkeitssensor

3.1.2.1 Testresultate und Folgerungen 10-LED-Print
Die wichtigsten Punkte sind hier zusammengefasst. Details und die Messprotokolle
können im Anhang nachgelesen werden.

        •   Weil die Schaltung mit 20 MHz getaktet wird, erweist sich der Elektrolytkonden-
            sator C1 als ungeeignet. Er verhält sich viel zu träge und kann deshalb wegge-
            lassen werden.
        •   Die Gate-Ansteuerung von Q2 arbeitet im gewünschten Frequenzbereich nicht
            zufriedenstellend. Verbindet man den Treiberausgang direkt mit dem Gate-
            Anschluss von Q2, verbessert sich die Schaltcharakteristik massiv.
        •   Q1 kann komplett weggelassen werden.

Für Q2 wurden ebenfalls Versuche mit dem Feldeffekttransistor 2N7002K [6] durchge-
führt mit dem Ergebnis, dass dieser Typ ein langsameres Schaltverhalten besitzt.

3.1.3 Augensicherheit und optische Leistung

Damit die Geschwindigkeitskamera ein aussagekräftiges Distanzbild erzeugen kann,
muss möglichst viel optische Leistung abgestrahlt werden, was jedoch im Widerspruch
zur Augensicherheit steht. Um eine thermische Schädigung der Hornhaut und mögliche
Langzeiteffekte auf die Linse des Auges zu verhindern, dürfen die von Electro Suisse
[7] herausgegebenen Normwerte nicht überschritten werden. Die Berechnungen kön-
nen im M-File Beleuchtung.m aus dem Anhang nachvollzogen werden. Abbildung
3-6 zeigt die maximale Bestrahlungsdauer für das menschliche Auge im Verhältnis
zum Abstand und der Zeit. Die blaue Linie zeigt die theoretische Bestrahlungsstärke.
Durch Messungen in einer Entfernung von 1 m und 2 m (violette Punkte) wurde jedoch
festgestellt, dass die Bestrahlungsstärke in Wirklichkeit geringer ist. Schaut man weni-
ger als 1000 Sekunden auf die 100 LEDs aus einer Entfernung von 1 m, so besteht
keine Gefahr für die Hornhaut und die Linse des Auges. Pro LED wurde eine optische
Leistung von 0.05 W kalkuliert. Für die thermische Schädigung der Netzhaut bei
schwachem optischen Reiz gilt der Grenzwert für die Strahldichte nach Formel 11.

                                     6000
                             [\] ≤        ` ∗ 47 ∗ A 7                        Formel 11
                                      _

[\] :             Spektrale Strahldichte [W·m-2·sr-1]
_:                Winkelausdehnung [rad]

Die Winkelausdehnung α beträgt in unserem Fall 0.0375 rad was zu einer erlaubten
Strahldichte von 160'020 W·m-2 führt. Unsere Beleuchtunskonfiguration kommt auf eine
Strahldichte von 9'217 W·m-2 und ist somit erlaubt.

                                             Seite 16
3 Evaluation und Aufbau Geschwindigkeitssensor

                                                                            Bestrahlungsstärke
                                           4
                                          10

                                                    t = 10s

                                           3
                                          10
                                                    t = 100s

             Bestrahlungsstärke [W/m 2]

                                           2
                                                    t = 1000s
                                          10

                                           1
                                          10

                                           0
                                          10

                                               0         2      4   6   8           10           12   14   16   18   20
                                                                              Enternung [m]

                Abbildung 3-6: Maximale Bestrahlungsdauer für menschliches Auge

3.1.4 Aufbau definitiver Beleuchtungsprint

Der definitive Beleuchtungsprint (100-LED-Print) wurde nach dem Vorbild aus Abbil-
dung 3-5 (Testprint mit 10 LEDs) aufgebaut. Um möglichst flexibel auf optische Leis-
tungsanforderungen reagieren zu können, befinden sich auf dem Print zehn Stränge
mit insgesamt 100 LEDs. Jeder Strang kann durch einen Jumper zugeschaltet werden.
Beschaltet wird der Strang durch einen MOSFET PMF370XN in Verbindung mit einem
Treiber 74LVC1G126. Der Treiber liefert genügend Strom für ein schnelles Auf- und
Entladen des MOSFET Gates.

Jeder Strang ist mit einer Ferritperle [8] (L1 in Abbildung 3-7 auf der nächsten Seite)
versehen. Diese Induktivität verringert elektromagnetische Abstrahlungen. Dabei wer-
den durch Glättung abrupter Stromänderungen hochfrequente Anteile herausgefiltert.

Der Vorwiderstand besteht aus zwei parallel geschalteten 1206 SMD Widerständen.
Das vollständige Schema findet man im Anhang.

                                                                        Seite 17
3 Evaluation und Aufbau Geschwindigkeitssensor

                                       V24

                                                    W1
                                                    Jumper
                                                     600 R @ 100 MHz

                                                     L1                        C1

                                                         R1        R2          100nF
                                                         39        39
                                                                        LED1             LED2        LED3          LED4            LED5

                                                                        SFH4550          SFH4550     SFH4550       SFH4550         SFH4550

                                                                   LED10               LED9        LED8          LED7            LED6

                                                                   SFH4550             SFH4550     SFH4550       SFH4550         SFH4550
                                 Q1
                                 PMF370XN

                          R3                        R4
                          10k                       0

                            V5

                                                    U1
                                 C2                 74LVC1G126
                                 1uF

                           GND                                              GND

                                                     i Parameter Set
                                                       Length Constraint [Min Length = 0mm Max Length = 70mm]
                                                       Short-Circuit Constraint [Short Circuit - Allowed]
                                       20MHzClock

                                                         Abbildung 3-7: Strang mit 10 LED's

Zur   Erzeugung           der          5 VDC                                Spannungsversorgung                                  wird           der      Buck-Konverter
TPS5410 EP von Texas Instruments verwendet. Unter Dauerbelastung liefert der Auf-
bau aus Abbildung 3-7 bis 1 A Strom am Ausgang.

        V24                                                                                                                                                        V5
                                      U2                                          C3
          Supply: 7-35V          7                                      1                                 L2
                                       VIN                BOOT
                                                                                                          68uH
                                 5                                                10nF                                                          R5         C4
                                       ENA                                                                                                                 2.7nF
                                                                                                                                                10k
              C5                 2                                      8                          D1                     C6            C7
                                       NC                     PH
              4.7uF                                                                                D Schottky             47uF          47uF
              35V max            3
                                       NC
                                                                                                                                                          R6
                                 6                                      4                                                                                 1.78k
                                       GND VSNS
                                      TPS5410-EP

                                                                                                                                        C8      R7         C9
                   GND                                                                                                                  150pF              56nF
                                                                                                                                                3.24k

                                                                                                                                                        GND

                                     Abbildung 3-8: Buck-Konverter 24 VDC - 5 VDC

                                                                                       Seite 18
3 Evaluation und Aufbau Geschwindigkeitssensor

3.2 Mechanischer Aufbau Geschwindigkeitssensor
Ein Aluminiumwinkel dient als Hauptträger für den Sensoraufbau. Der 100-LED-Print
kann mit vier M3-Schrauben befestigt werden. Für die LEDs (THT-Technologie) gibt es
100 Löcher. Diese Löcher haben zwei wichtige Funktionen. Zum einen werden die
LEDs parallel ausgerichtet und zum anderen wird die Wärmeabfuhr durch das Alumini-
umblech massiv gesteigert.

                 Abbildung 3-9: Dreiseitenansicht Geschwindigkeitssensor

Abbildung 3-9 zeigt, dass der TOF-Print in die Fotokamera Minolta DX7 eingebettet ist.
Der CCD Chip befindet sich genau im Zentrum der Optik. Die auswechselbaren Objek-
tive erleichtern Anpassungen in der Testphase enorm. Im Gegensatz zu modernen
High-End Objektiven filtern die Linsen Infrarotlicht im Wellenlängenbereich 850 nm
nicht heraus, ein willkommener Umstand für diese Anwendung.

Alle CAD-Files sind im elektronischen Anhang abgelegt. Die 2D-Zeichnungen findet
man auch im Anhang.

                                        Seite 19
4 Software

4 Software

Die Arbeitsschritte, die zur Geschwindigkeitsmessung erforderlich sind, werden in die-
sem Kapitel beschrieben. Die Arbeitsschritte sollten dabei günstig auf den DSP des
Sensorprints und das MATLAB Programm auf dem PC aufgeteilt werden. Grundsätz-
lich sind folgende Schritte zur Messung der Geschwindigkeit eines Objektes notwen-
dig:

       1. Erzeugen der Schaltsignale für die Beleuchtung
       2. Auslesen des Bildsensors
       3. Berechnung der Distanz für jedes Pixel
       4. Zeitmessung
       5. Übertragung des Distanzbildes zum PC
       6. Finden des bewegten Objektes
       7. Berechnung der Geschwindigkeit
       8. Anzeige des Bildes und der Messdaten

Da der Arbeitsspeicher des DSP mit 12 KB (12288 Byte) sehr klein ist, ist es nur knapp
möglich, ein Distanzbild mit 24 · 80 Pixel · 16 bit = 3840 Byte im Speicher zu halten,
während das Darauffolgende berechnet wird. Die Berechnung benötigt prinzipbedingt
doppelt so viel Speicher wie für die Speicherung eines fertigen Bildes nötig ist, da für
jedes Distanzbild zwei phasenverschobene Bilder benötigt werden. Insgesamt wäre
also mindestens Speicherkapazität für 3 Bilder (11520 Byte) plus der nötigen Arbeits-
variablen erforderlich. Um in der Verarbeitung der Daten nicht durch den kleinen
verbleibenden Arbeitsspeicher begrenzt zu sein und eine möglichst hohe Framerate zu
erreichen, werden die Arbeitsschritte 6 bis 8 auf dem PC mithilfe von MATLAB durch-
geführt. Dies bietet darüber hinaus die Möglichkeit, die Bildverarbeitungsfunktionen von
MATLAB verwenden zu können. Für eine kommerzielle Anwendung des entwickelten
Systems wäre es sinnvoll einen schnelleren DSP mit mehr Speicher zu verwenden, um
alle Verarbeitungsschritte auf einem Prozessor durchführen zu können.

4.1 DSP Software
Die uns zur Verfügung gestellte Demo-Software für den Sensorprint beinhaltet bereits
einen grossen Teil der nötigen Funktionen, ist aber für die Anwendung als Türsensor
bestimmt und an diesen Verwendungszweck angepasst. Für die Verwendung als Ge-
schwindigkeitsradar gelten andere Anforderungen, die es notwendig machten, die
Software teilweise zu verändern. In den folgenden Abschnitten werden die Änderungen
einzeln aufgeführt und beschrieben.

                                         Seite 20
4 Software

4.1.1 Zeitmessung

Zur Geschwindigkeitsmessung wird die zurückgelegte Strecke pro Zeiteinheit gemes-
sen. Daher ist es nötig, die Zeit zu messen, die zwischen zwei aufgenommenen Bildern
vergangen ist. Um diese Funktion zu realisieren, wird ein Timerbaustein des Prozes-
sors verwendet, der zuvor noch frei war. Der Timer wird gestartet bevor ein Bild aufge-
nommen wird und misst die Zeit bis zum Beginn der Aufnahme des nächsten Bildes.
Die abgelaufene Zeit wird im Kopf des Datenpaketes mit dem Bild an den PC zur wei-
teren Verarbeitung gesendet. Die vorgenommenen Änderungen sind im Anhang aufge-
führt.

4.1.2 Reichweite

Die Reichweite einer TOF-Kamera ist abhängig von der Stärke der Beleuchtung, der
Belichtungszeit und den Reflexionseigenschaften des beleuchteten Objektes. Die An-
wendung als Türsensor erfordert nur sehr geringe Reichweiten im Bereich von 0 m bis
2.5 m. Aus diesem Grund und um Rauschen durch zu geringe Beleuchtungsstärke zu
vermeiden, war die Reichweite softwaremässig auf 2.5 m beschränkt. Da unsere Be-
leuchtung wesentlich leistungsfähiger ist und zur Geschwindigkeitsmessung die maxi-
mal mögliche Reichweite ausgenutzt werden sollte, wurde die Reichweitenbegrenzung
entfernt.

4.1.3 Bildrate

Die von CEDES erhaltene Software benötigte zur Aufnahme eines Bildes 244 ms bei
einer Belichtungszeit von 10 ms, dies ergibt eine Bildrate von 1/0.244 s = 4.1 Bildern
pro Sekunde (fps). Diese Bildrate würde bei einer maximalen Distanz von 7.5 m, die
sich aus der Modulationsfrequenz vom 20 MHz ergibt, zu einer maximal messbaren
Geschwindigkeit von 55.23 km/h führen (Formel 12).

                     :;       7.54           4        B4
             5≤            =           = 15.37 = 55.23                          Formel 12
                  2 ∗ =>? 2 ∗ 0.244A        A         ℎ

5:            Maximale Geschwindigkeit [m/s]
 :; :        Maximale Distanz (Halbe Wellenlänge) [m]
=>?:        Zeit für Bildaufnahme [s]

Um den Prozess der Bildaufnahme zu beschleunigen, wurde jeder Schritt der Aufnah-
me und Übertragung der Bilddaten über die Schnittstelle zum PC nach Optimierungs-
möglichkeiten untersucht. In Tabelle 4-1 sind die Zeiten aufgeführt, die bei einer Belich-
tungszeit von 10 ms für jeden Schritt benötigt werden.

                                        Seite 21
4 Software

Tabelle 4-1: Verarbeitungszeit für ein Distanzbild

 Arbeitsschritt               Zeit
 Integration der Photonen      50.8 ms
 Auslesen des Sensors          31.6 ms
 Grauwertbild berechnen        98.4 ms
 Distanzbild berechnen         16.7 ms
 Übertragung bei 921'600 Baud  46.5 ms
 Total                        244.0 ms

Die Integrationszeit ist die Belichtungszeit inklusive der PWM Ansteuerung. Sie ist von
der Leistung der Beleuchtung sowie den Umgebungsbedingungen abhängig und ein-
stellbar. Die Zeit für das Auslesen des Sensors kann nicht verkürzt werden, da das
Timing im Datenblatt des TOF-Sensors eingehalten werden muss. Bei genauerer Be-
trachtung der Berechnungen im Prozessor fiel auf, dass zur Berechnung des Grau-
wertbildes nach Formel 13,

                          = !(0 − 2) + (1 − 3)                         Formel 13

:       Amplitude des reflektierenden Signals (Grauwert)

die Wurzelfunktion aus der C-Standardbibliothek verwendet wurde, die mit 98.4 ms
Berechnungszeit für 24x80 Pixel sehr viel Zeit benötigt. Texas Instruments bietet mit
ihrer QMath-Bibliothek [9] eine für den verwendeten Prozessor optimierte Mathematik-
bibliothek kostenlos an. Durch Ersetzen der Wurzelfunktion mit der optimierten Funkti-
on konnte die benötigte Zeit auf etwa 3 ms reduziert werden. Im selben Zug wurde die
Arcustangensfunktion zur Berechnung der Distanz durch die Funktion qatan() aus
der selben Bibliothek ersetzt. Dadurch konnten weitere 3.68 ms eingespart werden,
zudem konnte der C-Code übersichtlicher gestaltet werden.

Die dritte wichtige Geschwindigkeitsoptimierung betrifft die Übertragung der Daten über
die serielle Schnittstelle. Mit 921'600 Baud ist die Übertragungsgeschwindigkeit bereits
an der oberen Grenze. Versuche, die Baudrate zu erhöhen, resultierten in Übertra-
gungsfehlern und wurden deshalb aufgegeben. Der Schnittstellenbaustein des einge-
setzten Prozessors verfügt jedoch über ein 16 Byte grosses FIFO, in dem Daten abge-
legt werden können, um anschliessend automatisch übertragen zu werden. Diese
Funktion in Verbindung mit interruptgesteuertem Auffüllen des FIFO wurde folgender-
massen eingesetzt.

Nachdem ein Distanzbild berechnet wurde und zur Übertragung bereitsteht, wird der
Sendeinterrupt freigeschaltet, was zu einer weitgehend automatischen Übertragung
der Daten führt, während der Prozessor bereits das nächste Bild aufnehmen kann.

                                              Seite 22
4 Software

Aufgrund des Mangels an Arbeitsspeicher kann jedoch nur ein Teilbild aufgenommen
werden solange die Übertragung des alten Bildes andauert. Die Belichtungssequenz
musste aus diesem Grund ebenfalls angepasst werden. Ursprünglich lief die Belich-
tungssequenz wie in Abbildung 2-4 auf Seite 5 gezeigt ab. Dabei wurde in Phase 1 das
Bild A0-A2 und in Phase 2 das Bild A1-A3 aufgenommen. In Phase 3 und 4 wurden,
wie beschrieben, Fertigungstoleranzen des Sensors ausgeglichen. Da sich das zu
übertragende Distanzbild im gleichen Speicherbereich befindet wie das Bild A1-A3,
darf dieser Bereich bis zur Fertigstellung der Übertragung nicht überschrieben werden.
Es kann daher Zeit zur Übertragung gewonnen werden, wenn zuerst die Belichtungs-
phasen 1 und 3 ablaufen und nach fertiger Übertragung die Phasen 2 und 4. Durch
Versuche wurde festgestellt, dass die Übertragung des alten Bildes bei einer Belich-
tungszeit von 8 ms und mehr bereits fertig war, bevor Phase 2 des neuen Bildes an-
fing. Bei der Belichtungszeit von 8 ms ist daher das Optimum zwischen möglichst ho-
her Geschwindigkeit und möglichst langer Belichtungszeit erreicht. Tabelle 4-2 führt die
Zeiten der einzelnen Arbeitsschritte und die Zeitersparnis nach der Optimierung auf
(Belichtungszeit = 10 ms).

Tabelle 4-2: Zeitersparnis nach Optimierung

 Arbeitsschritt                                          Zeit    Ersparnis
 Integration der Photonen                                50.8 ms    0.0 ms
 Auslesen des Sensors                                    31.6 ms    0.0 ms
 Grauwertbild berechnen                                   2.5 ms   95.9 ms
 Distanzbild berechnen                                    5.4 ms   11.3 ms
 Übertragung bei 921'600 Baud und Sonstiges               2.3 ms   44.2 ms
 Total                                                   92.6 ms 151.4 ms

Die aufgeführten Optimierungen führten zu keiner Verschlechterung der Bildqualität
und wurden daher beibehalten. Die Bildrate bei 10 ms Belichtungszeit beträgt nun
1/0.0926 s = 10.8 fps und die maximal messbare Geschwindigkeit 145.8 km/h, was für
unsere Anwendung mehr als ausreichend ist.

4.2 Objektverfolgung

4.2.1 Stillstehende Objekte entfernen

Die Kamera nimmt fortlaufend Bilder auf, die Distanzinformationen sämtlicher reflektie-
render Objekte im Sichtbereich enthalten. Darunter befinden sich bewegte Gegenstän-
de wie Autos oder Fussgänger und feststehende Objekte wie zum Beispiel Verkehrsta-
feln oder Strassenlaternen. Abbildung 4-1 zeigt eine typische Situation.

                                              Seite 23
4 Software

                    Abbildung 4-1: Geschwindigkeitskamera im Einsatz

Für unsere Anwendung der Geschwindigkeitsmessung sind grundsätzlich nur bewegte
Objekte interessant. Im ersten Schritt der Bildverarbeitung geht es darum, sämtliche
feststehenden Objekte aus dem Bild zu entfernen. Die einfachste Möglichkeit dies zu
erreichen ist, von jedem Bild das vorherige Bild pixelweise zu subtrahieren. Dadurch
wird jedes unveränderte Pixel auf den Wert Null gesetzt. Als Ergebnis erhält man ein
Bild, das nur noch Objekte enthält, die sich seit dem letzten Bild bewegt haben. Da das
Kamerabild ein beleuchtungsstärkenabhängiges Rauschen enthält, werden auch Pi-
xelwerte, die zu unbewegten Objekten gehören nach der Subtraktion nicht genau null.
Sie haben einen Wert, der zwischen der zweifachen negativen und positiven Rausch-
amplitude liegen kann. Aus diesem Grund ist es erforderlich, eine minimale Geschwin-
digkeit oberhalb der zweifachen Rauschamplitude anzugeben, ab welcher ein Objekt
als bewegt angenommen wird.

In Abbildung 4-2 ist ein Distanzbild zu sehen wie es von der Kamera empfangen wird.
Am linken Rand ist eine reflektierende Verkehrstafel zu sehen, während auf der rech-
ten Seite ein von der Kamera wegfahrendes Auto zu sehen ist. Die Rücklichter und das
Kennzeichen reflektieren wesentlich besser als der Rest des Autos. In Abbildung 4-3
ist das Ergebnis der im vorigen Abschnitt beschriebenen Operation zu sehen. Die Ver-
kehrstafel wurde fast komplett aus dem Bild entfernt, während das Abbild des beweg-
ten Autos beinahe unverändert blieb.

                                        Seite 24
4 Software

                                   Abbildung 4-2 Distanzbild

                          Abbildung 4-3 Feststehende Objekte entfernt

4.2.2 Binärbild erzeugen

Die Aufgabe besteht nun darin, von den bewegten Gegenständen den richtigen aus-
zuwählen. Dazu muss ein sogenanntes Binärbild erzeugt werden,
                                                      werden das nur die Pixelwer-
                                                                         Pixelwe
te "0" und "1" enthält. Dies ist notwendig,
                                 notwendig um die später erforderlichen MATLAB-Funk-
tionen anwenden zu können. Grössere,
                           Grössere flache Objekte wie Nummernschilder
                                                       Num             oder
Scheinwerfer erscheinen im Distanzbild als Fläche ähnlicher Farbe. Dies nutzen wir,
                                                                               wir
um Pixelgruppen ähnlicher Distanz zusammenzufassen. Der gesamte messbare Dis-
                                                                         Di
tanzbereich wird dazu in eine einstellbare Anzahl Gruppen unterteilt. Die Gruppe,
                                                                          Grup    der
die meisten Pixel angehören,
                  angehören wird ausgewählt und alle zugehörigen
                                                               n Pixel im Binärbild
mit einer "1" markiert.

Am Beispiel des Kamerabildes aus Abbildung 4-2 besitzt die Gruppe der hellroten Pixel
die meisten zugehörigen Pixel. Die Verteilung ist in Abbildung 4-4 als Histogramm dar-
                                                                                  da
gestellt. Die hellroten Pixel fallen hier in die Gruppe 25, die alle Pixel mit einer Entfer-
                                                                                     Entfe
nung zwischen 6.215 m und 6.472 m enthält. Die so ausgewählten Pixel werden nun
auf den Wert "1" gesetzt, alle anderen erhalten den Wert "0".. Das Ergebnis ist in Abbil-
dung 4-5 zu sehen.

                                           Seite 25
4 Software

                              Abbildung 4-4 Histogramm

                                Abbildung 4-5 Binärbild

4.2.3 Entfernung messen
                  essen

Die im letzten Schritt gekennzeichneten Pixel ähnlicher Distanz können nun auf zu-
                                                                               z
sammenhängende Flächen untersucht werden. Ziel ist es, die grösste Fläche zu finden
und deren Distanz zu bestimmen,
                     bestimmen falls diese gross genug für eine genaue Messung ist.
MATLAB bietet mit derr Funktion regionprops eine gute Möglichkeit , zusammen-
hängende Pixelgruppen zu finden und eine Vielzahl an Informationen über sie zu erhal-
                                                                               erha
ten. Ist die gewünschte Gruppe bestimmt, kann über den Durchschnitt der ausgewähl-
                                                                        ausgewäh
ten Pixel die Entfernung zum Objekt berechnet werden. In Abbildung 4-6 handelt es
sich um ein kurz nach dem bisherigen Bild aufgenommenes Kamerabild. Die ausge-
                                                                        ausg
wählte Fläche ist darauf mit einem roten Rechteck gekennzeichnet. Der rote Stern
markiert den Schwerpunkt der Fläche.

                                        Seite 26
4 Software

                             Abbildung 4-6 Ausgewählte Fläche

4.2.4 Geschwindigkeit berechnen

Da die Entfernung zum Objekt nun
                             nun bekannt ist, kann durch Subtraktion des letzten Ent-
                                                                                 En
fernungsmesswertes die Strecke bestimmt werden,
                                        werden die das Objekt in der Zeit zwischen
den Bildern zurückgelegt hat. Die abgelaufene Zeit wird im Kopf des Bilddatenpaketes
von der Kamera zum PC gesendet und kann nun zur Berechnung der Geschwindigkeit
des Objektes verwendet werden.

Um eine korrekte Geschwindigkeitsmessung zu gewährleisten,
                                            gewährleisten muss sichergestellt
werden, dass bei beiden Bildern dasselbe Objekt ausgewählt wurde. Es wurden ver-
                                                                            ve
schiedene
   iedene Möglichkeiten
          Möglichkeite untersucht dies zu bewerkstelligen.. Naheliegend wäre, die
Form des Objektes auf bestimmte Eigenschaften zu untersuchen und im darauffolgen-
                                                                    darauffolge
den Bild unter Berücksichtigung der Grössenänderung das gleiche Objekt wiederzufin-
                                                                       wiederzufi
den. Da jedoch nur 24x80 Pixel zur
                               zu Verfügung stehen, sehen die meisten Objekte ab
einer gewissen Entfernung kreisförmig bis oval aus. Wir beschränken uns deshalb auf
eine Positionskontrolle innerhalb des Bildes. Befindet sich der Schwerpunkt
                                                                Schwerpun des Mess-
bereichs weiter vom letzten entfernt als ein einstellbarer Grenzwert,, kann relativ sicher
gesagt werden, dass es sich nicht um dasselbe Objekt handelt.. Die Messung würde
                                                                           wür in
diesem Fall für ungültig erklärt, um eine Falschanzeige zu vermeiden. Der Grenzwert
für die maximale Entfernung der beiden Schwerpunkte muss abhängig vom Winkel der
Kamera zur Strasse und der zu erwartenden Geschwindigkeit der Fahrzeuge ange-
                                                                        ang
passt werden. In Abbildung 4-6 ist die Begrenzungslinie als grüner Kreis um den
Schwerpunkt der Fläche zu sehen,
                          sehen die für die vorangegangene Distanzmessung ver-
                                                                          ve
wendet wurde. In diesem Fall liegt der neue Schwerpunkt, der durch
                                                             dur den roten Stern
gekennzeichnet ist, innerhalb des Kreises. Dies bedeutet,, dass beide Distanzwerte
zum selben Objekt gehören und daher zur Geschwindigkeitsberechnung verwendet
werden dürfen.

                                        Seite 27
4 Software

4.3 Benutzeroberfläche
Die in Kapitel 4.2 beschriebene Objektverfolgung, die Kommunikation mit der Kamera
und die Anzeige der Ergebnisse wurde in einem Programm mit Benutzeroberfläche
kombiniert. In diesem Kapitel werden die Bedienung
                                         Bedienung und die Funktionen dieses Pro-
                                                                             Pr
grammes erläutert. In Abbildung 4-7 ist eine Aufnahme der Benutzeroberfläche zu se-
                                                                                s
hen. Im oberen Drittel des Fensters werden die Kommunikationseinstellungen,
                                               Kommunikationseinstellungen, die Ka-
                                                                                K
meraeinstellungen und die Programmsteuerung vorgenommen. In
                                                         I der Mitte des Fens-
                                                                         Fen
ters werden das Kamerabild und Informationen zur Objektverfolgung angezeigt. Der
untere Teil zeigt die Ergebnisse der Distanz-
                                     Distanz und Geschwindigkeitsmessung
                                                                 messung an.

                        Abbildung 4-7: Screenshot MATLAB GUI

4.3.1 Datenquelle

Zuerst muss die Auswahl der Datenquelle im linken oberen Rand des Fensters (Data
                                                                           (
Input) erfolgen. Im normalen Betrieb wird die serielle Schnittstelle ausgewählt,
                                                                     ausgewählt um
Daten in Echtzeit von der Kamera zu empfangen. Alternativ dazu können jedoch zuvor
aufgenommene Bildersequenzen aus einer Datei geladen und neu ausgewertet wer-
                                                                         we
den. Diese Funktion ist für Testzwecke sehr nützlich. Die Kommunikation
                                                          Kommunikat    mit der Ka-
mera läuft über einen Seriell-zu-USB
                      Seriell    USB Wandler, für den ein Treiber installiert werden

                                      Seite 28
4 Software

muss [10]. In den Treibereinstellungen kann ein virtueller COM-Port ausgewählt wer-
den, dessen Nummer im linken oberen Feld angegeben wird. Die Kamera sendet Da-
ten mit einer Baudrate von 921'600 Baud, die standardmässig bereits eingestellt ist. Mit
dem Knopf Open wird entweder die serielle Schnittstelle oder die angegebene Datei
geöffnet.

4.3.2 Programmsteuerung

Die Gruppe Control beinhaltet die Programmsteuerfunktionen. Nachdem eine Da-
tenquelle ausgewählt und mit Open geöffnet wurde, kann mit dem Knopf Run das Pro-
gramm gestartet werden. Vor dem Starten kann die Objektverfolgung, die im Kapitel
4.2 beschrieben wurde, durch die Auswahl von Auto im Feld Tracking verwendet
werden. Zu Testzwecken kann der Messbereich durch die Anwahl von Manual per
Maus ausgewählt werden.

4.3.3 Aufnahme

Sollen die empfangenen Bilder aufgezeichnet werden, ist der Knopf Record vor dem
Starten zu drücken. Zum Stoppen der Aufnahme muss erst der Knopf Stop, dann der
Knopf Stop Recording betätigt werden. Die Aufnahme wird auch ohne manuelles
Stoppen beendet, wenn eine im Sourcecode einstellbare Anzahl Bilder aufgenommen
wurde. Die aufgezeichneten Bilder werden nach der Aufnahme im selben Verzeichnis
gespeichert, in dem sich das Programm befindet. Der Dateiname wird automatisch aus
den Buchstaben "Rec_" und der aktuellen Zeit zusammengesetzt. Die Aufnahmedatei
enthält die empfangenen Distanzbilder im Format 24x80x16 bit sowie die Zeit zwischen
den Aufnahmen in Millisekunden. Bei der Aufnahme ist zu beachten, dass ein leis-
tungsfähiger Computer verwendet wird, um die anfallenden Daten schnell genug ver-
arbeiten zu können. Ist der Computer zu langsam, so werden einzelne Bilder ausge-
lassen, was eine spätere Auswertung der Daten erschwert.

4.3.4 Kameraeinstellungen

Im Feld Camera Settings können Einstellungen wie Belichtungszeit und Art der
Kameradaten eingestellt werden. Die Belichtungszeit sollte möglichst kurz gewählt
werden, um eine Übersteuerung der Kamerapixel durch Umgebungslicht zu verhindern
und eine möglichst hohe Bildrate zu erreichen. Gleichzeitig muss sie aber gross genug
sein, um eine genügend hohe Reichweite zu erlangen. Zur Geschwindigkeitsmessung
muss im Auswahlfeld Kind of Picture entweder Distance oder Distance Int
ausgewählt sein. Durch die Auswahl von Distance Int findet die Übertragung, wie

                                       Seite 29
Sie können auch lesen