voertuigidentificatie bij multi-camera tunnelbewaking ... · letsels en materi ele schade. om in...
TRANSCRIPT
Alexander Ide
Voertuigidentificatie bij multi-camera tunnelbewaking
Academiejaar 2009-2010Faculteit IngenieurswetenschappenVoorzitter: prof. dr. ir. Herwig BruneelVakgroep Telecommunicatie en informatieverwerking
Master in de ingenieurswetenschappen: computerwetenschappen Masterproef ingediend tot het behalen van de academische graad van
Begeleider: Vedran JelacaPromotoren: prof. dr. ir. Aleksandra Pizurica, prof. dr. ir. Wilfried Philips
Alexander Ide
Voertuigidentificatie bij multi-camera tunnelbewaking
Academiejaar 2009-2010Faculteit IngenieurswetenschappenVoorzitter: prof. dr. ir. Herwig BruneelVakgroep Telecommunicatie en informatieverwerking
Master in de ingenieurswetenschappen: computerwetenschappen Masterproef ingediend tot het behalen van de academische graad van
Begeleider: Vedran JelacaPromotoren: prof. dr. ir. Aleksandra Pizurica, prof. dr. ir. Wilfried Philips
Dankwoord
Eerst en vooral wens ik Prof. Dr. Ir. Aleksandra Pizurica en Prof. Dr. Ir. Wilfried
Philips te bedanken voor het creeren van de mogelijkheid om onderzoek te verrichten in
dit vakgebied. Mijn oprechte dank gaat ook uit naar Ir. Vedran Jelaca en Ir. Andres Frıas
Velazquez voor hun fundamentele bijdrage aan deze masterproef in de vorm van nuttige
tips, een grote portie geduld en de verhelderende discussies, rijkelijk doorspekt met hun
aanstekelijke en uitbundige lach. Ook wens ik Dr. Ir. Hiep Quang Luong te bedanken
voor het nalezen van mijn masterproef en de suggesties in verband met alternatieven voor
de thresholdingtechniek.
Een woord van dank gaat uit naar mijn vrienden die meer dan eens het rubberen eendje
speelden in de “Rubber duck debugging” methode, mijn familie, voor het verbeteren van
de eindeloze rij taalfouten in de eerste versies van deze masterproef en speciaal naar mijn
vriendin Elien voor de steun doorheen het jaar en de vele keren dat ze de verzuchtingen
mocht aanhoren die met deze masterproef gepaard gingen.
Toelating tot bruikleen
”De auteur geeft de toelating deze masterproef voor consultatie beschikbaar te stellen
en delen van de masterproef te kopieren voor persoonlijk gebruik. Elk ander gebruik
valt onder de beperkingen van het auteursrecht, in het bijzonder met betrekking tot de
verplichting de bron uitdrukkelijk te vermelden bij het aanhalen van resultaten uit deze
masterproef.”
”The author gives permission to make this master dissertation available for consultation
and to copy parts of this master dissertation for personal use. In the case of any other
use, the limitations of the copyright have to be respected, in particular with regard to the
obligation to state expressly the source when quoting results from this master dissertati-
on.”
Alexander Ide 4 juni 2010
iv
Voertuigidentificatie bij multi-camera tunnelbewaking
door
Alexander Ide
Masterproef ingediend tot het behalen van de academische graad van Master in de inge-
nieurswetenschappen: computerwetenschappen
Academiejaar 2009-2010
Universiteit Gent: Faculteit Toegepaste Wetenschappen
Promotoren: Prof. Dr. Ir. Aleksandra Pizurica, Prof. Dr. Ir. Wilfried Philips
Begeleider: Ir. Vedran Jelaca
Samenvatting
Tunnels zijn omgevingen die gevoelig zijn voor verkeersongevallen met ernstige fysieke
letsels en materiele schade. Om in staat te zijn om snel en adequaat te reageren zodat de
schade en het aantal verloren levens tot een minimum beperkt kan worden, is het tunne-
loperatoren van belang om bepaalde voertuigen in een tunnel (bijvoorbeeld voertuigen die
gevaarlijke goederen vervoeren) te volgen. In deze masterproef beschrijven we een iden-
tificatie techniek voor multi-camera tracking van voertuigen in tunnels. We stellen een
aanpassing van een gezichtsherkenningstechniek voor om voertuigen, door middel van een
beeld van dat voertuig, te identificeren in de ene camera zodat deze terug kan gevonden
worden in de daaropvolgende camera.
De techniek maakt gebruik van een offline training fase waarin de differentierende ken-
merken van voertuigen bepaald worden. Vervolgens creeert het algoritme een descriptor
van een nieuw beeld op basis van deze kenmerken. Om een voertuig terug te vinden in de
tweede camera wordt de descriptor van dat voertuig in de eerste camera vergeleken met
de descriptoren van alle beelden uit de tweede camera. Het voertuig dat afgebeeld staat
op de descriptor van camera 2 die het dichtste bij de camera 1 descriptor staat wordt
als hetzelfde voertuig gedefinieerd. De techniek presteert goed in de gevallen waarin de
beelden voldoende gedetailleerde kenmerken van het voertuig bevatten. Het is mogelijk
om een systeem, gebaseerd op deze techniek, te bouwen waardoor voertuigen over ver-
schillende camera’s gevolgd kunnen worden. Bovendien is het niet nodig om op beelden
uit alle camera’s te trainen, dit vermindert het geheugengebruik en zal het gemakkelijker
maken om een defecte camera te vervangen.
Trefwoorden: Voertuigidentificatie, Multi-camera, Verkeersbewaking
v
Vehicle Identification for Multi-camera TunnelSurveillance
Alexander Ide
Promotors: Prof. Dr. Ir. Aleksandra Pizurica, Prof. Dr. Ir. Wilfried PhilipsSupervisor: Ir. Vedran Jelaca, Ir. Andres Frıas Velazquez
Abstract—For surveillance purposes it is necessary to track certain vehi-cles (e.g. vehicles which transport dangerous goods) in tunnels through thefield of view of multiple cameras. In a multi-camera tracking algorithm itis vital to correctly identify vehicles in each of the cameras so they can betracked through the whole tunnel. To do this we propose a technique foridentification of vehicles in tunnels, based on principal components anal-ysis. The proposed technique is an adaptation of the eigenfaces techniquethat is often used for face recognition. It has an offline training phase to cre-ate a set of salient features derived from a training set of vehicle images. Inthe online phase, each image is represented by a descriptor that defines inwhat degree each salient feature is present in the image. Our experimentsare done on 200 vehicle images, extracted from three low resolution tun-nel surveillance videos. The experiments show a good performance in thecases where the images are taken close to the camera. Furthermore, theyalso show that it is not necessary to have a training set in each camera; thisreduces memory usage and the time needed for training.
Keywords—Vehicle identification, Multi-camera, Traffic surveillance
I. INTRODUCTION
Tunnels are environments prone to traffic accidents with se-vere human casualties and material damage. To be able to re-act fast and adequate to save lives and keep the damage min-imal, for tunnel operators it is important to track certain vehi-cles throughout a tunnel (e.g. vehicles which transport danger-ous goods). For this purpose, multiple surveillance cameras aretypically mounted along a tunnel, often with non-overlappingfields of view. Computer vision algorithms are then used toenable automatic detection and tracking of vehicles in the ac-quired videos. Such algorithms consist of three parts: vehicledetection, vehicle tracking in a field of view of one camera andvehicle identification which is used for a “handover” of vehiclesbetween cameras, i.e. multi-camera tracking.
Our work is focused on developing a robust vehicle identifica-tion method, efficient enough to be deployed for real-time trafficsurveillance and able to cope with challenges of a real tunnel en-vironment. The challenges are caused by either the system: i.e.changes in viewing angle on the vehicle, different zoom proper-ties of the cameras, etc or by the tunnel and traffic conditions:i.e. reflections of lights (tunnel lights, other vehicles, etc), poorlighting conditions, etc. Figure 1 contains three examples ofvehicle images from a real tunnel.
II. RELATED WORK
There are many techniques used for object recognition[1].One which is very often used is designed for detection andrecognition of faces. Kirby and Sirovich have shown that anyparticular face could be reconstructed by its similarity to otherfaces described by eigenvectors, which they call eigenfaces[2],[3]. Based on those eigenfaces, a descriptor of a face can be
(a) (b) (c)
Fig. 1. An example of (a) typical image of a truck, (b) a vehicle with reflectionson its side, (c) a car with its rear lights on.
created. Later, Turk and Pentland have designed a face recog-nition method based on eigenfaces[4], which compares the de-scriptor of the test face with those of the faces used for training.It classifies test images as “known faces”, “unknown faces” or“non-faces”. Figure 2(a) gives an example of an eigenface. Weadapted this technique to identify vehicles in tunnels.
(a) (b)
Fig. 2. Example of (a) an eigenface created by AT&T Laboratories Cambridgeand (b) an eigenvechicle.
III. THE PROPOSED TECHNIQUE
The proposed technique applies the eigenfaces technique onvehicles to match two images of the same vehicle in two differ-ent cameras. The eigenvectors of vehicle images we call “eigen-vehicles”. Figure 2(b) is an example of an eigenvehicle.
As descriptor of a vehicle image we use the weight vector,which is the dot product of that image with all eigenvehiclescreated in the training phase. This weightvector represents inwhat degree a specific feature is present in the original image.It is a point in the space spanned by all eigenvehicles. We mea-sure the Euclidean distance between the descriptors of images incamera N and the descriptors of images in camera N − 1. Thedescriptors with the smallest Euclidean distance are matched toeach other.
Due to physical constraints of traffic we do not compare allvehicles in camera N − 1 to all vehicles in camera N . Instead
it is possible, by taking into account the speed of vehicles ina tunnel, to reduce the amount of vehicles in camera N − 1to which each vehicle in camera N should be compared. Wecalculate a matrix of Euclidean distances between weightvectorsand carry out the assignment by minimizing the total cost on thismatrix.
Calculating the assignment with the lowest total cost is doneby a Hungarian algorithm, which is a combinatorial optimiza-tion algorithm which solves the assignment problem in polyno-mial time[5].
IV. TESTS AND RESULTS
Our experiments are done on two datasets, named the IPI-dataset and the Traficon-dataset. Both datasets are created fromthe same video sequences by manual extraction of the vehicleimages. They both contain one image of each vehicle per cam-era. In the IPI-dataset these images are taken when the com-plete vehicle enters the field of view of each camera, whilein the Traficon-dataset they are taken at a random moment.Therefore, the Traficon-dataset contains vehicles with signifi-cant scale, viewing angle and appearance variations, which ismore challenging for their identification, but closer to the realscenario.
Furthermore we have manually divided each dataset in dif-ferent subsets, each with their own specifications and size e.g.“100 cars”, “100 trucks”, “100 mixed”, etc. The number in thename of the subset represents how many different vehicles thereare in each subset. The “100 cars” subset has 100 different cars,represented by one image in each camera or 300 images in to-tal. This is analogous for the “100 trucks” subset. The subset“100 mixed” contains 70 cars and 30 trucks. A higher numberof cars is used to simulate the real traffic scenario. We did thetests multiple times using different set of training and testingvehicles. The results are then averaged over all exectutions andpresented in table 1. The results on the “100 mixed” subset aregiven to show the performance in the case when there is no clas-sification on cars and trucks done, which simplifies the trainingphase.
Tab. 1. Results of “100 cars”, “100 trucks” and “100 mixed”, trained on 25randomly chosen training vehicles and 50 test vehicles.
100 cars 100 trucks 100 mixedIPI-dataset ∼72% ∼90% ∼82%
Traficon-dataset ∼36% ∼ 82% ∼48%
The results for the IPI-dataset are higher in all three cases andthe difference between IPI-dataset and the Traficon-dataset isespecially large in the “100 cars” and the “100 mixed” subsets.This means that these subsets are more difficult to match cor-rectly if the image of the vehicle is taken at a random location inthe field of view of the camera. Especially for cars, there are notenough detailed features of the vehicle visible, when the imagesare taken far from the camera.
Further we want to know the influence of using one trainingset constructed from the images of vehicles from three differentcameras instead of having an equal amount of training imagesbut from one camera. Because we use an equal amount of train-ing images, the latter set has three times more vehicles than the
former. Figure 3 shows the results of this test for the IPI-datasetwith “100 trucks”.
It shows that the trainings set does not need to be constructedfrom the images of one of the cameras in which the test is per-formed. Additionally the results show that training using imagesof different vehicles brings more information then using multi-ple images of a smaller amount of vehicles.
C2−C1 C3−C1 C3−C20
10
20
30
40
50
60
70
80
90
100IPI−dataset,100 trucks,15 trainingimages
Cor
rect
ly m
atch
ed in
%
Matched cameras
Training in all 3 cameras (5 different vehicles)Training only in camera 1 (15 different vehicles)Training only in camera 2 (15 different vehicles)Training only in camera 3 (15 different vehicles)
Fig. 3. Results for the IPI-dataset with “100 trucks”, training using images fromeach camera separately or from all three cameras jointly.
V. CONCLUSION
We showed that it is possible to use eigenvectors of vehicleimages to match their observations acquired by multiple cam-eras.
The training can be done offline using images from only onecamera, which enables reduction in memory space and timeneeded for training. Online matching can be done in real timeand with high accuracy if the observations close to the cameraare used. Additional improvement, especially for identificationof cars, can be made by using images of higher resolution, whichcontain more features.
REFERENCES
[1] University of Texas at Austin, Kristen Grauman, “Ob-ject recognition course 2007,” Retrieved June 4, 2010, fromhttp://userweb.cs.utexas.edu/∼grauman/courses/spring2007/395T/schedule.htm.
[2] L. Sirovich and M. Kirby, “Low-dimensional procedure for the character-ization of human faces,” J. Opt. Soc. Am. A, vol. 4, no. 3, pp. 519–524,1987.
[3] M. Kirby and L. Sirovich, “Application of the karhunen-loeve procedurefor the characterization of human faces,” IEEE Transactions on PatternAnalysis and Machine Intelligence, vol. 12, pp. 103–108, 1990.
[4] M. Turk and A. Pentland, “Eigenfaces for recognition,” Journal of Cogni-tive Neuroscience, vol. 3, pp. 71–86, 1991.
[5] James Munkres, “Algorithms for the assignment and transportation prob-lems,” Society for Industrial and Applied Mathematics, vol. 5, no. 1, pp.32–38, Mar. 1957.
[6] “Traficon,” Retrieved June 4, 2010, fromhttp://www.traficon.com/page.jsp?id=114.
Inhoudsopgave
1 Inleiding en beschrijving van de problemen 2
1.1 Inleiding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Beschrijving van de problemen . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 State of the art 9
2.1 Extractie van de karakteristieken op basis van een trainingsset . . . . . . . 11
2.1.1 Informatieve kenmerken voor visuele identificatie lokaliseren . . . . 11
2.1.2 Thresholding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.3 Eigenfaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.4 Corefaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Extractie van de karakteristieken zonder trainingsset . . . . . . . . . . . . 23
2.2.1 SIFT (Scale-Invariant Feature Transform) . . . . . . . . . . . . . . 23
2.2.2 Fourier, Wavelet en Curvelet transformaties . . . . . . . . . . . . . 24
2.3 Gekozen technieken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3 Het voertuigidentificatie algoritme 26
3.1 Toepassen van de eigenfacestechniek . . . . . . . . . . . . . . . . . . . . . . 26
3.1.1 Voorbeeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2 Vergelijken van de verschillende descriptoren . . . . . . . . . . . . . . . . . 28
3.3 Selectie beste koppel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.1 Een descriptor per keer koppelen . . . . . . . . . . . . . . . . . . . 30
3.3.2 Hongaars algoritme . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
viii
4 Experimenten 34
4.1 Datasets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.1 Traficon-beelden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.2 IPI-beelden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Thresholding . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.2.1 Op zoek naar een drempelwaarde via vensters . . . . . . . . . . . . 36
4.2.2 Drempelwaarde via het histogram . . . . . . . . . . . . . . . . . . . 36
4.2.3 Drempelwaarde via het uitgemiddeld beeld . . . . . . . . . . . . . . 37
4.2.4 Eerste testen: resultaten en conclusie . . . . . . . . . . . . . . . . . 37
4.3 Eigenvehicles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3.1 Hoe getest? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3.2 Resultaten en discussie over de vragen . . . . . . . . . . . . . . . . 44
5 Conclusie, praktijktoepassing en toekomstig werk 53
5.1 Eindconclusie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Praktijktoepassing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3 Toekomstig werk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
A 59
A.1 IPI-beelden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
A.2 Traficon-beelden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
B 63
B.1 IPI-beelden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
B.2 Traficon-beelden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
C 66
C.1 IPI-beelden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
C.2 Traficon-beelden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
1
Hoofdstuk 1
Inleiding en beschrijving van deproblemen
1.1 Inleiding
Figuur 1.1: Schematische weergave van een tunnel die uitgerust is met een camerasysteem.
Situering van de masterproef:
De mens legt vandaag de dag elk jaar ettelijke kilometers af. Dagelijks verplaatsen
miljoenen mensen zich tientallen kilometers enkel en alleen om te gaan werken. We laten
producten aan huis afleveren van letterlijk de andere kant van de wereld en we gaan op
vakantie naar de verste uithoeken van onze planeet. Een van de benodigdheden om zoveel
te kunnen reizen is een omvangrijk transportnetwerk. De aarde zit gevangen in een groot
net van wegen, bruggen en tunnels, die ons zonder problemen over of doorheen de grootste
obstakels leiden. Deze masterproef heeft alles te maken met dit laatste type bouwwerk,
namelijk de tunnels.
Tunnels zijn in vele opzichten een groot gemak, maar kunnen ook verschillende proble-
men met zich meebrengen. Aangezien al het verkeer door een smalle koker moet, is een
ongeval of brand extra gevaarlijk. De geschiedenis leert ons dat de gevolgen van een
brand in een tunnel catastrofaal kunnen zijn. Momenteel zijn vele tunnels uitgerust met
verschillende systemen om ongelukken sneller te kunnen detecteren. Zo kan men er dan
2
efficienter op reageren. In figuur 1.1 ziet u een voorbeeld van een tunnel die uitgerust is
met een camerasysteem. Een vaak gebruikt systeem zijn lange rijen camera’s die in de
tunnels geınstalleerd zijn. Deze camera’s zenden continu beelden door naar een centraal
controlestation waar deze verwerkt en enige tijd bijgehouden worden. Om dit vlotter te
doen verlopen worden deze camerabeelden meestal gereduceerd tot een lagere resolutie.
Doel van de masterproef:
Stel dat er een voertuig, meer bepaald een vrachtwagen met een gevaarlijke lading, de
tunnel binnenrijdt, dan wil je als beheerder van de tunnel aan dit voertuig extra aandacht
besteden. Het liefst van al wil je dan het voertuig gaan volgen vanaf het begin van de
tunnel tot het einde. Stel dat er bijvoorbeeld brand uitbreekt in de tunnel, dan weet je
direct of de gevolgde vrachtwagen zich voor of achter de brandhaard bevindt. Om deze
functie mogelijk te maken moet je de voertuigen op een of andere manier identificeren.
Omdat het identificeren van de voertuigen een heel belangrijk onderdeel is in het volgen
van de voertuigen doorheen de camera’s is de titel van deze masterproef: “Voertuigi-
dentificatie bij multi-camera tunnelbewaking”. De meeste voertuigidentificatietechnieken
baseren zich op de nummerplaat van een voertuig maar door de lage resolutie van de ca-
merabeelden is de nummerplaat gereduceerd tot enkele pixels, waardoor de nummerplaat
onleesbaar is. Er moet dus een andere manier gezocht worden.
De masterproef is in samenwerking met het bedrijf Traficon [1]. Traficon is een bedrijf dat
gespecialiseerd is in verkeersanalyse gebaseerd op videobewerking. Hun hoofdkwartier is
in het West-Vlaamse Wevelgem en ze hebben afdelingen in Frankrijk, Duitsland, Azie en
de VS.
De invoergegevens:
Als invoer krijgt het identificatie-algoritme een verzameling van beelden die komen van
een “trackingsalgoritme” dat per camera meerdere voertuigen doorheen het gezichtsveld
volgt en van elk voertuig op een willekeurig tijdstip een beeld neemt. Dit gebeurt door
een “bounding box” rond het voertuig te plaatsen en alles wat zich buiten dit bounding
box bevindt weg te knippen. Op een beeld staat dus een voertuig met zo weinig mogelijk
achtergrond, zoals te zien is in de figuren 1.2 ,1.2 en 1.2 staan enkele voorbeelden. De in-
voerbeelden worden dus een per een ter beschikking gesteld aan het identificatie-algoritme,
waarna ons de opdracht rest om bij elk beeld uit de ene camera het corresponderende beeld
uit de volgende camera te vinden.
De kwaliteitsvereisten:
De verkeersstroom door een tunnel stopt nooit, er rijden doorlopend nieuwe voertuigen
binnen in de tunnel en deze moeten door het identificatie-algoritme verwerkt worden.
Het identificatie-algoritme moet dus de verkeersstroom kunnen volgen en niet achterop
3
(a) (b)
Figuur 1.2: (a) Voorbeeld van een figuur met een laag dynamisch bereik en (b) het histogramvan deze figuur
geraken. Daarnaast moet het natuurlijk ook betrouwbaar en robuust zijn. Het moet met
de verschillende problemen in de invoerbeelden overweg kunnen en nog altijd de juiste
beelden aan elkaar koppelen.
Eigen bijdragen:
We hebben eerst gebruik gemaakt van enkele thresholdingtechnieken maar deze gaven
niet het verhoopte resultaat. Vervolgens hebben we het voorgestelde algoritme ontwikkeld
op basis van de eigenfacestechniek. Dat hebben we dan met meer succes toegepast op de
invoerbeelden. Deze techniek maakt een descriptor van elk beeld, waarna op basis van
deze descriptoren de best passende beelden aan elkaar gekoppeld worden.
1.2 Beschrijving van de problemen
De invoerbeelden van het identificatie-algoritme zijn niet allemaal onder perfecte omstan-
digheden genomen, hierdoor kunnen ze een aantal eigenschappen hebben die misschien
tot problemen kunnen leiden.
Eigenschappen van de camerabeelden.
Eerst en vooral volgt er wat uitleg over de stand van de camera’s en wat er allemaal
in beeld gebracht wordt. De camera’s staan zo op de verkeersstroom georienteerd dat ze
altijd de achterkant van de voertuigen in beeld hebben. In ons geval worden drie rijstroken
in beeld gebracht en hangt de camera boven de middelste rijstrook. Dit zorgt ervoor dat
naast de achterkant ook het dak en de zijkant van het voertuig op het beeld kan staan.
Met dergelijke camerabeelden kunnen zich volgende problemen voordoen:
4
• Alle rijstroken zijn afgebeeld in een camerabeeld met een resolutie van 720×576.
Indien we er vanuit gaan dat een voertuig niet breder is dan een rijstrook, kan een
beeld van dit voertuig theoretisch maximaal 240×576 groot zijn (720/3=240). Deze
resolutie van 720×576 is bepaald door Traficon en zorgt voor een lagere kost op vlak
van opslag en transport van de filmbeelden.
• De beelden hebben een laag dynamisch bereik, dit wilt zeggen dat een groot deel
van de informatie in een beperkt interval van het histogram vervat zit. Meestal zijn
enkel de lichten duidelijk te onderscheiden in het histogram. Zie figuur 1.2.
• In de achtergrond kunnen er nog wegmarkeringen op het wegdek staan, die in hoog
contrast staan met de rest van het beeld.
Kijkhoek
Lichten
De lichten van een voertuig zijn heel goed te zien op de beelden. De heldere witte
vlekken staan meestal in schril contrast met de rest van het voertuig. Hierdoor kunnen ze
misschien gebruikt worden in het identificatie-algoritme, maar ze kunnen ook verschillende
problemen veroorzaken:
• Gedoofde lichten:
Verschillende chauffeurs vergeten hun lichten aan te steken in een tunnel. Dit is
vooral een probleem indien de chauffeur iets later dan toch besluit om zijn lichten
aan te steken. Meestal is het voertuig dan al in het gezichtsveld van een volgende
camera en zal dit de identificatie bemoeilijken. Zie figuur 1.4(a) voor een voertuig
met gedoofde lichten.
• Reflecties:
Naast de echte lichten kunnen er verschillende andere heldere lichtpunten in het
beeld voorkomen. Deze kunnen onder andere veroorzaakt worden door reflecties
van lichten van andere voertuigen of van de tunnelverlichting. Daarnaast kunnen
de lichten van het voertuig zelf gereflecteerd worden op de omgeving bijvoorbeeld
op een nat wegdek. Zie figuur 1.4(b).
• Remlichten:
Als een voertuig remt dan springen er meestal extra remlichten aan. Daarnaast
schijnen de normale achterlichten een stuk feller dan voorheen. Dit kan ervoor
zorgen dat een deel van het voertuig slechter zichtbaar is in het beeld. Dit probleem
komt vooral voor als het voertuig verder van de camera verwijderd is. Zie figuur
1.4(c).
5
(a) (b)
(c) (d)
Figuur 1.3: Normale (a) auto en (b) vrachtwagen. Problemen met kijkhoek: kijkhoek in camera1 (c) en 2 (d) op het hetzelfde voertuig. Merk ook hoe moeilijk het is om voertuig (a) en (c)van elkaar te onderscheiden.De kijkhoek van een camera op een voertuig kan doorheen de tunnel veranderen. Hieron-der volgen enkele redenen:
• De camera’s zelf kunnen boven andere rijstroken hangen.
• Er kan een bocht in de tunnel zijn.
• Het voertuig kan van rijstrook veranderen.
Zie figuren 1.3(c) en 1.3(d) voor een voorbeeld.
• Zwaailichten:
Sommige voertuigen hebben zwaailichten en dit zwaailicht kan dus per toeval recht
in de eerste camera schijnen juist wanneer er een beeld genomen wordt en bij de
tweede camera niet.
Afstand tot de camera.
Doordat de invoerbeelden op een willekeurige afstand van de camera’s genomen zijn,
6
(a) (b)
(c)
Figuur 1.4: Problemen met lichten: (a) gedoofde lichten (b) reflectie van andere lichten op derechterzijde (c) saturatie van het beeld door de remlichten.
heeft dit als effect dat de voertuigen die dichtbij genomen zijn meer details bevatten dan
deze met een grotere afstand tot de camera. Daarnaast is het effect van saturerende
lichten sterker als het voertuig zich verder van de camera bevindt. Het beeld in figuur
1.5(a) is een stuk dichter bij de camera genomen dan in figuur 1.5(b).
Bounding box
Aangezien de detectie van de voertuigen in de camerabeelden op een automatische
manier gebeurt, kunnen er hierin fouten sluipen. De voertuigen worden eerst omgeven
door een omgeschreven rechthoek, de ”bounding box”genaamd en daarna wordt alles
buiten deze bounding box weggeknipt. Indien deze rechthoek te klein is zullen delen van
het voertuig niet op het beeld staan. Daarnaast kan de omgeschreven rechthoek te groot
zijn of kan het voertuig niet volledig in het midden van de rechthoek staan. In beide
gevallen zal niet enkel het voertuig, maar ook veel van de achtergrond in het beeld vervat
zijn.
7
(a) (b)
(c) (d)
Figuur 1.5: Het beeld van het voertuig in (a) camera 1 is dichter bij de camera genomen dan in(b) camera 2. Geınterlinieerde (c) auto en (d) vrachtwagen, het logo bij de vrachtwagen is bijnavolledig onleesbaar.
Interlinie
Zoals bijna alle camerabeelden zijn ook deze camerabeelden geınterlinieerd. Aangezien
de invoerbeelden uit deze geınterlinieerde camerabeelden geknipt worden, zijn ze daarom
ook geınterlinieerd. Enkele voorbeelden zijn te vinden in de figuren 1.5(c) en 1.5(d).
8
Hoofdstuk 2
State of the art
In dit hoofdstuk leggen we uit welke technieken er gebruikt kunnen worden om het gestelde
probleem op te lossen. Bij elke techniek proberen we steeds zijn specifieke eigenschappen
te toetsen aan de vereisten van deze masterproef en op eventuele problemen te anticiperen.
Zoals reeds aangehaald is het de bedoeling in deze masterproef om afbeeldingen van het-
zelfde voertuig uit verschillende camera’s aan elkaar te koppelen. Een naıeve oplossing
voor dit probleem is elke pixel van het ene beeld te vergelijken met de pixel op dezelfde
plaats in het andere beeld. Deze oplossing wordt al vlug een zware klus als je met grote
verzamelingen van beelden werkt. Om het identificatie-algoritme vlotter te laten verlopen
is het aan te raden om op een of andere manier enkel de belangrijke informatie uit een
beeld te filteren en deze dan te vergelijken met dezelfde informatie van een ander beeld.
Het spreekt voor zich dat louter op basis van deze informatie, ook wel de karakteristieken
van een beeld genoemd, moet kunnen beslist worden op welke beelden hetzelfde voertuig
afgebeeld staat. Het is natuurlijk de bedoeling dat het extraheren, verwerken en ver-
gelijken van deze karakteristieken uit een verzameling beelden een minder zware klus is
dan alle pixels van de beelden onderling te vergelijken. Een algoritme zoals hierboven
beschreven bevat dus drie grote stappen:
1. Extractie van de karakteristieken
In deze stap wordt het beeld verwerkt zodat enkel de karakteristieken van het beeld
geselecteerd zijn.
2. Maken van een descriptor
De karakteristieken van het beeld worden in een descriptor omgezet. Deze is dan
eenvoudig met andere descriptoren te vergelijken.
3. Vergelijken van de verschillende descriptoren
De descriptoren gecreeerd in de vorige stap worden nu onderling vergeleken. In-
dien twee descriptoren weinig van elkaar verschillen wil dit zeggen dat op de bij de
descriptoren horende beelden hetzelfde object afgebeeld wordt.
9
Figuur 2.1: Blokdiagram van het algemeen algoritme om beelden te vergelijken.
In figuur 2.1 zijn deze drie stappen grafisch in een blokdiagram weergegeven. Het is dus de
bedoeling dat de descriptoren van de onderste twee beelden aan elkaar gekoppeld worden.
De specifieke invulling van deze drie stappen kan op vele manieren gebeuren. Elke techniek
die hieronder beschreven wordt heeft zijn typerende eigenschappen maar zoals voordien
aangehaald moet het identificatie-algoritme aan enkele randvoorwaarden voldoen:
• Het moet robuust genoeg zijn om niet teveel last te hebben van de verschillende
problemen die worden opgesomd in sectie 1.2.
• De snelheid van het identificatie-algoritme is ook van belang. Het algoritme moet
de verkeersstroom door de tunnel kunnen volgen.
• Natuurlijk moet het daarnaast ook zo weinig mogelijk fouten maken.
Deze randvoorwaarden maken dat sommige technieken beter of minder goed toepasbaar
zijn in de context van deze masterproef.
10
(a) (b)
Figuur 2.2: Het stuk (a) van het algemeen algoritme in figuur 2.1 wordt vervangen door (b).
Figuur 2.3: Voorbeeld van een objectidentificatieprobleem: de twee auto’s aan de linkerzijdekomen uit camera 1 en de vier aan de rechterzijde uit camera 2. De vraag is op welke van debeelden uit camera 2 worden dezelfde auto’s als in de beelden uit camera 1 afgebeeld.
2.1 Extractie van de karakteristieken op basis van
een trainingsset
Een trainingsset is een verzameling van beelden die uitsluitend gebruikt wordt om er
bepaalde eigenschappen uit te filteren. Deze beelden zijn meestal zo gekozen dat ze
representatief zijn voor de volledige verzameling beelden waarop de techniek toegepast
zal worden. Dit wil zeggen dat indien de techniek enkel toegepast wordt op beelden van
gezichten dan zal de trainingsset ook volledig uit gezichten bestaan. Met behulp van deze
bekomen eigenschappen wordt er een andere verzameling beelden, de testset genaamd,
verwerkt. Deze trainingsset hoeft meestal maar een keer verwerkt te worden waarna de
bekomen eigenschappen voor een langere tijd gebruikt kunnen worden. Deze manier van
werken zorgt ervoor dat figuur 2.1 iets aangepast moet worden. Naast het blok met de
extractie van de karakteristieken komt er nu een extra blok waarin de training van het
algoritme gebeurd. In figuur 2.2 zijn deze aanpassingen grafisch voorgesteld.
2.1.1 Informatieve kenmerken voor visuele identificatie lokalise-ren
In dit artikel gaat het specifiek over het objectidentificatieprobleem, een voorbeeld van
dit probleem wordt in het artikel gegeven door figuur 2.3[2]. De techniek die in dit artikel
wordt voorgesteld is speciaal ontworpen voor de situatie waarin de variatie tussen de
objecten in een klasse (bijvoorbeeld auto’s) heel miniem is en er per klasse maar enkele
11
beelden beschikbaar zijn om op te trainen.
Eerst en vooral moet de trainingsset gemaakt worden. Deze trainingsset is opgebouwd uit
een lijst van beelden die per twee aan elkaar gekoppeld zijn. Deze koppeling kan positief
of negatief zijn en dit wil respectievelijk zeggen dat op beide beelden hetzelfde object
afgebeeld staat of niet. De rest van het algoritme gaat als volgt:
1. (offline) In de eerste stap wordt er informatie verzameld over een specifieke klas-
se bijvoorbeeld over gezichten. Dit gebeurt door de verschillende koppels in de
trainingsset te gaan verwerken. Voor elk koppel worden verschillende regio’s, bij-
voorbeeld de ogen, haarlijn en mond, in de beelden met elkaar vergeleken. Door
zowel koppels van beelden die wel en niet bij elkaar horen te verwerken wordt er een
model gecreeerd waarin te vinden is in welke omstandigheden regio’s wel of niet op
elkaar gelijken. Zo kan bijvoorbeeld uit deze stap blijken dat in 90% van de geval-
len waar in twee beelden de ogen gelijk zijn ook daadwerkelijk twee keer dezelfde
persoon afgebeeld staat.
2. (online) In deze stap wordt een “identificatiecascade” opgebouwd voor een specifiek
object gebaseerd op een beeld van dit object. Deze cascade wordt opgebouwd met
behulp van het globaal model opgebouwd in de eerste stap. Bovenaan in deze
cascade staan de regio’s die het meeste invloed hebben op een juiste identificatie en
onderaan deze met de minste invloed. In een cascade staat dus maar een selectie
van de regio’s uit de eerste stap.
3. (online) Pas de “identificatiecascade” uit de vorige stap toe op een nieuw beeld.
Hieruit wordt afgeleid of op het nieuwe beeld hetzelfde object, waarvoor die speci-
fieke cascade gebouwd is, afgebeeld wordt.
2.1.1.1 Is deze techniek toepasbaar op de gegeven beelden?
De techniek kan heel handig zijn om camera specifieke verstoringen van een beeld weg te
filteren. Indien er bijvoorbeeld enkel in camera 2 een bepaalde reflectie voorkomt zal het
al dan niet voorkomen van deze reflectie niet veel invloed hebben op een al dan niet juiste
koppeling van twee beelden. De reflectie zal hierdoor geen of heel weinig belang krijgen
in het model uit de eerste stap.
2.1.1.2 Mogelijke problemen:
• De creatie van de trainingsset is niet eenvoudig en moet manueel gebeuren, daar-
naast zijn de trainingssets vermoedelijk niet te gebruiken in een andere tunnel. Het
zou kunnen dat iedere keer dat er in tunnel een verandering gebeurd, zoals het
12
vervangen van een lamp of een kapotte camera, de trainingsset volledig opnieuw
manueel zal moeten aangepast worden.
• De trainingsset moet heel secuur gekozen worden zodat er zeker geen verkeerde
regio’s voor de identificatie gebruikt worden. Indien toevallig alle koppels met in
beide beelden eenzelfde reflectie ook positieve koppels zijn zal deze reflectie heel hoog
scoren in het model uit de eerste stap. In 100% van de gevallen waar in twee beelden
die reflectie voorkomt is ook daadwerkelijk twee keer hetzelfde object afgebeeld. Als
vervolgens twee afbeeldingen van een verschillend object toevallig beide die reflectie
hebben, is de kans groot dat het algoritme ze als gelijk zal classificeren.
• Hoe bruikbaar deze techniek is hangt sterk af van hoe compact de representatie van
een “identificatiecascade” is en hoe snel deze kan toegepast worden op een nieuw
beeld.
2.1.2 Thresholding
Deze techniek zal op basis van het histogram en door gebruik te maken van drempelwaar-
den specifieke delen van een beeld selecteren. Bij beelden met uitsluitend grijswaarden
zal alles boven een bepaalde drempelwaarde wit ingekleurd worden en alles eronder zwart.
Het is altijd een kunst om een goede drempelwaarde te vinden die overal in de beelden
kan gebruikt worden. Er bestaan verschillende technieken om deze drempelwaarde(n) te
bepalen. In paragraaf 4.2 testen we verschillende van deze technieken.
2.1.2.1 Is deze techniek toepasbaar op de gegeven beelden?
Er is een mogelijkheid dat bepaalde eigenschappen van een voertuig, bijvoorbeeld de vorm
en positie van logo’s, lichten en eventuele reflectoren op het voertuig, uit een beeld kunnen
gedestilleerd worden. Het succes van deze techniek hangt natuurlijk af van het feit of de
juiste drempelwaarden voor deze eigenschappen gevonden werden of niet. In een ideaal
geval zouden dezelfde drempelwaarden toepasbaar kunnen zijn voor alle camerabeelden.
Indien er een mogelijkheid bestaat om de positie van deze eigenschappen relatief ten
opzichte van elkaar te berekenen, heeft deze oplossing, zolang het voertuig zich volledig
binnen het beeld bevindt, weinig tot geen last van een verkeerd gepositioneerde “bounding
box”.
2.1.2.2 Mogelijke problemen:
• Het is moeilijk drempelwaarden te vinden die toepasbaar zijn op alle mogelijke
beelden.
13
• Detecteren van het verschil tussen de lichten van het voertuig en reflecties van andere
lichten op het voertuig is niet vanzelfsprekend.
• Subtiele veranderingen in de grijswaarden worden door deze techniek over het hoofd
gezien.
2.1.3 Eigenfaces
Automatische beeldherkenning en meer specifiek gezichtsherkenning, is al geruime tijd een
populair onderwerp. Bij gezichtsherkenning wil men een verzameling beelden verdelen in
drie deelverzamelingen, namelijk een waar alle beelden inzitten die geen gezicht zijn, een
waar alle gekende gezichten inzitten en een laatste met onbekende gezichten. Een techniek
voorgesteld door Turk en Pentland[3] maakt hiervoor gebruik van eigenvectoren. Kirby
en Sirovic toonden daarvoor al aan dat, gebaseerd op de Karhunen-Loeve expansie uit de
patroon herkenning, elk gezicht voorgesteld kan worden in functie van zijn gelijkenissen
met andere gezichten. Deze gelijkenissen worden beschreven door eigenvectoren, ook wel
eigenfaces genaamd[4, 5]. In de masterproef van I. Atalay[6] is deze techniek gezichtsher-
kenningstechniek en de mogelijke toepassingen ervan zeer goed uitgelegd. In de figuur
2.1.3 ziet u (a) een verzameling gezichten en (b) de eigenfaces van deze verzameling. Deze
beelden zijn gemaakt door Santiago Serrano van de “Drexel University”[7].
Zoals reeds even aangehaald werkt deze techniek met een verzameling van gekende ge-
zichten. Deze verzameling fungeert dus als trainingsset voor het algoritme.
Deze techniek is een methode waar een relatief kleine trainingsset gebruikt wordt om
de verschillen tussen beelden te gaan beschrijven. Dit gebeurd door de eigenvectoren te
berekenen van de covariantie matrix van de distributie, opgespannen door de trainingsset.
Eigenvectoren x1...h zijn vectoren die aan de volgende formule voldoen:
Ax1 = λ1x1
... =...
Axh = λhxh
Hierbij zijn A, h, λi...h respectievelijk een matrix, het aantal eigenvectoren en een verza-
meling van scalairen die de eigenwaarden genoemd worden. De eigenvectoren van de
covariantie matrix van de distributie, opgespannen door de trainingsset hebben de eigen-
schap dat ze heel sterk op de trainingsset gelijken. Indien er dus alleen maar afbeeldingen
van gezichten in de trainingsset zitten dan worden deze eigenvectoren ook wel “eigenfa-
ces” genoemd. Toegepast op deze masterproef, met het gebruik van voertuigen, zullen
deze eigenvectoren dus “eigenvehicles” genoemd worden. Indien de eigenvectoren van af-
beeldingen in het algemeen bedoeld worden, dan wordt ook wel de term eigenbeelden of
14
(a)
(b)
Figuur 2.4: (a) een verzameling gezichten en (b) de eigenfaces van deze verzameling
“eigenimages” gebruikt. Deze eigenvectoren zijn een representatie van de grootste ver-
schillen tussen de beelden in de trainingsset. In het geval van gezichtsherkenning zijn deze
15
verschillen meestal complexer dan louter de ogen, wenkbrauwen of neus van een persoon.
Elk gezicht kan gereconstrueerd worden door de som over alle eigenfaces te berekenen
waarbij elke eigenface een bepaald gewicht krijgt. Dit gewicht bepaalt de mate waarin
een specifiek kenmerk (eigenface) aanwezig is in het origineel beeld. Deze gewichten wor-
den voorgesteld door de gewichtsvector van een beeld. Op basis van deze gewichtsvectoren
kunnen testbeelden verdeeld worden in gezichten of geen gezichten en kunnen gezichten
uit een referentiedatabank herkent worden. Deze verdeling gebeurt op basis van de eu-
clidische afstand van de gewichtsvector van elk testbeeld tot de gewichtsvectoren van de
trainingsbeelden.
De eigenfaces techniek bestaat uit twee grote delen namelijk het berekenen van de eigen-
vectoren op basis van trainingsbeelden en het berekenen van de gewichtsvector van een
nieuw beeld. Hieronder wordt de techniek stap voor stap uitgelegd en geıllustreerd door
middel van een voorbeeld.
2.1.3.1 Berekenen van de eigenvectoren
Op basis van de trainingsbeelden worden in deze stap de juiste karakteristieken geıdentificeerd,
zodat deze kunnen gebruikt worden bij de create van de gewichtsvectoren van een nieuw
beeld.
Stap 1: De beelden worden herschaald, zodat ze allemaal dezelfde dimensie N1 × N2
hebben. Hierna wordt het beeld getransformeerd van matrix van N1×N2 naar een vector
met N1 ∗ N2 elementen. Stel dat we deze laatste vector gelijk stellen aan x dan is x de
gemiddelde waarde van x.
Stap 2: De tweede stap in het algoritme is de normalisatie van de trainingsbeelden.
De beelden worden genormaliseerd om de effecten van een verschillende helderheid tussen
de beelden te minimaliseren. Deze normalisatie gebeurt via formule 2.1 waarbij α het
genormaliseerde beeld voorstelt. Ustd en um zijn twee variabelen die op voorhand bepaald
werden en respectievelijk staan voor de gemiddelde standaarddeviatie en het gemiddelde
van alle gemiddelde waarde van de beelden in een bepaalde dataset.
α =(x− x+ um) ∗ ustdstandaarddeviatie(x)
(2.1)
standaarddeviatie(x) =
√√√√(1
(N1 ∗N2)− 1
N1∗N2∑i=1
(x(i)− x)2)
16
Stap 3: Het gemiddelde beeld β van alle genormaliseerde beelden αi...γ wordt berekend.
Hierbij is γ het aantal trainingsbeelden en β(r) de waarde van β op positie r.
β(r) = 1/γ
γ∑i=1
αi(r) (2.2)
Stap 4: Vervolgens worden verschilbeelden δi...γ berekend tussen elk van de genorma-
liseerde beelden αi...γ en het gemiddeld genormaliseerde beeld β. Dit gebeurd met de
formule δi = αi − β.
Stap 5: Bereken de covariantiematrix C van de verschilbeelden δi...γ uit de vorige stap.
Stel A gelijk aan een matrix waar kolom i gelijk is aan δi, dan wordt de covariantiematrix
berekend volgens C = AAT . Elke waarde Cij van deze matrix stelt de covariantie voor.
De covariantie geeft aan of en indirect in welke mate δi en δj lineaire samenhang vertonen.
Indien de beelden een grote resolutie hebben, zal dit ervoor zorgen dat er veel rijen in
matrix A zijn. Dan is de berekening van de covariantiematrix C een enorme taak.
Aangezien in de volgende stap enkel de eigenwaarden en eigenvectoren van de covarian-
tiematrix van belang zijn en indien γ relatief klein is ten opzichte van het aantal rijen
N1 ∗N2 in A kan dit probleem vertaald worden naar een kleiner probleem met dezelfde
oplossing. Stel dat vi een eigenvector van ATA is met zijn bijhorende eigenwaarde µi dan
geldt het volgende:
ATAvi = µivi
⇔ AATAvi = Aµivi
⇔ AATAvi = µiAvi
⇔ CAvi = µiAvi (2.3)
Uit formule 2.3 volgt dat Avi een eigenvector is van C met eigenwaarde µi. Hieruit volgt
dat de eigenwaarden van C gelijk zijn aan de eigenwaarden van ATA en de eigenvectoren
U = [u1 . . . uγ] van C gelijk zijn aan AV , waarbij V = [v1 . . . vγ] de eigenvectoren van
ATA zijn.
In deze stap is het dus voldoende om ATA te berekenen.
Stap 6: Deze stap bestaat uit drie kleine delen:
• We berekenen effectief de eigenvectoren V en de eigenwaarden µi...γ van ATA.
• We passen het Kaiser criterium [8] toe waarbij de eigenvectoren die een eigenwaarde
hebben die kleiner is dan 1 uit de lijst verwijderd worden. We bekomen de reduceerde
set V ′ = [v′1 . . . v′τ ] met τ ≤ γ.
17
• Normaliseren van de eigenvectoren V ′ via de volgende formule:
v′1 = v′1./
√√√√ η∑j=1
(v′1(j))2 (2.4)
... =...
v′τ = v′τ ./
√√√√ η∑j=1
(v′τ (j))2
Waarbij η de lengte is van de eigenvectoren en elk van de waarden in v′i gedeeld
wordt door√∑η
j=1(v′i(j))
2.
Stap 7: Deze stap bestaat uit twee kleine delen:
• We berekenen de gereduceerde set eigenvectoren U ′ van de covariantiematrix C uit
V ′ via formule:
u1 = Av′1... =
...
uτ = Av′τ
• Normaliseren van de eigenvectoren U ′ via forumule 2.4
Voorbeeld
Om bovenstaand stappen te illustreren hebben we gebruik gemaakt van een paar sterk
vereenvoudigde invoerbeelden. Ze ondergaan dezelfde stappen als wat er in de praktijk
zou gebeuren, maar omdat ze vereenvoudigd zijn is het makkelijker om stap per stap te
volgen wat er gebeurt. Figuur 2.5 bevat de drie invoerbeelden van dit voorbeeld.
Stap 1: De invoerbeelden worden herschaald naar een resolutie van 180×180, waarna
ze getransformeerd zijn naar een vector met 32400 elementen.
Stap 2: Doordat de figuren uit 2.5 artificieel zijn, hebben de beelden geen verschillen
in helderheid. De eerste stap in het algoritme verandert dus niets aan de figuren.
Stap 3: In deze stap werd het gemiddeld genormaliseerd beeld β berekend. Zie figuur
2.6.
18
(a) (b)
(c)
Figuur 2.5: Eenvoudige trainingsbeelden.
Figuur 2.6: Gemiddeld genormaliseerd beeld van de herschaalde beelden uit figuur 2.5.
Stappen 4,5,6 en 7: Deze stappen zijn louter berekeningen en geven geen visueel
resultaat. We slaan deze dus over in dit voorbeeld.
19
(a) (b)
Figuur 2.7: Eigenvectoren van de herschaalde beelden uit figuur 2.5.
Eindresultaat: Tot slot hebben we het eigenlijke doel bereikt, namelijk de eigenvec-
toren in figuur 2.7. Deze eigenvectoren lijken sterk op de figuren uit 2.5 en zullen we
daarom eigenbeelden noemen. Hoe sterker een regio in de eigenbeelden van een uniform
grijze kleur verschilt hoe meer er op basis van deze regio onderscheid kan gemaakt worden
tussen de trainingsbeelden.
2.1.3.2 Brekenen van de gewichtsvector van een nieuw beeld.
Op basis van de eigenvectoren bekomen uit onderdeel 2.1.3.1 wordt er nu een beschrijving
gemaakt van een nieuw invoerbeeld.
Stap 1: De beelden ondergaan dezelfde stappen als de trainingsbeelden. Ze worden
herschaald zodat ze allemaal dezelfde dimensie N1 × N2 hebben en daarna wordt het
beeld getransformeerd van matrix van N1×N2 naar een vector met N1 ∗N2 elementen.
Stap 2: Eerst en vooral wordt het invoerbeeld, via de methode beschreven in formule
2.1, genormaliseerd.
Stap 3: Daarna wordt het verschil ϕ berekend tussen dit genormaliseerde beeld en het
gemiddeld genormaliseerde beeld β uit formule 2.2.
20
(a) (b)
(c) (d)
Figuur 2.8: Eenvoudige testbeelden.
Stap 4: Vervolgens wordt het inproduct berekend tussen ϕ en elk van de eigenvectoren
U’ die berekend werden in onderdeel 2.1.3.1.
λ1 = ϕ · u′1... =
...
λτ = ϕ · u′τ
Deze waarden, ook wel gewichten genoemd, worden dan gecombineerd in een vector Ω =
[λ1 . . . λτ ], de gewichtsvector genaamd.
Voorbeeld
Dit voorbeeld bouwt verder op de eigenvectoren in figuur 2.7. Ook hier hebben we
ervoor gekozen een paar sterk vereenvoudigde testbeelden te gebruiken. Figuur 2.8 bevat
de drie invoerbeelden van dit voorbeeld.
21
testbeeld 2.8(a) testbeeld 2.8(b) testbeeld 2.8(c) testbeeld 2.8(d)
eigenvector a -6.049 -5.828 -117.475 -187.339eigenvector b -5.661 -5.458 110.308 183.0276
Tabel 2.1: Gewichten van de verschillende testbeelden uit figuur 2.8.
Stap 1: De invoerbeelden worden herschaald naar een resolutie van 180×180, waarna
ze getransformeerd zijn naar een vector met 32400 rijen.
Stap 2: Doordat de figuren uit 2.5 artificieel zijn, hebben de beelden geen verschillen
in helderheid. De eerste stap in het algoritme verandert dus niets in dit voorbeeld.
Stappen 3 en 4: Deze stappen zijn louter berekeningen en geven geen visueel resultaat.
We slaan deze dus over in dit voorbeeld.
Eindresultaat: In tabel 2.1 ziet u per kolom de verschillende gewichten die horen bij
de eigenvectoren van de testbeelden uit figuur 2.8.
2.1.3.3 Is deze techniek toepasbaar op de gegeven beelden?
In een gecontroleerde omgeving werkt deze techniek heel goed, maar de techniek is ge-
voelig aan radicale veranderingen in bijvoorbeeld gezichtsuitdrukkingen, helderheid en
occlusies[9]. Zoals reeds aangehaald zijn onze beelden zeker en vast niet in een gecontro-
leerde laboratorium omgeving opgenomen. Gelukkig hebben de beelden wel enkele goede
eigenschappen, zo veranderen vrachtwagens en auto’s onderling nauwelijks van vorm, zijn
occlusies uit de beelden gefilterd en kan de helderheid van een beeld aangepast worden
zodat deze gelijk is aan de helderheid van de beelden in de trainingsset.
Het classificeren van de testset is voor deze masterproef niet voldoende. We moeten een
stap verder gaan en proberen om twee beelden van hetzelfde voertuig aan elkaar te gaan
koppelen. Dit kan mogelijk gedaan worden door de gewichtsvectoren van alle camera 1
beelden te vergelijken met de gewichtsvectoren van de camera twee beelden.
2.1.3.4 Mogelijke problemen:
• Auto’s en vrachtwagens samen verwerken is niet vanzelfsprekend.
• Een niet perfect op het voertuig geplaatste bounding box kan voor veel problemen
zorgen.
• Veranderingen in helderheid tussen de verschillende camera’s kan roet in het eten
strooien.
22
2.1.4 Corefaces
Deze methode is een combinatie van de eigenfaces methode en een geavanceerde correlatie-
filter. De eerste methode wordt gebruikt om de verschillen in een set van trainingsbeelden
te detecteren. De tweede methode is dan weer heel robuust tegen veranderingen in de
helderheid van het beeld[10, 11]. De techniek creeert een soort “kerngezicht” dat re-
latief invariant is tegen veranderingen in de helderheid, verschuiving van het beeld en
occlusies[12, 13].
2.1.4.1 Is deze techniek toepasbaar op de gegeven beelden?
De techniek, eigenlijk een verbetering van de eigenfaces techniek, heeft in het artikel heel
hoopgevende resultaten, hierdoor ziet de techniek er heel bruikbaar uit voor onze beelden.
We stellen dus voor om deze techniek te gaan implementeren indien het gebruik van louter
eigenfaces te veel problemen met zich meebrengt op het vlak van helderheidsverschillen
en verschuivingen in het beeld.
2.1.4.2 Mogelijke problemen:
• Deze techniek is robuust tegen situaties die misschien niet veel in deze masterproef
voorkomen, dit maakt het algoritme complexer waardoor er meer rekenkracht nodig
is.
2.2 Extractie van de karakteristieken zonder trainings-
set
2.2.1 SIFT (Scale-Invariant Feature Transform)
In artikel [14] wordt een techniek beschreven die in artikel [15] gebruikt wordt bij het
aan elkaar koppelen van verschillende beelden van hetzelfde voertuig. Deze techniek is
robuust tegen ruis, gedeeltelijke occlusie, veranderingen van helderheid, rijvak en in de
grootte van het voertuig. De techniek bestaat uit vier stappen:
1. Detectie van de extrema in de schaal-ruimte:
Deze stap zoekt de extrema over alle mogelijke beeldschalen en -locaties. Dit wordt
efficient gedaan via een “difference-of-Gaussian” functie die de potentiele punten
identificeert waar de schaal en orientatie invariant blijven.
2. Lokalisatie van sleutelpunten:
Voor elk potentieel punt uit stap een wordt de locatie en schaal van dit punt berekend
via een model. De sleutelpunten worden geselecteerd op basis van hun stabiliteit.
23
3. Assignatie van orientatie:
In deze stap krijgt elk sleutelpunt een of meer richtingen toegewezen. Hierdoor zijn
alle verdere operaties, die worden uitgevoerd op beelddata, relatief naar de toege-
wezen richting, schaal en locatie getransformeerd en zijn deze vervolgens invariant
voor deze transformaties.
4. Creatie van een sleutelpuntdescriptor:
Elk van de sleutelpunten wordt in een descriptor gegoten.
Deze techniek extraheert stabiele schaal-invariante sleutelpunten uit het beeld. Het creeert
een grote groep karakteristieken die van overal in het beeld en uit alle mogelijke schalen
van dit beeld komen. Een beeld van 500×500 kan rond de 2000 van deze karakteristieken
hebben.
2.2.1.1 Is deze techniek toepasbaar op de gegeven beelden?
Deze techniek is robuust tegen een groot deel van de problemen beschreven in hoofdstuk
1.2 en is daarom veelbelovend. Het is ook bemoedigend dat de techniek reeds succesvol
toegepast is geweest in een soortgelijke situatie.
2.2.1.2 Mogelijke problemen:
• De beelden uit de masterproef hebben een lagere resolutie dan deze uit de artikels.
• Deze techniek is robuust tegen situaties die misschien niet veel in deze masterproef
voorkomen, dit maakt het algoritme complexer waardoor er meer rekenkracht nodig
is.
2.2.2 Fourier, Wavelet en Curvelet transformaties
Door deze drie transformaties wordt het beeld voorgesteld in het frequentiedomein in
plaats van het ruimtedomein. Deze voorstelling bestaat uit een grote verzameling ge-
tallen die coefficienten genoemd worden. De curvlettransformatie is gespecialiseerd in
het beschrijven van krommen[16, 17]. De wavelettransformatie kan gebruikt worden om
kenmerken te detecteren uit een beeld genomen in een omgeving met weinig licht door
gebruik te maken van een adaptatie van het framewerk van de SIFT techniek[18].
Robust Feature Detection Using 2D Wavelet Transform Under Low Light Environment
24
2.2.2.1 Is deze techniek toepasbaar op de gegeven beelden?
In artikel [19] werd er een vergelijkende studie gemaakt naar de toepasbaarheid van de
drie transformaties bij voertuigherkenning. Deze studie gaf heel goede resultaten bij alle
transformaties. Voor de keuze van de descriptor kunnen de eerste x coefficienten van de
transformatie gebruikt worden. De waarde van x kan hierdoor zo gekozen worden dat de
descriptor aan bepaalde hardwarerestricties voldoet.
2.2.2.2 Mogelijke problemen:
• Door de geringe resolutie van de beelden in deze masterproef zijn ze soms wazig en
sterk ondergevig aan ruis. Welke techniek hier het minste last van zal hebben moet
nog verder onderzocht worden.
• In het artikel worden tussen de 6000 en 13000 coefficienten gebruikt om een beeld in
de juiste categorie te classificeren Het opslaan en verwerken van al deze coefficienten
is mogelijk niet zo vanzelfsprekend indien we met grote verzamelingen van beelden
gaan werken.
2.3 Gekozen technieken
Aangezien het de bedoeling is dat de beelden in deze masterproef op in een korte tijdspan-
ne verwerkt worden, hebben we ervoor gekozen om eerst de relatief eenvoudige threshol-
dingtechniek verder uit te werken. De resultaten van deze uitwerking staan beschreven in
onderdeel 4.2. Indien deze techniek niet de verhoopte resultaten bied kan eigenfacestech-
niek gebruikt worden. Deze techniek heeft al zijn bruikbaarheid bewezen in de wereld van
de gezichtsherkenning en is hierdoor zeker ook het uitproberen waard. Indien deze laatste
techniek teveel last heeft van bijvoorbeeld schaalproblemen door de grote verschillen in
afstand tot de camera waarop de beelden genomen zijn, kan de SIFT techniek misschien
soelaas bieden. Bij problemen met een niet ideaal geplaatste “bounding box” kan er dan
wellicht overgestapt worden naar de techniek met de corefaces.
25
Hoofdstuk 3
Het voertuigidentificatie algoritme
Eigendecompositie wordt, zoals aangehaald in hoofdstuk 2, gebruikt in de wereld van de
gezichtsherkenning. De gezichten die daarin gebruikt worden zijn allemaal in een gecon-
troleerde omgeving met ongeveer dezelfde belichting, afstand tot de camera en kijkhoek
gefotografeerd. Deze masterproef zal de eigenfaces techniek proberen toe te passen op
beelden uit tunnels waar de omgeving moeilijker controleerbaar is. De problemen die
hiermee gepaard gaan zijn uitvoerig beschreven in onderdeel 1.2.
Naast al deze mogelijke problemen zijn er gelukkig ook enkele meevallers. Zo hebben
de camera’s maar een verkeersstroom in beeld, namelijk deze die zich van de camera
verwijdert. Zo zal altijd op zijn minst de achterzijde van het voertuig in beeld zijn.
Daarnaast staan de camera’s, waarvan wij de beelden gekregen hebben allemaal ongeveer
boven de middelste rijstrook opgesteld en hebben ze ongeveer dezelfde instellingen qua
contrast en helderheid. Ook de tunnel zelf verandert niet radicaal van richting, kleur of
ondergrond tussen de drie camera’s in. Indien de tunnel wel radicaal zou veranderen kan er
gekozen worden om de tunnel op te delen in secties, die elk hun eigen trainingsset hebben.
Bij deze laatste configuratie kan het volgen van de voertuigen tussen de verschillende
secties een struikelblok zijn.
3.1 Toepassen van de eigenfacestechniek
In de eerste stap van het voorgestelde algoritme gaan we op basis van een trainingsset de
verschillen tussen voertuigen gaan beschrijven. Deze verschillen worden voorgesteld door
eigenvectoren, hier eigenvehicles genoemd. Vervolgens gaan we elk beeld uit de camera’s
gaan voorstellen door de gewichtsvector van dit beeld. We stellen dus de descriptor van
het beeld gelijk aan zijn gewichtsvector. De gewichtsvector bestaat uit een reeks gewichten
waarbij elk gewicht de mate bepaalt waarin een specifiek kenmerk (eigenvehicle) aanwezig
is in het origineel beeld. Het feit dat we deze gewichtsvectoren gebruiken om verschillende
26
Figuur 3.1: Een voorbeeld van een koppeling van twee voertuigen over drie cameras
beelden, uit verschillende camera’s, van hetzelfde voertuig aan elkaar te koppelen is iets
nieuws.
Er rest ons dan alleen nog bij elke descriptor in de ene camera de best passende descriptor
uit de vorige camera te zoeken. Op deze manier kan een voertuig doorheen alle camera’s
gevolgd worden. In figuur 3.1 ziet u een voorbeeld van een koppeling van twee voertuigen
over drie cameras.
Een bijkomend voordeel bij het gebruik van de gewichtsvector als descriptor is dat de
maximale grootte van een descriptor altijd gekend is eens de trainingsset gekozen is. Dit
komt omdat een gewichtsvector altijd even groot is als het aantal eigenvehicles. Het aantal
eigenvehicles kan dan weer maximaal evenveel zijn als het aantal beelden in de trainingsset.
Indien we op voorhand weten hoe groot een descriptor zal zijn is het makkelijker om het
geheugengebruik van deze techniek te voorspellen.
27
3.1.1 Voorbeeld
In dit voorbeeld bouwen verder op de voorbeelden in onderdeel 2.1.3. In tabel 2.1 ziet u
per kolom de verschillende descriptoren van de testbeelden uit figuur 2.8. De eigenvectoren
die als basis dienen voor deze descriptoren zijn te zien in figuur 2.7. De descriptor van
testbeeld 2.8(a) is dus (−6.049,−5.661).
Stel we nemen nu aan dat de figuren 2.8(c) en 2.8(d) twee beelden zijn van hetzelfde
object uit twee verschillende camera’s dan is de bedoeling van deze masterproef dat op
een of andere manier gedetecteerd wordt dat deze twee figuren bij elkaar passen.
Uit de tabel is ook af te leiden dat hoewel de beelden 2.8(a) en 2.8(b) totaal verschillend
zijn van elkaar, de descriptoren dit niet zijn. In dit geval zal er dus een foutieve koppeling
gemaakt worden tussen deze twee beelden. Dit komt omdat in de trainingsset alle beelden
dezelfde waarden hadden in de linkser bovenhoek. Indien in de trainingsset ook een beeld
gestopt wordt waarin wel iets in de linker bovenhoek staat, zal het verschil tussen de
beelden 2.8(a) en 2.8(b) wel kunnen gedetecteerd worden.
3.2 Vergelijken van de verschillende descriptoren
Er zijn verschillende technieken bekend die kunnen gebruikt worden om deze descriptoren
te vergelijken. We hebben gekozen om de gekende en snelle technieken, “Mean Square
Error” (MSE) en Euclidische afstand te testen.
Euclidische afstand
Deze metriek berekent de afstand tussen twee punten, zoals die met een lat gemeten
zou zijn in een ruimte van een tot oneindig dimensies. In de formule 3.1 vindt u hoe de
Euclidische afstand berekend wordt en waarbij X en Y de twee descriptoren zijn en N de
lengte van een descriptor is.
EUC =
√√√√N−1∑i=0
(X(i)− Y (i))2 (3.1)
“Mean Square Error” (MSE)
Deze techniek berekent de gemiddelde kwadratische fout tussen twee descriptoren vol-
gens formule 3.2. De techniek wordt in de statistiek gebruikt om het verschil tussen wat
een voorspeller voorspeld heeft en wat er echt gebeurd is te gaan meten.
MSE =1
N
N−1∑i=0
(X(i)− Y (i))2 (3.2)
28
Figuur 3.2: Grafische voorstelling van het vergelijken van twee descriptoren uit camera 2 mettwee descriptoren uit camera 1.
Keuze techniek:
Aangezien beide technieken hetzelfde berekenen, maar enkel anders geschaald, zal er
geen verschil in conclusie zijn tussen deze twee maten. We hebben er vervolgens voor
gekozen om enkel gebruik te maken van de techniek die de Euclidische afstand berekend
tussen twee descriptoren.
Samengevat:
We gaan de Euclidische afstand gebruiken om de descriptoren van alle camera 2 beelden
te vergelijken met deze van de camera 1 beelden. Aangezien de gewichtsvector van een
beeld eigenlijk de projectie van het beeld is in de ruimte opgespannen door de eigenvehicles
kunnen we de het vergelijken van descriptoren grafisch voorstellen door figuur 3.2.
3.3 Selectie beste koppel
Elk moment van de dag komen er nieuwe voertuigen de tunnel binnen. Dit zorgt ervoor
dat de verzameling descriptoren in snel tempo te groot wordt om vlug in te gaan zoeken.
Vervolgens zijn voertuigen gebonden aan snelheidslimieten in een tunnel en kan een de-
scriptor in de praktijk niet aan gelijk welke andere descriptor gekoppeld worden. Er kan
dus vanuit gegaan worden dat enkel een deel van de descriptoren met elkaar vergeleken
worden. Daarnaast moet er op een gegeven moment geselecteerd worden hoe je descrip-
toren met elkaar zal vergelijken. Hieronder zijn twee technieken beschreven die gebruikt
kunnen worden bij de selectie van het best passende koppel beelden. Om de technieken
goed in de praktijk bruikbaar te maken zullen ze nog moeten bijgeschaafd worden zodat
de nadelen van elke techniek weg gewerkt worden. Om de uitleg overzichtelijker te maken,
29
hebben we ervoor gekozen om de verzamelingen van de camera 1 en camera 2 descriptoren
respectievelijk Υ en Ψ te noemen. Een koppel beelden bevat altijd twee beelden, namelijk
een uit de ene camera en een uit de volgende camera bijvoorbeeld (Υ1,Ψ1). Het is de
bedoeling dat de twee beelden hetzelfde voertuig afbeelden. Tot slot gaan we in beide
technieken ervan uit dat er al een verzameling Υ1...z met lengte z bestaat, waarmee de
descriptoren in Ψ vergeleken worden.
De keuze van Υ1...z kan voor problemen zorgen want niet alle voertuigen rijden steeds met
dezelfde snelheid. De volgorde waarin ze in de verschillende camera’s voorkomen kan dus
doorheen de tunnel veranderen. De verzameling Υ1...z moet dus zo gekozen worden dat
deze altijd minstens de passende descriptor Υx bevat voor de descriptor uit Ψ.
3.3.1 Een descriptor per keer koppelen
Bij deze techniek worden de descriptoren in Ψ een per een verwerkt. Iedere keer dat er
een Ψi berekend is, zal deze direct vergeleken worden met Υ1...z. Hierna wordt het best
passende koppel (Υk,Ψi) met 1 ≤ k ≤ z gecreeerd. Het algoritme kijkt niet verder dan Ψi
en zal dus altijd voor het lokale optimum in Υ1...z kiezen. Dit lokale optimum is niet altijd
gelijk aan het globale optimum en indien je Υk zou verwijderen uit Υ1...z kan dit ervoor
zorgen dat een beter passende Ψj met j ≥ i niet meer kan gekoppeld worden aan Υk. We
hebben er daarom voor gekozen om Υk niet te verwijderen uit Υ1...z. Dit impliceert dat
zowel (Υk,Ψi) als (Υk,Ψj) toegelaten is. Op die manier wordt altijd het optimale koppel
gevormd. Om tegen te gaan dat de verzameling Υ1...z oneindig groot wordt, kunnen de
descriptoren, die al langer dan een bepaalde tijd in Υ1...z zitten, verwijderd worden. Zie
figuur 3.3 voor een grafische weergave.
Voordelen
• De selectie van het beste koppel wordt direct gedaan, vanaf dat Ψi gekend is.
• Elke descriptor uit Ψ zal onafhankelijk van de andere descriptoren uit Ψ aan de
meest passende descriptor uit Υ1...z gekoppeld worden.
Nadelen
• De kans bestaat dat er meerdere descriptoren uit Ψ gekoppeld worden aan dezelfde
Υi. In dit geval zullen niet alle descriptoren uit Υ aan een descriptor uit Ψ ge-
koppeld zijn. Dit zou impliceren dat er tussen twee camera’s in twee voertuigen
samengesmolten zijn en een nieuwe plots opgedoken is. Dit is hier uiteraard niet de
bedoeling.
30
Figuur 3.3: MSE toegepast op het descriptor per descriptor koppelselectie-algoritme.
3.3.2 Hongaars algoritme
Er is naast bovenstaande techniek nog een andere oplossing mogelijk, namelijk in plaats
van de descriptoren uit Ψ een per een te verwerken, kan er gewacht worden tot er een
aantal descriptoren gemaakt zijn. Deze descriptoren worden voorgesteld door de verza-
meling Ψ1...q met grootte q. Iedere keer dat er een descriptor gemaakt is kan wel al de
afstand berekend worden van deze descriptor tot alle elementen in de Ψ1...q. Indien we de
Euclidische afstand tussen twee descriptoren defineren als een maat voor de kost om deze
descriptoren aan elkaar te koppelen kunnen we, nadat er genoeg descriptoren gemaakt
zijn, via een Hongaars algoritme de koppeling met de kleinste totale kost zoeken van alle
elementen uit de verzameling Ψ1...q met een van de elementen uit Υ1...z[20]. We kunnen
ervanuit gaan dat q ≤ z en indien q < z zullen de beste q koppels teruggegeven worden.
Figuur 3.4 beschrijft schematisch hoe dit dan in zijn werk gaat.
Het Hongaars algoritme wordt meestal uitgelegd op de volgende manier: stel je hebt een
bedrijf dat zijn werknemers bepaalde taken wilt laten uitvoeren. Elke werknemer kan
maar een taak tegelijk doen en aan elke taak is er een specifieke kost per werknemer ver-
bonden. Zo kan de ene werknemer een bepaalde taak goedkoper uitvoeren dan een andere
werknemer. Indien je alle werknemers overloopt en in die volgorde aan elke werknemer
de overgebleven taak met de laagste kost geeft dan ben je niet zeker dat je daadwerkelijk
de laagste totale kost bekomen hebt. Om toch de laagste totale kost te bekomen komt
het Hongaars algoritme van pas.
31
Pseudocode werking van het Hongaars algoritme
1. Indien de maximumkost gezocht wordt, maak je alle getallen in de matrix negatief
en bereken je de minimumkost.
2. Verminder elke rij met het minimum in de rij.
3. Verminder elke kolom met het minimum van de kolom.
4. Probeer met zo weinig mogelijk lijnen de nullen in de matrix te bedekken. Stel n het
aantal kolommen en rijen in de matrix en k het aantal lijnen die de nullen bedekken.
• als k<n:
Stel m gelijk aan het minimum van de onbedekte nummers en tel dan m bij
elk door een lijn bedekte nummer en verminder alle onbedekte nummers met
m.
• als k=n ga naar de volgende stap
5. Beginnend bij de bovenste rij, begin je assignaties toe te kennen. Als er juist een nul
in de rij is kan je een assignatie doen. Je gaat van boven naar onder en indien je geen
assignaties meer kan doen ga je van links naar rechts en begin je op dezelfde manier
assignaties , maar nu per kolom, te doen. Indien je dan weer vast zit verander je
terug naar rijen. Als een assignatie gemaakt is verwijder je de rij en kolom in de
matrix.
Voordelen
• De identificatie is optimaal over een verzameling Ψ1...q en niet enkel voor een de-
scriptor.
• De descriptoren uit Ψ moeten sowieso een tijdje bijgehouden worden voor de kop-
peling tussen Ψ en de descriptoren uit de volgende camera. Er hoeft dus geen extra
geheugen gebruikt te worden om de descriptoren uit Ψ bij te houden.
Nadelen
• Je moet wachten tot er een bepaalde verzameling Ψ1...q gevuld is.
• Indien er gewerkt wordt met overlappende deelverzamelingen in Υ kunnen er pro-
blemen voorkomen. In het geval dat de volgende q descriptoren uit Ψ namelijk
Ψ1...2q gekoppeld moeten worden aan een verzameling Υ′1...z die gedeeltelijk overlapt
met de Υ1...z kan een descriptoren uit Υ1...z gekoppeld kunnen worden aan meerdere
descriptoren uit Ψ.
32
Figuur 3.4: MSE toegepast op het Hongaars koppelselectie-algoritme.
• Stel dat de gezichtsvelden van de camera’s niet overlappen dan kan er een koppel
(Υa,Ψb) met 1 ≤ a ≤ z en 1 ≤ b ≤ q gemaakt worden waar het beeld corresponde-
rend met Ψb vroeger genomen is dan dit van Υa. Dit zou betekenen dat een voertuig
eerst in camera 2 voorkwam en dan in camera 1. Aangezien camera 1 voor camera
2 staat en de gezichtsvelden van de camera’s niet overlappen is dit dus niet correct.
33
Hoofdstuk 4
Experimenten
Na de theoretische uitleg volgen de experimenten. Eerst en vooral hebben we wat geexperi-
menteerd met de thresholdingtechniek. Na enkele tegenvallende resultaten zijn we naar
de techniek met de eigenfaces, hier omgedoopt tot eigenvehicles, overgestapt. In dit
hoofdstuk komt het hoe en waarom van de experimenten en een kleine discussie over de
resultaten aan bod. Conclusies zijn dan weer te vinden in hoofdstuk 5.1.
4.1 Datasets
Eerst beschrijven we de bron van de invoergegevens, hoe deze opgedeeld is en welke
eigenschappen elke dataset heeft. Een beschrijving van de eigenschappen zijn te vinden
in hoofdstuk 1.2. Van Traficon kregen we drie videofragmenten van elk 11 minuten. Elk
van deze fragmenten kwam van een opeenvolgende camera in de tunnel. Zie figuur 1.1
op pagina 2 voor een voorbeeld opstelling van camera’s in een tunnel. Beide datasets,
de IPI-beelden en de Traficon-beelden, die hieronder beschreven worden komen uit deze
drie videofragmenten. Beide verschillen in het feit dat sommige problemen uit hoofdstuk
1.2 in de ene dataset wel en in de andere dataset niet voorkomen. Zie tabel 4.1 voor een
overzicht.
4.1.1 Traficon-beelden
Deze beelden zijn verkregen via Traficon. Het zijn beelden van 500 verschillende voertui-
gen (346 auto’s en 154 vrachtwagens) waarbij uit elke camera 1 beeld genomen is. Dit
beeld kan gelijk wanneer in het gezichtsveld van de camera genomen zijn en dit kan voor
problemen zorgen. Het spreekt voor zich dat een beeld die dicht bij de camera genomen
is, meer details bevat dan een beeld heel ver van de camera. In het totaal zijn er dus
1500 beelden. Met verschillend bedoelen we dat ze fysiek een ander voertuig zijn. De
voertuigen kunnen wel van hetzelfde merk of type zijn maar ze hebben allemaal wel een
34
probleem IPI- beelden Traficon-beelden
probleem IPI- beelden Traficon-beelden
interlinie × × lageresolutie
× ×
kijkhoek × × weg-markeringen
× ×
laagdynamisch
bereik
× × reflecties × ×
gedoofdelichten
× × remlichten ×
Willekeurigeafstand totde camera
× foutievebounding
box
×
zwaailichten ×Tabel 4.1: Problemen per dataset.
andere nummerplaat. Deze beelden zijn manueel uit de filmfragmenten geknipt en door
Traficon al geschaald naar een resolutie van 150×150 pixels. De invoerbeelden zullen in
de praktijk sterk aanleunen bij deze dataset. Alle beelden uit de figuur 1.2 en de figuren
1.2(a) , 1.4(c) en 1.5(d) zijn enkele voorbeelden van deze dataset.
4.1.2 IPI-beelden
Om problemen met de grote verschillen in afstand tot de camera, lichten en bounding
box uit de Traficon-beelden te verwijderen hebben Ir. Andres Frıas Velazquez en Ir.
Jorge Nino Castaneda de filmfragmenten opnieuw geannoteerd. Ze hebben me een lijst
gegeven waarop per voertuig de frames staan waarin het voertuig voorkomt en per frame
de coordinaten van de omgeschreven rechthoek. Het eerste frame waarin een voertuig
voorkomt was in tegenstelling tot het tweede soms van slechte kwaliteit. Daarom hebben
we altijd het tweede frame genomen als basis om de beelden in uit te knippen. Dit
maakt dat de IPI-beelden altijd genomen zijn vanaf het moment dat het voertuig in het
gezichtsveld van de camera kwam, dit in tegenstelling tot de Traficon-beelden. Hierdoor
hebben de beelden veel minder last van saturatie door de lichten en verschillen de beelden
van hetzelfde voertuig uit verschillende camera’s niet veel van resolutie. Deze beelden
zijn nog niet verder verwerkt en hebben dus nog steeds oorspronkelijke dimensies van de
omgeschreven rechthoek. In deze dataset zijn er in het totaal 377 verschillende voertuigen
(272 auto’s 105 vrachtwagens), opnieuw een beeld uit elke camera en dus 1131 beelden
in het totaal. De beelden zijn ook zo gekozen dat ze op ongeveer dezelfde afstand van de
camera genomen zijn en het aantal remmende voertuigen beperkt is. Tot slot moeten
we meegeven dat het niet zeker is dat de volgorde van deze beelden hetzelfde is als
in de Traficon-beelden. Hierdoor is het niet zeker dat op de eerste x Traficon-beelden
35
dezelfde voertuigen staan als in de eerste x IPI-beelden. Dit kan van belang zijn in het
partitiesysteem dat verder uitgelegd wordt. Aangezien Ir. Andres Frıas Velazquez en Ir.
Jorge Nino Castaneda twee leden zijn van de vakgroep IPI[21] hebben we deze beelden
de IPI-beelden genoemd. Omdat deze beelden genomen zijn vanaf het moment dat een
voertuig in het gezichtsveld van de camera komt, zijn er meer details van dit voertuig te
zien in het beeld. Door de resultaten met de IPI-beelden te vergelijken met deze met de
Traficon-beelden kunnen we het effect hiervan op het identificatie-algoritme onderzoeken.
De beelden 1.4(a) , 1.4(b) en 1.5(c) zijn enkele voorbeelden van deze dataset.
4.2 Thresholding
Deze techniek is uitsluitend getest op de Traficon-beelden. De IPI-beelden werden op
dat moment nog geannoteerd en waren dus nog niet ter beschikking. Zoals reeds uit-
gelegd in onderdeel 2.1.2 werkt deze techniek met drempelwaarden. Alles boven deze
drempelwaarde wordt wit ingekleurd en alles eronder krijgt een zwarte kleur.
4.2.1 Op zoek naar een drempelwaarde via vensters
Eerst en vooral hebben we het beeld opgedeeld in verschillende vensters. Vervolgens
hebben we de gemiddelde waarde van elk venster berekend en deze als drempelwaarde
toegepast in het venster. Door het aantal vensters per beeld te laten varieren zochten we
naar een optimale verdeling van het beeld in vensters. Nadat alle vensters in een beeld
verwerkt waren, testten we visueel het bekomen resultaat, we keken vooral of bepaalde
eigenschappen van het voertuig beter zichtbaar waren of niet. De resultaten vielen in het
merendeel van de gevallen nogal tegen en zoals vermoed kon worden, had elk beeld een
andere optimale verdeling in vensters.
4.2.2 Drempelwaarde via het histogram
Nadat de vorige aanpak niet veel bruikbaars opleverde zijn we begonnen met het histo-
gram van de beelden te analyseren. De bedoeling is om, op basis van het histogram, de
waarden te bepalen, waartussen bepaalde eigenschappen van het voertuig zich bevinden.
Het histogram werd eerst gladder gemaakt waarna de lokale minima van het histogram
gebruikt werden als lokale minima. Om in een beeld een overzicht te krijgen hoe goed
deze techniek werkt hebben we alle pixels die tussen twee lokale minima liggen een andere
kleur gegeven. Figuur 4.1(b) is hier een voorbeeld van. Uit deze techniek konden we aflei-
den dat, bij het merendeel van de vrachtwagens, het voertuig zelf meestal een grijswaarde
heeft van boven de 60 op een schaal van 255. Hierdoor konden we alles wat zich onder
deze drempelwaarde bevindt volledig negeren en is daarom in figuur 4.1(b) de achtergrond
36
volledig zwart. Door de grote verscheidenheid in de kleuren van de tekst en logos op de
vrachtwagens is het moeilijk om goede waarden te vinden waartussen het merendeel van
deze kenmerken zich bevinden. Meestal zitten de waarden van de logos en tekst in dezelfde
piek van het histogram waar ook de rest van de vrachtwagen zich bevindt. Deze techniek
kan dus gebruikt worden om de kenmerken die zich in een aparte piek van het histogram
bevinden, bijvoorbeeld het wegdek of de lichten van een vrachtwagen, te selecteren maar
is niet bruikbaar om de logos van de rest van de vrachtwagen te onderscheiden. In figuur
4.1(c) zijn de waarden zo gekozen dat enkel de helderste vlakken van het histogram in het
paars en de rest van het voertuig in het geel ingekleurd zijn.
Uit figuur 4.1(b) blijkt dat het niet gemakkelijk is om op deze manier alleen de logo’s en
tekst op de achterkant van de vrachtwagen te selecteren. De lichten zijn dan weer zonder
veel problemen uit het histogram te selecteren, dit kan je goed zien in figuur 4.1(c).
4.2.3 Drempelwaarde via het uitgemiddeld beeld
Uit de vorige techniek bleek dat er problemen zijn met de selectie van de logo’s of tekst op
de achterzijde van een vrachtwagen. Om deze eigenschappen uit het beeld te selecteren
hebben we volgende stappen uitgeprobeerd:
1. Creeer een uitgemiddeld beeld waar elke pixel het gemiddelde is van zijn omgevende
pixels binnen een venster.
2. Maak een nieuw beeld door elke pixel in het origineel beeld te verminderen met de
waarde op dezelfde plaats in het uitgemiddeld beeld. Een negatieve waarde in dit
nieuw beeld wil zeggen dat de omgeving van de pixel op deze plaats donkerder is
dan de pixel zelf, een positieve waarde wil het omgekeerde zeggen.
3. Alle negatieve waarden in het beeld uit de vorige stap krijgen een grijswaarde 0
(zwart) en alle positieve waarden een grijswaarde 255 (wit).
In figuur 4.2 zijn de verschillende stappen grafisch voorgesteld, het eindresultaat in figuur
4.2(c) toont nu goed de plaats van de tekst op het voertuig.
4.2.4 Eerste testen: resultaten en conclusie
Aangezien de lichten heel gemakkelijk uit de beelden te selecteren zijn hebben we besloten
om eerst een eenvoudige test te doen op de Traficon-beelden uit camera 1 en twee. Indien
deze test redelijke resultaten geeft kunnen we verder testen met de technieken waar de
logo’s van een beeld beter te zien zijn.
37
(a) (b)
(c)
Figuur 4.1: Een vrachtwagen waar verschillende delen van het histogram ingekleurd zijn. (a)Het origineel beeld en (b) de ingekleurde versie. (c) Rechts: Het getransformeerd histogramvan de vrachtwagen, alle waarden die origineel onder de 60 lagen zijn gereduceerd tot 0. Dezewaarden zijn zwart op de figuur links. Links: De helderste vlakken van de vrachtwagen zijn inhet paars gekleurd en de rest van de vrachtwagen in het geel. De pijlen tonen welk deel van hethistogram welke kleur kreeg.
1. Selecteer enkel de helderste delen in het beeld. De beelden met vrachtwagens,
in tegenstelling tot deze met auto’s, hebben veel last van reflecties op het dak van
het voertuig. Om deze reflecties weg te filteren worden enkel bij vrachtwagens de
heldere vlakken die zich in de onderste helft van het beeld bevinden overgehouden.
2. Creeer de descriptor van het beeld. Aangezien de beelden allemaal herschaald
zijn naar een resolutie van 150×150 pixels en er geen bocht is in het stuk tunnel
38
(a) (b)
(c)
Figuur 4.2: (a) Origineel beeld. (b) Uitgemiddeld beeld van figuur 4.2(a).(c) Het verschil tussenfiguur 4.2(a) en figuur 4.2(b).
waaruit de beelden komen kunnen misschien de afstanden tussen de middelpunten
van de lichten gebruikt worden om een beeld te beschrijven. Daarom zoeken we bij
benadering het middelpunt van elk vlak en bereken de euclidische afstandsmatrix
over al deze middelpunten. Deze matrix wordt gebruikt als descriptor van het beeld.
3. Vergelijk de descriptoren. Voor de eenvoud hebben we gekozen om de voertuigen
waarbij de descriptoren uit beide camera’s niet even groot zijn niet met elkaar te
vergelijken. Deze kunnen namelijk nooit goed aan elkaar gekoppeld worden. Twee
descriptoren worden aan elkaar gekoppeld indien de MSE minimaal is. De variabelen
X en Y stellen in deze formule de descriptoren van twee verschillende beelden voor.
De resultaten van deze test waren niet zo goed. Eerst en vooral hebben we gecontroleerd
hoeveel voertuigen zonder lichten rijden: bij de beelden van auto’s was er maar een voer-
tuig zonder lichten, bij deze van vrachtwagens waren dit er 16. Het aantal voertuigen die
we uit de testset gehaald hebben omdat de descriptoren in beide camera’s niet even groot
waren kwam bij de auto’s en de vrachtwagens op respectievelijk 272 en 79 voertuigen.
39
Na deze selectie is de testset voor de auto’s en de vrachtwagens nog respectievelijk 73
en 59 voertuigen groot. De volgende stap is het aan elkaar koppelen van de descriptoren
en vervolgens het controleren hoeveel descriptoren correct aan elkaar gekoppeld zijn. De
eindresultaten zijn de volgende: van de 73 auto’s zijn er 14 (=19%) correct aan elkaar
gekoppeld, bij de vrachtwagens kwam dit op 32 van de in het totaal 59 (=54%) vrachtwa-
gens. Deze resultaten zijn voor deze test onvoldoende, na beraad met Ir. Vedran Jelaca,
Ir. Andres Frıas Velazquez en Dr. Ir. Hiep Quang Luong is er dan voor gekozen om de
thresholdingtechniek te laten voor wat het is en de techniek met de eigenfaces verder te
gaan exploreren.
4.3 Eigenvehicles
Na de uitleg over hoe de techniek met eigenvehicles werkt in onderdeel 2.1.3 zijn we op
het moment aangekomen om de techniek te gaan testen. De testen zijn zo gekozen dat ze
een zo goed mogelijk antwoord bieden op de volgende vragen:
• Wat is het effect als we enkel de even of oneven lijnen van een beeld gebruiken?
• Welke verbetering brengt het Hongaars ten opzichte van het descriptor per descriptor
koppelselectie-algoritme?
• Wat gebeurt er als we de grootte van de trainingsset varieren en de testset even
groot blijft?
• Wat zijn de resultaten indien we de invoerbeelden classificeren in auto’s en vracht-
wagens.?
• Wat is de invloed van de problemen die enkel bij de Traficon-dataset voorkomen?
• Welke beelden stoppen we het best in een trainingsset?
4.3.1 Hoe getest?
Om een goed antwoord te kunnen geven op bovenstaande vragen moeten er eerst enkele
beslissingen genomen worden i.v.m. verschillende parameters. Daarnaast moeten de
datasets van hierboven nog verder verwerkt worden.
Herschaling.
Zoals beschreven in de eerste stap van het eigenfaces-algoritme in 2.1.3.1 moeten de
beelden herschaald worden. De Traficon-beelden waren allemaal al herschaald tot een
resolutie van 150×150 maar de IPI-beelden zijn nog in hun oorspronkelijke resolutie.
40
Vervolgens hebben we de gemiddelde resolutie van alle IPI-beelden berekend en dit kwam
op ongeveer 180×180. We hebben dan beslist om in stap 1 alle IPI-beelden te herschalen
naar een resolutie van 180×180.
Interlinie.
Doordat de snelheid van het identificatie-algoritme van belang is hebben we geen com-
plexe deınterliniering algoritmen uitgetest. Zowel bij de IPI-beelden als bij de Traficon-
beelden hebben we een eenvoudige oplossing voor de problemen rond interlinie uitgepro-
beerd door enkel de even of oneven lijnen van een foto te gebruiken. Bij de Traficon-
beelden gaf dit niet het gewenste, zuivere, beeld zonder een spoor van de interlinie. Dit
komt doordat de beelden al geschaald waren naar een resolutie van 150×150 pixels. De
IPI-beelden staan nog in hun oorspronkelijke resolutie en daarom gaf deze methode wel
een mooi zuiver beeld als resultaat. Na de selectie van de even of oneven lijnen van een
beeld is de resolutie van de Traficon-beelden gereduceerd tot 150×75 en van de IPI-beelden
tot 180×90. In figuur 4.3 ziet u de resultaten van deze selectie op beide datasets.
Opdeling dataset in subsets.
De grote datasets die hierboven beschreven staan hebben we opgedeeld in verschillende
onderdelen. Aangezien er minder IPI-beelden zijn dan Traficon-beelden hebben we ervoor
gekozen om een deel van de Traficon-beelden niet te gebruiken. Dit maakt het onderling
vergelijken van de resultaten een stuk makkelijker.
De datasets hebben we eerst in twee grote delen opgedeeld. Deze opsplitsing gebeurt
volgens de aard van het voertuig op de afbeelding. De voertuigen worden opgedeeld
in auto’s en vrachtwagens. Het onderscheid tussen auto’s en vrachtwagens is manueel
gebeurd en hebben we zelf gedaan voor de IPI-beelden en Ir. Vedran Jelaca voor de
Traficon-beelden. Daarna hebben we deze twee delen in kleinere delen gesplitst met
een veranderende grootte. Nu bekomen we de volgende 5 subsets: “100 auto’s”, “100
vrachtwagens”, “100 gemengd”, “200 auto’s” en “300 gemengd”. Het getal vooraan,
bijvoorbeeld het getal 200 bij de “200 auto’s” subset, wil zeggen dat in de dataset de eerste
200 verschillende auto’s van de Traficon-beelden of de IPI-beelden zitten. Het spreekt voor
zich dat dit wil zeggen dat bijvoorbeeld de “100 auto’s” subset een deelverzameling is van
de “200 auto’s” subset. In elke subset zitten de beelden van alle drie de camera’s. In
de “200 auto’s” subset zitten er dus 600 beelden, 200 per camera, van 200 verschillende
auto’s. Het woord gemengd wilt zeggen dat er geen onderscheid gemaakt is tussen auto’s
en vrachtwagens. In tabel 4.2 ziet u voor zowel de IPI-beelden als de Traficon-beelden de
verdeling van het aantal auto’s en vrachtwagens in de gemengde subsets.
um en ustd.
De variabelen um en ustd uit paragraaf 2.1 werden altijd berekend op de volledige
41
(a) (b)
(c) (d)
Figuur 4.3: (a) Geınterlinieerde auto in de IPI-beelden en (b) hetzelfde beeld waarbij enkel deeven lijnen geselecteerd werden. (c) Geınterlinieerde vrachtwagen in de Traficon-beelden en (d)hetzelfde beeld waarbij enkel de even lijnen geselecteerd werden.
dataset100 gemengd 300 gemengd
Vrachtwagens Auto’s Vrachtwagens Auto’sIPI-beelden 29 71 91 (=∼30%) 209 (=∼70%)
Traficon-beelden 30 70 96 (=∼32%) 204 (=∼68%)
Tabel 4.2: Verdeling vrachtwagens en auto’s in de verschillende gemengde subsets.
datasets. Bij de auto subsets werden deze dus op alle 272 of 346 auto’s in respectievelijk de
IPI-en Traficon-beelden berekend. Voor de Traficon-beelden werden ze dan dus berekend
op alle 346 auto’s in deze dataset.
Partitie systeem.
Na het opdelen van de dataset in subsets hebben we elke subset verdeeld in twintig
kleinere partities. In figuur 4.4 ziet u een grafische representatie van deze verdeling, waar-
bij elke kolom is een partitie is. Indien er dus in een subset 100 verschillende voertuigen
zitten zullen er in elke partitie 15 beelden zitten van 5 verschillende voertuigen. Hoeveel
42
Figuur 4.4: Opdeling van een willekeurige dataset in partities. tien testpartities, een trainings-partitie en negen ongebruikte partities zijn aangeduid.
beelden er in een partitie zitten is dus afhankelijk van de grootte van de subset. De par-
tities worden in de testen gebruikt om de trainings- en testsets aan te duiden, zo hebben
we de twintig partities gegroepeerd in volgende niet overlappende delen:
• tien testpartities, een trainingspartitie en negen ongebruikte partities.
• tien testpartities, vijf trainingspartitie en vijf ongebruikte partities.
• tien testpartities, tien trainingspartitie en nul ongebruikte partities.
Indien er getraind wordt zal, in de configuratie met een trainingspartitie, de trainingsset
uit de drie onderdelen A11, B11 en C11 bestaan. De tien partities ervoor zullen in de
testset ingedeeld worden. De negen partities erna worden voorlopig niet gebruikt. In de
test zullen alle beelden uit de onderdelen A1 tot A10 vergeleken worden met die uit B1
tot B10 en met die uit C1 tot C10. Daarna worden ook de beelden uit de onderdelen
B1 tot B10 met die van C1 tot C10 vergeleken. Hierna schuift alles een partitie op en
zal de trainingsset de onderdelen A12, B12 en C12 omvatten. De tien partities ervoor
worden opnieuw in de testset ingedeeld en de negen erna worden nu niet gebruikt. Er
wordt doorgeschoven tot men terug aan het begin is. Hetzelfde principe wordt toegepast
met vijf of tien trainingspartities.
In alle experimenten trainen we met alle drie de camera’s. Het totaal aantal beelden en
verschillende voertuigen, waarop getraind is geweest per subset en per aantal partities is
terug te vinden in tabel 4.3. In het laatste experiment gebruiken we een andere configu-
ratie want daar onderzoeken we specifiek of trainen met een trainingscamera even goede
resultaten geeft als trainen met alle drie de camera’s.
Het mechanisme van doorschuiven zoals hierboven beschreven zorgt ervoor dat alle beel-
den in de subset minstens eens gebruikt worden om te testen en eens om te trainen.
Elke configuratie is dus twintig keer uitgevoerd met iedere keer iets andere data. De
uiteindelijke resultaten zijn het gemiddelde van deze twintig uitvoeringen.
43
100Vrachtwagens/
Gemengd/Auto’s
200 Auto’s 300 Gemengd
1 trainingspartitie 15 30 455 trainingspartities 75 150 22510 trainingspartities 150 300 450
Tabel 4.3: Het aantal beelden in de verschillende partities wanneer er over de drie camera’sgetraind wordt. Het aantal verschillende voertuigen in deze beelden is altijd 1/3 van het aantalbeelden. Bijeen subset met 100 voertuigen is de trainingset 15 beelden groot, van 5 verschillendevoertuigen, elk voertuig heeft dus 3 beelden, 1 uit elke camera.
Trainen in een camera trainen in plaats van over alle camera’s.
Aangezien alle trainingsbeelden uit een camera moeten komen en in het bovenstaande
partitiesysteem de helft van de subsets gereserveerd worden voor de testset kunnen er
maximaal 50, 100 en 150 beelden uit een camera gebruikt worden om te trainen bij
respectievelijk de subsets met 100, 200 en 300 voertuigen. Uit tabel 4.3 volgt dat enkel
voor de testen met 1 trainingspartitie het aantal trainingsbeelden onder deze maxima
liggen. Om de resultaten van deze test te kunnen vergelijken met de resultaten uit bijlage
A hebben we ervoor gekozen om in deze test voor de subsets met 100, 200 en 300 voertuigen
met respectievelijk 15, 30 en 45 trainingsbeelden te testen. Al deze trainingsbeelden komen
dus uit een camera en zullen daardoor ook evenveel verschillende voertuigen bevatten
als het aantal trainingsbeelden terwijl in de testen uit bijlage A er drie keer minder
verschillende voertuigen zijn dan trainingsbeelden. Dit is een feit waarmee rekening zal
moeten gehouden worden in de conclusie.
4.3.2 Resultaten en discussie over de vragen
In de volgende tekst wordt er, in verschillende onderdelen, verwezen naar een groot aantal
grafieken. Om het overzicht te bewaren in deze paragraaf hebben we ervoor gekozen om
alle grafieken te bundelen in de bijlagen op de pagina 59.
Van de verschillende testen is er een test gefaald, namelijk de test met de parameters “300
gemengd”, geınterlinieerd, IPI-beelden en 10 trainingspartities gaf in matlab een ”Out of
memory”fout. Al de andere testen gaven geen fouten. Het systeem waarop we testten
had de volgende uitvoer voor het matlab ”memory”commando:
Maximum possible array: 443 MB (4.650e+008 bytes)
Memory available for all arrays: 1498 MB (1.570e+009 bytes)Het verschil tussen deze test en dezelfde test met de Traficon-beelden is dat in deze laatste
de beelden een dimensie hebben van 150×150 en de IPI-beelden een stuk groter zijn met
een dimensie van 180×180. De code kan zeker nog verder geoptimaliseerd worden zodat
deze fout niet meer voorkomt.
44
Selectie van de even of oneven lijnen van een beeld:
Uit de grafieken kan afgeleid worden dat de selectie van de even lijnen van een beeld
praktisch geen invloed heeft op de resultaten met de Traficon-beelden. Bij de IPI-beelden
echter zijn er wel enkele veranderingen te merken, zo zijn de resultaten voor de auto sub-
sets na het toepassen van deze selectie zelfs slechter dan zonder dit toe te passen. Dit
is merkbaar indien we kijken naar de resultaten met interliniering in figuur A.2(b) en
zonder in figuur A.2(a), meer bepaald bij de kolommen met het Hongaars koppelselectie-
algoritme, is er een gemiddeld verschil te zien van rond de 20%. Uit deze resultaten
kunnen we afleiden dat deze selectie voor een groot informatie verlies zorgt en dit het
eigenvehicles algoritme niet ten goede komt. Een complexere manier van deınterliniering
zal de resultaten beınvloeden maar dit zal meestal ten koste gaan van een langere uitvoe-
ringstijd.
Een mogelijk antwoord op de vraag waarom deze selectie juist voor slechtere resultaten
zorgt in de auto datatsets kan gevonden worden in figuur 4.5 waar de eigenvechicles van de
geınterlinieerde “100 auto” subset met de IPI-beelden in afgebeeld staan. In deze figuur
zijn de verschillende subfiguren sterk geınterlinieerd, dit wilt zeggen dat de interlinie een
onderscheidend element bij deze beelden is. Indien je op deze interlinie wegwerkt zal
dit onderscheidend element wegvallen en moeten er andere, mogelijk slechtere elementen
gezocht worden. Aangezien met interlinie de resultaten een stuk beter zijn sterkt dit het
vermoeden dat de interlinie, samen met nog andere kenmerken, een goede basis kan zijn
om de voertuigen te beschrijven.
Bij de vrachtwagen subset met de IPI-beelden was dit grote verschil niet te zien. Als we
dan naar de eigenvehicles van de vrachtwagens kijken in figuur 4.6 is de interliniering, in
tegenstelling tot de auto subsets, maar heel vaag te zien. Dit verschil komt vermoedelijk
omdat er tussen de verschillende vrachtwagens veel meer verschillen zijn dan tussen de
auto’s. Bij vrachtwagens zijn er dus voldoende sterkere onderscheidende elementen dan
de interliniering van de beelden. Dit is ook het geval indien we kijken naar figuur 4.7
waar we de eigenvechicles van de “100 auto’s” subset met de Traficon-beelden zien. De
interliniering heeft hierin een grijswaarde die heel dicht bij het uniform grijs ligt en zal
daarom niet zoveel effect hebben bij de creatie van de descriptor.
Om meer duidelijkheid te krijgen over het feit of de interlinie kan gebruikt worden als ka-
rakteristieke eigenschap van de beelden moeten er meer uitgebreide testen gedaan worden
op bijvoorbeeld een grotere dataset. We vermoeden dat de interlinie van de beelden ook
iets kan vertellen over de snelheid van het voertuig op dat moment. Indien de interlinie
in beide camera’s ongeveer dezelfde is kan dit impliceren dat de snelheid van het voertuig
in de verschillende camera’s niet zoveel verschilt.
Koppelselectie-algoritme:
Het Hongaars koppelselectie-algoritme scoort in alle testresultaten, zowel bij de IPI-
45
Figuur 4.5: De eigenvehicles van 15 trainingsbeelden van 5 verschillende voertuigen uit IPI-beelden, “100 auto’s”, geınterlinieerd.
beelden en de Traficon-beelden, een stuk beter dan het descriptor per descriptor algoritme.
De verbetering kan zelfs oplopen tot bijna 20% zoals te zien is tussen de resultaten met
de parameters “C3-C1 een per een” (=descriptor per descriptor algoritme) en “C3-C1
Hongaars” in figuur A.4(d). Dit groot verschil komt door de verschillende voordelen van
het Hongaars algoritme beschreven in punt 3.3.
Grootte van de trainingsset:
Training is een belangrijk onderdeel van het voorgestelde algoritme en de keuze van
hoeveel en welke beelden je daarin gebruikt is natuurlijk cruciaal. In alle testen waarvan
46
Figuur 4.6: De eigenvehicles van 15 trainingsbeelden van 5 verschillende voertuigen uit IPI-beelden, “100 vrachtwagens”, geınterlinieerd.
de resultaten in bijlage A zijn weergegeven is de grootte van de testset gelijk gebleven en
is deze van de trainingsset veranderd. Zo hebben we getest met een trainingsset grootte
van 1/20ste (=5%), 5/20ste (=25%) en 10/20ste (=50%) van de complete subset.
De resultaten waarbij gebruik gemaakt is van de subsets met 100 verschillende voertuigen
zijn heel interessant. Bij deze subsets zijn er vooral grote verschillen te vinden tussen de
resultaten met 1 of 5 trainingspartities en dit zowel voor de geınterlinieerde beelden als
deze waarbij enkel de even lijnen overblijven. Het verschil tussen de 5 of 10 trainings-
partities is in het merendeel van de gevallen maximum maar enkele procenten. Dit is
bijvoorbeeld goed te zien in figuur A.2(b) waar het verschil tussen de resultaten voor 1
trainingspartitie en 5 trainingspartities in de kolommen C3-C1 Hongaars rond de 20%
ligt. Het verschil tussen de 5 en de 10 trainingspartities is in dezelfde grafiek daarentegen
maar rond de 2%. Hetzelfde geldt voor de Traficon-beelden in bijvoorbeeld figuur A.4(b)
waar het verschil tussen de resultaten voor 1 trainingspartitie en de 5 trainingspartities
rond de 12% ligt.
In tegenstelling met de subsets met 100 voertuigen is het verschil tussen de resultaten met
1 en 5 partities in de grotere subsets niet zo sterk. Zoals te zien in figuur A.1(b) waar de
47
Figuur 4.7: De eigenvehicles van 15 trainingsbeelden van 5 verschillende voertuigen uit Traficon-beelden, “100 auto’s”, geınterlinieerd.
“200 auto’s” subset gebruikt is, is het grote verschil van 20% bij de “100 auto’s” subset
geslonken tot een kleine 4%.
Deze vaststellingen doen het vermoeden rijzen dat het op een bepaald moment niet meer
opportuun is om een nog grotere trainingsset te gebruiken. De winst die je haalt door meer
beelden dan deze waarde te gebruiken is dan verwaarloosbaar. We hebben vervolgens
enkele extra testen gedaan om meer duidelijkheid te hebben over deze waarde. Bij de
subsets met 100 auto’s en 100 vrachtwagens hebben we naast de testen met een, vijf en
tien trainingspartities waar respectievelijk 15, 75 en 150 trainingsbeelden voor gebruikt
zijn ook eens dezelfde testen gedaan met 24 (= 8 ∗ 3) en 30 (= 10 ∗ 3) trainingsbeelden.
Bij de “200 auto’s” subset hebben we naast de testen met 30, 150 en 300 trainingsbeelden
48
ook getest met 15 (= 5∗3) en 24 (= 8∗3) voertuigen. De factor drie in deze berekeningen
komt zoals reeds uitgelegd van het feit dat er drie camera’s zijn en er met alle drie
de camera’s getraind wordt. Zoals in de vorige testen wordt er opnieuw 20 keer een
partitie doorgeschoven en is het resultaat van de nieuwe testen het gemiddelde van deze
20 uitvoeringen. In bijlage B beginnend op de pagina 63 zijn de resultaten van deze extra
testen te zien.
De resultaten van de nieuwe testen tonen aan dat de waarde, waarbij je weinig winst in
performantie krijgt indien je nog meer trainingsbeelden gebruikt, sterk afhankelijk is van
de eigenschappen van de gebruikte beelden. Bijvoorbeeld deze waarde ligt bij de IPI-
beelden waarbij enkel de even lijnen geselecteerd zijn in figuur B.2(a) vermoedelijk rond
de 30 trainingsbeelden maar bij de geınterlinieerde versie in figuur B.2(b) ligt deze dichter
bij de 75 trainingsbeelden. Indien we kijken naar de figuren B.3(c) (“100 auto’s”, even
lijnen), B.3(d) (“100 auto’s”, geınterlinieerd), B.3(a) (“100 vrachtwagens”, even lijnen) en
B.3(b) (“100 vrachtwagens”, even lijnen) is er bij de Traficon-beelden dan weer praktisch
geen verschil te zien tussen de waarde bij de geınterlinieerde beelden en deze waarbij enkel
de even lijnen overblijven. Over het algemeen ligt de waarde bij de Traficon-beelden in
de “100 auto’s” subset dicht bij de 30 trainingsvoertuigen en bij de “100 vrachtwagens”
subset dichter bij de 75 trainingsvoertuigen. Het is duidelijk dat er een specifieke waarde
bestaat per subset maar meer testen zijn nodig om deze waarde exacter te berekenen.
Classificatie in auto’s en vrachtwagens.
We vermoeden dat het mogelijk is om op een automatische manier de invoerbeelden te
classificeren in vrachtwagens of auto’s. Om een idee te hebben hoe het voorgestelde algo-
ritme presteert op beelden van enkel auto’s of vrachtwagens hebben we de invoerbeelden
manueel geclassificeerd. In de praktijk kunnen de invoerbeelden op een automatische ma-
nier geclassificeerd worden waarna elke klasse apart verwerkt wordt door het voorgestelde
algoritme, inclusief trainingsset met enkel beelden van deze klasse.
Ongeacht of we met de IPI-beelden of met de Traficon-beelden werken zijn er grote ver-
schillen te zien tussen de resultaten met de auto subset en met de vrachtwagen subset.
In tabellen 4.4 en 4.5 hebben we enkele resultaten opgesomd. We hebben ervoor gekozen
om de resultaten met parameters “5 trainingspartities, C3-C1 Hongaars, geınterlinieerd”
in de tabel te plaatsen. De resultaten met 10 trainingspartities gaven namelijk wat pro-
blemen met het geheugen. In de tabel valt vooral op dat de subsets waarin enkel auto’s
zitten een heel stuk lager scoren dan de andere. Zo zijn in de Traficon-beelden de auto
resultaten de laagste van de volledige tabel. In de volgende paragraaf gaan we dieper in
op het verschil tussen de resultaten met de IPI-beelden en de Traficon-beelden.
Het nut van classificatie in auto’s en vrachtwagens kunnen we niet uit deze resultaten
destilleren. Dit komt omdat in de gemengde subsets het aantal auto’s en vrachtwagens in
de training- en testset bij elke test veranderde. We kunnen wel vermoeden dat het niet
49
5 trainingspartities, C3-C1 Hongaars, 100 voertuigen, geınterlinieerdAuto’s Vrachtwagens Gemengd
IPI-beelden∼72% ∼90% ∼82%
(Zie fig. A.2(b)) (Zie fig. A.2(d)) (Zie fig. A.2(f))
Traficon-beelden∼36% ∼82% ∼48%
(Zie fig. A.4(b)) (Zie fig. A.4(d)) (Zie fig. A.4(f))
Tabel 4.4: Resultaten van de 100 voertuigen subsets.
5 trainingspartities, C3-C1 Hongaars200 auto’s 300 Gemengd
IPI-beelden∼64% ∼72%
(Zie fig. A.1(b)) (Zie fig. A.1(c))
Traficon-beelden∼32% ∼44%
(Zie fig. A.3(b)) (Zie fig. A.3(c))
Tabel 4.5: Resultaten van “200 auto’s” en “300 gemengd” subsets.
classificeren van de IPI-beelden maakt dat er meer auto’s correct gekoppeld worden omdat
het resultaat voor de “100 gemengd” subset midden tussen deze van de “100 auto’s” en
“100 vrachtwagens” in ligt, dit hoewel er rond de 70% auto’s in deze subset zitten.
Wat is de invloed van de problemen die enkel bij de Traficon-dataset voorko-
men?
Saturatie van het beeld door de lichten, foutieve bounding box, problemen met zwaai-
lichten en grote verschillen in afstand van de voertuigen tot de camera zijn de problemen
die enkel bij de Traficon-beelden voorkomen en niet bij de IPI-beelden. In de tabellen 4.4
en 4.5 is te zien dat de resultaten met de IPI-beelden in het merendeel van de gevallen
beter dan deze met de Traficon-beelden. Dit is vooral te zien aan het grote verschil van
meer dan 30% bij de auto subsets. Bij de vrachtwagens datasets is dit verschil maxi-
mumaal 8% geworden. De hoge verschillen bij de gemengde subsets kunnen misschien
verklaard worden door het feit dat deze subsets voor ∼70% bestaan uit auto’s maar om-
dat in deze subsets het aantal auto’s en vrachtwagens in de training- en testset bij elke
test veranderde, kunnen we dit niet zeker weten.
Om deze resultaten beter te begrijpen moeten we eerst kijken hoeveel beelden van auto’s
en vrachtwagens er in de Traficon-beelden last hebben van saturatie van het beeld door
de lichten, foutieve bounding box en grote verschillen in afstand van de voertuigen tot de
camera. Problemen i.v.m. zwaailichten komen maar heel sporadisch voor en hebben we
daarom niet geteld. Tabel 4.6 geeft een overzicht van deze aantallen.
Uit de tabel is af te leiden dat de subset met 100 vrachtwagens heel weinig problemen heeft.
Dit verklaart het kleine verschil in de resultaten tussen de IPI-beelden en de Traficon-
beelden. In de auto en gemengde subsets is op 20 a 30% van de beelden gesatureerd door
50
100Vrachtwa-
gens
100 Gemengd 100 Auto’s 200 Auto’s 300 Gemengd
groteverschillen
in deafstand totde camera
2 6 9 27 (=13,5%) 28 (=9,3%)
Saturatiedoor delichten
0 23 32 60 (=30%) 62 (=20,6%)
grotebounding
box fouten
1 6 7 17 (=8,5%) 18 (=6%)
Tabel 4.6: Het aantal voertuigen met problemen in verband met afstand tot de camera, lichtenof bounding box in de verschillende subsets in de Traficon-beelden.
de lichten. Aangezien er in de IPI-beelden weinig gesaturatureerde beelden voorkomen
wekt dit het vermoeden dat juist deze beelden zorgen voor het slechtere resultaat bij de
Traficon-beelden. Daarnaast moet er ook rekening gehouden worden met het feit dat de
IPI-beelden altijd in het begin van het gezichtsveld van de camera genomen zijn en de
Traficon-beelden op een random plaats in dit gezichtsveld, dit heeft een invloed op hoeveel
details er te zien zijn in het beeld. Om te weten wat juist de oorzaak is van de slechtere
herkenning in de Traficon-beelden moeten meer testen gedaan worden. In deze testen kan
er dan onderzocht wordt hoe robuust het identificatie-algoritme is tegen grote verschillen
in de afstand tot de camera, saturatie door de lichten en fouten met de bounding box.
Welke beelden stoppen we het best in een trainingsset?
Zoals reeds aangehaald hebben we in dit onderdeel voor de subsets met 100, 200 en
300 voertuigen gebruik gemaakt van respectievelijk 15, 30 en 45 trainingsbeelden. Deze
trainingsbeelden kwamen allemaal uitsluitend uit een van de drie camera’s. De resultaten
van deze testen zijn te zien in bijlage C beginnend op de pagina 66. Indien we enkel kijken
naar het verschil tussen de training met camera 1, twee of drie zien we dat ongeacht met
welke camerabeelden we testen dit verschil nooit meer dan 6% bedraagt. Sterker nog in
het merendeel van de gevallen klimt het verschil niet hoger dan enkele procenten.
Als we nu de resultaten met drie trainingscamera’s erbij nemen, zien we dat deze resultaten
meestal lichtjes lager liggen dan wanneer er met een camera getraind is. De volgende
opmerking moet wel in acht genomen worden: stel dat er 15 trainingsbeelden gebruikt
zijn en er getraind wordt op alle drie de camera’s dan betekent dit dat er eigenlijk op
5 verschillende voertuigen getraind is geweest. Dit komt omdat er van elk voertuig drie
beelden genomen zijn, namelijk een uit elke camera. Indien er daarentegen getraind wordt
51
in een camera bevatten deze 15 trainingsbeelden ook 15 verschillende voertuigen. Dit feit
kan een verklaring zijn waarom het resultaat met drie trainingscamera’s lichtjes lager is
dan met een trainingscamera.
52
Hoofdstuk 5
Conclusie, praktijktoepassing entoekomstig werk
5.1 Eindconclusie
In deze masterproef hebben we met behulp van een adaptatie van de eigenfacestechniek
getracht om voertuigen te identificeren in een camera zodat we deze kunnen terugvinden
in een volgende camera. Dit identificeren gebeurd op basis van een beeld van het voertuig
dat genomen is op een willekeurige locatie in het gezichtsveld van de camera. De koppeling
van beelden uit twee verschillende camera’s gebeurd op basis van de descriptoren van deze
beelden. Als descriptor van een beeld hebben we de gewichtsvector van dit beeld genomen,
deze bepaald in welke mate een specifiek kenmerk (voorgesteld door een eigenvector) in
het origineel beeld voorkomt.
Hongaars algoritme.
Om de uitvoeringstijd te beperken hebben we ervoor gekozen om de descriptoren per
camera te verdelen in deelverzamelingen. Deze deelverzamelingen kunnen in de praktijk
gemaakt worden op basis van de gemiddelde snelheid van voertuigen in de tunnel. Vervol-
gens worden door middel van een een Hongaars algoritme de descriptoren van voertuigen
uit een deelverzameling van de ene camera gekoppeld koppelen aan de descriptoren uit
een deelverzameling van de vorige camera. Het Hongaars algoritme is een combinatorisch
optimalisatie-algoritme dat het assignatieprobleem oplost in polynomiale tijd. Het zorgt
voor de koppeling met de kleinste totale Euclidische afstand van alle descriptoren uit de
ene verzameling aan deze uit de andere verzameling. Op die manier is de assignatie ge-
optimaliseerd over beide deelverzamelingen.
Toepassen van het Hongaars algoritme zorgt voor een stijging van rond de 20% van het
aantal correct aan elkaar gekoppelde beelden. Deze stijging is ten opzichte van een tech-
niek die elke keer een descriptor gecreeerd is de best passende descriptor uit de vorige
53
camera zoekt en deze aan elkaar koppelt. We raden dan ook aan om het Hongaars algo-
ritme in de praktijk toe te passen.
Interlinie.
De invoerbeelden van het voorgestelde algoritme zijn geınterlinieerd en daarom hebben
we getest wat het effect is op de resultaten indien we deze interlinie op een eenvoudige
manier verwijderen. Om de interlinie te verwijderen hebben we enkel de even lijnen van
een beeld geselecteerd. Toepassing van deze selectie had geen verbeterend effect op de
resultaten en daarom raden we ook aan om deze selectie niet toe te passen. Een complexere
deınterliniering kan wel verbeteringen brengen maar deze zullen vermoedelijk ten koste
gaan van een langere uitvoeringstijd.
Classificatie in auto’s en vrachtwagens en de invloed van de afstand tussen het
voertuig en de camera.
We merken op dat bij een kleine afstand tussen het voertuig en de camera alle resultaten
hoger zijn dan indien deze afstand groter is. Hieruit kunnen we concluderen dat het
beperken van de afstand tussen het voertuig en de camera zijn nut heeft. Dit komt
vermoedelijk omdat er meer details van het voertuig op het beeld te zien zijn dan bij
een kleinere afstand tussen het voertuig en de camera. Bij een grotere afstand tussen het
voertuig en de camera scoren vooral de beelden van enkel auto’s en de niet geclassificeerde
beelden een heel stuk lager dan bij een kleine afstand. Uit het lage resultaat van de
beelden met enkel auto’s kunnen we concluderen dat vooral de auto’s veel last hebben
van verminderende details door de grote afstand.
Het is moeilijk om besluiten te trekken over de invloed van het al dan niet classificeren
op de resultaten van auto’s en vrachtwagens apart want bij de testen zonder classificatie
veranderde aantal auto’s en vrachtwagens in de training- en testset bij elke test. We
kunnen dus bijvoorbeeld niet specifiek zeggen dat bij classificatie meer auto’s correct
gekoppeld worden dan wanneer we geen classificatie toepassen.
Selectie van de trainingsbeelden.
Ten slotte kan het interessant zijn om te weten welke beelden, van welke camera’s we
een trainingsset moeten stoppen. Uit onze testen concluderen we dat de beelden die in
de trainingsset zitten niet uit dezelfde camera moeten komen als de beelden waarop we
testen. We kunnen dus een trainingsset samenstellen van beelden uit de eerste camera om
de beelden van een tweede camera te koppelen aan deze van een derde camera. Dit maakt
het mogelijk om de eigenvectoren gecreeerd door een set trainingsbeelden uit een camera
te gebruiken om de beelden uit een volledige groep camera’s met elkaar te vergelijken.
Indien we nu trainen op in het totaal evenveel beelden maar nu uit alle drie de camera’s
in plaats van uit een camera zien we dat de resultaten lichtjes lager uitvallen. Dit verschil
54
kan verklaard worden omdat er bij de training in de drie camera’s er op drie keer minder
verschillende voertuigen getraind is dan in het geval van een training in een camera.
Hieruit concluderen we dus dat het belangrijker is om te trainen op veel verschillende
voertuigen, uit gelijk welke camera, dan te maken dat er van elke camera beelden in de
trainingsset zitten.
Grootte van de trainingsset.
Vervolgens hebben we enkele testen gedaan om te onderzoeken hoe groot een trai-
ningsset moet zijn. Uit de testen kan in eerste instantie afgeleid worden dat, hoe meer
trainingsbeelden, hoe beter de resultaten worden. Dit effect verminderd echter vanaf een
bepaald aantal trainingsbeelden, meer trainingsbeelden gebruiken zorgt dan voor weinig
winst in performantie. Deze waarde is afhankelijk van de subset waarop er getest wordt,
zo neigt deze meer naar de 30 beelden bij een subset met enkel auto’s en bij een subset
met enkel vrachtwagens neigt deze meer naar de 75 beelden. Bij al deze testen is er voor
elk voertuig een beeld uit elk van de drie trainingscamera’s gebruikt. Er staan dus op
deze 30 en 75 trainingsbeelden respectievelijk 10 en 25 verschillende voertuigen. Indien
de beelden voordien geclassificeerd worden in auto’s of vrachtwagens stellen we voor om,
op basis van de conclusie uit de vorige paragraaf, in de trainingsset beelden van minstens
10 verschillende auto’s of 25 verschillende vrachtwagens te gebruiken.
5.2 Praktijktoepassing
De techniek van de eigenvehicles, die in deze masterproef voorgesteld en uitgetest is, moet
natuurlijk op een of andere manier in de praktijk gebracht worden. We stellen hieronder
een mogelijk stappenplan voor om dit te doen en ga ervan uit dat de volgende situaties
gelden:
• De ideale grootte van de trainingsset is gekend.
• Er is voldoende hard- en software aanwezig, zodat het identificatie-algoritme niet
achterop loopt ten opzichte van de verkeersstroom.
• Er bestaat een techniek om verzamelingen eigenvehicles met elkaar te vergelijken en
zo te voorspellen welke verzamelingen redundant zijn. Dit wil zeggen dat gelijkaar-
dige resultaten geboekt worden indien je traint met de ene verzameling of met de
redundante verzameling.
• We gaan er tenslotte ook nog vanuit dat het identificatie-algoritme de beelden uit
twee opvolgende secties in een tunnel, elk met hun eigen verzameling eigenvehicles,
voldoende efficient aan elkaar kan koppelen.
Hieronder besteden we meer aandacht aan de volgende drie belangrijke fasen:
55
Figuur 5.1: Een tunnel inclusief alle camera’s en de bijhorende verzameling van eigenvehicles(a. . .f).
Opstart in een tunnel:
De trainingsset(s) en de daarbij horende verzameling(en) met eigenvehicles moet(en)
gecreeerd worden. We stellen het volgende stappenplan voor:
1. Maak in eerste instantie een verzameling eigenvehicles voor elke camera in de tunnel.
Zie figuur 5.1, de blokken a tot f zijn de verzamelingen met de eigenvehicles van een
trainingsset uit een camera.
2. Vergelijk de verschillende verzamelingen uit de eerste stap onderling en reduceer het
aantal verzamelingen indien mogelijk tot het absolute minimum, door redundante
verzamelingen te verwijderen. Op die manier wordt een verzameling eigenvehicles
door meerdere camera’s gebruikt en wordt er geheugen uitgespaard. Toegepast
op figuur 5.1 stellen we dat bijvoorbeeld de verzamelingen a,b,e en f redundant
van elkaar. Er kan dan gekozen worden om een verzameling in het geheugen te
plaatsen, bijvoorbeeld verzameling a, en de andere drie te verwijderen. Stel dat
de verzamelingen c en d ook redundant zijn van elkaar, zal ook hier maar een
verzameling in het geheugen bijgehouden worden. Deze tunnel is dan in twee secties
opgedeeld, namelijk een sectie met de camera’s 1, 2, 5 en 6 en een sectie met de
camera’s 3 en 4. Alle beelden van de camera’s uit een sectie worden met dezelfde
verzameling eigenvehicles verwerkt. In dit voorbeeld is dat voor de eerste sectie de
verzameling a en bij de tweede sectie verzameling c.
Tijdens de normale looptijd:
Het voorgestelde algoritme is nu in regime, om geheugen te besparen worden descripto-
ren automatisch na een tijd verwijderd en indien nodig wordt de verzameling eigenvehicles
manueel aangepast naar het seizoen of weer op dat moment.
56
Bij onderhoud van de tunnel of het camerasysteem:
Op gezette tijden krijgt een tunnel een goede opknapbeurt, camera’s worden vervangen,
wegmarkeringen aangepast of er wordt een volledig nieuwe asfaltlaag gegoten, het voorge-
stelde algoritme moet hiervoor voorzien zijn. We stellen voor, dat in dit geval, voor elke
camera waarin deze verandering een effect heeft, een nieuwe verzameling eigenvehicles
gecreeerd wordt, gebaseerd op een trainingsset uit die camera. Daarna wordt deze nieuwe
verzameling eigenvehicles vergeleken met de reeds aanwezige verzamelingen eigenvehicles
in die tunnel. Nu kunnen er twee situaties voorkomen:
• De nieuwe verzameling is redundant met een van de reeds aanwezige verzamelingen
in de tunnel. Hoogstens moet in dit geval de veranderde camera in een andere sectie
van de tunnel ingedeeld worden. Ten slotte wordt de nieuwe verzameling verwijderd
en is er dus geen extra geheugen gebruikt.
• De nieuwe verzameling is niet redundant en stelt hierdoor dus een nieuwe sectie in
de tunnel voor. De nieuwe verzameling wordt bewaard en het voorgestelde algoritme
gaat door zoals voorheen.
Stel dat we dit toepassen op het voorbeeld van hierboven met de twee verschillende secties,
namelijk een met de camera’s 1, 2, 5 en 6 en een met de camera’s 3 en 4, waarin de tweede
camera vervangen wordt. Dan kan bijvoorbeeld in de eerste situatie de eerste sectie enkel
nog de camera’s 1, 5 en 6 bevatten en de tweede sectie de camera’s 2, 3 en 4 en kan bij
de tweede situatie een derde sectie ingevoerd worden met enkel camera twee, waarbij de
eerste sectie dan gereduceerd is tot de camera’s 1, 5 en 6.
5.3 Toekomstig werk
Ondanks de vele uren die in deze masterproef gekropen zijn, zijn er nog tal van pis-
tes die onderzocht moeten worden. Hieronder volgen enkele suggesties over toekomstige
onderzoeken:
• Hoe kunnen resultaten van de subsets met enkel auto’s verbeterd worden?
• Wat is de hoofdoorzaak van de slechtere resultaten bij de auto subset tussen de
Traficon-beelden en de IPI-beelden?
• Het voorgestelde algoritme is nu getest op filmfragmenten van 11 minuten lang.
Hoe presteert het algoritme wanneer de eigenvehicles uren, dagen of jaren vroeger
gemaakt zijn?
• Hoe robuust is het voorgestelde algoritme bij veranderingen in het weer of van
seizoen.
57
• Hoe presteert het voorgestelde algoritme in andere omgevingen, bijvoorbeeld in een
volledig andere tunnel of bij een plots veranderende achtergrond in een en dezelfde
tunnel? Moet een tunnel in verschillende secties opgedeeld worden waarbij elke
sectie een specifieke trainingsset heeft of niet? Hoe kunnen die secties dan efficient
aan elkaar gekoppeld worden?
• Welke hardware is nodig zodat het voorgestelde algoritme de verkeersstroom kan
bijhouden?
• Geeft complexere deınterliniering betere resultaten zonder het algoritme te veel te
vertragen?
58
Bijlage A
A.1 IPI-beelden
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,200 auto’s,selectie van enkel de even lijnen,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (10 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (100 verschillende voertuigen, uit elke camera 1 beeld)
(a)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,200 auto’s,interlineerd,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (10 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (100 verschillende voertuigen, uit elke camera 1 beeld)
(b)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,300 gemengd,selectie van enkel de even lijnen,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (15 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (75 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (150 verschillende voertuigen, uit elke camera 1 beeld)
(c)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,300 gemengd,interlineerd,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (15 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (75 verschillende voertuigen, uit elke camera 1 beeld)
(d)
Figuur A.1: De resultaten voor de testen op de IPI-beelden waarbij getraind is op beelden uitalle drie de camera’s met het Hongaars en descriptor per descriptor (een p een) koppelselectie-algoritme in de subsets (a,b) “200 auto’s” en (c,d) “300 mixed” met de parameters (a,c) “selectievan enkel de even lijnen” en (b,d) interlineerd.
59
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 auto’s,selectie van enkel de even lijnen,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(a)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 auto’s,interlineerd,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(b)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 vrachtwagens,selectie van enkel de even lijnen,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(c)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 vrachtwagens,interlineerd,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(d)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 gemengd,selectie van enkel de even lijnen,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(e)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 gemengd,interlineerd,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(f)
Figuur A.2: De resultaten voor de testen op de IPI-beelden waarbij getraind is op beelden uitalle drie de camera’s met het Hongaars en descriptor per descriptor (een p een) koppelselectie-algoritme in de subsets (a,b) “100 auto’s”, (c,d) “100 vrachtwagens” en (e,f) “100 mixed” metde parameters (a,c,e) “selectie van enkel de even lijnen” en (b,d,f) interlineerd.
60
A.2 Traficon-beelden
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,200 auto’s,selectie van enkel de even lijnen,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (10 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (100 verschillende voertuigen, uit elke camera 1 beeld)
(a)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,200 auto’s,interlineerd,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (10 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (100 verschillende voertuigen, uit elke camera 1 beeld)
(b)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,300 gemengd,selectie van enkel de even lijnen,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (15 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (75 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (150 verschillende voertuigen, uit elke camera 1 beeld)
(c)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,300 gemengd,interlineerd,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (15 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (75 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (150 verschillende voertuigen, uit elke camera 1 beeld)
(d)
Figuur A.3: De resultaten voor de testen op de Traficon-beelden waarbij getraind is op beeldenuit alle drie de camera’s met het Hongaars en descriptor per descriptor (een p een) koppelselectie-algoritme in de subsets (a,b) “200 auto’s” en (c,d) “300 mixed” met de parameters (a,c) “selectievan enkel de even lijnen” en (b,d) interlineerd.
61
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 auto’s,selectie van enkel de even lijnen,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(a)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 auto’s,interlineerd,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(b)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 vrachtwagens,selectie van enkel de even lijnen,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(c)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 vrachtwagens,interlineerd,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(d)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 gemengd,selectie van enkel de even lijnen,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(e)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 gemengd,interlineerd,op beelden van 3 camera’s getraind
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
1 trainingspartitie (5 verschillende voertuigen, uit elke camera 1 beeld)5 trainingspartities (25 verschillende voertuigen, uit elke camera 1 beeld)10 trainingspartities (50 verschillende voertuigen, uit elke camera 1 beeld)
(f)
Figuur A.4: De resultaten voor de testen op de Traficon-beelden waarbij getraind is op beeldenuit alle drie de camera’s met het Hongaars en descriptor per descriptor (een p een) koppelselectie-algoritme in de subsets (a,b) “100 auto’s”, (c,d) “100 vrachtwagens” en (e,f) “100 mixed” metde parameters (a,c,e) “selectie van enkel de even lijnen” en (b,d,f) interlineerd.
62
Bijlage B
B.1 IPI-beelden
15 24 30 75 1500
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 vrachtwagens,selectie van enkel de even lijnen,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(a)
15 24 30 75 1500
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 vrachtwagens,interlineerd,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(b)
Figuur B.1: De resultaten voor het koppelen via het Hongaars koppelselectie-algoritme van decamera 3 beelden aan de camera 1 beelden uit de IPI-beelden waarbij getraind is op beelden uitalle drie de camera’s maar met een verschillend aantal trainingsbeelden. Deze testen zijn gedaanop de subset (a,b) “100 vrachtwagens” met de parameters (a) “selectie van enkel de even lijnen”en (b) interlineerd.
63
15 24 30 75 1500
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 auto’s,selectie van enkel de even lijnen,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(a)
15 24 30 75 1500
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 auto’s,interlineerd,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(b)
15 2430 150 3000
10
20
30
40
50
60
70
80
90
100IPI−beelden,200 auto’s,selectie van enkel de even lijnen,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(c) 15,24,30,150 en 300 trainingsbeelden.
15 2430 150 3000
10
20
30
40
50
60
70
80
90
100IPI−beelden,200 auto’s,interlineerd,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(d) 15,24,30,150 en 300 trainingsbeelden.
Figuur B.2: De resultaten voor het koppelen via het Hongaars koppelselectie-algoritme van decamera 3 beelden aan de camera 1 beelden uit de IPI-beelden waarbij getraind is op beeldenuit alle drie de camera’s maar met een verschillend aantal trainingsbeelden. Deze testen zijngedaan op de subsets (a,b) “100 auto’s”’ en (c,d) “200 auto’s” met de parameters (a,c) “selectievan enkel de even lijnen” en (b,d) interlineerd.
64
B.2 Traficon-beelden
15 24 30 75 1500
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 vrachtwagens,selectie van enkel de even lijnen,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(a)
15 24 30 75 1500
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 vrachtwagens,interlineerd,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(b)
15 24 30 75 1500
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 auto’s,selectie van enkel de even lijnen,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(c)
15 24 30 75 1500
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 auto’s,interlineerd,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(d)
15 2430 150 3000
10
20
30
40
50
60
70
80
90
100Traficon−beelden,200 auto’s,selectie van enkel de even lijnen,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(e) 15,24,30,150 en 300 trainingsbeelden.
15 2430 150 3000
10
20
30
40
50
60
70
80
90
100Traficon−beelden,200 auto’s,interlineerd,camera 3 − camera 1,Hongaars
Her
kenn
ings
graa
d in
%
Aantal trainingsbeelden
(f) 15,24,30,150 en 300 trainingsbeelden.
Figuur B.3: De resultaten voor het koppelen via het Hongaars koppelselectie-algoritme van decamera 3 beelden aan de camera 1 beelden uit de Traficon-beelden waarbij getraind is op beeldenuit alle drie de camera’s maar met een verschillend aantal trainingsbeelden. Deze testen zijngedaan op de subsets (a,b) “100 vrachtwagens” en (c,d) “100 auto’s” en (e,f) “200 auto’s” metde parameters (a,c,e) “selectie van enkel de even lijnen” en (b,d,f) interlineerd.
65
Bijlage C
C.1 IPI-beelden
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,200 auto’s, selectie van enkel de even lijnen,30 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (10 verschillende voertuigen)Training enkel in camera 1 (30 verschillende voertuigen)Training enkel in camera 2 (30 verschillende voertuigen)Training enkel in camera 3 (30 verschillende voertuigen)
(a)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,200 auto’s, interlineerd,30 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (10 verschillende voertuigen)Training enkel in camera 1 (30 verschillende voertuigen)Training enkel in camera 2 (30 verschillende voertuigen)Training enkel in camera 3 (30 verschillende voertuigen)
(b)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,300 gemengd, selectie van enkel de even lijnen,45 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (15 verschillende voertuigen)Training enkel in camera 1 (45 verschillende voertuigen)Training enkel in camera 2 (45 verschillende voertuigen)Training enkel in camera 3 (45 verschillende voertuigen)
(c)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,300 gemengd, interlineerd,45 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (15 verschillende voertuigen)Training enkel in camera 1 (45 verschillende voertuigen)Training enkel in camera 2 (45 verschillende voertuigen)Training enkel in camera 3 (45 verschillende voertuigen)
(d)
Figuur C.1: De resultaten voor de testen op de IPI-beelden waarbij getraind is op beelden uit alledrie de camera’s en op een camera maar met gelijk totaal aantal trainingsbeelden. De testen zijngebeurd met het Hongaars en het descriptor per descriptor (een p een) koppelselectie-algoritmein de subsets (a,b) “200 auto’s” en (c,d) “300 mixed” met de parameters (a,c) “selectie van enkelde even lijnen” en (b,d) interlineerd.
66
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 auto’s, selectie van enkel de even lijnen,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(a)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 auto’s, interlineerd,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(b)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 vrachtwagens, selectie van enkel de even lijnen,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(c)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 vrachtwagens, interlineerd,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(d)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 gemengd, selectie van enkel de even lijnen,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(e)
0
10
20
30
40
50
60
70
80
90
100IPI−beelden,100 gemengd, interlineerd,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(f)
Figuur C.2: De resultaten voor de testen op de IPI-beelden waarbij getraind is op beeldenuit alle drie de camera’s en op een camera maar met gelijk totaal aantal trainingsbeelden. Detesten zijn gebeurd met het Hongaars en het descriptor per descriptor (een p een) koppelselectie-algoritme in de subsets (a,b) “100 auto’s” en (c,d) “100 vrachtwagens” en (e,f) “100 mixed” metde parameters (a,c,e) “selectie van enkel de even lijnen” en (b,d,f) interlineerd.
67
C.2 Traficon-beelden
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,200 auto’s, selectie van enkel de even lijnen,30 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (10 verschillende voertuigen)Training enkel in camera 1 (30 verschillende voertuigen)Training enkel in camera 2 (30 verschillende voertuigen)Training enkel in camera 3 (30 verschillende voertuigen)
(a)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,200 auto’s, interlineerd,30 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (10 verschillende voertuigen)Training enkel in camera 1 (30 verschillende voertuigen)Training enkel in camera 2 (30 verschillende voertuigen)Training enkel in camera 3 (30 verschillende voertuigen)
(b)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,300 gemengd, selectie van enkel de even lijnen,45 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (15 verschillende voertuigen)Training enkel in camera 1 (45 verschillende voertuigen)Training enkel in camera 2 (45 verschillende voertuigen)Training enkel in camera 3 (45 verschillende voertuigen)
(c)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,300 gemengd, interlineerd,45 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (15 verschillende voertuigen)Training enkel in camera 1 (45 verschillende voertuigen)Training enkel in camera 2 (45 verschillende voertuigen)Training enkel in camera 3 (45 verschillende voertuigen)
(d)
Figuur C.3: De resultaten voor de testen op de Traficon-beelden waarbij getraind is op beeldenuit alle drie de camera’s en op een camera maar met gelijk totaal aantal trainingsbeelden. Detesten zijn gebeurd met het Hongaars en het descriptor per descriptor (een p een) koppelselectie-algoritme in de subsets (a,b) “200 auto’s” en (c,d) “300 mixed” met de parameters (a,c) “selectievan enkel de even lijnen” en (b,d) interlineerd.
68
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 auto’s, selectie van enkel de even lijnen,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(a)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 auto’s, interlineerd,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(b)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 vrachtwagens, selectie van enkel de even lijnen,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(c)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 vrachtwagens, interlineerd,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(d)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 gemengd, selectie van enkel de even lijnen,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(e)
0
10
20
30
40
50
60
70
80
90
100Traficon−beelden,100 gemengd, interlineerd,15 trainingsbeelden
Her
kenn
ings
graa
d in
%
Vergeleken camera’s & koppel selectie algoritme
C2−C1één p één
C2−C1Hongaars
C3−C1één p één
C3−C1Hongaars
C3−C2één p één
C3−C2Hongaars
Training in alle 3 de camera’s (5 verschillende voertuigen)Training enkel in camera 1 (15 verschillende voertuigen)Training enkel in camera 2 (15 verschillende voertuigen)Training enkel in camera 3 (15 verschillende voertuigen)
(f)
Figuur C.4: De resultaten voor de testen op de Traficon-beelden waarbij getraind is op beeldenuit alle drie de camera’s en op een camera maar met gelijk totaal aantal trainingsbeelden. Detesten zijn gebeurd met het Hongaars en het descriptor per descriptor (een p een) koppelselectie-algoritme in de subsets (a,b) “100 auto’s” en (c,d) “100 vrachtwagens” en (e,f) “100 mixed” metde parameters (a,c,e) “selectie van enkel de even lijnen” en (b,d,f) interlineerd.
69
Bibliography
[1] “Traficon.” http://www.traficon.com/page.jsp?id=114 - geraadpleegd in mei 2010.
[2] A. Ferencz, E. G. Learned-Miller, and J. Malik, “Learn-
ing to locate informative features for visual identification.”
http://www.eecs.berkeley.edu/Research/Projects/CS/vision/shape/vid/.
[3] M. Turk and A. Pentland, “Eigenfaces for recognition,” Journal of Cognitive Neuro-
science, vol. 3, pp. 71–86, 1991.
[4] M. Kirby and L. Sirovich, “Application of the karhunen-loeve procedure for the char-
acterization of human faces,” IEEE Transactions on Pattern Analysis and Machine
Intelligence, vol. 12, pp. 103–108, 1990.
[5] L. Sirovich and M. Kirby, “Low-dimensional procedure for the characterization of
human faces,” J. Opt. Soc. Am. A, vol. 4, no. 3, pp. 519–524, 1987.
[6] I. Atalay, “Face recognition using eigenfaces,” Master’s thesis, Istanbul Technical
University, Jan. 1996.
[7] S. Serrano, “Eigenface tutorial.” http://www.pages.drexel.edu/ sis26/Eigenfacegeraadpleegd
in mei 2010.
[8] D. Karlis, G. Saporta, and A. Spinakis, “A simple rule for the selection of principal
components.,” Communications in Statistics: Theory & Methods, vol. 32, no. 3,
p. 643, 2003. Dit artikel beschrijft een mogelijke verbetering van het Kaiser critirium.
[9] C. Au, J.-S. Legare, and R. Shaikh, “Face recognition robustness of the eigenface
approach.”.
[10] M. Savvides and B. V. Kumar, “Quad-phase minimum average correlation energy fil-
ters for reduced-memory illumination-tolerant face authentication,” udio and Visual
Biometrics based Person Authentication, 2003.
[11] M. Savvides, B. V. Kumar, and P. Khosla, “Robust, shift-invariant biometric identi-
fication from partial face images,” Biometric Technologies for Human Identification,
2004.
70
[12] M. Savvides, B. V. Kumar, and P. Khosla, “Corefaces - robust shift invariant pca
based correlation filter for illumination tolerant face recognition.”.
[13] A. Leonardis and H. Bischof, “Dealing with occlusions in the eigenspace approach,”
Conference on Computer Vision and Pattern Recognition, pp. 453–458, 1996.
[14] D. G. Lowe, “Distinctive image features from scale-invariant keypoints,” Interna-
tional Journal of Computer Vision, vol. 60, pp. 91–110, Nov. 2004.
[15] J.-Y. Choi, K.-S. Sung, and Y.-K. Yang, “Multiple vehicles detection and track-
ing based on scale-invariant feature transform.” Intelligent Transportation Systems
Conference Seattle, WA, USA, Sept. 30 - Oct. 3, 2007.
[16] D. Donoho and E. J. Candes, “Curvelets: A surprisingly effective nonadaptive rep-
resentation of objects with edges,” Curves and Surface, pp. 123–143, 1999.
[17] E. J. Candes, “What is curvelet,” Notices of American Mathematical Society, vol. 50,
pp. 1402–1403, 2003.
[18] J. Lee, Y. Kim, and C. Park, Robust Feature Detection Using 2D Wavelet Transform
Under Low Light Environment, vol. 345 of Lecture Notes in Control and Information
Sciences. Springer Berlin / Heidelberg, 2006.
[19] F. M. Kazemi, S. Samadi, H. Pourreza, and M. R. Akbarzadeh, “Vehicle recognition
based on fourier, wavelet and curvelet transforms - a comparative study,” Journal of
Computer Science and Network Security, vol. 7, Feb. 2007.
[20] J. Munkres, “Algorithms for the assignment and transportation problems,” Society
for Industrial and Applied Mathematics, vol. 5, pp. 32–38, Mar. 1957.
[21] “Ipi-vakgroep.” http://telin.ugent.be/ipi/index.shtml - geraadpleegd in mei 2010.
71
Lijst van figuren
1.1 Schematische weergave van een tunnel die uitgerust is met een camerasys-
teem. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 (a) Voorbeeld van een figuur met een laag dynamisch bereik en (b) het
histogram van deze figuur . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Normale (a) auto en (b) vrachtwagen. Problemen met kijkhoek: kijkhoek
in camera 1 (c) en 2 (d) op het hetzelfde voertuig. Merk ook hoe moeilijk
het is om voertuig (a) en (c) van elkaar te onderscheiden. . . . . . . . . . . 6
1.4 Problemen met lichten: (a) gedoofde lichten (b) reflectie van andere lichten
op de rechterzijde (c) saturatie van het beeld door de remlichten. . . . . . . 7
1.5 Het beeld van het voertuig in (a) camera 1 is dichter bij de camera genomen
dan in (b) camera 2. Geınterlinieerde (c) auto en (d) vrachtwagen, het logo
bij de vrachtwagen is bijna volledig onleesbaar. . . . . . . . . . . . . . . . 8
2.1 Blokdiagram van het algemeen algoritme om beelden te vergelijken. . . . . 10
2.2 Het stuk (a) van het algemeen algoritme in figuur 2.1 wordt vervangen door
(b). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Voorbeeld van een objectidentificatieprobleem: de twee auto’s aan de lin-
kerzijde komen uit camera 1 en de vier aan de rechterzijde uit camera 2.
De vraag is op welke van de beelden uit camera 2 worden dezelfde auto’s
als in de beelden uit camera 1 afgebeeld. . . . . . . . . . . . . . . . . . . . 11
2.4 (a) een verzameling gezichten en (b) de eigenfaces van deze verzameling . . 15
2.5 Eenvoudige trainingsbeelden. . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.6 Gemiddeld genormaliseerd beeld van de herschaalde beelden uit figuur 2.5. 19
2.7 Eigenvectoren van de herschaalde beelden uit figuur 2.5. . . . . . . . . . . 20
2.8 Eenvoudige testbeelden. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1 Een voorbeeld van een koppeling van twee voertuigen over drie cameras . . 27
72
3.2 Grafische voorstelling van het vergelijken van twee descriptoren uit camera
2 met twee descriptoren uit camera 1. . . . . . . . . . . . . . . . . . . . . . 29
3.3 MSE toegepast op het descriptor per descriptor koppelselectie-algoritme. . 31
3.4 MSE toegepast op het Hongaars koppelselectie-algoritme. . . . . . . . . . . 33
4.1 Een vrachtwagen waar verschillende delen van het histogram ingekleurd
zijn. (a) Het origineel beeld en (b) de ingekleurde versie. (c) Rechts: Het
getransformeerd histogram van de vrachtwagen, alle waarden die origineel
onder de 60 lagen zijn gereduceerd tot 0. Deze waarden zijn zwart op de
figuur links. Links: De helderste vlakken van de vrachtwagen zijn in het
paars gekleurd en de rest van de vrachtwagen in het geel. De pijlen tonen
welk deel van het histogram welke kleur kreeg. . . . . . . . . . . . . . . . . 38
4.2 (a) Origineel beeld. (b) Uitgemiddeld beeld van figuur 4.2(a).(c) Het ver-
schil tussen figuur 4.2(a) en figuur 4.2(b). . . . . . . . . . . . . . . . . . . . 39
4.3 (a) Geınterlinieerde auto in de IPI-beelden en (b) hetzelfde beeld waarbij
enkel de even lijnen geselecteerd werden. (c) Geınterlinieerde vrachtwagen
in de Traficon-beelden en (d) hetzelfde beeld waarbij enkel de even lijnen
geselecteerd werden. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4 Opdeling van een willekeurige dataset in partities. tien testpartities, een
trainingspartitie en negen ongebruikte partities zijn aangeduid. . . . . . . . 43
4.5 De eigenvehicles van 15 trainingsbeelden van 5 verschillende voertuigen uit
IPI-beelden, “100 auto’s”, geınterlinieerd. . . . . . . . . . . . . . . . . . . . 46
4.6 De eigenvehicles van 15 trainingsbeelden van 5 verschillende voertuigen uit
IPI-beelden, “100 vrachtwagens”, geınterlinieerd. . . . . . . . . . . . . . . . 47
4.7 De eigenvehicles van 15 trainingsbeelden van 5 verschillende voertuigen uit
Traficon-beelden, “100 auto’s”, geınterlinieerd. . . . . . . . . . . . . . . . . 48
5.1 Een tunnel inclusief alle camera’s en de bijhorende verzameling van eigen-
vehicles (a. . .f). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
A.1 De resultaten voor de testen op de IPI-beelden waarbij getraind is op beel-
den uit alle drie de camera’s met het Hongaars en descriptor per descriptor
(een p een) koppelselectie-algoritme in de subsets (a,b) “200 auto’s” en (c,d)
“300 mixed” met de parameters (a,c) “selectie van enkel de even lijnen” en
(b,d) interlineerd. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
73
A.2 De resultaten voor de testen op de IPI-beelden waarbij getraind is op beel-
den uit alle drie de camera’s met het Hongaars en descriptor per descriptor
(een p een) koppelselectie-algoritme in de subsets (a,b) “100 auto’s”, (c,d)
“100 vrachtwagens” en (e,f) “100 mixed” met de parameters (a,c,e) “selec-
tie van enkel de even lijnen” en (b,d,f) interlineerd. . . . . . . . . . . . . . 60
A.3 De resultaten voor de testen op de Traficon-beelden waarbij getraind is
op beelden uit alle drie de camera’s met het Hongaars en descriptor per
descriptor (een p een) koppelselectie-algoritme in de subsets (a,b) “200
auto’s” en (c,d) “300 mixed” met de parameters (a,c) “selectie van enkel
de even lijnen” en (b,d) interlineerd. . . . . . . . . . . . . . . . . . . . . . 61
A.4 De resultaten voor de testen op de Traficon-beelden waarbij getraind is
op beelden uit alle drie de camera’s met het Hongaars en descriptor per
descriptor (een p een) koppelselectie-algoritme in de subsets (a,b) “100
auto’s”, (c,d) “100 vrachtwagens” en (e,f) “100 mixed” met de parameters
(a,c,e) “selectie van enkel de even lijnen” en (b,d,f) interlineerd. . . . . . . 62
B.1 De resultaten voor het koppelen via het Hongaars koppelselectie-algoritme
van de camera 3 beelden aan de camera 1 beelden uit de IPI-beelden waarbij
getraind is op beelden uit alle drie de camera’s maar met een verschillend
aantal trainingsbeelden. Deze testen zijn gedaan op de subset (a,b) “100
vrachtwagens” met de parameters (a) “selectie van enkel de even lijnen”
en (b) interlineerd. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
B.2 De resultaten voor het koppelen via het Hongaars koppelselectie-algoritme
van de camera 3 beelden aan de camera 1 beelden uit de IPI-beelden waarbij
getraind is op beelden uit alle drie de camera’s maar met een verschillend
aantal trainingsbeelden. Deze testen zijn gedaan op de subsets (a,b) “100
auto’s”’ en (c,d) “200 auto’s” met de parameters (a,c) “selectie van enkel
de even lijnen” en (b,d) interlineerd. . . . . . . . . . . . . . . . . . . . . . 64
B.3 De resultaten voor het koppelen via het Hongaars koppelselectie-algoritme
van de camera 3 beelden aan de camera 1 beelden uit de Traficon-beelden
waarbij getraind is op beelden uit alle drie de camera’s maar met een ver-
schillend aantal trainingsbeelden. Deze testen zijn gedaan op de subsets
(a,b) “100 vrachtwagens” en (c,d) “100 auto’s” en (e,f) “200 auto’s” met de
parameters (a,c,e) “selectie van enkel de even lijnen” en (b,d,f) interlineerd. 65
74
C.1 De resultaten voor de testen op de IPI-beelden waarbij getraind is op beel-
den uit alle drie de camera’s en op een camera maar met gelijk totaal aantal
trainingsbeelden. De testen zijn gebeurd met het Hongaars en het descrip-
tor per descriptor (een p een) koppelselectie-algoritme in de subsets (a,b)
“200 auto’s” en (c,d) “300 mixed” met de parameters (a,c) “selectie van
enkel de even lijnen” en (b,d) interlineerd. . . . . . . . . . . . . . . . . . . 66
C.2 De resultaten voor de testen op de IPI-beelden waarbij getraind is op beel-
den uit alle drie de camera’s en op een camera maar met gelijk totaal
aantal trainingsbeelden. De testen zijn gebeurd met het Hongaars en het
descriptor per descriptor (een p een) koppelselectie-algoritme in de subsets
(a,b) “100 auto’s” en (c,d) “100 vrachtwagens” en (e,f) “100 mixed” met de
parameters (a,c,e) “selectie van enkel de even lijnen” en (b,d,f) interlineerd. 67
C.3 De resultaten voor de testen op de Traficon-beelden waarbij getraind is op
beelden uit alle drie de camera’s en op een camera maar met gelijk totaal
aantal trainingsbeelden. De testen zijn gebeurd met het Hongaars en het
descriptor per descriptor (een p een) koppelselectie-algoritme in de subsets
(a,b) “200 auto’s” en (c,d) “300 mixed” met de parameters (a,c) “selectie
van enkel de even lijnen” en (b,d) interlineerd. . . . . . . . . . . . . . . . . 68
C.4 De resultaten voor de testen op de Traficon-beelden waarbij getraind is op
beelden uit alle drie de camera’s en op een camera maar met gelijk totaal
aantal trainingsbeelden. De testen zijn gebeurd met het Hongaars en het
descriptor per descriptor (een p een) koppelselectie-algoritme in de subsets
(a,b) “100 auto’s” en (c,d) “100 vrachtwagens” en (e,f) “100 mixed” met de
parameters (a,c,e) “selectie van enkel de even lijnen” en (b,d,f) interlineerd. 69
75
Lijst van tabellen
2.1 Gewichten van de verschillende testbeelden uit figuur 2.8. . . . . . . . . . . 22
4.1 Problemen per dataset. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Verdeling vrachtwagens en auto’s in de verschillende gemengde subsets. . . 42
4.3 Het aantal beelden in de verschillende partities wanneer er over de drie ca-
mera’s getraind wordt. Het aantal verschillende voertuigen in deze beelden
is altijd 1/3 van het aantal beelden. Bijeen subset met 100 voertuigen is de
trainingset 15 beelden groot, van 5 verschillende voertuigen, elk voertuig
heeft dus 3 beelden, 1 uit elke camera. . . . . . . . . . . . . . . . . . . . . 44
4.4 Resultaten van de 100 voertuigen subsets. . . . . . . . . . . . . . . . . . . 50
4.5 Resultaten van “200 auto’s” en “300 gemengd” subsets. . . . . . . . . . . . 50
4.6 Het aantal voertuigen met problemen in verband met afstand tot de camera,
lichten of bounding box in de verschillende subsets in de Traficon-beelden. 51
76