Bestimmung der Kopf-Orientierung und Blickrichtung

Transcription

Bestimmung der Kopf-Orientierung und Blickrichtung
Bestimmung der Kopf-Orientierung und Blickrichtung
Roland Bader
Seminar Perzeption und Interaktive Technologien
WS 2006/2007 Universit¨at Ulm
roland.bader@uni-ulm.de
Zusammenfassung
Die Blickrichtung eines Menschen kann f¨
ur die MenschMaschine-Interaktion mit verschiedenen Methoden automatisch bestimmt werden. Computer Vision basierte Methoden verwenden dazu einzelne Bilder oder Bilderfolgen. Aus
einzelnen Bilder k¨
onnen, nach der groben Bestimmung von
Kopf- und Augenpositionen, die Orientierung des Kopfes
und Ausrichtung der Augen errechnet werden. Durch Kombination der Ergebnisse erh¨
alt man eine gute Sch¨
atzung der
Blickrichtung. Bei Algorithmen auf Bilderfolgen wird die
¨
Anderung
der Blickrichtung in Bezug zu vorangegangenen
Bildern ermittelt.
1
Einleitung
Die Feststellung der Blickrichtung kann in der MenschMaschine Interaktion eine wichtige Rolle spielen. Der Blick
kann dabei, ¨
ahnlich wie eine Maus, als Zeiger auf bestimmte Punkte eines Bildschirms genutzt werden. Eine Aussage
u
¨ber die aktuelle Blickrichtung einer Person kann z.B. zu
einer Vergr¨
oßerung von betrachteten Objekten f¨
uhren, was
bei Menschen mit Sehschw¨
ache von Nutzen sein k¨
onnte. Insgesamt ist es aber auch m¨
oglich, die Benutzung von Computern intuitiver zu machen und es Menschen mit motorischen
Einschr¨
ankung zu erm¨
oglichen, den Computer zu bedienen.
noch ein Verfahren vorgestellt, das aus Bilderfolgen die
Blick-Region auf dem Bildschirm bestimmt.
3.1
Augen- und Kopfposition
Vor der Bestimmung der Blickrichtung, m¨
ussen Kopf- und
Augenpositionen in einem Bild grob ermittelt werden. Bei
Theis und Hustadt [3] findet man dazu eine Methode, die
durch Bildung von Clustern und anschießender Ermittlung
von Ecken in dem Cluster des Kopfes, wichtige Komponenten des Gesichtes ermittelt.
Bilder werden als Nahaufnahmen von einer Kamera geliefert. F¨
ur das anschließende Verfahren zur Bestimmung
der Kopf-Orientierung ist es am besten, Bilder in schwachperspektivischen Projektionen aufzunehmen. Diese Projektion garantiert die Beibehaltung von Verh¨
altnissen verschiedener Abst¨
ande im Gesicht.
Abbildung 1: Ermittelte Ecken (Bild aus [3])
2
Motivation f¨
ur Computer Vision basierte
Methoden
Computer Vision basierte Methoden k¨
onnen die Bestimmung der Blickrichtung erleichtern. Bisherige Methoden sind
meist invasiv, d.h. sie greifen in die Umgebung der Person
ein. Dies kann, wie z.B. bei Head-Mounted-Kameras, unangenehm f¨
ur den Benutzer sein.
Diese Methoden versuchen m¨
oglichst wenig in das Umfeld der Personen einzugreifen. Sie liefern durch eine automatische Auswertung von Bildern oder Bilderfolgen eine
Sch¨
atzung der Blickrichtung oder die Position eines Punktes,
der gerade betrachtet wird.
3
Computer Vision basierte Methoden
Im wesentlichen unterscheiden sich die Methoden in der Verarbeitung der Bilder. Es k¨
onnen dabei einzelne Bilder oder
Bilderfolgen zur Berechnung der Blickrichtung verwenden
werden. Dabei kommt es auch darauf an, welche Komponenten des Kopfes mit in die Berechnung fließen. Das k¨
onnen
z.B. Augen, Nase oder Mund sein.
Es werden zun¨
achst zwei Verfahren auf Einzelbildern zur
Detektion der Kopf-Orientierung und zur Bestimmung der
Position der Iris vorgestellt. Eine Vereinigung der beiden
Verfahren f¨
uhrt dann zur Blickrichtung. Im Anschluss wird
Bei der Bildung von Farbclustern kann bei einer Nahaufnahme davon ausgegangen werden, dass es sich beim
gr¨
oßten Cluster um den Kopf handelt. In diesem Cluster findet man die Augen, den Mund und die Nase mit Hilfe eines
Verfahrens, das Ecken detektiert (z.B. das StrukturtensorVerfahren), da diese Komponenten in der eher homogenen
Fl¨
ache des Gesichtes am kontrastreichsten sind und die meisten Ecken aufweisen. Das Ergebnis der Eckendetektion ist
ein Schwarz-Weiß-Bild, mit weißen Punkten an den erkannten Ecken (Abb. 1). Dabei findet man die Augen als den
gr¨
oßten weißen Bereich. Beim Mund werden die zwei Mundwinkel ermittelt und die Nase kann aus zwei nahegelegenen
kleinen Bereichen, die die Nasenl¨
ocher darstellen, ermittelt
werden.
3.2
Kopf-Orientierung
Um die Blickrichtung richtig zu berechnen sind zwei Komponenten von entscheidender Bedeutung: Zum einen wird
die relative Position des Augapfels zu den Augenkonturen
ben¨
otigt und zum anderen die Orientierung des Kopfes. Der
erste Ansatz liefert eine gute Approximation f¨
ur die Blickrichtung, macht jedoch Fehler, wenn die Person nicht gerade
in die Kamera blickt. Zur Korrektur solcher Fehler kann man
zus¨
atzlich die Orientierung des Kopfes bestimmen.
Ein grundlegendes und sehr einfaches Verfahren dazu wurde von Gee und Cipolla [1] vorgestellt. Die Autoren leiten
aus den Ecken der Augen, des Mundes und der Nase eine
Normale ab, die aus dem Gesicht heraus zeigt.
3.2.1
Modell des Gesichtes
F¨
ur die Berechnungen wird zun¨
achst eine geeignete Beschreibung des Gesichtes ben¨
otigt. Dazu wird ein Modell erstellt,
dass Merkmale beinhaltet, die zum einen immer sichtbar und
zum anderen f¨
ur verschiedenen Personen invariant sind. Ungeeignet sind hierf¨
ur Merkmale wie z.B. Kinn oder Ohren.
Gee und Cipolla verwenden die zwei ¨
außeren Ecken des Mundes, die jeweils ¨
außeren Ecken der beiden Augen und die
Nasenspitze.
Das Modell f¨
ur das Gesicht ergibt sich aus den L¨
angen
durch Verbindung der Ecken, wie in Abb. 2 zu sehen ist.
Le ist der Abstand der Augenecken, Lf der Abstand von
Mund und Augen, Lm von Nase und Mund und Ln ist die
L¨
ange der Nase. Große L stehen f¨
ur absolute und kleine l
f¨
ur projizierte L¨
angen.
Abbildung 2: Modell des Gesichtes (Bilder aus [1])
Die Ebene durch die Eckpunkte von Augen und Mund
stellt die Ebene des Gesichtes dar. Die Normale der Ebene,
und somit auch f¨
ur das Gesicht, ist parallel zu Ln und zeigt
aus dem Kopf heraus. Zu beachten ist bei diesem Modell,
dass die Bilder die Ecken enthalten m¨
ussen.
3.2.2
Sch¨
atzung der Normalen der Ebene des Gesichtes
Zur Berechnung der Normalen der Ebene des Gesichtes bieten die Autoren zwei Methoden an. Die eine betrachtet den
Kopf als Kugel und berechnet mit Kugelkoordinaten die Normale. Die andere versucht aus der projizierten Ebene des
Gesichtes die Normale zu bestimmen.
Abbildung 3: (a) 3D-Methode (b) Planare Methode (Bilder
aus [1])
3D Methode
F¨
ur die 3D-Methode werden die Komponenten aus Abb. 3
(a) betrachtet. Alle Maße sind relativ zu dem Koordinatensystem der Bildebene. Winkel τ ist zwischen der x-Achse und
der Normalen und Winkel θ zwischen der Projizierten von
Lf und der Normalen. Zus¨
atzlich muss ein dritter Winkel σ
abgeleitet werden.
Zur Berechnung von σ betrachtet man ein Koordinatensystem, das relativ zur Ebene des Gesichtes ist. Winkel σ liegt
da zwischen der Normalen der Ebene des Gesichtes und der
Normalen der Bildebene. Wenn man die Normale der Bildebene als d = [dx , dy , dz ] auffasst, kann σ aus cos(σ) = dz
gewonnen werden. Zur Bestimmung der Koordinaten von d
im Koordinatensystem der Ebene des Gesichtes, helfen der
Winkel θ und das Verh¨
altnis ln : lf . Beides kann direkt im
Bild gemessen werden. Die Normale der Ebene des Gesichtes
erh¨
alt man dann durch die Kugelkoordinaten:
n = [sin(σ)cos(τ ), sin(σ)sin(τ ), −cos(σ)]
Planare Methode
Die zweite Methode zur Berechnung der Normalen verwendet die Komponenten aus Abb. 3 (b). Da ist zum einen
die Projektion des Vektors a, der entlang der Symmetrieachse des Modells l¨
auft, und des Vektors b, der entlang
der Augenlinie verl¨
auft und zum anderen das Verh¨
altnis
Re = le : lf . Beide Vektoren liegen in der Ebene des Gesichtes und m¨
ussen deshalb in die Ebene des Bildes transformiert
werden. Dies kann mit einer affinen Transformation gemacht
werden. F¨
ur die Formel v 0 = M ∗v +T f¨
ur affine Transforma0 21 Re
tionen haben wir eine Matrix M = [
] f¨
ur lineare
−1
0
Abbildungen und eine Matrix [ a b ] f¨
ur eine simultane
Transformation beider Vektoren a und b. Die Translation
T wird nicht ben¨
otigt. Das Ergebnis der Transformation ist
eine 2 × 2 Matrix U :
U =[
0
−1
1
R
2 e
0
][ a
b ]−1
Mit Hilfe dieser Matrix k¨
onnen σ und τ berechnet werden.
Anschließend kann wieder mit den Kugelkoordinaten aus der
3D Methode die Normale bestimmt werden. Da f¨
ur τ zwei
Winkel rechts und links von der Symmetrieachse berechnet
werden, kann man mit einer groben Absch¨
atzung der Nasenspitze, den auf der richtigen Seite bestimmen.
3.2.3
Resultate
Die verwendeten L¨
angenverh¨
altnisse variieren bei unterschiedlichen Gesichtern. Deshalb ist f¨
ur jedes Gesicht eine
eigene Kalibrierung notwendig.
Getestet wurden beide Methoden mit verschiedenen Gesichtsdrehungen im Bereich 0◦ −+90◦ horizontal und −90◦ −
+90◦ vertikal. Das Ergebnis der 3D Methode in der Frontalansicht war zufriedenstellend. In Profilansicht kam es jedoch
zu gr¨
oßeren Fehlern. Relativ genau in der Profilansicht war
hingegen die planare Methode.
Auf Grund der Ergebnisse wurde ein hybride Methode ge¨
testet, die beim Ubergang
der Ansichten die Methode wechselt. Dies f¨
uhrte zu einem guten Endresultat.
3.3
Position der Iris relativ zu den Augenkonturen
Neben der Kopf-Orientierung, ist die Ausrichtung der Augen
f¨
ur die Bestimmung der Blickrichtung von entscheidender
Bedeutung.
Um die relative Position des Augapfels zu den Augenlidern zu ermitteln, gibt es unterschiedliche Herangehensweisen. Pupillen-basierte Ans¨
atze setzen die Positionen der Pupille und der Reflektion der Hornhaut in Beziehung. Dabei
werden z.B. IR-Beleuchtungen zur Detektion von Reflektion und Pupille verwendet. Iris-basierte Methoden versuchen
die Position der kreisf¨
ormigen Iris zu detektieren. Probleme
¨
ergeben sich dabei durch die Uberlagerung
der Iris durch die
Augenlider.
Theis und Hustadt stellen in [3] eine Iris-basierte Methode
vor, die nach der Detektion der Irispositionen und der Augenkonturen eine Blickrichtung ableitet, indem die Stellung
der Iris innerhalb der Augenkonturen ermittelt wird.
3.3.1
Bestimmung der Position der Iris
Anhand der groben Positionen der Augen, die zuvor mit einem Eckendetektor bestimmt wurden, l¨
asst sich die Position
der Iris absch¨
atzen. Davon nimmt man den dunkelsten Pixel
und baut mit Hilfe eines “region growing“-Verfahrens einen
Cluster darum auf. Da es sich bei der Iris um die dunkelsten Pixel handelt, stellt dieser Cluster n¨
aherungsweise die
Iris dar. Fehler macht dieser Ansatz vor allem mit Schattenpixeln der Augenlider. Ein “template matching“-Verfahren
beseitigt diese Pixel, indem es einen Kreis mit variablem Radius u
¨ber das Cluster legt und alles abschneidet was nicht
zum Kreis geh¨
ort. Das Ergebnis ist die eine Hypothese f¨
ur
die Position der Iris.
F¨
ur eine weitere Hypothese wird zun¨
achst ein CannyOperator verwendet um Kontrast¨
uberg¨
ange in den Augenre¨
gionen zu finden. Anhand dieser Uberg¨
ange kann man, mit
der erweiterten Hough-Transformation f¨
ur parametrisierte
Kurven, die Position der Iris bestimmen.
Als n¨
achstes m¨
ussen beide Hypothesen zusammenlegt
¨
werden um die beste Ubereinstimmung
von Hypothesen und
Iris Positionen zu erhalten. Daf¨
ur leiten die Autoren eine
Energiefunktion ab, die auf drei Annahmen bez¨
uglich der
Iris der beiden Augen beruht:
• Sie liegen n¨
aherungsweise auf der gleichen horizontalen
Linie im Bild.
• Ihre Bilder haben ¨
ahnliche Texturen, was mit der Differenz der Pixel gemessen werden kann.
• Ihre Mittelpunkte haben minimalen Abstand zu den
Punkten der Augen, die man aus der groben Sch¨
atzung
der Augenpositionen mit dem Eckendetektor erh¨
alt.
Das erste Kriterium setzt voraus, dass die Person gerade in
die Kamera blickt. Durch Maximierung der Energiefunktion
¨
erh¨
alt man die beste Ubereinstimmung
f¨
ur die Position der
Iris.
3.3.2
Absch¨
atzung der Augenkonturen
Im n¨
achsten Schritt muss die Position der Iris in Bezug zu
den Augenkonturen gesetzt werden, um damit die Blickrichtung zu bestimmen. Um die Konturen zu finden wird ein
Modell des Auges erstellt und auf das Auge gelegt.
In Abb. 4 sieht man das Modell des Auges, das aus
zwei Segmenten einer Cosinus-Funktion besteht und dadurch
leicht f¨
ur eine Deformierung parametrisiert werden kann.
¨
Um eine Ahnlichkeit
zwischen Modell und Augenkonturen
¨
festzustellen, wird eine Ubereinstimmungswahrscheinlichkeit
mit Hilfe einer Entropy-Maximierung festgelegt und daraus
eine Energiefunktion abgeleitet. In die Energiefunktion fließen die Merkmale des Modells und der Augen als Vektoren
Abbildung 4: Modell des Auges (Bild aus [3])
ein. Der Abstand wird mit dem euklidischen Abstand gemessen. Der erste Teil der Energiefunktion legt die Gleichheit der
Merkmale fest und der Zweite die Deformation des Modells.
Durch Minimierung der Energiefunktion erh¨
alt man
¨
die beste Ubereinstimmung
von Modell und Augenkonturen. Dazu haben die Autoren das aufwendige Verfahren
“deterministic annealing“ zur L¨
osung dieses Optimierungsproblems verwendet. Dabei wird so lange iteriert bis die Deformierung des Modells unter eine Schwelle f¨
allt und das Modell am besten auf das Auge passt. Einfachere und schnellere
Verfahren, wie z.B. die die Verfolgung eines Gradientabstiegs
bis ein Minimum erreicht wurde, sind f¨
ur diese Energiefunktion ungeeignet, da viele lokale Minima vorhanden sind.
3.3.3
Resultate
Irispositionen und Augenkonturen k¨
onnen nun in Bezug zueinander gesetzt werden, um eine Blickrichtung abzuleiten.
Da in vielen F¨
allen die Aufl¨
osung der Augen in den aufgenommenen Bildern, auf Grund des Abstands zur Kamera, relativ gering sein wird, haben sich die Autoren bei der
Sch¨
atzung der Blickrichtung f¨
ur eine Vereinfachung entschieden. Es wird lediglich eine Aussage dar¨
uber getroffen, ob die
Person geradeaus, nach links oder nach rechts blickt. Zur
Bestimmung der Richtung werden die Konturen in drei Regionen rechts, mitte und links eingeteilt. Danach werden die
Pixel gez¨
ahlt, die in der Schnittmenge von Iris und den einzelnen Regionen liegen. Die Region mit den meisten Pixeln
steht f¨
ur die Blickrichtung.
Getestet wurde die Methode mit 10 Personen und verschiedenen Blick- und Kopf-Orientierungen. Die Position der
Iris wird meistens richtig detektiert, doch der Schatten der
Augenlider, eine niedrige Aufl¨
osung und zu geringer Kontrast in den Augen f¨
uhren zu Fehlern. Aus den gleichen
Gr¨
unden wurden die Augenkonturen in einigen F¨
allen falsch
positioniert.
3.4
Kombination von Kopf-Orientierung und Irisposition
Mit der Annahme, dass sich die Augen in der Ebene des
Gesichtes befinden, kann durch die Kombination der Methoden von Gee, Cipolla und Theis,Hustadt die Blickrichtung
ausreichend genau f¨
ur die Mensch-Maschine-Interaktion ermittelt werden. Dabei muss die Normale der Ebene, je nach
detektierter Position der Iris in den Augenkonturen, nach
links oder rechts bez¨
uglich der Augenkonturen gedreht werden. Bei einem Frontalblick muss nichts mit der Normalen
gemacht werden.
4
Ermittlung von Blickpunkten auf einem
Bildschirm
Neben der Bestimmung einer Blickrichtung aus einzelnen
Bildern, gibt es die M¨
oglichkeit in einer Bildfolge das Auge
zu verfolgen (Eye Tracking) und daraus Blickpunkte auf dem
Bildschirm zu errechnen. Viele Verfahren verfolgen daf¨
ur die
Pupille und die Reflektion der Hornhaut. Wichtig bei allen
Verfahren ist ein schneller Algorithmus, der eine Folge von
hintereinander kommenden Bildern verarbeitet kann.
Von Kim und Ramakrishna [2] wurde ein einfaches Verfahren zur Irisdetektion und -verfolgung vorgeschlagen. Bei
der Verfolgung der Iris werden zun¨
achst Daten einer Person
beim Blicken auf Referenzpunkte auf einem Bildschirm gespeichert. Aktuelle Daten werden dann in Bezug zu diesen
Referenzdaten gesetzt und daraus dann der aktuelle Blickpunkt errechnet.
4.1
Verfolgung der Iris
Augenpositionen m¨
ussen f¨
ur das Verfahrens bekannt sein.
Aus den Informationen wird der Mittelpunkt der Iris bestimmt, da eine grobe Position der Augen nicht f¨
ur eine
Verfolgung ausreicht. Die dunkle Iris eignet sich gut zur Verfolgung, da sie sich von der hellen Sklera im Kontrast stark
unterscheidet.
In dem Verfahren wird versucht, das Problem, das durch
die Verdeckung der Iris durch die Augenlider entsteht, zu
l¨
osen. Als erstes wird zur Findung der Irismitte der selbst
entwickelte Algorithmus “Longest Line Scanning (LLS)“ angewendet. Der Algorithmus basiert auf der Annahme, dass
der Mittelpunkt einer Ellipse die Mitte der l¨
angsten Linie innerhalb der Ellipse ist. Dazu ben¨
otigt man die Irisr¨
ander, die
als grobe Sch¨
atzung direkt aus dem Bild der Augen nach Anwendung eines Eckendetektors genommen werden. Die Iris
¨
wird, wegen der projizierten Ansicht und der Uberdeckung
durch die Augenlider, als Ellipse angenommen und innerhalb ihrer R¨
ander von oben nach unten gescannt. Der Mittelpunkt der l¨
angsten Linie dient als Eingabe f¨
ur einen stabileren und genaueren Algorithmus.
mit geringeren Radius¨
anderungen, wie genau der Kreis auf
die Irispixel passt. Es werden dabei Treffer gez¨
ahlt. Der Mittelpunkt mit den meisten Treffern ist der Mittelpunkt der
Iris.
4.2
Zur Unterst¨
utzung der Bestimmung des Blickpunktes auf einem Bildschirm wird eine kleine Referenzmarke an die Mitte
des Rahmens einer Brille befestigt. Die Messung der Positions¨
anderung der Marke fließt in die Berechnung mit ein
und erlaubt so bessere Ergebnisse und kann geringe Kopfbewegungen ausgleichen. F¨
ur die Betrachtungen wird die Annahme getroffen, dass die Personen ihren Kopf parallel zur
Kamera positioniert haben. Zur Vereinfachung wird von einer orthogonalen statt von einer schwach-perspektivischen
Projektion ausgegangen. Bevor eine Bestimmung gemacht
werden kann, muss in einer Initialisierungsphase eine Kalibrierung durchgef¨
uhrt werden. Dabei werden Referenzdaten,
z.B. die Stellung der Iris oder die Entfernung zum Bildschirm
gespeichert, w¨
ahrend die Person auf vordefinierte Punkte am
Bildschirm blickt. Beim Blicken auf einen beliebigen Punkt
am Bildschirm wird aus akutellen Daten und Referenzdaten
der aktuelle Blickpunkt abgeleitet.
4.3
Der LLS Algorithmus reicht zur Bestimmung des Mittelpunkts der Iris nicht aus, da die l¨
angste Linie der Iris durch
die Augenlider verdeckt gewesen sein kann, die R¨
ander der
Iris nur grob bekannt sind und Rauschen innerhalb der Bildes zu Fehlern f¨
uhrt. Der zweite Algorithmus “Occluded Circular Edge Matching (OCEM)“ ist in Abb. 5 zu sehen. Er
nimmt den gefundenen Punkt, das Augenbild und noch zwei
andere Punkte zur Suche nach dem Mittelpunkt der Iris als
Eingabe. Die Ausgabe liefert eine bessere Approximation des
Mittelpunkts. Der Algorithmus versucht einen Kreis mit einem variablen Radius u
¨ber die Iris zu legen. Zuerst wird der
Mittelpunkt eines Anpassungsfensters ausgew¨
ahlt. Als Kandidaten dienen dazu die drei Eingabepunkte. Der ungef¨
ahre
Radius des Kreises kann aus dem Eingabebild als Radius der
Iris genommen werden. Das Anpassungsverfahren verschiebt
den Kreismittelpunkt innerhalb des Fensters und u
uft
¨berpr¨
Resultate
Zum Testen der Algorithmen haben die Autoren verschiedene Bildschirmaufl¨
osungen u
uft. Bei einer Aufl¨
osung
¨berpr¨
von 8 × 10, also 80 Bildpunkten, und 9 Kalibrierungspunkten, wurden zu verschiedenen Zeitpunkten einer Bilderfolge
10 Blickpunkte bestimmt. Erzielt wurde ein gutes Ergebnis,
das sich durch zu starke Kopfbewegungen und zu niedriger
Bildaufl¨
osung verschlechtern kann.
5
Abbildung 5: Kreisanpassung bei OCEM (Bild aus [2])
Bestimmung des Blickpunktes
Ausblick
Wir haben drei Verfahren gesehen, die unter Vereinfachungen ein recht gutes Ergebnis erzielen. In den meisten F¨
allen
k¨
onnen die Vereinfachungen, wie z.B. gerades Blicken auf
dem Bildschirm, bei der Mensch-Maschine-Interaktion auch
vorausgesetzt werden. Geringe Bildaufl¨
osungen und Rauschen in den Bildern bereiten dabei Probleme.
Kommerzielle Anwendung finden Verfahren zur Blickrichtungsermittlung z.B. bei Menschen mit motorischer Einschr¨
ankung. In Hinsicht auf eine zunehmende Verbreitung
von mobilen Ger¨
aten mit Kameras und immer wachsender
Rechenkapazit¨
at, w¨
aren zuk¨
unftig auch Anwendungen auf
mobilen Ger¨
aten denkbar.
Literatur
[1] A. H. Gee and R. Cipolla. Determining the gaze of face in
images. Image and Vision Computing, 12(10):639–647,
December 1994.
[2] Kyung-Nam Kim and R.S. Ramakrishna. Vision-based
eye-gaze tracking for human computer interface. In Systems, Man & Cybernetics (Smc) 1999 IEEE International Conference, volume 2, pages 324–329, Tokyo, Japan,
1999.
[3] Christoph Theis and Kathrin Hustadt. Detecting the
gaze direction for a man machine interface. In IEEE RoMan 11th Workshop on Robot and Human Interactive
Communication, pages 536–541, Berlin, Germany, 2002.