Die meisten heute vorkommenden Bildsuchmaschinen verwenden zur Beschreibung der Eigenschaften von Bildern ohne Textannotation Merkmals-vektoren, die die statistische Verteilung der Grauwert-, Farb-, Textur- und Kantenmerkmale repräsentieren.

Die Suche ist zwar schnell, allerdings sind die Ergebnisse oft nicht sehr befriedigend. Auch ist es nicht möglich, gezielt nach Bildteilen suchen zu können.

Der typische Nutzer jedoch sucht nach Bildern, in denen semantische Objekte wie Personen, Autos, Häuser usw. vorhanden sind. Solches Wissen kann nur bedingt durch Merkmalsvektoren beschrieben werden. Eine adäquate Repräsentation benötigt vielmehr beides: eine geeignete Beschreibung der visuellen Eigenschaften der Bildteile und ihrer relativen Lage zueinander.

Diese Arbeit möchte einen Beitrag zur Überwindung der beschriebenen Defizite leisten. Nach einer automatischen Zerlegung des Bildes in Bereiche, die homogen bezüglich der visuellen Eigenschaften sind, wird das Bild durch markierte Graphen repräsentiert. Verschiedene Ähnlichkeitsmaße für die Beschreibungsgraphen werden vorgestellt, mit denen man sowohl nach ganzen Bildern, als auch speziellen Bildteilen suchen kann.