Rheinische Friedrich-Wilhelms-Universität Bonn
 
Bericht des Instituts für Informatik

 
Titelseite -> Inhaltsverzeichnis -> 2   Berichte der Abteilungen
 

 

2.3   Abteilung für Informatik III

Leiter:
 
Prof. Dr. Armin B. Cremers
Praktische und Angewandte Informatik
Email: abc@cs.uni-bonn.de

Sekretariat:
 
Marie-Luise Liebegut
Tel.: 0228/73-4501
Fax: 0228/73-4382
Email: mlb@cs.uni-bonn.de
Raum: A 206

Martina Doelp
Tel.: 0228/73-4292

Marie-Luise Niedt (Projekte ProSEC)
Tel.: 0228/73-4503

Professoren:
 
Prof. Dr. Joachim Buhmann
Mustererkennung und Bildverarbeitung
Email: jb@cs.uni-bonn.de

Prof. Dr. Rainer Manthey
Datenbanken und deskriptive Programmierung
Email: manthey@cs.uni-bonn.de

Dozenten:
 
Hochschuldozent N.N.
(Mitarbeiter Forschungsgruppe Künstliche Intelligenz (Ltg. Prof. Cremers))
PD Dr. Joachim Hertzberg (GMD)

Oberingenieur/in:
 
Dr. Mechthild Rohen (beurl.)
Dr. Jürgen Kalinski (m.d.V.b.)

Akademische Räte:
 
Dr. Stefan Lüttringhaus-Kappel
Dr. Wolfram Burgard

Wissenschaftliche Mitarbeiter:
 
Dr. Thomas Arbuckle
Dr.-Ing. (SU) Oleg Balownew
Dr. (USA) Michael Beetz
Dipl.-Inform. Andreas Bergmann
Dr. Thomas Bode
Dr. Martin Breunig
Serguei Choumilov (Diplom Russ. Föd.)
Dipl.-Inform. Pascal Costanza
Dipl.-Inform. Roman Englert
Dipl.-Inform. Dieter Fox
Dipl.-Inform. Marcus Held
Dr. Ralf Hinze
Dipl.-Inform. Armin Hopp
Dipl.-Math. Helge Kahler
Dipl.-Phys. Hansjörg Klock
Dipl.-Inform. Günter Kniesel
Dipl.-Inform. Thomas Lemke
Dipl.-Inform. Jens Lüssem
Dipl.-Psych. Silke Michels
Dipl.-Inform. Gordon Müller
Dipl.-Inform. Marcus Pant
Dipl.-Inform. Volkmar Pipek
Dipl.-Inform. Andreas Polzer
Dipl.-Inform. Jan Puzicha
Dipl.-Inform. Wolfgang Reddig
Dipl.-Inform. Markus Rittenbruch
Dipl.-Inform. Stephan Schäfer
Dr. Peter Schmidt
Dipl.-Inform. Frank Schneider
Dipl.-Inform. Dirk Schulz
Dr. Adrian Spalka
Dipl.-Inform. Oliver Stiemerling
Dipl.-Inform. Jens Wolff
Dipl.-Inform. Markus Won
Dr. Volker Wulf
Dipl.-Inform. Marco Zens

Technische Angestellte:
 
Dipl.-Inform. Uwe Förster
Dipl.-Ing. Thomas Fuchs
Birgit Grötsch
Dipl.-Ing. Peter Lachart

Praktische und Angewandte Informatik

(A.B. Cremers)

Schwerpunkte in Forschung und Lehre

  • Softwaretechnologie und Informationssysteme
  • Künstliche Intelligenz

Programmierung und Software

- Funktionale Programmierung

Primäre Ziele der funktionalen Programmierung sind die Vereinfachung der Programmierung (deskriptiv statt präskriptiv) und die Erhöhung der Zuverlässigkeit von Software (Prinzip der Transparenz der Bezüge). Beeindruckende Fortschritte im Übersetzerbau haben funktionale Sprachen konkurrenzfähig gemacht: je nach Anwendung kommt die Ausführungsgeschwindigkeit an die imperativer Sprachen heran bzw. übertrifft diese sogar. In einem Punkt sind funktionale Programmierer jedoch gegenüber ihren Kollegen im Nachteil: fast die gesamte Literatur über Datenstrukturen und Algorithmen ist auf imperative Sprachen zugeschnitten. Um diesem Mißverhältnis entgegenzuwirken, liegt ein Schwerpunkt der Forschung auf der Adaption bekannter Datenstrukturen (z. B. Rot-Schwarz-Bäume oder Binomialhaufen) bzw. auf dem Entwurf neuer Datenstrukturen (z.B. für Suchprioritätswarteschlangen oder Fingersuchbäume). Einen besonderen Rang nimmt hierbei die Entwicklung persistenter Datenstrukturen ein. Eine Datenstruktur heißt persistent, wenn nach einer Aktualisierung die ursprüngliche Struktur weiterhin zur Verfügung steht und insbesondere auch modifiziert werden kann. Die Forschungsarbeiten werden durch praktische Lehrveranstaltungen ergänzt, in denen die Tragweite des rein funktionalen Programmierparadigmas eruiert wird.

- Objektorientierte Programmierung: Darwin-Projekt

Ziel des Darwin-Projektes ist die Überwindung der starren Trennung zwischen klassenbasierten und prototypbasierten objektorientierten Sprachen. Der im Projekt verfolgte Ansatz ist die Erweiterung klassenbasierter Sprachen um objektbasierte dynamische Vererbung (Delegation). Delegation ermöglicht es, mit minimalem Aufwand dynamisch änderbares Verhalten von Objekten zu modellieren. Aktuelle Ergebnisse des Projektes sind: Die Widerlegung der bislang allgemein akzeptierten Behauptung, dynamische Delegation sei nicht mit einem statischen Typsystem verträglich durch den Entwurf eines Modells (Darwin Modell) für statisch typisierte klassenbasierte Sprachen mit dynamischer Delegation. Der Entwurf geeigneter Implementierungs- und Übersetzungstechniken für das Darwin-Modell (die gleichzeitig die ersten Übersetzungstechniken für dynamische Delegation überhaupt sind). Ziel ist die Umsetzung aller Konzepte in eine Erweiterung der Sprache Java und die Anwendung des Darwin-Modells zur Lösung anerkannt schwieriger Probleme, wie z.B. der nicht antizipierten Anpassung der Funktionalität von Softwarekomponenten zur Laufzeit.

- Objektorientierte Programmierung: Java-Labor

Wie keine andere Programmiersprache zuvor in der Geschichte der Informatik, hat Java in kürzester Zeit die Art, wie Software entwickelt wird, verändert. Der Entwurf der Sprache, ihr besonderes Ausführungsmodell, die umfangreichen, standardisierten Klassenbibliotheken und nicht zuletzt die von Anfang an fast einhellige Unterstützung der Softwareindustrie, haben zum ersten Mal die Vision kosteneffektiver, betriebssystemunabhängiger Software-Erstellung in greifbare Nähe gerückt.

Vor diesem Hintergrund befaßt sich das Java-Labor mit der Lehre, Anwendung und Weiterentwicklung von Java (z.B. im Darwin-Projekt). Auf der Basis fast dreijähriger Erfahrung in diesem Bereich bietet das Java-Labor für universitätsinterne und -externe Interessenten Schulungen, Beratungsdienstleistungen und die Durchführung gemeinsamer Projekte.

Darüberhinaus werden im Rahmen des Virtual JavaLab und des Java Online Information Network (JOINT) Informationen zum Thema Java gesammelt und öffentlich verfügbar gemacht. Dabei ist JOINT ein von der Firma Sun Microsystems ins Leben gerufenes und vom Java-Labor koordiniertes Netzwerk akademischer Java-Centren, die sich zum Ziel gesetzt haben, die Verfügbarkeit von Java-Know-How zu verbessern und Kooperationen zu fördern.

- Software-Ergonomie und computerunterstützte Gruppenarbeit

Vor dem Hintergrund der aktuellen Entwicklungen in den Bereichen Internet, Vernetzung und Multimedia liegt das Hauptaugenmerk unseres Projektbereichs Software-Ergonomie und CSCW (ProSEC) auf einer ergonomischen und sozialverträglichen Technikgestaltung. Gegenstand der Software-Ergonomie ist die Gestaltung und Evaluation computerunterstützter Arbeitsplätze sowie deren organisatorische Integration. Im Bereich CSCW (Computer Supported Cooperative Work, computerunterstützte Gruppenarbeit) werden vernetzte Systeme entwickelt, die ihre Nutzer bei Kommunikation und Kooperation technisch unterstützen. Ihre Einführung ist häufig mit Prozessen der Organisationsentwicklung bei den Anwendern verbunden. Dabei verfolgt der Projektbereich einen beteiligungsorientierten Ansatz integrierter Organisations- und Technikentwicklung. Die Arbeiten von ProSEC sind durch hohen Praxisbezug gekennzeichnet. Forschungsprojekte sind sowohl im Produktionsbereich als auch im Dienstleistungsgewerbe und der öffentlichen Verwaltung angesiedelt. Derzeit ist ProSEC an mehreren Projekten beteiligt. Ziel des POLITeam Projektes (1994 - 1998) im Zusammenhang mit dem Hauptstadtumzug von Bonn nach Berlin ist die Entwicklung integrativer GroupwareSysteme, die umfassende Unterstützung für räumlich verteilte, asynchrone Arbeit liefern. Dazu dient eine im Projekt weiterentwickelte Workflowkomponente mit elektronischen Laufmappen, ein gemeinsam genutzter Arbeitsbereich auf dem elektronischen Schreibtisch und ein Ereignisdienst, der die Benutzer über für sie interessante Veränderungen an Dokumenten in ihrem kooperativen Kontext informiert. Im VIRTO Projekt (1996 - 1999) und im InKoNetz Projekt (1997 - 2000) geht es um die Stärkung der internationalen Wettbewerbsfähigkeit kleiner und mittlerer Unternehmen (KMU) durch die Unterstützung ihrer Fähigkeit zur internen Kooperation. Aufgaben werden in solchen Unternehmen projektbezogen durch die Kooperation unterschiedlicher Individuen und Teams des Netzwerkes sowie ggf. unter Hinzunahme von Externen bewältigt. Der Markterfolg hängt dabei weitgehend davon ab, inwieweit es gelingt, den durch die Netzwerkstruktur prinzipiell gefährdeten Zusammenhalt der Organisation und die offenen Kooperationsstrukturen durch geeignete Maßnahmen zu unterstützen und gleichzeitig die Flexibilität des Unternehmens zu erhalten. Dazu werden in den beiden Projekten Gestaltungsanforderungen für Groupware zum Einsatz in netzwerkartig strukturierten KMU entwickelt und bei ausgewählten Anwendungspartnern umgesetzt. Das ORGTECH Projekt (1997 - 2000) hat zum Ziel, die internationale Wettbewerbsfähigkeit kleiner und mittelständischer Ingenieurbüros zu verbessern bzw. wiederherzustellen.

Datenbanken und Informationssysteme

- Internet-Informationssysteme

Untersucht und entwickelt werden Architekturen und Anwendungen datenbankbasierter Informationsangebote im World Wide Web (WWW). Schwerpunkte sind dabei die Modellierung mittels objektorientierter Datenbankschemata, die Volltextsuche und die dezentrale Pflege von Informationsangeboten durch Personal ohne spezielle EDV- und Internet-Kenntnisse.

Unter dem Arbeitstitel ,,The Wob -- Objects in the Web`` wurde ein neuartiges objektorientiertes Internet-Informationssystem für WWW-Angebote entwickelt. Neben den drei genannten Aspekten spielt hierbei die Verschmelzung der Objekt- mit der Metaebene zu einer integralen Datenebene eine zentrale Rolle. Datenbankschema, Formatierungsschablonen und Datensätze können so in einheitlicher Weise über einen WWW-Browser erstellt und aktualisiert werden. In Gegensatz zu statischen HTML-Seiten ermöglicht der Datenbankansatz u.a. unterschiedliche Sichten auf die erfaßten Daten, etwa die mehrsprachige Präsentation.

Die Praxisrelevanz dieses Ansatzes wurde bereits in einer Reihe von Anwendungen gezeigt, so zum Beispiel im Internet-Auftritt mehrerer Institute und Verwaltungsabteilungen der Universität Bonn.

- Data Mining

Die Entdeckung neuer, potentiell nützlicher und verständlicher Muster in großen Datenbeständen ist zentraler Gegenstand der Forschung in dem noch recht jungen Gebiet Knowledge Discovery in Databases and Data Mining. Einige Aufgaben sind die Änderungs- und Abweichungsdetektion, die Klassifikation, das Clustering und die Abhängigkeitsanalyse. In den bisherigen zwei Vorlesungen des Hauptstudiums (WS 96/97, WS 97/98) und dem Seminar (SS 98) wurden eine Reihe von Grundlagen vermittelt und vertieft. Zwei laufende Dipomarbeiten beschäftigen sich mit der Anwendung von Data Mining Techniken zur Analyse von Gendatenbanken (Abstammungsdaten von Pferden) und geologischen Datenbeständen (Fachdatenbank bergbaubedingte Umweltradioaktivität). Weitere Arbeiten, auch in Zusammenarbeit mit der GMD in Sankt Augustin, sind in der Planung.

- Information Retrieval

Information Retrieval untersucht Techniken zur inhaltlichen Suche nach (Text-) Dokumenten mit vagen Anfragen. Die zunehmende Popularität des World Wide Web (WWW) hat den ,,klassischen``, teilweise schon in den 60er Jahren entwickelten Methoden neue Bedeutung verliehen. Zugleich ergeben sich neue Problemstellungen aus den Charakteristika des WWW als eines hochgradig verteilten Netzes autonomer Anbieter heterogener Dokumente.

Unsere Aktivitäten in Forschung und Lehre konzentrieren sich auf intelligente Suchmaschinen, die einen transparenten Zugriff des Benutzers auf für ihn relevante Dokumente unterstützen. Dies erfordert einerseits geeignete Metadaten-Konzepte zur einheitlichen Präsentation von Dokumenten, die von unterschiedlichen Servern in unterschiedlichen Formaten angeboten werden. Andererseits stellen Ansätze aus dem Datenbankbereich (Data Warehouses) Maßnahmen zur performanten Suche und effizienten Weiterverarbeitung von Suchergebnissen bereit.

Schließlich untersuchen wir die Eignung der objektorientierter Modellierung zur Beschreibung logischer Strukturen von Dokumenten. Neben Performanzuntersuchungen zum Einsatz relationaler Datenbanksysteme betrachten wir die Aspekte geeigneter Anfragesprachen, Datenextraktionssprachen und der Datenverwaltung bei ,,halbstrukturierten`` Dokumenten.

- Definition und Implementierung eines Bauwerkmodellkerns

Die computergestützte Planung und Konstruktion von Bauwerken ist gekennzeichnet durch den Einsatz einer Vielzahl unterschiedlicher Werkzeuge, die Datenbestände manipulieren und aus unterschiedlicher Sicht dasselbe Bauwerk beschreiben. Eine wesentliche Voraussetzung, die Konsistenz dieser Daten gewährleisten zu knnen, ist eine zentrale, datenbankgestützte Verwaltung aller relevanten Informationen. Unser Ziel war es, ein System zu entwickeln und prototypisch zu realisieren, das auf der Basis objektorientierter Datenbanktechnologie Mechanismen zur Verfügung stellt, die dem Bauingenieur zum einen die konsistente Integration der fachspezifischen Produktmodelle ermöglichen und zum anderen eine der Komplexität dieser Modelle angemessene, objektorientierte Modellierung erlauben.

Das objektorientierte Paradigma ist aufgrund der Möglichkeiten Kapselung, Vererbung, Aggregation usw. zu beschreiben, prinzipiell zur Spezifikation der komplexen Produktmodelle im Bauwesen geeignet. Im Rahmen einer Anforderungsanalyse traten aber große Defizite zutage. So besteht eine semantische Lücke zwischen den Konzepten, die in der Analyse und Entwurfsphase (OOA, OOD) eines Projekts angeboten werden, und den Techniken, die von Implementierungswerkzeugen (OOP) wie z.B. C++ realisiert werden. Insbesondere fehlen hier Möglichkeiten, die Netzwerkstruktur der Produktmodelle angemessen zu beschreiben. Existierende objektorientierte Datenbankmanagementsysteme (ODBMS) bieten darber hinaus i.A. keine Mechanismen, verschiedene Teilproduktmodelle zu integrieren und die Datenintegrität sowohl innerhalb eines Produktmodells als auch modellübergreifend sicherzustellen.

Zur Lösung dieser Probleme haben wir eine objektorientierte Datenbankprogrammiersprache entworfen und implementiert, welche diese fehlenden Eigenschaften in Form von Spracherweiterungen gegenüber C++ realisiert.

- Objektorientiertes 3D/4D-Geoinformationssystem

Im Sonderforschungsbereich 350 ,,Wechselwirkungen kontinentaler Stoffsysteme und ihre Modellierung`` arbeiten wir seit 1993 eng mit Geowissenschaftlern der verschiedensten Fachdisziplinen zusammen. Im Untersuchungsgebiet der Niederrheinischen Bucht liegt aufgrund zahlreicher Bohrungen und der erschlossenen Tagebaue eine große Datenbasis vor, die eine Datenbankunterstützung erforderlich macht. Die im SFB anfallenden Daten sollen in einem objektorientierten Geo-Informationssystem (GIS) verwaltet und verarbeitet werden. Heutige kommerzielle GIS erfüllen jedoch die dabei auftretenden vielschichtigen Anforderungen nur in einer sehr eingeschränkten Weise. Unser Ziel ist es daher, ein objektorientiertes 3D/4D-GIS für den SFB zu entwickeln. Auf dem Weg dorthin haben wir bereits GeoStore, ein Testsystem zur Verwaltung geologisch definierter Geometrien sowie GeoToolKit, ein objektorientiertes Datenbankkernsystem zur Unterstützung verschiedener 3D/4D Geo-Anwendungen entwickelt. Ziel des GeoToolKits ist es, die im SFB beteiligten Geowissenschaftler in Form eines ,,Baukastens`` bei der Verwaltung raum- und zeitbezogener Daten zu unterstützen und hierfür geospezifische Datenbankfunktionalität wie geometrische 3D-Operationen, räumliche Zugriffsmethoden und 3D-Visualisierung bereitzustellen.

- Interoperable Geowissenschaftliche Informationssysteme

Innerhalb des DFG-Bündelantrages ,,Interoperable Geowissenschaftliche Informationssysteme`` beschäftigen wir uns in den beiden Projekten ,,Offenes Paläoökologisches Informationssystem`` und ,,Geologische Kartierung mit GIS auf der Grundlage von 3D-Modellen`` mit der Enwicklung neuartiger, interoperabler Geo-Informationssysteme. Unsere Projektpartner sind die Gruppe von Prof. Dikau vom Geographischen Institut, die Gruppe von Prof. Siehl vom Geologischen Institut (beide Universität Bonn), sowie die Gruppe von Prof. Götze (Geophysik) von der FU Berlin. Die Entwicklungsarbeiten sollen einen Beitrag zur Datenintegration in den Geowissenschaften leisten und dem Geowissenschaftler den Austausch von Daten und Methoden zwischen verschiedenen Informationssystemen erleichtern helfen.

- Objektidentifikation

In dem DFG-Projekt Gebäudeextraktion aus digitalen Luftbildern, welches in Kooperation mit dem Institut für Photogrammetrie in Bonn im Rahmen des DFG-Bündels Semantische Modellierung durchgeführt wird, geht es um die Entwicklung von semantischen Modellen und Methoden, welche eine wissensbasierte Analyse von Luftbildern ermöglichen. Ziel der Forschung ist es, die Grundlagen für ein bezüglich der Qualität des Bildmaterials robustes System zur automatischen Erkennung von Gebäuden zu erarbeiten und zu überprüfen. Es wurde gezeigt, daß für die Identifikation von Gebäudegrundtypen in Luftbildern die Constraint Logic Programming eine geeignete Technik ist.

- Sicherheit von Datenbanken

Zur Zeit finden Forschungsaktivitäten in drei Bereichen statt. Im ersten Bereich, Sicherheit von Datenbanken, geht es um die deklarative und operationale Integration des Begriffs der Vertraulichkeit in Datenbanken. Der zweite Bereich beschäftigt sich mit nichtvertrauenswürdigen Programmen. Im Mittelpunkt steht die Frage, wie Zugriffskontrollmodelle mit freiem Ermessen (DAC) gegen solche Programme, z.B. Trojanische-Pferd-Programme, resistent gemacht werden können. Zuletzt stellt sich im Bereich der sicheren Nutzung des Internet an Schulen die Frage, wie dieses neue Medium an Schulen genutz werden kann, so daß auf der einen Seite die offene Natur des Internet erhalten bleibt und auf der anderen der Zugriff auf strafrechtlich relevante und im Umfeld der Schule unerwünschte Inhalte unterbunden werden kann.

Wissensbasierte Systeme

- Internetbasierte Lehr- und Lernumgebungen

Computergestützte Lehr- und Lernumgebungen spielen eine immer größere Rolle bei der Bewältigung individueller Qualifizierungsbedürfnisse. Im Gegensatz zu traditionellen Vermittlungsformen lassen sie sich unabhängig von Ort und Zeit einsetzen und bieten den Lernenden die Möglichkeit einer gezielten Erarbeitung gerade benötigter Lerninhalte.

In den letzten Jahren ist ein Prototyp einer Lehr- und Lernumgebung zum Thema Graphalgorithmen auf der Basis des World Wide Web entstanden. Zielgruppe des Systems sind Schüler der gymnasialen Oberstufe und Studenten der Informatik in den Anfangssemestern. Die didaktische Konzeption des Systems ist dabei auf einen selbstgesteuerten Lernprozeß ausgerichtet. Die Integration interaktiver Übungen zu den Heuristiken der besprochenen Verfahren ermöglichen dem Lernenden eine aktive Auseinandersetzung mit den Lerninhalten. Darüberhinaus ermöglichen Kommunikationskomponenten eine Kontaktaufnahme mit anderen Lernenden und helfen bei der Organisation von Lernprozessen in der Gruppe.

Im Rahmen einer Diplomarbeit ist der Prototyp implementiert, konzeptionell weiterentwickelt und in Schulen eingesetzt worden. Weitere Diplomarbeiten, die sich mit der Integration adaptiver Navigations- und Kommunikationskomponenten beschäftigen, sind in Vorbereitung.

- Wissensbasierte tutorielle Systeme

Zielvorstellung des SchuMa-Vorhabens ist die Konzeption und Entwicklung eines Softwaresystems, das Schüler im Rahmen ihrer Mathematikausbildung in der Sekundarstufe bei allen ihren mathematikbezogenen Aktivitäten außerhalb des Unterrichts einsetzen können. Hinsichtlich der Realisierung des Systems wurde ein erster Prototyp entwickelt, der Shells für die Hauptfunktionen Lösen und Üben, ein Werkzeug zur Verarbeitung eines semantischen Netzes der Schulmathematik, verschiedene Subsysteme (Graphik, Formelmanipulation und Mehrsprachigkeit) und kleinere deutsche und englische Wissensbasen im Kontext von Bewegungsaufgaben (Klassen 8/9) integriert. Dieser Prototyp wurde auf zwei Konferenzen vorgeführt. Im Mittelpunkt zukünftiger Aktivitäten steht die Fortführung des Vorhabens mit dem Schwerpunkt der konzeptionellen Weiterentwicklung des Systems im Bereich vorhandener und weiterer Hauptfunktionen und Ausbau des Prototyps.

Mobile Robotik

Die Arbeitsgruppe mobile Robotik wurde im Jahr 1993 als Teil des Forschungsschwerpunkts Künstliche Intelligenz ins Leben gerufen. Inzwischen beschäftigt sich eine zehnköpfige Gruppe von Wissenschaftlern mit Themen aus den Bereichen lernfähiger, autonomer Systeme und mobiler Service-Roboter. Zielsetzung des Projekts sind Anwendungen von KI-Methoden und Statistikverfahren im Bereich mobiler Roboter. Als Experimentierplattform dient RHINO, ein RWI B21 Roboter. Im Rahmen des Projekts hat RHINO auf einem internationalen Roboterwettbewerb während der AAAI-94 den zweiten Platz belegt. Die Arbeitsgruppe steht in engem Kontakt zu verschiedenen Robotik-Gruppen in den USA und Kanada. RHINO diente im Deutschen Museum in Bonn mehrfach als Museumsführer, den man auch vom Internet aus bedienen und beobachten konnte.

Die Arbeitsgruppe nimmt an dem VIRGO-Netzwerk (Vision-Based Robot Navigation) des europäischen Programms ,,Training and Mobility of Researchers`` sowie am PLANET-Netzwerk, einem European Network of Excellence teil. Die Arbeiten im Bereich Telelabor Robotik werden im Rahmen des durch das Land NRW geförderten Forschungsverbundes ,,Virtuelle Wissensfabrik`` durchgeführt.

- Kollisionsvermeidung

Um auch in dynamischen Umgebungen sicher navigieren zu können, muß ein Roboter in der Lage sein, schnell auf unbekannte Hindernisse zu reagieren. Zur reaktiven Hindernisvermeidung wurde der ,,Dynamic window approach`` entwickelt. Um größtmögliche Sicherheit zu erlangen, werden in dieser Technik Daten von bis zu sechs unterschiedlichen Sensortypen integriert. Da in diesen Ansatz die Dynamik des Roboters eingeht, kann sich RHINO in Bürogebäuden oder Museen sicher und schnell bewegen.

- Lokalisierung

Zur Bestimmung der globalen Position eines Roboters innerhalb seiner Umgebung wurde das Verfahren der ,,Position probability grids`` entwickelt. Durch Abgleich gemessener Sensorwerte gegen ein Modell der Umgebung wird eine Positionswahrscheinlichkeitsverteilung geschätzt, die mittels eines dreidimensionalen Gitters approximiert wird. Das Verfahren kann sehr gut mit Mehrdeutigkeiten, Sensorrauschen und Modellungenauigkeiten umgehen. Mit Hilfe der aktiven Lokalisierung ist es möglich, den Roboter zu Orten zu steuern, an denen die Position möglichst gut bestimmt werden kann. Auf diese Weise kann sich ein Roboter autonom in seiner Umgebung lokalisieren.

- Aktionsplanung

Ziel der Arbeiten im Bereich Aktionsplanung ist die Erforschung von Steuerungsmechanismen, die es autonomen mobilen Robotern erlauben, mehrere variierende Aufgaben in nicht vollständig bekannten, dynamischen Umgebungen kompetent und zuverlässig zu erfüllen. Zu diesem Zweck verwenden wir ,,strukturierte, reaktive Steuerungssysteme``, die nebenläufige, reaktive Kontrollroutinen benutzen, um Routineaktivitäten auszuführen und sich selbst (während der Planausführung) durch Planrevision an Ausnahmesituationen anpassen.

Darüber hinaus geht es um den Einsatz und die Weiterentwicklung von GOLOG, einer auf dem Situationskalkül basierenden Aktionssprache, die an der University of Toronto entwickelt wurde. GOLOG erlaubt es einem Benutzer, auf sehr abstrakte Weise komplexe Handlungsabläufe zu programmieren. In Bonn wurde GOLOG erstmals erfolgreich zur Steuerung des Roboters RHINO eingesetzt. Neben der Weiterentwicklung der Sprache und eines zugehörigen Laufzeitsystems (in Zusammenarbeit mit Toronto) sind auch Grundlagen wie die Interaktion zwischen Aktionen und Wissen Themen dieses Schwerpunkts.

Schließlich wird im Rahmen dieser Forschungsaktivitäten die Integration kognitiver (symbolischer Planungs- und einfacher Sprachverarbeitungsprozesse) und sensomotorischer (aktive Lokalisierung, einfache Bildverarbeitung) Prozesse in die abstrakte Ebene der Steuerungssoftware untersucht.

- Tele-Labor Robotik

Im Projekt Tele-Labor Robotik soll eine Software-Umgebung geschaffen werden, die es erlaubt, teure Ressourcen wie Laboreinrichtungen über das Internet zu bedienen, um so eine bessere Auslastung zu erreichen. Die entwickelten Konzepte werden am Beispiel unseres mobilen Roboters RHINO demonstriert. Anwender werden in der Lage sein, Roboter-Experimente zu beobachten und auch durchzuführen.

Finanzinformatik

In der letzten Dekade hat der Finanzbereich eine tiefgreifende Umstrukturierung in Richtung Globalisierung und Automatisierung erfahren. Die Komplexität der dabei zu behandelnden Probleme sowie die großen Datenmengen haben den Bedarf an effizienten Verfahren aus der Informatik sprunghaft steigen lassen. Dies gilt insbesondere in Gebieten wie Portfolio Management, Optionsbewertung, Risikomessung. So entwickelt sich die Informatik neben der Mathematik zu einer Schlüsseltechnik für die Finanzwirtschaft.

In den bisherigen Veranstaltungen des Hauptstudiums

  • WS 97/98: Seminar Algorithmen für Finanzanwendungen
  • SS 98: Vorlesung Einführung in die Finanzinformatik

wurde der Schwerpunkt auf die Probleme Bewertung von Optionen und Portfolio-Optimierung gelegt, die mit Methoden der Informatik - wie Approximationsalgorithmen, Verfahren des Machine Learning, Online-Algorithmen - angegangen wurden.

Mit dem Thema Online-Portfolio-Selektion, bei dem Gütemaße für Online-Algorithmen Grundlage fr dynamische Portfoliostrategien bilden, beschäftigen sich zwei Diplomarbeiten. Weitere Arbeiten in diesem neuen Forschungsbereich und im Bereich der Bewertung pfadabhängiger Optionen sind in Vorbereitung.

In Zusammenarbeit mit einer deutschen Großbank wurde ein gemeinsam betreutes Praktikantenprogramm entwickelt, das es Studierenden ermöglicht, ihre Kenntnisse, die sie in den Veranstaltungen im Bereich Finanzinformatik erworben haben, praktisch umzusetzen, zu erweitern und im Anschluß in die Arbeitsgruppe Finanzinformatik einfließen zu lassen.

Mustererkennung und Bildverarbeitung

(J.M. Buhmann)

Schwerpunkte in Forschung und Lehre

  • Statistische Mustererkennung und maschinelles Lernen
  • Bildverarbeitung und Bildanalyse

Statistische Mustererkennung und Theorie des unberwachten Lernens

Die statistische Mustererkennung befaßt sich mit Schätzverfahren und Algorithmen, die automatisch oder in Wechselwirkung mit einem Benutzer Strukturen in großen Datenmengen erkennen und extrahieren. Im Vordergrund stehen unüberwachte Lernverfahren zur Gruppierung von vektoriellen, Proximitäts- und Histogrammdaten und deren Visualisierung als Punktmengen in niederdimensionalen euklidischen Räumen. Solche Daten fallen in großen Mengen bei der Experimentauswertung in den Natur- und Ingenieurswissenschaften an, treten aber auch beim Information Retrieval in Datenbanken, bei Marktanalysen, bei der Suche im World Wide Web und in klassischen Mustererkennungsfeldern wie der Bild- und Sprachverarbeitung auf. In der Forschungsgruppe Mustererkennung und Bildverarbeitung werden diese Fragenstellungen jeweils als Optimierungsprobleme formuliert und mit Entropie maximierenden Optimierungsverfahren wie simulated oder deterministisches annealing gelöst. Die entsprechenden Schätzverfahren für Datengruppen und deren Visualisierung zeichnen sich durch hohe Robustheit gegenüber Stichprobenrauschen aus. Konkret wurden neue Schätzalgorithmen für Vektorquantisierung, paarweise Datengruppierung, hierarchische Datengruppierung, aktive Datenselektion und Datenfilterung, sowie für multidimensionale Skalierung entwickelt.

Ein weiterer Schwerpunkt der Arbeitsgruppe im Mustererkennungsbereich konzentriert sich auf die Validierung von Gruppierungs- und Visualisierungslösungen. Die statistische Lerntheorie und die Theorie empirischer Prozesse stecken den formalen Rahmen ab, um diese Modellvalidierungsfragen theoretisch zu klären und eventuelle Modellierungsfehler zu entdecken. Die Validierung beim unüberwachten Lernen wird zusammen mit Projektpartnern an der Hebräischen Universität in Jerusalem und der Universität Bochum untersucht und von der German Israeli Foundation gefördert.

Bildverarbeitung und Computersehen

Ein wichtiger Schwerpunkt der Arbeitsgruppe im Bereich Bildanalyse ist die automatische Segmentation von Bildern und Bildsequenzen. Mathematisch kann diese Aufgabe als ein Gruppierungsproblem formuliert werden, bei dem einzelne Pixel oder Pixelmengen entsprechend eines geeigneten Homogenitätskriteriums einem Segment zugeordnet werden. Segmente zeichnen sich dann durch einen möglichst einheitlichen Farbwert oder eine typische Textur aus oder weisen ein homogenes Bewegungsfeld auf. Besonders diskriminative Homogenitätskriterien wurden in den letzten Jahren in Form statistischer Tests vorgeschlagen.

Zur Bildrepräsentation werden Wavelet-Transformationen verwendet, die eine Multiskalenanalyse unterstützen. Diese Datenformate für Bilder und Bildfolgen (Video) reduzieren die bildinhärente Redundanz und eignen sich sehr gut zur Kompression. Im anwendungsorientierten Projekt elektronisches Auge (Siemens ZT) wird gerade diese Eigenschaft zur Kompression von Videos in einem Telekonferenzszenario ausgenutzt und mit einer modellbasierten Bewegungskompensation verbunden. Datenformate, die Information auf verschiedenen Skalen darstellen, unterstützen auch sehr effiziente Mehrgitterverfahren zur Bildsegmentation, wie sie in der Arbeitsgruppe zur Texturanalyse, aber auch zur räumlichen Farbquantisierung mit Förderung des DFG-Schwerpunktes ,,Echtzeitoptimierung großer Systeme`` entwickelt wurden. Die Validierung von Segmentationslösungen stellt sich in der Bildverarbeitung in ähnlicher Weise wie in der Mustererkennung und wird von uns ebenfalls mit Methoden der statistischen Lerntheorie untersucht.

Datenbanken und deskriptive Programmierung

(R. Manthey)

Schwerpunkte in Forschung und Lehre

  • Aktive und deduktive Datenbanken
  • Entwurf und Analyse komplexer Datenbankanwendungen
  • Logische und ereignisorientierte Programmierung

Aktive und deduktive Datenbanken

Beide Forschungsgebiete beschäftigen sich mit der Modellierung und Anwendung verschiedener Formen von Regeln, die beobachtete oder intendierte Gesetzmäßigkeiten einer Applikation repräsentieren. Auf diese Weise lassen sich Datenbanken von reinen Faktensammlungen zu ,,intelligenten``, wissensbasierten Spezifikationen komplexer Systeme weiterentwickeln. Deduktive Regeln definieren logische Zusammenhänge zwischen Datenbankkonzepten, wie Relationen, Attributen oder Klassen und lassen sich zur Herleitung von Daten verwenden. Aktive Regeln spezifizieren Verhaltensmuster, die vom DB-System zum automatischen Auslösen vordefinierter Reaktionen beim Auftreten bestimmter Ereignisse verwendet werden. Normative Regeln (oder Integritätsbedingungen) definieren deskriptiv zulässige DB-Zustände und werden reaktiv zur Verhinderung oder Kompensation unzulässiger Transaktionen genutzt. In kommerziellen, vorwiegend relationalen DB-Systemen sind alle drei Regelformen unter den Bezeichnungen ,,view`` (deduktive Regel), ,,trigger`` (aktive Regel) und ,,constraint`` (normative Regel) derzeit meist nur rudimentär realisiert.

Wesentliches Ergebnis im Berichtszeitraum war die Entwicklung einer umfassenden Methodik der Implementierung von deduktiven Inferenzprozessen mittels aktiver Regeln (,,reactive model computation``). Die automatische Übersetzung deduktiver Regeln in Trigger ermöglicht die Unterstützung aller drei Regelformen mittels einer einheitlichen Systemkomponente. Weitere Projekte dieses Arbeitsgebietes umfaßten u.a.

  • Änderungspropagierung in objektorientierten Datenbanken
  • Aktive und deduktive temporale Datenbanken
  • Constraints, Trigger und Views in SQL

Entwurf und Analyse komplexer Datenbankanwendungen

Die Erweiterung rein stuktureller DB-Schemata um Regelwissen führt zu völlig neuen, äußerst anspruchsvollen Entwurfs- und Verifikationsproblemen. Regelmengen sind komplexe Spezifikationen, deren statische und dynamische Eigenschaften nur mit angemessener Toolunterstützung von Anwendungsdesignern beherrscht werden können. Deduktive und normative Regeln können als Axiome der Prädikatenlogik angesehen werden und sind mit Methoden des automatischen Beweisens zumindest auf Widerspruchsfreiheit zu überprüfen. Aktive Regelmengen sind auf Terminierung und ggf. Konfluenz hin zu untersuchen. Feineres Tuning von Regeln ist nur unter Verwendung von geeigneten Testdaten möglich. Die Entwicklung derartiger Tools und der dazugehörenden Methoden des Entwurfs bildeten einen Schwerpunkt der Arbeit.

Ein weiteres wichtiges Themengebiet bestand in der Untersuchung von Implementierungstechniken für objektorientierte Datenmodellierungskonzepte auf der Basis relationaler DB-Technologie - ebenfalls ein Entwurfsproblem, solange eine direkte Unterstützung solcher Datenmodelle nicht vorliegt. Auch hier stand zum einen die Realisierung objektorientierter Regeln, zum anderen die Implementierung von OO-Modellen (etwa von Klassenhierarchien) mittels relationaler Regeln im Vordergrund. Spezielle Projekte beschäftigten sich u.a. mit

  • Schemamanagement und -evolution in OODB
  • Graphische Schnittstellen zum Schemaentwurf
  • Validierung aktiver, deduktiver und normativer Regeln

Logische und ereignisorientierte Programmierung

Bei der Implementierung von Tools und Systemkomponenten verwendet die Gruppe fast ausschließlich die logische Programmiersprache Prolog, die dementsprechend in der Lehre regelmäßig vermittelt wird. Zudem wurde an neuartigen Formen der Mehrparadigmen-Programmierung gearbeitet. In der DB-Programmiersprache Phoenix wird die Integration imperativer, deskriptiver und reaktiver Programmierformen erprobt. Systematische Aufarbeitung verschiedener Formen ereignisorientierter (reaktiver) Programmiertechniken in verschiedenen Gebieten der Informatik ist zunächst in der Lehre vorgesehen.

Aktivitäten der Gruppe

Von Juni 1992 bis Juni 1996 war die Gruppe an einem europäischen Kooperationsprojekt zum Thema ,,Intelligent Database Environment for Advanced Applications`` (IDEA) im Rahmen des ESPRIT-Programms der EU beteiligt. Das IDEA-Konsortium umfasste industrielle und akademische Partner aus Frankreich, Italien, Spanien, Niederlande, Belgien, Großbritanien und Deutschland. Im Vordergrund der Projektarbeit stand die Entwicklung, Implementierung und Anwendung eines neuen aktiv-deduktiven, objekt-orientierten Datenmodells (Chimera). Den Projektpartnern aus Bonn, Madrid und Mailand wurde eine neunmonatige Projektverlängerung bis März 1997 zugesprochen.

Im Berichtszeitraum wurden in der Arbeitsgruppe eine Dissertation und 40 Diplomarbeiten abgeschlossen.