Von Agenten gesucht

Eine neue Art von Suchmaschine könnte den Graben zwischen Gefunden und Nützlich schließen

In Pocket speichern vorlesen Druckansicht
Lesezeit: 5 Min.
Von
  • Gordon Bolduan

„Manch anderer würde die Kaffeetasse an die Wand werfen, ich aber stehe vom Schreibtisch auf und beginne eine Opernarie zu singen. “ Der 36-jährige Diplomkaufmann Wolfgang Lutz muss als Informationsbroker täglich mit Suchmaschinen arbeiten und ist sichtlich genervt: „Nerven tun mich am meisten die Pop-ups und die Erstnennung von bezahlten Werbeseiten. Firmeneinträge von schlechten Firmendatenbanken erscheinen auch oft vor der eigentlichen Webseite des Unternehmens.“

Seine Frustration lindern, könnte ein Heer von mobilen, virtuellen Agenten, das das Labor für Verteilte Künstliche Intelligenz (distributed artificial intelligence, DAI) der Technischen Universität Berlin für die Suche in Netzwerken entwickelt hat. Mobile Agenten sind Softwarekomponenten, die auf einen fremden Rechner übertragen und dort ausgeführt werden. Sie bewegen sich von Rechner zu Rechner, bearbeiten dort ihre Aufträge und tauschen Daten mit anderen Agenten aus. Dieser Agenten-Typ bildet die Basistechnologie für das Projekt Persönlicher Informationsagent (PIA). Mit ihnen möchte das DAI-Labor personalisierte und geräteunabhängige Informationen jeglicher Art bereitstellen. „Die Wissensagenten werden einmal eingestellt, dann schwimmen sie durch den Datenstrom. Sie sind lernfähig und passen sich den Vorlieben des Nutzers an.“ veranschaulicht Professor Sahin Albayrak, Leiter des Labors wie auch des Projektes. Die Idee zu diesem Ansatz entstand während einer Kooperation mit der deutschen Telekom. „Wissen ist das Killerkriterium“, sagt Albayrak.

Im Prinzip macht auch PIA nichts anderes als das Abgrasen von der Informationswiese WWW – jedoch kann sie ihre Agenten flexibler einsetzen,weil diese nach Aufgabe spezialisiert sind und darüber hinaus miteinander kooperieren. „Sie werten nicht nur wie ein Webcrawler statische Informationen aus, sondern berücksichtigen zusätzlich die individuellen Interessen der Benutzer", erklärt Andreas Lommatzsch, wissenschaftlicher Mitarbeiter am DAI. Um die Agenten schneller zu entwerfen und zu implementieren, haben die DAI-Forscher eine auf der Programmiersprache Java basierende Komponentenbibliothek entwickelt.

Aber deren Leistungsvermögen hat auch Schattenseiten, denn Agenten sind nach wie vor nichts anderes als ausführbarer Code und der könnte schadhaft sein. Deswegen verlangen die Betreiber der durch die Agenten besuchten Plattformen Zertifikate und den Aufenthalt in gesicherten Bereichen, so genannten Sandkästen.

Für den informationshungrigen Anwender bleiben die Agenten selber weder sichtbar noch greifbar, der Prototyp verbirgt sie hinter einer Oberfläche, die den üblichen Suchmaschinen ähnelt. Dort kann der Rechercheur neben Meta-Suche mit herkömmlichen Suchmaschinen PIA-Suchanfragen definieren, deren Schlüsselbegriffe einzeln gewichten und sich die Ergebnisse bequem als E-Mail in vordefinierten Zeitabständen per E-Mail schicken lassen. Über deren Eintreffen informiert PIA sogar vorab – per Short Message Service (SMS), Multimedia Message Service oder über Stimme.

Wenn die Informationstreffer dann geordnet nach Relevanz im Postfach liegen, haben bis zu vier Agenten-Klassen zusammengearbeitet: Der persönliche Agent (PA) beobachtet das Eingabeverhalten des ihm zugewiesenen Benutzers, achtet darauf, welche Treffer dieser öffnet und wie lange er diese liest, um so die Güte der Information abzuschätzen. Definiert der Anwender eine neue Anfrage, schlägt der PA zusammen mit dem Schlüsselbegriffassistenten ergänzende Suchbegriffe vor. Währenddessen grasen der Extraktions-Agent (EA) nicht nur Suchmaschinen, sondern auch Fachdatenbanken sowie E-Mails und Dateien auf der eigenen Festplatte ab. Im PIA-spezifischen XML-Format legen sie ihre Fundstücke in einer Datenbank ab, die auch die Modell-Agenten aufsuchen. Diese erstellen von den Fundstücken Modelle, die sie mit semantischer Information anreichern. So soll sichergestellt werden, dass beispielsweise eine Suche nach Normalformen aus der Datenbanktheorie, unzureichend mit „Formen“ spezifiziert, keine Seiten angibt, die Backformen aus Silikon anpreisen. Falls die Suche über den Inhalt fehlschlägt, können besondere Filter-Agenten das Profil eines Benutzers mit ähnlichen Interessen wie die des Suchenden zu Rate ziehen. Mit dem so genannten Collaborative Filtering ersparen die DAI-Forscher dem Anwender das mühseelige Berwerten und Klassifizieren. Die Filter-Agenten geben ihre Ergebnisse weiter an die Persönlichen Agenten, die sie nach den Wünschen ihres Herrn oder ihrer Dame präsentieren.

Für Albayrak ist das die zukunftsweisende Richtung: „Heute aber geht es darum, in der ganzen Datenvielfalt die richtige Informationen zu finden und diese Puzzlestücke beispielsweise zu einem Newsletter zusammenzufügen“ Ab dem 4. September sollen Forscher und Studenten der Informatik-Fakultät mit PIA recherchieren, über die Bibliothek soll die Anwendergemeinde nochmals vergrößert werden. Albayrak erhofft sich von den Rückmeldungen viel. Momentan besteht das System aus einem Dokumenten-Server (16GB RAM, 370 GByte Festplatte, Linux) und dem eigentlichen PIA-Server (3GB RAM, 36GB Festplatte, Solaris9). Bis Ende dieses Jahres soll PIA marktreif sein. „Wir sind im Gespräch mit Investoren aus den USA und Deutschland“, so Albayrak. Der Einsatz als Suchmaschine ist nur ein Geschäftsmodell. Power-User sollen für einen Account und Sonderfunktionen zahlen, Firmen PIA kaufen, um damit ihr Wissen zu managen. In der zukünftigen Forschung zu PIA liegt der Schwerpunkt darauf, auch nicht-textbasierte Informationsquellen wie Videosequenzen integrieren und indizieren zu können.

Bei all dieser Euphorie bleibt der Informationsbroker Wolfgang Lutz skeptisch. Auch um die Existenz seiner Firma infobroking lutz macht er sich keine Sorgen: „Suchmaschinen brauchen uns. Daher könnte ich mir folgenden Knopf auf der Seite einer Suchmaschine vorstellen: Search including human agent.“ (gob)