Adresse und Kontakt

AG Netzbasierte Informationssysteme
FU Berlin
Königin-Luise-Straße 24-26
14195 Berlin

Tel.: +49-30-838-75221
Fax: +49-30-838-75220

This site is no longer maintained. You see a static copy as of April 1 2016.

Speisekartencrawler

Douglas Adams, Per Anhalter durch die Galaxis: Roman (Werbung), um S.186:  „Die Geschichte jeder bedeutenderen galaktischen Zivilisation macht drei klar und deutlich voneinander getrennte Phasen durch – das bare Überleben, die Wissensgier und die letzte Verfeinerung, allgemein auch als Wie-, Warum- und Wo-Phasen bekannt.
Die erste Phase zum Beispiel ist durch die Frage gekennzeichnet: Wie kriegen wir was zu essen?, die zweite durch die Frage: Warum essen wir?, und die dritte durch die Frage: Wo kriegen wir die besten Wiener Schnitzel?“

Heute sind Restaurants online, teilweise sind Speisekarten verfügbar. Es gibt einige Web-Dienste, die diese sammeln (http://www.gourmetclassic.de/sitemap/speisekarten.html, http://www.speisekarte.de oder http://www.mister-wong.de/tags/speisekarte ). Die Eintragung von Seiten durch Nutzer oder Betreiber füllt diese Datenbanken. In der Abschlussarbeit soll themenspezifisch versucht werden, automatisiert ein suchbares Verzeichnis möglichst vieler Speisekarten deutscher Restaurants zu erstellen.

Es soll also ein Crawler entstehen, der durch Heuristik Restaurant Homepages ermittelt, die Geoinformationen des Restaurants herausfindet, auf der Site Speisekarten auswählt und deren Inhalt extrahiert. Die Ergebnisse sollen in eine Datenbank eingestellt und über einen Suchdienst anfragbar gemacht werden. Schließlich muss ein Wartungsprozess definiert und möglichst weit implementiert werden. Rahmenwerke wie beispielsweise SMILA oder Nutch und Screen Scraper wie scrapy sollen benutzt werden. Sämtliche Software ist unter … [...Weiterlesen/more...]

Kunstnetzwerke: Werke, Künstler und Auktionen

Der weltweite Kunstmarkt ist sehr lose organisiert. Relevante Rollen sind die Künstler mit ihren Werken und Auktionshäuser, die Werke von Künstlern auf dem sog. 2. Markt an Museen und Sammler versteigern. Kunstauktionen werden mittlerweile von umfangreichen Online-Katalogen begleitet, die Gebotsabgabe über das Internet ist möglich und auch Ergebnislisten werden online bereitgestellt. Aufgrund der individuellen Insellösungen von Auktionshäusern ist es aber kaum möglich sich einen vollständigen Überblick zu Inhalt und Struktur des Kunstauktionsmarkts zu bilden. Kommerzielle Dienste wie artprice.com oder artfacts.net sind vergleichsweise hochpreisig.

In dieser Arbeit sollen Informationen über in Auktionen gehandelte Werke und deren Künstler ermittelt und mit Hilfe einer Netzwerkanalyse Strukturen des 2. Markts identifiziert werden. Verzeichnisse von Auktionshäusern wie von kunstmarkt.com erfassen relevante Sites und liefern Ausgangspunkte für einen Crawler, der beispielsweise auf einem Rahmenwerk wie beispielsweise SMILA oder Nutch basiert und vielleicht an einen Screen Scraper wie scrapy angeschlossen ist. Aus Online-Katalogen sollen angebotene Künstler und Werke extrahiert werden und geeignet ein Netzwerk erstellt werden. Mit dem Tool SONIVIS sollen dann Analysen zu Netzwerkeigenschaften durchgeführt werden und deren Ergebnisse sowie das Werke-Künstler-Auktionshaus-Netzwerk online dargestellt werden. Sämtliche Software ist unter die BSD oder Apache Lizenz zu stellen.

Art der Arbeit: Diplom- oder Masterarbeit

Voraussetzungen: Kenntnisse in grundlegenden … [...Weiterlesen/more...]

Kunstnetzwerke: Künstler und Galerien

Der weltweite Kunstmarkt ist sehr lose organisiert. Relevante Rollen sind die Künstler mit ihren Werken, Galerien die die Werke von Künstlern auf dem sog. 1. Markt vermarkten sowie Museen und private Sammler die Werke ankaufen sowie weiter Intermediäre die Öffentlichkeit herstellen. Künstler, Galerien und Museen haben in den letzten Jahre erkannt, dass ihre Online-Repräsentanzen notwendig für das Funktionieren des Kunstmarkts sind. Aufgrund der sehr losen Organisation ist es aber kaum möglich sich einen vollständigen Überblick zu Inhalt und Struktur des Kunstmarkts zu bilden.

In dieser Arbeit sollen mit Hilfe einer Netzwerkanalyse solche Strukturen identifiziert werden. Als Künstler sollen dabei jene gelten die von deutschen oder deutschsprachigen Galerien vertreten werden. Dazu müssen die verteilt vorliegenden Online-Informationen geeignet analysiert werden. In der Arbeit ist dies durch einen Crawler zu automatisieren, der auf einem Rahmenwerk wie beispielsweise SMILA oder Nutch basiert und vielleicht an einen Screen Scraper wie scrapy angeschlossen ist.

Galerieverzeichnisse wie bei artfacts oder beim Bundesverband Deutscher Galerien und Editionen e.V. müssen geeignet analysiert werden um Listen mit Netzadressen von Galerien zu ermitteln. Auf den Galerie-Sites muss dann durch eine Heuristik die Liste der von der Galerie vertretenen Künstler ermittelt werden. Aus diesen Informationen – eventuell angereichert um Metainformationen wie Stilrichtung … [...Weiterlesen/more...]

Semantische Integration von Konferenzinformationen

Informationen über wissenschaftliche Konferenzen in der Informatik und anderen Wissenschaften sind im Netz nur schlecht erschließbar. Neben den völlig verstreut angebotenen eigentlichen Konferenzankündigungen und Aufrufen zur Beitragseinreichung gibt es verschiedene Angebote mit Sammlungen solcher Informationen. So wollen z.B. allconferences.com oder goingtomeet.com möglich alle Konferenzen erfassen, während Fachverbände wie die IEEE, die ACM oder die GI jeweils informatikspezifische Kalender anbieten.

Wissenschaftler möchten die Anfrage „Auf welchen Konferenzen kann ich meine Arbeit im Themenbereich X, Y und Z einreichen“ einfach von einer Suchmaschine beantwortet bekommen. Eine solche Suchmaschine existiert bislang aber nicht.

In der Arbeit soll ein Rahmenwerk geschaffen und exemplarisch für informatische Themen realisiert werden mit dem aus unterschiedlichen Quellen erschlossene Konferenzankündigungen Informationen über die jeweils geforderten Themen ermittelt werden und auf dieser Basis die obige Anfrage präzise und umfassend beantwortet werden kann. Dabei soll eine Ontologie für die Themenklassifikation sowie eine semantische Suche genutzt werden.

Das Rahmenwerk soll exemplarisch für Konferenzen aus der Informatik realisiert werden, gleichzeitig aber so allgemein sein, dass leicht eine Suchmaschine für andere Disziplinen (z.B. Elektrotechnik, Mathematik) oder andere Veröffentlichungsarten (z.B. wissenschaftliche Zeitschriften) konfiguriert werden könnte. Die zu erstellende Software soll als LGPL lizensiert sein.

Art der Arbeit

Diplom- oder Masterarbeit

Voraussetzungen

Kenntnisse in Web-Technologien … [...Weiterlesen/more...]

Zusammenfassung von Web-Seiten aufgrund visueller Prominenz von Textteilen

Die automatische Zusammenfassung von Web-Seiten (automatisches Abstracting) basiert auf statistischen oder computerlinguistischen Verfahren auf dem Textinhalt einer Seite. Web-Seiten haben aber auch eine visuelle Repräsentation (die Darstellung im Web-Browser), die – beispielsweise durch Stylesheets beeinflusst – weitere Hinweise auf entscheidende Inhalte geben kann, die für ein Abstracting genutzt werden sollten.

In der Arbeit soll ein Konzept entwickelt und prototypisch implementiert werden, das für eine Web-Seite ein Abstract erzeugt und dabei die visuelle Erscheinung der Seite untersucht. Dazu sollen geeignete Browser-Erweiterungen (z.B. Web Developer) modifiziert werden. Zu berücksichtigen sind visuelle Eigenschaften von Textteilen wie Position auf der Seite, Größe, Farbkontrast zu den anderen Teilen etc. Die Ergebnisse sollen geeignet evaluiert werden.

Art der Arbeit

Diplom- oder Masterarbeit

Voraussetzungen

Kenntnisse in Web-Technologien, insbesondere Seitendarstellung, Technologie von Web-Browsern, Interesse an Gestaltungsprinzipien im Web.

Betreuer

Prof. Dr.-Ing. Robert Tolksdorf

Weitere Informationen

Sprechstundentermin bei Prof. Robert Tolksdorf nehmen… [...Weiterlesen/more...]

Gemeinsame Wissensmodellierung mit Ursache-Wirkungsmodellen

Wissen über komplexe Zusammenhänge lässt sich in Modellen fassen. Eine Form der Modelle sind Ursache-Wirkungsmodelle bei denen die Wirkung einer Entität im Modell auf eine andere beschrieben wird. Aktuell könnte man modellieren, dass eine staatliche Prämie für die Verschrottung von Altwagen sich positiv auf den Absatz von Neuwagen auswirkt. Es gibt Anwendungen wie Consideo, die eine solche Modellierung unterstützen und durch Simulationen ergänzen.

Nun könnte aber diese Modellierung auch gemeinsam erfolgen. Ein zweiter Benutzer könnte beispielsweise den Zusammenhang hinzufügen, dass durch höheren Absatz von Neuwagen der durchschnittliche Benzinverbrauch im Fahrzeugverkehr sinkt. Ein dritter könnte hinzufügen, dass damit die Nachfrage nach Benzin sinkt und ein vierter, dass somit der Benzinpreis eher sinkt.

In der Arbeit soll ein Konzept und eine prototypische Implementierung einer solchen gemeinsamen Wissensmodellierung mit Ursache-Wirkungsmodellen erstellt werden. Dabei sollen Konzepte sowie Beziehungen (trivialerweise zunächst „positiver Einfluss (+)“ und „negativer Einfluss (-)“) zwischen ihnen mit Technologien des Semantic Web typisiert werden. Die Anwendung selber besteht aus einer Web-basierten Software, die das Einfügen von Abhängigkeiten durch unteschiedliche Benutzer ermöglicht und eine geeignete Darstellung erzeugt.

Art der Arbeit

Diplom- oder Masterarbeit

Voraussetzungen

Kenntnisse in Web-Technologien, Modellierung, Semantic Web

Betreuer

Prof. Dr.-ing. Robert Tolksdorf

Weitere Informationen

Sprechstundentermin bei Prof. Robert Tolksdorf [...Weiterlesen/more...]

AG Netzbasierte Informationssysteme, http://www.ag-nbi.de
Königin-Luise-Straße 24-26, 14195 Berlin, Tel.: +49-30-838-75221, Fax: +49-30-838-75220