Diese Woche war ich auf der EuroVis 2013 in Leipzig. Die größte europäische Konferenz für Visualisierung. In meinem Post über die Jahrestagung der BZS hab ich geschrieben, für wissenschaftliche Diskussionen wären die kleinen Konferenzen die besten. Das ist auch so. Die EuroVis ist toll, aber es ist sehr sehr schwer mit Leuten ins Gespräch zu kommen die man nicht sowieso schon kenn. Das ist aber nicht so schlimm. Die großen Konferenzen haben andere Qualität.

Die großen Konferenzen bieten immer einen guten Überblick über die aktuelle Forschungslandschaft. Sie haben den Anspruch qualitativ hochwerte Paper auszuwählen und damit die besten und wichtigsten Forschungsergebnisse zu präsentieren. Nun, ich will nicht lästern. Es gibt immer gute Paper und es gibt immer Paper bei denen ich nur staunend dastehen und mich fragen kann: WTF?

Und so war es auch dieses Jahr wieder. Es gab einige gute Paper und ich bin mit einigen Ideen zurück gekommen. Mal sehen was draus wird.

Diese Woche war ich auf der V. Jahrestagung der Boltzmann Zuse Society for Computational Molecular Engineering in Kaiserslautern. Für wissenschaftliche Zusammenarbeit sind die kleinen Konferenzen einfach die besten! Auch dieses Jahr wieder haben wir viele interessante Themen und Ideen diskutiert und ich bin mit einem ganzen Berg von Projekten zurück nach Hause gekommen.

Außerdem habe ich diese Woche (Dienstagnacht) noch eine Nachricht erhalten die mich unglaublich ärgert. Mehr will ich aber darüber noch nicht schreiben, bevor nicht klar ist, was die Konsequenzen sind. Vielleicht nächste Woche…

Ich bin der festen Überzeugung, dass ich weniger programmieren sollte. Im Besonderen will ich keine Lösungen mehr schreiben zu denen andere Lösungen geschrieben haben.

Daher habe ich mich jetzt auch der selbstverwalteten Publikationsliste entledigt.

Zuerst habe ich mich auf Mendeley angemeldet. Die Publikationen waren schnell gefunden oder eingetragen, alles wunderbar soweit. Dann das entsprechende WP-Plugin installiert und siehe da, die Publikationsliste war völlig unbrauchbar, da ich innerhalb angemessener Zeit (wenige Minuten) nicht herausfinden konnte wie ich dem Ding Bibtex-Einträge direkt entlocken kann.

Dann bin ich auf das Plugin zu BibSonomy gekommen. Dort hab ich mich auch angemeldet. Die Suche dort hat deutlich weniger meiner Paper gefunden und ich musste mehr von Hand eintragen, was aber gut und schnell ging. Dann zum WP-Plugin. Tja, schade. Nach der Installation ließ es sich wegen einem kritischen Fehler nicht aktivieren. …

Warum nochmal wollte ich nichts selber schreiben?

Die einfachsten Lösungen sind oft die besten und darum habe ich das Papercite Plugin ausprobiert. Ein Bib-File hochladen und aktualisieren kriege ich ja wohl hin. Die Publikationsliste war schnell erstellt und sieht (fast) so aus wie ich es gerne hätte. Ist nicht gerade bahnbrechend gut, tut aber was es soll. Auch das zitieren meiner Paper in Posts und auf Seiten funktioniert direkt.

Damit habe ich eine 90%-Lösung für mein Problem gefunden, womit ich mich wohl zufrieden geben werden.

Anfang der Woche war ich auf dem Workshop Molecular Modeling and Simulation. Zwei Tage die ich unter Physikern, Chemikern und Ingenieuren verbracht habe. Ich als Informatiker und Visualisierer war da etwas ein Exot, aber ich fand es sehr spannend zu sehen was in den entsprechenden Forschungsgebieten so aktuell passiert. Andererseits hab ich nach meinem Vortrag auch sehr positive Rückmeldung gekriegt, dass auch meine aktuellen Arbeiten als sehr interessant aufgenommen wurden.

Visualisierungsforschung ist toll. Man kann so viel machen und man sollte auch noch so viel machen. Das einzige Problem ist, es gibt oft Unmengen an technischen Herausforderungen die man lösen muss, bevor man sich an die Forschungsfragestellungen überhaupt herangetastet hat. Hier fließt viel Arbeit und Zeit in Software, die für die eigene Karriere als Forscher kaum etwas beizutragen scheinen. Das frustriert manchmal.

In unserer Arbeitsgruppe läuft gerade die Diskussion über die Präsentation unserer Forschung und der Definition von Themengebieten für studentische Arbeiten (z.B. Themen für Bachelor-, Master- und Diplomarbeiten). Hierzu listet jeder Mitarbeiter sein persönlichen Forschungsinteressen und -schwerpunkte auf.

Hier sind meine:

  • wissenschaftliche Visualisierung
    • Kein Volumenrendering und keine Strömungsvisualisierung (das machen schon genug andere)
    • Visualisierung von partikelbasierten Daten, z.B. aus der Molekulardynamik (weiterarbeit des Themas meiner Dissertation, denn es sind noch genug Probleme und Fragen übrig)
    • Effizientes Rendering bei hoher Bildqualität
    • Auch neue und abstrakte visuelle Metaphern für besseres Begreifen der Daten
  • Visualisierung von dynamischen Daten
    • Nicht nur „Daten der klassischen wissenschaftlichen Visualisierung“ sondern auch abstrakte Daten aus der Informationsvisualisierung
    • Auch Daten aus hochdimensionalen Räumen (meist Räume mit „geometrischem“ Kontext, z.B. physikalische Phasenräume)
    • Visuelle Analyse von dynamischen Aspekten in statischen Darstellungen
  • Software Engineering für Visualisierungs-Forschungsprototypen
    • Für Publikationen entstehen immer nur Proof-of-concept-Prototypen, diese sind schnell und unsauber gecoded und können praktisch nicht gewartet werden
    • Für Forschungsschwerpunkte benötigt man oft umfangreichere Software
    • Größere Softwarepakete in der akademischen Welt scheitern sehr sehr häufig. Warum?

Natürlich interessiere ich mich darüber hinaus für fast alles. Aber irgendwie muss man sich ja fokussieren. Naja, die drei Schwerpunkte da oben sind so breit, dass ich mir nicht sicher bin, ob man das wirklich als Fokus bezeichen darf. Egal. Ich mach es trotzdem. Das ist mein Forschungsfokus.

Heute will ich mal kurz über das Projekt sprechen in dem ich nun seit fast einem Jahr an der TU Dresden arbeite: die Nachwuchsforschergruppe VICCI

VICCI steht für „Visual and Interactive Cyber-physical systems Control and Integration“.

Kernelement sind die Cyber-Physcial Systems (kurz: CPS). Fragt man zehn Leute was CPS sind, dann kriegt man zehn Antworten. Es ist nicht so ganz klar. Hier nun meine Meinung zu dem ganzen:

CPS sind „smarte“, (semi-)autonome Systeme (Netzwerke) aus Elementen (embedded Systems) die sowohl eine reale Bedeutung haben (z.B. Sensoren oder Aktoren) sowie eine virtuelle (Abbildung von Daten in Software). Die vernetzen Elemente zusammen bilden ein System, welches selbständig optimiert oder adaptiert und hierbei Prozesse in der realen Welt durchführt oder unterstützt.

Ok. Die Beschreibung macht das jetzt auch nicht wirklich klarer. Vielleicht so: CPS ist „Automatisierung 3.0“. Während klassische Automatisierung einfache Regelkreisläufe zur Steuerung benutzt oder lediglich eine Verbedienung für den Benutzer darstellt, können CPS komplexe Steuerungen selbständig optimieren. Typische Schlagwörter sind „Smart Factory“, „Smart Grid“, „Smart Office“, „Smart Home“, etc. Es geht immer darum, dass die Umgebung „mitdenkt“.

In VICCI verfolgen wir das Szenario des „Smart Home“, sprich eine Wohnung die mitdenkt und dem Bewohner hilft. Beispielsweise in dem Transport- und Suchaufgaben erledigt werden. Unser CPS besteht aus Sensoren und Aktoren. Die Sensoren sind in einem Laborraum verbaut, der die Wohnung repräsentieren soll. Hier sind es Temperatursensoren, Kameras, Lichtsensoren, Feuchtesensoren, etc. Als Aktoren haben wir Roboter angeschafft die wir als beispielhafte Service-Roboter nutzen werden. Ihr erinnert euch an I, Robot. Wir (Forscher) arbeiten daran ;-)

Mein Arbeitsbereich innerhalb der Gruppe ist (neben Koordinations- und Verwaltungsaufgaben) die Visualisierung des CPS, genauer, der interne Zustand des CPS. Ich erzeuge Darstellungen für die Analyse. Etwas plakativer: „Was denkt das CPS eigentlich gerade?“ ist die Frage die meine Visualisierung angehen soll. Erste Ergebnisse sind da, aber gerade noch nicht veröffentlicht. Sobald es was neues gibt, werde ich es natürlich auch hier vorstellen.

Das was mal wieder eine Woche.

Dieses Wochenende war die Deadline um Artikel zur EuroVis 2013 einzureichen. Da wollte ich eine aktuelle Arbeit einreichen und entsprechend hieß es diese Woche „zusammenschreiben und polieren“. Ich bin mal gespannt. Eigentlich bin ich zufrieden mit meinen Ergebnissen, aber dass müssen die Reviewer natürlich auch so sehen. Etwas Glück gehört dann auch noch dazu, weil die Konkurenz groß ist.

Da jetzt der Double-Blind-Review-Prozess beginnt, kann ich natürlich (noch) nichts über diese Arbeit schreiben.

Im Zeitraum 2007 bis 2012 war ich am Visualisierungsinstitut der Universität Stuttgart, bzw. am Institut für Visualisierung und Interaktive Systeme. Der Kernbereich meiner Arbeit war die Forschung und Entwicklung von Visualisierungen für Datensätze aus Molekulardynamiksimulationen, finanziert durch den Sonderforschungsbereich 716 der DFG. Einerseits ging es darum mit immer größeren Datensatzen umgehen zu können und andererseits ging es darum eine effiziente visuelle Analyse zu unterstützen, indem sinnvolle Darstellungen von den Originaldaten abgeleitet werden. 2007 stellte ich auf der IEEE VIS Konferenz in Sacramento hierzu meine erste Arbeit vor, dieses Paper mit dem Titel „Visual Verification and Analysis of Cluster Detection for Molecular Dynamics“ [1]. In dieser Arbeit geht es darum Algorithmen zu Detektion von Molekülcluster, z. B. Vorläufer von Tropfen in Gasen, zu untersuchen. Jeder solcher Algorithmus hat seine Schwächen und Stärken, je nach Anwendungsfall, und so spielt die visuelle Untersuchung der Ergebnisses eine wichtige Rolle. Vor allem die Stabilität der gefundenen Cluster über die Zeit, sowie ihre Interaktion sind hier ausschlaggebend.

Daher habe wir (meine Kollegen und ich) in diesem Paper zunächst unterschiedliche Definitionen aufgestellt, um wichtige Teile des Datensatzen zu identifizieren. Die vielleicht wichtigste ist die der „Flussgruppe“: eine Gruppe von Molekülen, die zusammen, zu einem Zeitpunkt einen Molekülcluster verläßt und zu einem späteren Zeitpunkt zusammen, gleichzeitig einem zweiten gemeinsamen Molekülcluster wieder beitreten. Es sind also alle Moleküle die gemeinsam, gleichzeitig den Cluster wechseln. Diese Definition erlaubt, visualisiert in unterschiedlichen Ansichten, die Stabilität eines Algorithmus zur Clustererkennung zu beurteilen und sogar unterschiedliche Algorithmen miteinander zu vergleichen. Diese Arbeit war dann auch der Grundstein für meine Dissertation zum Thema Visualisierung von Molekulardynamikdaten.

[1] [doi] S. Grottel, G. Reina, J. Vrabec, and T. Ertl, „Visual Verification and Analysis of Cluster Detection for Molecular Dynamics,“ Visualization and Computer Graphics, IEEE Transactions on, vol. 13, iss. 6, pp. 1624-1631, 2007.
[Bibtex]
@article{Grottel2007nucleation,
  author = {Grottel, Sebastian and Reina, Guido and Vrabec, Jadran and Ertl, Thomas},
  journal={Visualization and Computer Graphics, IEEE Transactions on}, 
  number = 6,
  pages = {1624--1631},
  title = {{Visual Verification and Analysis of Cluster Detection for Molecular Dynamics}},
  volume = 13,
  year = 2007,
  doi={10.1109/TVCG.2007.70614},
}

Ich habe mich dazu entschlossen auch etwas mehr über meine „Arbeit“ hier zu posten.

Mein hauptsächliches Interessengebiet ist die Forschung und Entwicklung von interaktiven Visualisierungen großer Daten aus wissenschaftlichen Quellen, z.B. physikalische Simulationen. Zusätzlich interessiere ich mich jedoch auch stark für die visuelle Analyse abstrakterer strukturierter Daten, wie beispielsweise Graphen im Allgemeinen. Hierbei ist vor allem die effiziente Darstellung und Exploration für mich die zentrale Fragestellung.

Augenblicklich arbeite ich als PostDoc an der Technischen Universität Dresden am Lehrstuhl für Computer Graphik und Visualisierung. In der nächsten Zeit werde ich hier ältere Arbeiten von mir vorstellen und kommentieren.