Studentische Arbeiten

Die fol­gen­de Auf­stel­lung gibt einen Über­blick über An­ge­bo­te­ne und Ab­ge­schlos­se­ne Ba­che­lor-, Mas­ter-, Stu­di­en- und Di­plom­ar­bei­ten im Wel­fen­lab.

Soll­ten Sie sich für eines der aus­ge­schrie­be­nen The­men in­ter­es­sie­ren, oder haben Sie In­ter­es­se an einem ähn­li­chen Thema, so neh­men Sie bitte Kon­takt mit Ma­xi­mi­li­an Klein auf.

Angebote

Masterarbeit
Self-Adjusting Computations für Graphische Oberflächen

Die Entwicklung von graphischen Oberflächen erfordert meist performante Algorithmen, die mit sorgfältig ausgewählten Heuristiken die Anzal nötiger Operationen minimieren. Dies ist insbesondere bei interaktiven Anwendungen wichtig. Das Problem bei dieser Herangehensweise ist die Auswahl und Implementation der Heuristiken. Diese erzeugen oft ein logisch schwer nachvollziehbares und testbares Gerüst an Entscheidungen. Die Korrektheit dieser Heuristiken ist selten beweisbar und meistens auch nicht gegeben.

React von Facebook löst dieses Problem auf eine andere Art und Weise. Die Darstellungslogik jeder Komponente wird nur für den Fall angegeben, dass die Komponente komplett neugezeichnet wird. Diese Logik ist meist überschaubar und leichter verifizierbar. Sollte sich nun eine kleine Änderung an der Komponente ergeben wird im Speicher die Komponente neu erstellt und ein minimaler Satz an Änderungen zwischen dem momentanen Stand und dem neu berechneten Stand errechnet. Dies umgeht das Problem komplexer Heuristiken, erzeugt aber oft einen unnötigen Overhead.

Eine andere mögliche herangehensweise soll in dieser Arbeit untersucht werden. Das Konzept von Self-Adjusing computations ermöglicht es einen Algorithmus der eine Lösung für ein Problem berechnet so anzupassen, dass er auch kleine Änderungen der Eingabe akzeptiert und asymptotisch in vielen Fällen optimal arbeitet. Selbst im Vergleich zu manuell optimierten Lösungsansätzen. Dabei garantieren die Self-Adjusting computations, dass deren Lösung immer korrekt sind.

Ziel dieser Arbeit ist es, die Self-Adjusting computations beispielhaft auf ein graphisches Problem anzuwenden und es mit manuellen Optimierungen zu vergleichen.

In Bearbeitung

Masterarbeit
Nils Hein
Differentialgeometrische Analyse von Power Flow und Power Grid Berechnungen
Beschreibungstext anzeigen

Im Kontext elektrischer Energietechnik befasst sich die Power Flow- bzw. die Power-Grid-Analyse mit der Energieversorung in komplexen Netzwerken. Übliche Herangehensweisen sind häufig algebraischer Natur und skalieren deswegen schlecht. Insbesondere in hochdimensionalen Parameterräumen sind die Berechnungen sehr aufwändig und numerisch problematisch.

Ziel dieser Arbeit ist die Untersuchung differentialgeometrischer Verfahren im Hinblick auf verschiedene Beispiele aus dem Power-Flow Bereich. Dabei soll insbesondere untersucht werden, wie kompetitiv der differentialgeometrische Ansatz ist und was die Grenzen dieser Herangehensweise sind.

Beschreibungstext verbergen
April 2017
Masterarbeit
Pascal Urban
Automatisches Erzeugen von parallelen Programmen
Beschreibungstext anzeigen

Das Schreiben von parallelem Code ist meist ein aufwändiges und fehlerträchtiges Vorhaben. Moderne Programmiersprachen arbeiten oft imperativ und sind objektorientiert. Beides sind Paradigmen, die das Parallelisieren erschweren. Einerseits weil der Kontrollfluss nicht explizit gegeben ist. Andererseits, weil die Daten, die verarbeitet werden nicht explizit modelliert werden, sondern durch Paradigmen wie "Hidden State" abstrahiert werden.

Es existieren andere Ansätze, wie z.B. die von der Programmiersprache Go verwendeten Channels, die aus Hoares CSP (Communicating Sequential Processes) hervorgingen. Prozessalgebren wie CSP oder CCS starten direkt mit der Annahme von parallel arbeitenden Prozessen und modellieren den Datenfluss (aus dem eine Art Kontrollfluss direkt ableitbar ist).

Das am Institut entwickelte System "Buggy" arbeitet intern gerade mit der Semantik von CSP und garantiert damit eine transparente Situation in der das Erzeugen parallelen Codes zunächst eine einfache Folgerung aus den Regeln von CSP sind. Dies führt dazu, dass jede Operation sinnvoll parallelisiert werden kann. Das parallelisieren jeder einzelnen Operation würde jedoch zu einem zu großen Overhead führen.

Ziel dieser Masterarbeit ist es, das Generieren von parallelen C-Code zu ermöglichen, mit dem Ziel die Programme möglichst effizient zu machen. Dabei sollen verschiedene Heuristiken erarbeitet werden, die entscheiden, wann welche Parallelisierungsvarianten (wie z.B. Pipelining) angewandt werden.

Beschreibungstext verbergen
Januar 2017
Masterarbeit
Nicola Gruhl
Grundlangen zur differentialgeometrischen Analyse von Power Flow und Power Grid Berechnungen
Beschreibungstext anzeigen

Im Kontext elektrischer Energietechnik befasst sich die Power Flow- bzw. die Power-Grid-Analyse mit der Energieversorung in komplexen Netzwerken. Übliche Herangehensweisen sind häufig algebraischer Natur und skalieren deswegen schlecht. Insbesondere in hochdimensionalen Parameterräumen sind die Berechnungen sehr aufwändig und numerisch problematisch.

Ziel dieser Arbeit soll eine grundlegende differentialgeometrische Untersuchung des Problems sein. DIe hierraus resultierenden numerischen Methoden haben in natürlicher Weise bessere Skalierungseigenschaften und sind daher numerisch stabiler und effizienter.

Beschreibungstext verbergen
November 2016
Masterarbeit
Jan Jamaszyk
Leibniz Universität Hannover
Implementierung eines Self-Sensing-Konzepts in die Ansteuerung eines Taktilen Displays
Beschreibungstext anzeigen

Im Rahmen eines DFG-Projektes entwickeln das Welfenlab, das IDS und das IMPT ein taktiles Display, das das Ertasten von unterschiedlichen virtuellen Oberflächenstrukturen wie Textilien, Leder, Holz und Kunststoffen ermöglichen soll. Für die taktile Wahrnehmung ist eine Vielzahl von unterschiedlichen, sich im Finger befindlichen Mechanorezeptoren zuständig. Jeder Rezeptortyp reagiert auf bestimmte Reize und Anregungsfrequenzen besonders sensibel. Um taktile Oberflächeneindrücke möglichst exakt nachbilden zu können, muss eine gezielte Anregung dieser unterschiedlichen Rezeptoren erfolgen. Dazu bedarf es neben der mechanischen Aktorik auch eines geeigneten Ansteuerungsmodells und einer gezielten Steuerung.

Die Modellierung einer konsistenten Ansteuerung hängt unter anderem auch von dem Systemverhalten des Displays sowie der mechanischen Impedanz der Fingerkuppe ab und ist im Allgemeinen nicht a priori bekannt. Insbesondere individuelle Unterschiede im Gewebeverhalten des Fingers und der variable Anpressdruck auf das Display können im bereits bestehenden System zurzeit nicht erfasst werden und erschweren damit die Vergleichbarkeit der Eindrücke zwischen verschiedenen Benutzern.

Ziel dieser Arbeit ist der Entwurf und die Implementierung einer Erweiterung des bestehenden Systems, die es erlaubt während der Benutzung des Displays Impedanzmessungen durchzuführen und durch regelungstechnische Maßnahmen individuelle Unterschiede zwischen den Anwendern auszugleichen. Als Grundlage für diese Messungen soll das Prinzip des "Self-Sensings" genutzt werden, welches es erlaubt aus Strom- und Spannungsvariationen an einem piezoelektrischen Biegeaktor Rückschlüsse auf die anliegenden Kräfte und Geschwindigkeit zu ziehen. Teil dieser Arbeit ist der Entwurf einer Verstärkerschaltung, welche den Anforderungen an die Betriebsspannung des eingesetzten Biegeaktors genügt, sowie der Entwurf und die softwareseitige Implementierung einer aktiven Kompensation über einen Mikrocontroller.

Im Rahmen dieser Arbeit ergeben sich insbesondere die folgenden Aufgabenpunkte:

  • Entwurf und Ausführung einer Verstärkerschaltung zur Ansteuerung von piezoelektrischen Biegeaktoren für Betriebsspannungen von ca. 200 V

  • Erarbeitung eines Konzepts zur Strom- und Spannungsmessung am betriebenen Biegeaktor

  • Entwicklung eines Algorithmus / einer Regelschleife zur aktiven Kompensation der anwenderspezifischen Fingerimpedanz auf einer gegebenen embedded Umgebung
Beschreibungstext verbergen
Januar 2016

Abgeschlossen

2016
Masterarbeit
Falk-David Deppe
Institut für Mensch-Maschine-Kommunikation
Erkennung und Rekonstruktion von 3D Objekten aus RGBD-Daten
Beschreibungstext anzeigen

Durch die gestiegene Verfügbarkeit erschwinglicher RGBD-Sensoren hat das Gebiet der Virtual Reality in den letzten Jahren einen großen Aufschwung erlebt, da diese es erlauben, auch ohne spezialisierter Messgeräte virtuelle 3D-Modelle realer Szenen und Objekte zu erzeugen.


Derartig erzeugte Modelle stellen meist jedoch keinerlei Informationen über die in der Szene enthaltenen Objekte zur Verfügung. Für VR-Anwendungen wären Einzelobjekte allerdings erstrebenswert, um beispielsweise interaktive Szenarien realisieren zu können. Eine solche Objekt-Segmentierung wird im Allgemeinen nachträglich berechnet und ist in vielen Fällen an die Schwächen der verwendeten Verfahren der Bildverarbeitung gebunden. Bekannte Probleme aus der Bildanalyse sind z.B. die Behandlung verdeckter Bereiche sowie der Umgang mit unvollständigen oder qualitativ unzureichenden Daten.


In dieser Arbeit soll ein Verfahren implementiert werden, welches eine Kombination aus verschiedenen Ansätzen der Bildverarbeitung auf RGBD-Daten anwendet, um zusätzliche Informationen über die 3D-Rekonstruktion zu erhalten. Durch die Auswertung dieser Zusatzinformationen soll der Prozess der Objekt-Segmentierung unterstützt werden. Eine weitere Anforderung ist die Schließung der geometrischen Schnitte zur Trennung von erkannten Objekten. Anschließend soll untersucht werden, inwiefern durch Kombination der verschiedenen Ansätze eine Verbesserung gegenüber den Segmentierungsergebnissen bestehender Verfahren erreicht werden kann.

Beschreibungstext verbergen
April 2016
Oktober 2016
2015
Masterarbeit
Daniel Busse
Leibniz Universität Hannover
Entwicklung eines stochastischen Modells für die 3D-Segmentierung medizinischer Tomographiedaten
Beschreibungstext anzeigen

Die Medizin hat im letzten Jahrhundert in Form von bildgebenden Verfahren ein bedeutendes Hilfsmittel erhalten. Basierend auf verschiedenen physikalischen Eigenschaften, bilden sie die innere Anatomie eines Patienten auf diskrete Volumendaten ab: Es entstehen dreidimensionale Bilder, auf denen unterschiedliche Gewebearten durch variierende Grauwerte dargestellt werden.

Eine Schlüsselrolle in der Auswertung dieser Bilder fällt der Segmentierung zu, einem Prozess, der relevante Objekte (z.B. Knochen) identifiziert und voneinander abgrenzt. Eine häufig verwendete Klasse von fortgeschritteneren Segmentierungsverfahren basiert auf den sogenannten "Deformable Models". Dabei wird ein Dreiecksnetz im Bild platziert und fortlaufend unter Krafteinwirkung verformt, bis das gesuchte Objekt bestmöglich ausgefüllt wird. Anschaulich lässt sich dieser Vorgang etwa mit dem Aufblasen eines Luftballons vergleichen, dessen Wachstum durch die Bildinformationen beeinflusst wird. Erschwert wird dies jedoch durch die üblicherweise schlechte Qualität medizinischer Aufnahmen, die oftmals dazu führt, dass das Modell nicht die gewünschte Form annimmt.

Eine Möglichkeit das Verfahren robuster zu gestalten, liegt in der Kombination mit Statistical Shape Models (SSM). Um diese aufzustellen, werden Trainingsobjekte untersucht, die durch korrespondierende Punktmengen beschrieben sind. Nach einer statistischen Analyse der Punktpositionen, wird eine Wissensbasis darüber erstellt, wie Objekte eines Typs üblicherweise geformt sind und auf welche Weise einzelne ihrer Merkmale variieren. Dieses Wissen kann unter anderem dazu genutzt werden, die Wahrscheinlichkeit beliebiger Objekte zu bestimmen oder neue zu generieren, die der Trainingsmenge ähneln. Basierend darauf kann ein Deformable Model so gesteuert werden, dass es sich nur auf eine Weise verformt, die statistisch gesehen plausibel ist.

In der vorliegenden Arbeit wird das bestehende YaDiV Deformable Model Framework um eine eigene SSM Komponente erweitert und deren Verbesserungspotential evaluiert.

Beschreibungstext verbergen
Januar 2015
Juli 2015
2013
Masterarbeit
Friedrich Hattendorf
Implementation und Analyse von Triangle Strip Algorithmen
Beschreibungstext anzeigen

Volumenkörper werden in der Computergrafik oft durch die Darstellung ihrer Oberfläche als Dreiecksnetz repräsentiert. Gerade bei komplexeren Objekten kann dabei die Dreieckszahl schnell mehrere Millionen erreichen, was auch heute noch eine Herausforderung für die Grafikkarte darstellt. Zwar existieren Verfahren, die ein Dreiecksnetz vereinfachen (= die Anzahl der Dreiekce reduzieren), dabei besteht jedoch immer die Gefahr, dass wichtige Details der Oberfläche Verloren gehen können oder schlimmstenfalls sogar Selbstüberschneidungen erzeugt werden. Eine interessante Alternative stellen die sogenannten Triangle-Strips dar. Bei dieser Datenstruktur, wird versucht, das Netz aus möglichst langen Dreiecks-Streifen zusammenzusetzen, bei der sich jeweilst zwei aufeinanderfolgende Dreiecke genau eine Kante teilen. Durch diesen Trick lässt sich im Idealfall der benöitgte Speicheraufwand auf 1/3 reduzieren. Das Problem der Findung einer solchen idealen Zerlegung ist jedoch N(P) vollständig. Daher existieren eine Vielzahl von Verfahren, die mit heuristischen Methoden versuchen, eine möglichst gute Triangle Strip Darstellung zu finden. Ziel dieser Arbeit ist es, verschiedene Verfahren aus dieser Kateogrie zu implementieren und für Dreiecksflächen aus medizinischen Anwendungen zu vergleichen. Zusätzlich soll ein eigenes Verfahren implentiert werden, bei dem der Augenmerk nicht in einer möglichst guten Strip Darstellung sondern der Erzeugung der Strip Struktur ohne nennenswerten Zeit- und Speicheraufwand liegt.

Beschreibungstext verbergen
November 2012
Mai 2013
2012
Masterarbeit
Marco Köhnen
Entwicklung einer halbautomatischen Segmentierungsmethode zur Bestimmung der intrakraniellen Luftmenge nach einer Schädeloperation
Beschreibungstext anzeigen
In dieser Arbeit soll ein neuer Ansatz automatischer Verfahren mit Hilfe von Deformable Models und gängiger Segmentierungsverfahren verfolgt werden, um den Liquorverlust nach einer Schädel-Operation zu Bestimmen. Hintergrund sind Operationen, bei denen der Patient in einer halb-sitzenden Stellung am Hinterkopf operiert wird. Eine Folge davon ist ein Verlust an Flüssigkeit, die sich im Laufe der Zeit rückbildet. Um diesen Rückbildungsprozess untersuchen zu können, soll ein halb-automatisches Verfahren zur Bestimmung der  intrakraniellen Luftmenge etnwickelt und mittels umfangreicher bereits vorliegender Daten auf Reproduzierbarkeit und Güte getestet werden.
Beschreibungstext verbergen
Juni 2012
Dezember 2012
2011
Masterarbeit
Maximilian Hans Gerhard Klein
Local Refinement Methods for Fluid Simulation
Beschreibungstext anzeigen
Die Komplexität der Simulation dynamischer Prozesse in Echtzeit setzt enge Grenzen was die Problemgröße und die Genauigkeit von SImulationen selbst auf neuester Hardware angeht. Dabei ist es häufig gar nicht nötig, jede Lösung über einem Teilgebiet der Simulationsdomäne mit der selben Präzision zu berechnen. Häufig liefern adaptive Verfahren bei einer Verringerung der Freiheitsgrade bessere Ergebnisse. Diese Arbeit untersucht im Kontext der Fluidsimulation eine adaptive Fassung des Multigrid Algorithmus, der diese Eigenschaft nutzen soll um interaktive Fluidsimulation mit hoher Genauigkeit zu ermöglichen. Dazu wird in einem sog. splitting Verfahren die Lösung der Fluidgleichungen in zwei Teilschritte zerlegt. Im ersten Schritt wird mit einem sog. semi-lagrangian Verfahren das (vorläufig divergenzbehaftete) Geschwindigkeitsfeld nach Einwirkung von verteilten Kräften, Randbedingungen und Advektion berechnet. Dieses wird dann in einem zweiten Schritt durch die Lösung eines geeigneten Poissonproblems mittels der Multigridmethode auf seinen divergenzfreien Anteil projiziert.
Beschreibungstext verbergen
Betreuer: Rasmus Buchmann
April 2011
Oktober 2011
Masterarbeit
Matthias Becker
Welfenlab + Kiefer-, Mund und Geschitschirurgie der MHH
Modellbasierte Orbita Segmentierung und die automatisierte Bestimmung anatomisch relevanter Parameter
Beschreibungstext anzeigen

Der Begriff Segmentierung beschreibt die Auswahl von Voxeln in einem Volumendatensatz entsprechend einem vom Benutzer gewählten Homogenitätskriterium. Ein einfaches Verfahren könnte z.B. alle Voxel zwischen einer unteren oder oberen Intensitätsschranke segmententieren (Min-Max-Verfahren). Sollen komplexere Formen erkannt werden, kommen meist modellbasierte Verfahren zum Einsatz. Ein Beispiel für eine solche, komplexe Form, stellt die knöcherne Augenhöhle (Orbita) dar. Ziel dieser Masterarbeit war es, modellbasierte Verfahren anhand des klinisch relevanten Beispiels der Orbita-Segmentierung zu untersuchen. Die  entwickelten Algorithmen sind jedoch allgemeiner und auch für andere Anwendungsfälle einsetzbar. Ein Hauptaugenmerk lag dabei auf dem Deformable Model  Ansatz. Dabei wird ein zur gesuchten Segmentkontur topologisch äquivalentes Startmodell schrittweise "aufgeblasen" und durch geeignete innere oder äußere Parameter (Formerhaltung, Gradienten,  ...) gebremst. Zur Demonstration des Verfahrens wurde ein Modul für die von Karl-Ingo Friese geschriebene Software YaDiV entwickelt werden, das die Visualisierung und Kontrolle der Evolutionssparameter in jedem Schritt erlaubt.

In der Ausarbeitung wurde der Einfluss unterschiedlicher Parametergewichtungen untersucht. Ein weiteres Ziel dieser Arbeit bestand in der automatisierten Bestimmung anatomisch interessanter Punkte und Größen (Winkel, Abstände, etc.) und einer Analyse der Segmentgüte.

Beschreibungstext verbergen
Oktober 2010
April 2011
2010
Masterarbeit
Benjamin Berger
Leibniz Universität Hannover
Untersuchung von Eigenwertspektren zur Klassifikation von Bildinformation
Beschreibungstext anzeigen
Es gibt viele Gründe Verfahren zu entwickeln, die zu gegebenen Daten Duplikate oder "ähnliche" Versionen finden können. Die Anwendungen reichen von der Organisation von Datensammlungen über Mustererkennung bis zum Urheberrechtsschutz. In dieser Arbeit soll ein solches Verfahren für Bilddaten vorgestellt werden. Bei den bisherigen Verfahren, sofern sie ähnlich wie das in dieser Arbeit beschriebene die Bilder in Eigenwertprobleme umwandeln und dann die Eigenwertspektren vergleichen, wurde kein Augenmerk darauf gerichtet, inwieweit sich Information über Bildteile, also von Kanten umgrenzte Gebiete einigermaßen gleichförmiger Helligkeit, im Eigenwertspektrum unterbringen lässt beziehungsweise in einer für den Ahnlichkeitsvergleich sinnvolllen Weise berücksichtigen lässt. Diese Arbeit ist ein erster Versuch, die Problemstellung des partiellen Matching mit derartigen eigenwertbasierten Methoden anzugehen.

Beschreibungstext verbergen
Betreuer: Alexander Vais
Juni 2010
Dezember 2010
2009
Masterarbeit
Marc Christoph Vollmer
Leibniz Universität Hannover
Entwurf und Implementation einer haptischen Schnittstelle für YaDiV
Beschreibungstext anzeigen
In der heutigen Zeit wird aufgrund neuer technischer Innovationen und verstärkter Rechenleistung das Immersionsgefühl des Benutzer immer weiter gesteigert. Das Teilgebiet zur Integration von Haptik in eine dreidimensionale virtuelle Welt ist ein wesentlicher Bestandteil davon. Im Rahmen dieses Forschungsgebiet werden Algorithmen entwickelt mit dessen Hilfe Objekte nicht nur visuell begreifbar, sondern tatsächlich erfühlbar werden. Im Rahmen dieser Arbeit werden verschiedene Ansätze zur Anwendung von Haptik auf virtuelle Objekte untersucht. Dazu gehören Verfahren zur Kollisionerkennung sowie die Berechnungsmethoden für rückwirkende Kräfte. Zusätzlich werden noch Algorithmen zur Deformation in Echtzeit untersucht. Darunter fallen elastische Deformationen beim Kontakt mit dem virtuellen Objekt und Algorithmen zur permanenten Verformung der Objekte. Alle Ergebnisse wurden abschließend in ein Programm für die Visualisierung von dreidimensionalen Volumensdaten aus dem medizinischen Bereich (YaDiV ) integriert.
Beschreibungstext verbergen
April 2009
Oktober 2009
Masterarbeit
Daniel Pralle
Parallelisierte Berechnung zur Fluiddynamik auf der Cell B.E. Prozessorarchitektur
Beschreibungstext anzeigen
Im Forschungsgebiet der Virtual Reality Simulationen unterstützt durch den im Aufbau befindlichen VR-Raums, soll überprüft werden, welche Möglichkeiten sich durch den Cell Rechencluster  eröffnen. Die ausgeschriebene Arbeit hat hierbei zum Thema eine Fluiddynamik Simulation zu entwickeln, die hohe Rechenleistung von bis zu 6,4 Teraflops ausnutzen kann. Dabei sollen die Konzepte der Parallelisierung auf High Performance Cluster und die Spezialisierung des Cell Prozessors ausgenutzt werden, um eine interaktive Simulation zu ermöglichen.

Beschreibungstext verbergen
Januar 2009
Juli 2009
Masterarbeit
Alexander Vais
Leibniz Universität Hannover
Untersuchungen zur Medialen Achse Transformation in der Ebene
Beschreibungstext anzeigen
Diese Arbeit befasst sich mit der Berechnung der Medialen Achse einer geschlossenen Spline-Kurve in der euklidischen Ebene. Obwohl diese Problemstellung bereits früh untersucht wurde, belegen neuere Arbeiten, dass noch Forschungsbedarf besteht. Ein Teilproblem ist die exakte Lokalisierung von Verzweigungspunkten, in denen sich mehrere mediale Äste treffen. Die Berechnung der Startpunkte, medialen Äste und Verzeigungspunkte der Medialen Achse  kann in einer vereinheitlichenden Betrachtung auf das Problem der Nullstellensuche zurückgeführt werden. Als Verfahren zur Nullstellensuche werden unter anderem Homotopieverfahren, Prädiktor-Korrektor Techniken zur Pfadverfolgung sowie Spline-basierte Bisektionsverfahren vorgestellt.
Beschreibungstext verbergen
April 2009
Masterarbeit
Maximilian Müller
Leibniz Universität Hannover
High-Quality Ray Casting Verfahren zur Visualisierung segmentierter medizinischer Voxeldaten
Beschreibungstext anzeigen

YaDiV Ray Casting BildBildgebende Verfahren haben insbesondere in der medizinischen Anwendung eine große Verbreitung erfahren. So sind z.B. Computertomographie oder Magnet-Resonanz-Tomographie aus dem klinsichen Alltag nicht mehr wegzudenken. Um die gewonnen 3D-Daten auch 3-dimensional zu visualiseren, können unterschiedliche Methoden des Direct-Volume-Rendering verwendet werden. Die Algorithmen unterscheiden sich vor allem in Laufzeit und Bildqualität. Ein vergleichender Überblick über die gängigen Verfahren wird z.B. in der Diplomarbeit von Dominik Sarnow gegeben.

In dieser Masterarbeit wurde ein Vertreter der sogenannten Raycasting-Verfahren implementiert und weiterentwickelt. Raycasting-Verfahren sind sehr flexibel erweiterbar (Early-Ray-Termination, Empty-Space-Skipping, Shadow-Maps, ...) und liefern zum Teil sehr beeindruckende Bilder. Das Verfahren wurde al Modul in die am Welfenlab entwickelte DICOM Visualisierungssoftware YaDiV ("Yet Another DIcom Viewer") eingebunden. Übergeordnetes Projekt: YaDiV
Beschreibungstext verbergen
Oktober 2008
April 2009
2008
Masterarbeit
Daniela Lauer
A Generalized Architecture for Hybrid Tracking Including Inertial Sensor Technology
Beschreibungstext anzeigen
Tracking, als eines der wichtigsten Bestandteile der Realisierung von Augmented-Reality-Anwendungen, sorgt für die ortsspezifische Verknüpfung der Realität und der virtuellen Darstellung. Die anwendungsabhängigen Anforderungen an das Tracking können meist nicht durch bereits vorhandene Systeme oder Prototypen abgedeckt werden. Um positive Eigenschaften zu kombinieren und Mängel auszugleichen empfiehlt sich der Einsatz eines hybriden Trackingsystems, also die Fusion von Sensordaten. Um diese auf einfachem Wege zu ermöglichen werden im Rahmen dieser Arbeit Konzepte für flexible und sensorunabhängige Datenfusion aus anderen Fachgebieten auf die Anforderungen von Augmented-Reality-Anwendungen übertragen, um eine von der mathematischen Methode unabhängige Architektur und eine Kalman-Filter-Fusionsanwendung für den Augmented-Reality-Kontext zu gewinnen. In die Struktur der vorgestellten Schnittstelle fließen außerdem Konzepte aus der Theorie der Datenfusion und verallgemeinerter Software im Tracking-Bereich ein. Zur Realisierung von Sensorvariabilität und einer schnellen Einbindung in Augmented-Reality-Anwendungen wurde eine Integration der Architektur in die Software OpenTracker bereits konzeptionell vorgesehen und im Rahmen der Kalman-Filter-Implementierung umgesetzt. Die vorgestellte Software ermöglicht die Fusion von Positions-, Geschwindigkeits- beziehungweise Beschleunigungsdaten im Rahmen verschiedener Kalman-Filter-Architekturen als Knoten. Dieser kann flexibel in den OpenTracker-Flussgraphen eingebunden und so zu beliebigen Fusionsnetzwerken zusammengesetzt werden. Die Konfiguration erfolgt anhand einer XML-Spezifikation, die auch die Integration eigener Anwendungen und die Möglichkeit des verteilten Trackings einbezieht. Anhand synthetischer Daten wird die Verbesserung durch die Fusion der Messdaten verschiedener Quellen mit der Umsetzung demonstriert und der Erfolg des Einsatzes von Inertialsensoren in Kombination mit markerbasierten beziehungsweise markerlosem Tracking gezeigt. Außerdem werden die verschiedenen Systemmodelle für die Kalman-Filterung erläutert, anhand derer eine anwendungsabhängige Konfiguration der Datenfusion möglich ist. Die vorgelegte Arbeit enthält außerdem eine umfangreiche theoretische Betrachtung der Kalman-Filterung, insbesondere auch eine Einführung in die verschiedenen Möglichkeiten der Sensordatenfusion mit dem Filter. Weiterhin werden andere mathematische Verfahren zur Fusion von Daten für das Single-Target-Tracking vorgestellt. Für eine zukünftige Erweiterung der Implementation eröffnet das vorgeschlagene Konzept eine Vielzahl zusätzlicher Umsetzungsmöglichkeiten. Die vorgestellte Architektur bietet eine gute Grundlage für die Umsetzung beliebiger Sensordatenfusionssysteme im Augmented-Reality-Bereich. Die implementierte Kalman-Filter-Fusions-Anwendung ermöglicht eine Verbesserung von Trackingverfahren durch Sensordatenfusion und kann als Basis für zahlreiche Erweiterungen im Hinblick auf die unterschiedlichsten Anwendungen dienen.
Beschreibungstext verbergen
November 2007
Juli 2008
Masterarbeit
Coester Julia
Entwicklung haptischer Modellierkonzepte für die Medialen-Achsen-Rücktransformation
Beschreibungstext anzeigen
Ziel dieser Masterarbeit ist es, den am Lehrstuhl entwickelten Medial Modeller, der auf dem Konzept der Medialen-Achse aufgebaut ist, um Haptik und einen dynamischen, intuitiven Verformungsalgorithmus zu erweitern. Der Verformungsalgorithmus setzt an der Radiusfunktion an und durchläuft mehrere Schritte um eine Verformung der Radiusfunktion zu erreichen, unter anderem auch einen B-Spline-Deformierungsalgorithmus, der das B-Spline so verformt, dass ein verschobener Oberflächenpunkt genau an der Stelle liegt, wohin er geschoben wurde. Der Verformungsalgorithmus nutzt die Vorteile der Haptik aus, indem über das Haptikgerät die Verformung gesteuert wird. Dadurch lässt sich die Verformungsfunktion sich sehr intuitiv steuern. Des weiteren wird in dieser Masterarbeit näher auf Konzepte zur Einbindung von Haptik in ein Programm eingegangen. Allgemein wird die Haptik näher beleuchtet und auch der Medial Modeller genauer beschrieben.
Beschreibungstext verbergen
November 2007
Juni 2008
Masterarbeit
Chavdar Papazov
Morphing zwischen triangulierten Nicht-Mannigfaltigkeiten unter Berücksichtigung topologischer Änderungen
Beschreibungstext anzeigen

In der Arbeit aus dem Bereich Bio-Imaging wurde der Prozess der morphologischen Veränderungen bei der Entwicklung eines Samenkorns untersucht.

Beschreibungstext verbergen
September 2007
Februar 2008
2007
Masterarbeit
Richard Guercke
Leibniz Universität Hannover
Boundary Extraction from Voxel Data Using Contour Lines
Beschreibungstext anzeigen
Skull ContourIn this thesis, an algorithm is introduced that extracts a boundary surface from a voxel data set representation of a shape. To achieve this objective, a connectivity graph is constructed from boundary polygons of the object in (usually orthogonal) 2D slices. This graph is used to find facets of the object's boundary surface.

At given sampling intervals, the resulting triangulated surfaces bear a considerably closer resemblance to the original voxel data object than the result of the (modified) Marching Cubes algorithm.  This is, however, only achieved at the cost of an increase in computation time and memory usage. At the closest sampling interval, the algorithm returns a closed surface without self-intersections.

The connectivity graph can also be used for the restriction of surface patches to be displayed according to visibility or as a basis for physical computations like FEM analysis. Project: YaDiV
Beschreibungstext verbergen
Juni 2007
November 2007
Masterarbeit
Michael Hanel
Leibniz Universität Hannover
Untersuchung und Implementation verschiedener Kollisionserkennungsalgorithmen für deformierbare Körper
Beschreibungstext anzeigen

Due to the rapid development in the graphics card sector, Virtual Reality (VR) Applications are getting a broader application range. In general VR-Applications try to map the real world to a virtual counterpart preserving the physical realism. Concerning the latter aspect, this is a very challenging task due to the requirements of user interaction. A crucial component of the VR-System is the collision detection. Realism in virtual environments demands avoidance of invalid states like intersection of objects.

In the context of the HAPTEX-Project (hapti interaction with virtual textiles) methods detecting the aforementioned states are presented. Moreover, a scheme for resolving collisions and technical solutions related to the integration within the HAPTEX VR-System architecture are shown.

Beschreibungstext verbergen
Februar 2007
August 2007
Masterarbeit
Sebastian Preuin
Leibniz Universität Hannover
Ein lernendes System zur taktilen Darstellung von Textilien
Beschreibungstext anzeigen
The satisfying simulation of surfaces of real fabrics is notwithstanding intensive efforts an unsolved problem. Within the HAPTEX project some procedures were developed, which used height profiles for calculating the output of simulations done by a tactile display. Methods were examined in this master thesis, how a simulation can be calculated without a height profile. The values of different parameters, which are determined by test persons, are compared with each other. The results of the test series show that some subjects selected similar attitudes of parameter and thereby created different concentration areas in the range of parameter for each used fabric. The results are ambiguous, but are promising that the use of memory-complex height profiles can be decrepit in the future.
Beschreibungstext verbergen
August 2007
Masterarbeit
Cem Dogan
Leibniz Universität Hannover
Mediale-Achsen-Rücktransformation in Riemannschen Mannigfaltigkeiten
Beschreibungstext anzeigen
The Medial Axis is the set of centers of all maximally inscribed spheres. This geometric concept is used for object representation and, together with the Medial Axis Inverse Transform (MAIT), for modeling of solids by editing their medial surface and a radius function. Extending the three-dimensional Euclidean to the Riemannian situation allows to treat physical and technical problems that can be modeled with an adapted metric. The Geodesic Medial Modeler (GMM) is a tool to design the Medial Axis as a tensor spline surface and to deform the Euclidean space locally. It performs the associated MAIT calculations in real time and visualizes the resulting envelope in the three-dimensional parameter space.
Beschreibungstext verbergen
Januar 2005
Mai 2007
2006
Masterarbeit
Maxim Marchenko
Leibniz Universität Hannover
Dynamische 3D-Visualisierung eines Radial-Axial-Ringwalzprozesses
Beschreibungstext anzeigen

Im Rahmen dieser Arbeit wurde eine 3D-Visualisierungssoftware entwickelt, die aufbauend auf einer am Institut für Umformtechnik und Umformmaschinen (IfUM) der Leibniz Universität Hannover entwickelten Simualtion, einen Radial-Axial-Ringwalzprozess dynamisch darstellt.  Ziel ist es hierbei, den Ingenieur arbeitsbegleitend bei der Evaluation und Analyse während der Spezifikation einer Ringwalzstrategie zu unterstützen. Die Hauptanforderung für die Simulation besteht daher in der schnellen Vorhersage des Werkstofffluss und der Ringgeometrie zu jedem Zeitpunkt des Walzprozesses.

Nach dem Entwurf eines Anforderungsprofils in Zusammenarbeit mit dem IfUM wurde eine entsprechende Entwurfsspezifikation erstellt. Diese dient die Grundlage für das erstellte Softwaresystem und bildet insbesondere die Anforderungen eines Konstruktionsingenieurs während der Auslegung des Ringwalzprozesses ab. Die Spezifikation erforderte eine Erweiterung der Werkstoffflusssimulation um eine Datenstruktur und Algorithmen zur Speicherung der Werkstoffflussbilanz und ihrer Summe.

Das entwickelte Softwareprogramm ermöglicht es, den Radial-Axial-Ringwalzprozess dreidimensional dynamisch zu jedem Zeitpunkt zu betrachten. Weiterhin stehen dem  Benutzer Schnittwerkzeuge zur Verfügung, um zu jedem Zeitpunkt Ringschnitte anzuzeigen, die das Ringprofil zeigen und den Stofffluss in der Schnittebene abbilden. Um die Korrektheit einzelner Softwaremodule zu gewährleisten wurden Unit-Tests implementiert, die ein automatisches Testen ermöglichen.

Schließlich wurde die Simulation bezüglich der Zeitkomplexität sowohl analytisch untersucht, als auch in praktischen Versuchen auf ihr Zeitverhalten und den Speicherverbrauch getestet. Das als Proof-of-concept zu verstehende Softwaresystem ist wie erwartet deutlich schneller als Lösungen mit FEM-Systemen. Weitere Arbeiten könnten sich mit Untersuchungen zur Genauigkeit und Verwendbarkeit im Koonstruktionsprozess beschäftigen.

Beschreibungstext verbergen
Dezember 2006
Masterarbeit
Karin Matzke
Leibniz Universität Hannover
Ein System zur taktilen Simulation ebener Oberflächen
Beschreibungstext anzeigen

In der modernen Computertechnik spielt die Bedeutung der so genannten Virtuellen Realität eine immer wichtigere Rolle. Dabei ist es das Ziel, eine künstliche oder reale "Welt" mit dem Computer zu simulieren und durch entsprechende Ausgabegeräte für alle Sinne wahrnehmbar zu machen. Neben Geräten für Seh- und Hörsinn ist dabei jedoch ein Sinn noch wenig bedacht: der Tastsinn. Dabei ist die Menge an Informationen, die wir von unserer Umwelt und der Interaktion mit der Umwelt über den Tastsinn wahrnehmen, so groß wie von keinem anderen Sinn. Daher liegt es nahe, auch für diesen Sinneskanal entsprechende Hard- und Software zu entwickeln.

In der vorliegenden Arbeit wurden Strategien entwickelt, um mit Hilfe eines taktilen Displays reale Textilien zu simulieren und für den Menschen "fühlbar" zu machen. Dabei wurden in Anlehnung an bisherige Erkenntnisse über die Funktionsweise des taktilen Sinnes beim Menschen verschiedene Mechanorezeptortypen in der Haut durch Vibrationen aus zwei Basisfrequenzen stimuliert. Die Amplituden der Schwingungen wurden mit unterschiedlichen Algorithmen aus dem Höhenprofil der virtuellen Textilie berechnet. Die durchgeführten Versuche zeigen, dass sich die Rauheit der Textilien mit dem vorhandenen Gerät und den entwickelten Renderingstrategien darstellen lässt, und dass darüber hinaus auch feine regelmäßige Muster modellierbar sind, die den Gefühlseindrücken der realen Textilien ähnlich sind. In Zukunft soll die Dimension der erzeugten Sinneseindrücke durch die Kombination mit einem Display für den kinesthätischen Sinn erweitert werden, um damit der idealen virtuellen "gefühlten" Welt einen wesentlichen Schritt näher zu kommen.

Beschreibungstext verbergen
November 2006
Masterarbeit
Marc Herrlich
Leibniz Universität Hannover
Untersuchungen zur Eignung von 3D-Spieleengines für die wissenschaftliche Visualisierung anhand der CryENGINE
Beschreibungstext anzeigen
Computerspiele sind in heutiger Zeit aus dem Alltag vieler Menschen nicht mehr wegzudenken. Darüber hinaus erreichte die Technologie moderner Spiele im Laufe der letzten Jahre einen Standard, der diese auch für Anwendungen fernab des Unterhaltungssektors interessant macht. Die Visualisierung wissenschaftlicher Daten ist ein bedeutendes Anwendungsgebiet der graphischen Datenverarbeitung. Insbesondere die interaktive dreidimensionale Darstellung virtueller oder realer Umgebungen stellt ein wichtiges Hilfsmittel dar. In dieser Arbeit wird anhand der in dem Computerspiel Farcry eingesetzten CryEngine untersucht, welche Möglichkeiten moderne Spieleengines für die wissenschaftliche Arbeit bieten. Als Anwendungsbeispiel soll mit Hilfe der CryEngine eine auf GIS-Daten basierende dreidimensionale Landschaftsdarstellung umgesetzt werden. Dazu wird in der vorliegenden Arbeit ein Konverter entwickelt, um automatisiert aus vorhandenen GIS-Daten einen entsprechenden Farcry-Level zu erzeugen.
Beschreibungstext verbergen
März 2006
Masterarbeit
Tjard Köbberling
Leibniz Universität Hannover
Verschiedene Methoden zur Generierung virtueller taktiler Oberflächenstrukturen
Beschreibungstext anzeigen
Virtuelle Realität ist die Darstellung der Wirklichkeit und ihrer physikalischen Eigenschaften in einer in Echtzeit computergenerierten virtuellen Umgebung. Neben der optischen und akustischen Wahrnehmung kann auch die taktile Wahrnehmung in der virtuellen Umgebung möglich gemacht werden. Unter taktiler Wahrnehmung wird das Erkennen von Druck, Berührung und Vibrationen auf der Haut verstanden. Es wurden verschiedene, bereits in vorherigen Arbeiten beschriebene Methoden zur Generierung virtueller taktiler Oberflächenstrukturen implementiert und miteinander verglichen. Als Vorlage dienten dabei Textilien, die in der virtuellen Umgebung möglichst realistisch dargestellt werden sollten.
Beschreibungstext verbergen
Januar 2006