Studentische Arbeiten

Die fol­gen­de Auf­stel­lung gibt einen Über­blick über An­ge­bo­te­ne und Ab­ge­schlos­se­ne Ba­che­lor-, Mas­ter-, Stu­di­en- und Di­plom­ar­bei­ten im Wel­fen­lab.

Soll­ten Sie sich für eines der aus­ge­schrie­be­nen The­men in­ter­es­sie­ren, oder haben Sie In­ter­es­se an einem ähn­li­chen Thema, so neh­men Sie bitte Kon­takt mit Ma­xi­mi­li­an Klein auf.

Angebote

Masterarbeit
Self-Adjusting Computations für Graphische Oberflächen

Die Entwicklung von graphischen Oberflächen erfordert meist performante Algorithmen, die mit sorgfältig ausgewählten Heuristiken die Anzal nötiger Operationen minimieren. Dies ist insbesondere bei interaktiven Anwendungen wichtig. Das Problem bei dieser Herangehensweise ist die Auswahl und Implementation der Heuristiken. Diese erzeugen oft ein logisch schwer nachvollziehbares und testbares Gerüst an Entscheidungen. Die Korrektheit dieser Heuristiken ist selten beweisbar und meistens auch nicht gegeben.

React von Facebook löst dieses Problem auf eine andere Art und Weise. Die Darstellungslogik jeder Komponente wird nur für den Fall angegeben, dass die Komponente komplett neugezeichnet wird. Diese Logik ist meist überschaubar und leichter verifizierbar. Sollte sich nun eine kleine Änderung an der Komponente ergeben wird im Speicher die Komponente neu erstellt und ein minimaler Satz an Änderungen zwischen dem momentanen Stand und dem neu berechneten Stand errechnet. Dies umgeht das Problem komplexer Heuristiken, erzeugt aber oft einen unnötigen Overhead.

Eine andere mögliche herangehensweise soll in dieser Arbeit untersucht werden. Das Konzept von Self-Adjusing computations ermöglicht es einen Algorithmus der eine Lösung für ein Problem berechnet so anzupassen, dass er auch kleine Änderungen der Eingabe akzeptiert und asymptotisch in vielen Fällen optimal arbeitet. Selbst im Vergleich zu manuell optimierten Lösungsansätzen. Dabei garantieren die Self-Adjusting computations, dass deren Lösung immer korrekt sind.

Ziel dieser Arbeit ist es, die Self-Adjusting computations beispielhaft auf ein graphisches Problem anzuwenden und es mit manuellen Optimierungen zu vergleichen.

Bachelorarbeit
Hochperformante Datenstrukturen für Persistente Compound Graphen

Im Rahmen meiner Forschung an dem Code-Generierungs-Tool Buggy werden spezielle Compound-Graphen verwendet, die neben der Graphstruktur auch noch eine Hierarchie aufbauen. Diese wird durch Compound Knoten realisiert. Dies sind Knoten die selber wieder Graphen enthalten können. Dazu gibt es mehrere Layer von Kanten die entweder über spezifische Ports verbunden sind oder aber Knoten direkt verbinden.

Die Graph Implementierung (zu finden unter https://github.com/BuggyOrg/graphtools) hat dafür einige Anfrage Möglichkeiten die das Arbeiten mit den Graphen erleichtern soll. Die ganzen Operationen sind dafür persistent implementiert, das heißt nach außen hin scheinen die Graphen immutable zu sein. Dies hat für uns den Vorteil, dass Operationen leicht Nachvollziehbar bleiben und Fehler meist einfach zu identifizieren sind.

Zum sicherstellen der immutability werden momentan alle Graphen für jede Operation kopiert. Dies ist sehr aufwändig und kann eindeutig verbessert werden.

Ziel dieser Bachelorarbeit ist das Entwickeln von Algorithmen zum effizienten Bearbeiten und Anfragen in oben vorgestellten Compound Graphen. Dazu sollen existierende Verfahren zum Erzeugen von effizienten persistenten Datenstrukturen evaluiert werden und an die Bedürfnisse des existierenden Graphen angepasst werden.

Bachelorarbeit
Intraoperative Erfassung der Beckenkippung mittels Handy-Sensoren

Ziel dieser Arbeit ist es, die Sensoren eines aktuellen (Highclass-)Handys möglichst optimal zu kombinieren, um die Winkelmessung in allen drei Achsen möglichst präzise durchführen zu können. Darüber hinaus soll eine App programmiert werden, die es dem Anwender die Ausrichtung der Beckeneingangsebene sowohl im stehen als auch im liegen zu erfassen. Die Winkelwerte können gespeichert und verglichen werden. So wird eine Kippung des Beckens sichtbar. Wird anschließend noch die Ausrichtung des anatomischen Acetabulum im Becken erfasst, stehen alle zur Implanation eines Pfannenimplantats gewünschten Informationen zur Verfügung.


Medizinische Anwendung

Während der Implantation einer Hüftgelenkspfanne ist es Ziel des Operateurs eine möglichst gute Pfannenposition und -ausrichtung zu erreichen. Diese definiert sich durch verschiedene klinische und funktionelle Parameter. Einen großen Einfluss auf das OP Ergebnis hat natürlich die Ausrichtung des Beckens unter Last, auch definiert als der Winkel der Beckeneingangsebene (Anterior Pelvic Plane, APP) zur Vertikalen. Es gibt zwei grundlegende Vorgehensweisen zur Zielwertbestimmung. Eine Ausrichtung der Pfanne innerhalb der sogenannten Lewinnek-Safe-Zone, welche die APP als Referenz verwendet, gut beschrieben ist und dem Stand der Technik entspricht. Die alternative Ausrichtung orientiert sich am anatomischen Pfannenrand und hat die Rekonstruktion deren Ausrichtung zum Ziel. Wie oben angedeutet
ist bekannt, dass auch die Ausrichtung der APP einen Einfluss auf die „optimale“ Ausrichtung der Pfanne hat. So kann eine Pfanne wohl nach Lewinnek perfekt sitzen, durch eine entsprechend starke Verkippung des Beckens im Stand dennoch nicht zu einem optimalen OP-Ergebnis für den Patienten und sogar zu Luxationen führen. Entsprechend groß ist das klinische Interesse an der anatomischen Beckenausrichtung des Patienten im Stand und im Liegen.

Betreuer: Daniel Brandes

In Bearbeitung

Masterarbeit
Pascal Urban
Automatisches Erzeugen von parallelen Programmen

Das Schreiben von parallelem Code ist meist ein aufwändiges und fehlerträchtiges Vorhaben. Moderne Programmiersprachen arbeiten oft imperativ und sind objektorientiert. Beides sind Paradigmen, die das Parallelisieren erschweren. Einerseits weil der Kontrollfluss nicht explizit gegeben ist. Andererseits, weil die Daten, die verarbeitet werden nicht explizit modelliert werden, sondern durch Paradigmen wie "Hidden State" abstrahiert werden.

Es existieren andere Ansätze, wie z.B. die von der Programmiersprache Go verwendeten Channels, die aus Hoares CSP (Communicating Sequential Processes) hervorgingen. Prozessalgebren wie CSP oder CCS starten direkt mit der Annahme von parallel arbeitenden Prozessen und modellieren den Datenfluss (aus dem eine Art Kontrollfluss direkt ableitbar ist).

Das am Institut entwickelte System "Buggy" arbeitet intern gerade mit der Semantik von CSP und garantiert damit eine transparente Situation in der das Erzeugen parallelen Codes zunächst eine einfache Folgerung aus den Regeln von CSP sind. Dies führt dazu, dass jede Operation sinnvoll parallelisiert werden kann. Das parallelisieren jeder einzelnen Operation würde jedoch zu einem zu großen Overhead führen.

Ziel dieser Masterarbeit ist es, das Generieren von parallelen C-Code zu ermöglichen, mit dem Ziel die Programme möglichst effizient zu machen. Dabei sollen verschiedene Heuristiken erarbeitet werden, die entscheiden, wann welche Parallelisierungsvarianten (wie z.B. Pipelining) angewandt werden.

Januar 2017
Masterarbeit
Nicola Gruhl
Grundlangen zur differentialgeometrischen Analyse von Power Flow und Power Grid Berechnungen

Im Kontext elektrischer Energietechnik befasst sich die Power Flow- bzw. die Power-Grid-Analyse mit der Energieversorung in komplexen Netzwerken. Übliche Herangehensweisen sind häufig algebraischer Natur und skalieren deswegen schlecht. Insbesondere in hochdimensionalen Parameterräumen sind die Berechnungen sehr aufwändig und numerisch problematisch.

Ziel dieser Arbeit soll eine grundlegende differentialgeometrische Untersuchung des Problems sein. DIe hierraus resultierenden numerischen Methoden haben in natürlicher Weise bessere Skalierungseigenschaften und sind daher numerisch stabiler und effizienter.

November 2016
Bachelorarbeit
Tim Ebbeke
Automatisierte Typ Spezialisierungen

Am Welfenlab wird gerade eine Datenflussbasiertes System (Buggy) entwickelt das unter anderem das Ziel verfolgt das manuelle Optimieren von Code zu automatisieren.

Ein Teil dieses Problems ist die Optimierung der Datentypen, die in einem Programm verwendet werden. Z.B. sind Ganzzahloperationen schneller als Floating-Point Operationen. Oft wird deswegen der Datentyp int verwendet, auch wenn ein Floating-Point Typ genau die selben Ergebnisse liefern würde. Die Entscheidung welcher Typ wann am geeignetsten ist wird üblicherweise intuitiv vom Programmierer getroffen.

In dieser Arbeit soll dieser intuitive Entscheidungsprozess analysieret werden und im existierenden Buggy-System algorithmisch eine automatisierte Typentscheidung implementiert werden die zunächst Datentypen wie double und int gegeneinander abwägt. Denkbar wären auch kompliziertere Typentscheidungen wie z.B. SIMD Typen oder ähnliches.

November 2016
Masterarbeit
Jan Jamaszyk
Leibniz Universität Hannover
Implementierung eines Self-Sensing-Konzepts in die Ansteuerung eines Taktilen Displays

Im Rahmen eines DFG-Projektes entwickeln das Welfenlab, das IDS und das IMPT ein taktiles Display, das das Ertasten von unterschiedlichen virtuellen Oberflächenstrukturen wie Textilien, Leder, Holz und Kunststoffen ermöglichen soll. Für die taktile Wahrnehmung ist eine Vielzahl von unterschiedlichen, sich im Finger befindlichen Mechanorezeptoren zuständig. Jeder Rezeptortyp reagiert auf bestimmte Reize und Anregungsfrequenzen besonders sensibel. Um taktile Oberflächeneindrücke möglichst exakt nachbilden zu können, muss eine gezielte Anregung dieser unterschiedlichen Rezeptoren erfolgen. Dazu bedarf es neben der mechanischen Aktorik auch eines geeigneten Ansteuerungsmodells und einer gezielten Steuerung.

Die Modellierung einer konsistenten Ansteuerung hängt unter anderem auch von dem Systemverhalten des Displays sowie der mechanischen Impedanz der Fingerkuppe ab und ist im Allgemeinen nicht a priori bekannt. Insbesondere individuelle Unterschiede im Gewebeverhalten des Fingers und der variable Anpressdruck auf das Display können im bereits bestehenden System zurzeit nicht erfasst werden und erschweren damit die Vergleichbarkeit der Eindrücke zwischen verschiedenen Benutzern.

Ziel dieser Arbeit ist der Entwurf und die Implementierung einer Erweiterung des bestehenden Systems, die es erlaubt während der Benutzung des Displays Impedanzmessungen durchzuführen und durch regelungstechnische Maßnahmen individuelle Unterschiede zwischen den Anwendern auszugleichen. Als Grundlage für diese Messungen soll das Prinzip des "Self-Sensings" genutzt werden, welches es erlaubt aus Strom- und Spannungsvariationen an einem piezoelektrischen Biegeaktor Rückschlüsse auf die anliegenden Kräfte und Geschwindigkeit zu ziehen. Teil dieser Arbeit ist der Entwurf einer Verstärkerschaltung, welche den Anforderungen an die Betriebsspannung des eingesetzten Biegeaktors genügt, sowie der Entwurf und die softwareseitige Implementierung einer aktiven Kompensation über einen Mikrocontroller.

Im Rahmen dieser Arbeit ergeben sich insbesondere die folgenden Aufgabenpunkte:

  • Entwurf und Ausführung einer Verstärkerschaltung zur Ansteuerung von piezoelektrischen Biegeaktoren für Betriebsspannungen von ca. 200 V

  • Erarbeitung eines Konzepts zur Strom- und Spannungsmessung am betriebenen Biegeaktor

  • Entwicklung eines Algorithmus / einer Regelschleife zur aktiven Kompensation der anwenderspezifischen Fingerimpedanz auf einer gegebenen embedded Umgebung
Januar 2016

Abgeschlossen

 
 
2016
Masterarbeit
Falk-David Deppe
Institut für Mensch-Maschine-Kommunikation
Erkennung und Rekonstruktion von 3D Objekten aus RGBD-Daten
Beschreibungstext anzeigen

Durch die gestiegene Verfügbarkeit erschwinglicher RGBD-Sensoren hat das Gebiet der Virtual Reality in den letzten Jahren einen großen Aufschwung erlebt, da diese es erlauben, auch ohne spezialisierter Messgeräte virtuelle 3D-Modelle realer Szenen und Objekte zu erzeugen.


Derartig erzeugte Modelle stellen meist jedoch keinerlei Informationen über die in der Szene enthaltenen Objekte zur Verfügung. Für VR-Anwendungen wären Einzelobjekte allerdings erstrebenswert, um beispielsweise interaktive Szenarien realisieren zu können. Eine solche Objekt-Segmentierung wird im Allgemeinen nachträglich berechnet und ist in vielen Fällen an die Schwächen der verwendeten Verfahren der Bildverarbeitung gebunden. Bekannte Probleme aus der Bildanalyse sind z.B. die Behandlung verdeckter Bereiche sowie der Umgang mit unvollständigen oder qualitativ unzureichenden Daten.


In dieser Arbeit soll ein Verfahren implementiert werden, welches eine Kombination aus verschiedenen Ansätzen der Bildverarbeitung auf RGBD-Daten anwendet, um zusätzliche Informationen über die 3D-Rekonstruktion zu erhalten. Durch die Auswertung dieser Zusatzinformationen soll der Prozess der Objekt-Segmentierung unterstützt werden. Eine weitere Anforderung ist die Schließung der geometrischen Schnitte zur Trennung von erkannten Objekten. Anschließend soll untersucht werden, inwiefern durch Kombination der verschiedenen Ansätze eine Verbesserung gegenüber den Segmentierungsergebnissen bestehender Verfahren erreicht werden kann.

Beschreibungstext verbergen
April 2016
Oktober 2016
Bachelorarbeit
Maik Marschner
Optimierung von Kontrollflussgraphen mit Graphersetzungssystemen
Beschreibungstext anzeigen

Die Optimierung von Programmen geschieht auf verschiedenen Abstraktionsebenen: Einerseits bei der Wahl des passenden Algorithmus, andererseits durch Transformationen des Programmquellcodes. Werden Transformationen angewandt so müssen diese ein äquivalentes Programm induzieren. Dies wird üblicherweise erreicht indem der Kontrollflussgraph des Programmes berechnet wird. In einem Kontrollflussgraphen sind alle Abhängigkeiten explizit gegeben wodurch äquivalente Programmtransformationen einfacher angegeben werden können. In den meisten Programmiersprachen wird dafür ein approximativer Kontrollflussgraph aus dem Programmquellcode berechnet.In dieser Arbeit wird ein Framework zum Erstellen und Anwenden von Graphersetzungssystemen erstellt, dass Programme die mit dem am Institut entwickelten System "Buggy" geschrieben sind, optimieren soll. Diese haben den Vorteil, dass der Kontrollflussgraph explizit und vollständig gegeben ist und überdies eine hierarchische Struktur vorhanden ist, die auch Optimierungen auf höheren Abstraktionsebenen ermöglichen können.

Beschreibungstext verbergen
April 2016
August 2016
Bachelorarbeit
Jannik Bertram
Semantische Abstraktion von Programmiermodellen
Beschreibungstext anzeigen

In der Bachelorarbeit wird eine Prozedur ausgearbeitet, die Probleme, welche auf gegebenen Daten eines bestimmten Datentyps formuliert sind, verschiedene Lösungsfunktionen auswählen kann. Der Benutzer definiert im Idealfall lediglich das Problem und übergibt eine optionale Menge an Eigenschaften, die von der zu verwendenden Funktion erfüllt sein sollen. Das zugrunde liegende System soll dann mit Hilfe der drei Komponenten Eingabedaten, Problemstellung und den zu erfüllenden Eigenschaften eine Entscheidung treffen können, welcher Algorithmus für das Problem am sinnvollsten anzuwenden ist. Die Entscheidungsfindung wird dafür in eine statische Komponente (zur Erzeugung des Programmes) und eine dynamische Komponente (beim Ausführen des Programmes) unterteilt werden. 

Beschreibungstext verbergen
April 2016
August 2016
Bachelorarbeit
Thilo Schulz
Leibniz Universität Hannover
Entwurf und Implementierung eines Reeb Graph Analyse Moduls für die Segmentnachbearbeitung
Beschreibungstext anzeigen

In der modernen Medizin fallen heutzutage routinemäßig große Mengen an tomographischen Daten an. Neben der Datenhaltung an sich ist die Segmentierung, d.h. die Merkmalsextraktion, eines der wichtigsten Themen. Besonders für schwer zu klassifizierende traumatische Veränderungen (bspw. Trümerbruch) lassen sich in der Regel keine modellbasierte Verfahren verwenden. Hier muss auf allgemeine Verfahren zurückgegriffen werden, die in der richtigen Kombination eine gute Approximation der gewünschten Struktur liefern. Oft kommt es jedoch zu unerwünschten Übergängen, d.h. die eigentliche Struktur ist durch eine auflösungsbedingte Ungenauigkeit über eine (dünne) Verbindung mit weiteren Strukturen verbunden. Um diese zu identifizieren, haben sich das Konzept des Reeb Graph als nützlich erwiesen. Dabei wird schichtweise nach Zusammenhangskomponenten gesucht und diese mit ihren Verbindungen zu Komponenten in den benachbarten Schichten in einer Graph Struktur abgelegt.

Ziel dieser Arbeit, ist der Entwurf und die Implementierung eines Reeb Graph Analyse Moduls für die Segmentnachbearbeitung. Neben der Abbildung und interaktiven Darstellung des Reeb Graphs in transversaler, sagittaler und frontaler Anordnung soll vor allem die graphische Unterstützung von Split- und Merge-Operationen umgesetzt werden.

Beschreibungstext verbergen
Januar 2016
Mai 2016
Bachelorarbeit
Yannic Rath
Verlässliches Quad-Remeshing
Beschreibungstext anzeigen

Insbesondere durch ihre vielseitige Verwendbarkeit kommen Vierecksgittern eine zunehmend größere Bedeutung zu. Die Visualisierung von 3D-Objekten mithilfe von Vierecken ist zum einen optisch deutlich ansprechender als die Darstellung mit „herkömmlichen“ Dreiecksgittern und zum anderen bieten sie meist eine bessere Grundlage für weiterführende Anwendungen wie z. B. Texturierung. Nichtsdestotrotz ist die Berechnung dieser Gitter durchaus kompliziert. Während Dreiecksgitter einfach durch Algorithmen wie die Delaunay-Triangulation erzeugt werden können, sind die meisten aktuellen Algorithmen für Vierecksgitter, insbesondere in Bezug auf Effizienz und Verlässlichkeit, verhältnismäßig eingeschränkt. Unser Hauptziel ist es daher einen neuen Quad-Remeshing-Algorithmus zu implementieren, welcher aus einem gegebenen Dreiecksnetz ein Vierecksgitter erzeugt. Um dies zu erreichen werden wir einen Parametrisierungs-Ansatz verwenden, d. h. das kartesische Netzgitter soll mithilfe einer globalen Parametrisierung auf die Oberfläche projiziert werden. Dies lässt sich auf ein gemischt-ganzzahliges Optimierungsproblem zurückführen, welches effektiv und zuverlässig durch Anwendung verschiedener Komplexitätsreduktionen und Ausnutzen weiterer Zwangsbedingungen gelöst werden kann. Wir werden diese auf aktuellen Publikationen basierende Methode im Hinblick auf Verlässlichkeit und Effizienz untersuchen, um ihre Stärken und Schwächen herauszustellen. Hiermit werden wir versuchen weitere Optimierungen zu entwickeln, um einen allgemeineren Quad-Remeshing Algorithmus zu erstellen, welcher „echte“ Vierecksgitter effizient und verlässlich erzeugt.

Beschreibungstext verbergen
Betreuer: Daniel Brandes
Dezember 2015
April 2016
Bachelorarbeit
Frederik Nörmann
Interaktive Code Abstraktionen
Beschreibungstext anzeigen

Beim Schreiben von Code entstehen häufig Situationen in denen die verwendete Programmiersprache nicht optimal geeignet ist um den jeweiligen Sachverhalt darzustellen. Insbesondere graphische Repräsentationen des zugrundeliegenden Problems könnten beim Lesen des Codes oft hilfreich sein. Modernere Entwicklungsumgebungen sind so vielseitig, dass das Einbinden von graphischen Elementen kein Problem wäre. Dennoch gibt es nicht einmal die Möglichkeit in Kommentaren graphische Elemente einbinden zu können. Interaktive Elemente sind noch weniger verbreitet.Diese Arbeit beschäftigt sich mit der Entwicklung eines Editor-Plugins (für Atom), welches es zunächst ermöglichen soll graphische Elemente in Editoren einbinden zu können. Darauf aufbauend soll eine Abstraktion von gewissen Code Elementen durch grafische Bausteine ermöglicht werden. Z.B. Bezier Splines über entsprechende graphischen Interfaces eingegeben.

Beschreibungstext verbergen
November 2015
März 2016
2015
Bachelorarbeit
Lorenz Dames
Leibniz Universität Hannover
Codegenerierung für symbolische Mathematik
Beschreibungstext anzeigen

Probleme in der Differentialgeometrie oder Finiten Elemente Methode erfordern häufig die Umsetzung komplexer mathematischer Zusammenhänge in einer mehr oder weniger dafür geeigneten Programmiersprache. Häufige Anwendungen sind unter anderem die automatische Bestimmung von Ableitungen, numerische Integration und die Aufstellung symbolischer Matrizen.
Zahlreiche Programmiersprachen bieten bereits symbolische Bibliotheken, die solche Aufgaben übernehmen können, allerdings sind der Integration mit dem restlichen Programm immer noch Grenzen gesetzt. Einerseits können die erzeugten Ausdrücke nur relativ ineffizient evaluiert werden, andererseits ist die Ausdrucksfähigkeit auf die Möglichkeiten der Bibliothek beschränkt. Diese Arbeit soll aus symbolischen Ausdrücken auf erweiterbare Art zur Laufzeit effizienten, ausführbaren Code erzeugen.

Beschreibungstext verbergen
Betreuer: Rasmus Buchmann
Mai 2015
September 2015
Bachelorarbeit
Sebastian Veitleder
Thin Shell Simulation der Basilarmembran
Beschreibungstext anzeigen

This work is researching the response of the basilar membrane of the human cochlear to different stimuli from the scala tympani. A triangle mesh of the basilar membrane is used to produce a shell model. On this model a three-dimensional thin shell simulation is performed by using a modified cloth simulator that accounts for flexural energy over the mesh edges. The force that the scala tympani would induce on the basilar membrane is directly applied to the simulated model. A Lattice-Boltzman fluid simulation generates reasonable forces to apply to the model and observe. Several examples show the validity of the simulation.

Beschreibungstext verbergen
Mai 2015
September 2015
Bachelorarbeit
Hermann Kroll
Leibniz Universität Hannover
Erkennung der Substrukturen des Acetabulum in 3D-Pelvis Modellen
Beschreibungstext anzeigen

Für die Planung von Hüftoperationen ist eine genaue Analyse der patientenindividuellen Geometrie erforderlich. Dabei ist vor allem die Oberflächenstruktur der Hüftpfanne (Acetabulum) als Kontaktregion zum Femurkopf von besonderem Interesse.

Ziel dieser Arbeit ist es, die verschiedenen Unterstrukturen des Actetabulum (fossa acetabuli, incisura acetabuli, ...) in einem 3D Oberflächenmodell zu erkennen. Dabei kann auf den Ergebnissen der Arbeit "Automatische Erkennung des Acetabulum in 3D-Pelvis Modellen" von Lurz Jurek Leonhardt aufgebaut werden. Mit der Detektion der Substrukturen des Acetabulums sollen die dort vorgestellten Methoden, bspw. im Bereich der incisura, weiter verbessert werden.

Beschreibungstext verbergen
Mai 2015
September 2015
Bachelorarbeit
Jakob Riga
Leibniz Universität Hannover
Entwurf und Entwicklung einer haptischen Eingabemethode zur Erfassen von Metainformationen auf 3D-Oberflächen
Beschreibungstext anzeigen

In klinischen Prozessen spielt die tomographische Bildgewinnung heutzutage eine immer größere Rolle. Die dabei gewonnen Schichtbilddaten sind jedoch nur der erste Schritt eines komplexen Verarbeitungsprozesses. Eine auch heute noch schwierige Aufgabe ist die sogenannte Segmentierung, bei der bestimmte Substrukturen (Organe, Knochen, ...) identifiziert werden. Als besonders vielversprechend haben sich dabei Algorithmen gezeigt, die anwendungsspezifisches Modellwissen mit einbeziehen (modelbasierte Segmentierung).

Beschreibungstext verbergen
Juli 2015
September 2015
Bachelorarbeit
Stephan Singer
Leibniz Universität Hannover
Vergleich von SIFT und einer neuen HKS-Methode zur Bildanalyse
Beschreibungstext anzeigen

Um Bilder auf Ähnlichkeit zu vergleichen, kann man aus den Umgebungen ausgewählter Punkte Featuredeskriptoren extrahieren und anschließend diese vergleichen. Ein etabliertes Verfahren dazu ist SIFT (Scale invariant feature transform).

Zum Vergleich von 3D-Formen gibt es als Featuredeskriptoren di sogenannten Heat Kernel Signatures, die die geometrische Umgebung eines Punktes dadurch beschreiben, wie er abkühlen würde, wenn man ihn erhitzt. Mittels am Welfenlab entwickelter bildabhängig modifizierter Laplaceoperatoren kann ein Analogen der Wärmeleitungsgleichung auch für Bilddaten aufgestellt und so eine HKS für Punkte in Bildern definiert werden.

In der Bachelorarbeit werden SIFT und HKS für Bilder miteinander verglichen.

Beschreibungstext verbergen
Betreuer: Benjamin Berger
Juni 2015
September 2015
Bachelorarbeit
Alexander Treptau
Cochleasimulation mit dem Lattice Boltzmann Verfahren
Beschreibungstext anzeigen

Die Cochlea ist der Teil des Innenohrs, der für die Aufnahme der auditiven Reize zuständig ist. Dabei breitet sich eine Schallwelle in einem Fluid aus und versetzt die Membran des Corti-Organs in Bewegung, sodass diese die mechanischen Schwingungen in Nervenimpulse umwandeln kann.

Bei dem Lattice Boltzmann Verfahren wird ein Fluid mithilfe eines zellulären Automaten auf Teilchenebene diskretisiert. Unter Verwendung dieses Verfahrens kombiniert mit der Immersed Boundary Methode wird die Mechanik einer zweidimensionalen Cochlea modelliert und analysiert. Dabei soll insbesondere die Lokalisierung der eingehenden Schallwellen durch das ovale Fenster auf der Basilarmembran nachgebildet werden und mit den Ergebnissen von u.a. Gerstenberger et al 2013 verglichen werden.

Vorteil von diesem Verfahren ist, dass dieses sowohl gut parallelisierbar, als auch einen geringen Speicherverbrauch hat und sich daher eigenen sollte die dynamischen Strömungen innerhalb der Cochlea zu Analysieren.

Beschreibungstext verbergen
April 2015
August 2015
Masterarbeit
Daniel Busse
Leibniz Universität Hannover
Entwicklung eines stochastischen Modells für die 3D-Segmentierung medizinischer Tomographiedaten
Beschreibungstext anzeigen

Die Medizin hat im letzten Jahrhundert in Form von bildgebenden Verfahren ein bedeutendes Hilfsmittel erhalten. Basierend auf verschiedenen physikalischen Eigenschaften, bilden sie die innere Anatomie eines Patienten auf diskrete Volumendaten ab: Es entstehen dreidimensionale Bilder, auf denen unterschiedliche Gewebearten durch variierende Grauwerte dargestellt werden.

Eine Schlüsselrolle in der Auswertung dieser Bilder fällt der Segmentierung zu, einem Prozess, der relevante Objekte (z.B. Knochen) identifiziert und voneinander abgrenzt. Eine häufig verwendete Klasse von fortgeschritteneren Segmentierungsverfahren basiert auf den sogenannten "Deformable Models". Dabei wird ein Dreiecksnetz im Bild platziert und fortlaufend unter Krafteinwirkung verformt, bis das gesuchte Objekt bestmöglich ausgefüllt wird. Anschaulich lässt sich dieser Vorgang etwa mit dem Aufblasen eines Luftballons vergleichen, dessen Wachstum durch die Bildinformationen beeinflusst wird. Erschwert wird dies jedoch durch die üblicherweise schlechte Qualität medizinischer Aufnahmen, die oftmals dazu führt, dass das Modell nicht die gewünschte Form annimmt.

Eine Möglichkeit das Verfahren robuster zu gestalten, liegt in der Kombination mit Statistical Shape Models (SSM). Um diese aufzustellen, werden Trainingsobjekte untersucht, die durch korrespondierende Punktmengen beschrieben sind. Nach einer statistischen Analyse der Punktpositionen, wird eine Wissensbasis darüber erstellt, wie Objekte eines Typs üblicherweise geformt sind und auf welche Weise einzelne ihrer Merkmale variieren. Dieses Wissen kann unter anderem dazu genutzt werden, die Wahrscheinlichkeit beliebiger Objekte zu bestimmen oder neue zu generieren, die der Trainingsmenge ähneln. Basierend darauf kann ein Deformable Model so gesteuert werden, dass es sich nur auf eine Weise verformt, die statistisch gesehen plausibel ist.

In der vorliegenden Arbeit wird das bestehende YaDiV Deformable Model Framework um eine eigene SSM Komponente erweitert und deren Verbesserungspotential evaluiert.

Beschreibungstext verbergen
Januar 2015
Juli 2015
Bachelorarbeit
Thomas Winter
Die Immersed Boundary Methode für das Lattice Boltzmann Verfahren
Beschreibungstext anzeigen

In dieser Arbeit wird das Zusammenspiel der Lattice Boltzmann Methode mit dem Immersed Boundary Verfahren untersucht. Das Lattice Boltzmann Verfahren ist ein gribbasierter Fluid Löser der mit relativ einfachen lokalen Regeln die Boltzmanngleichung lösen kann.

Um nun komplexe Geometrien die nicht am Gitter ausgerichtete sind zu unterstüzen soll das Immersed Boundary Verfahren verwendet werden. Dieses ermöglicht es Obejkte die physikalisch nicht auf dem Gitter simuliert werden mit dem Fluid zu koppeln. So können die Vorteile der Lattice Boltzmann Methode ausgenutzt werden (z.B. die hervoragende Parallelisierbarkeit) ohne dabei auf Modelle in Lagranger Sicht verzichten zu müssen.

In dieser Arbeit wird dafür eine stabile Kopplung verschiedener Systeme mit dem Immersed Boundary Verfahren vorgestellt und soweit möglich mit Literaturwerten verglichen.

Beschreibungstext verbergen
November 2014
März 2015
Bachelorarbeit
Ferdinand Lange
Visualisierung von 3D Fluiden
Beschreibungstext anzeigen

Bei der Visualisierung von Fluiden in drei Dimensionen müssen viele Daten in verständlicher Form dargestellt werden. Da die große Menge an verschiedenen Daten in einer Grafik meist kompliziert und nicht unbedingt verständlich ist, beschäftigt sich diese Arbeit mit Möglichkeiten Fluide in drei Dimensionen anschaulich zu visualisieren.

Um Fluide zu Visualisieren müssen grundsätzlich zwei Arten von Felder dargestellt werden können. Einmal skalare Felder wie z.B. der Druck oder die Dichte, andererseits Vektor Felder wie die Geschwindigkeit. Problematisch ist dabei oft die Überdeckung von Details die inmitten des beobachteten Volumens liegen. Dafür soll diese Bachelorarbeit Möglichkeiten schaffen Felder darzustellen und geeignet filtern zu können um spezifierte Regionen einzublenden und andere auszublenden.

Beschreibungstext verbergen
November 2014
März 2015
Bachelorarbeit
Sven Gesper
Mensch-Maschine-Kommunikation
Untersuchungen zur Parallelisierbarkeit von auf stochastischen Suchverfahren basierenden asynchronen variationellen Integratoren
Beschreibungstext anzeigen

In dem Projekt "Tactil Displays for Virtual Reality Applications" wird mittels einer FEM-Simulation, die sich auf Asynchrone Variationelle Integration (AVI) stützt, der Kontakt eines Fingers mit einer Oberfläche simuliert. Da jedes Element in einem individuellen Zeitschritt berechnet wird, muss ein Algorithmus darüber wachen, dass die gesamte Simulation zeitlich möglichst kontinuierlich abläuft und keine zu großen Abstände zwischen den Elementen herrschen. Eine hohe Geschwindigkeit kann durch Parallelisierung der Simulation erreicht werden. Die Reihenfolge der Berechnung der AVI-Elemente wird durch einen Algorithmus ermittelt, der hinsichtlich seiner Parallelisierbarkeit durch unterschiedliche Kollisionsbehandlungen untersucht wird. Die Anzahl der Kollisionen sowie der gleichmäßig Fortschritt in der Zeit sind zu optimierende Aspekte.

Beschreibungstext verbergen
Betreuer: Daniel Brandes
September 2014
Januar 2015
2014
Bachelorarbeit
Felix Schliephacke
Gebietszerlegung für die Lattice Boltzmann Methode auf verteilten Speicherarchitekturen
Beschreibungstext anzeigen

Das Lattice Boltzmann Verfahren ist ein Verfahren das die Boltzmanngleichung lösen kann, welches auf einem regulären Gitter mittels einfacher Evolutionsregeln, ähnlich derer eines Zellulären Automatens, arbeitet. Bei der Implementierung einer verteilten Simulation sind insbesondere die Latenzen ein den Speedup begrezender Faktor. Die Latenzen entstehen dabei hauptsächlich durch den Abgleich der Randbereiche. Deswegen versucht man beim Erstellen der einzelnen Subdomains die Randbereiche so klein wie möglich zu halten, dabei soll jedoch das Innere so groß wie möglich bleiben. Ziel dieser Arbeit ist es eine möglichst optimale Zerlegung einer Domäne in Teilbereiche zu finden. Dazu sind insbesondere die Rechengeschwindigkeit der einzelnen Rechner und die Geschwindigkeit der einzelnen Netzwerkverbindungen zu beachten.

Beschreibungstext verbergen
Mai 2014
Oktober 2014
Bachelorarbeit
Jan Jamaszyk
Leibniz Universität Hannover
Übertragungsfunktion für die Mechanik der Fingerspitze
Beschreibungstext anzeigen

Eine Wahrnehmung der „virtuellen Welt“ beschränkt sich aktuell größtenteils auf den optischen, sowie den akustischen Sinn. Um realistische Sinneseindrücke zu vermitteln wäre eine Verwendung des taktilen Sinnes wünschenswert. Im Rahmen dieser Arbeit soll eine Übertragungsfunktion entwickelt werden, die den Zusammenhang zwischen mechanischer Kraft des Aktuators und entsprechenden Stressmaßen am Rezeptor, basierend auf den Daten einer Finite-Elemente Simulation, beschreibt. Mittels Inversion dieser Funktion sollen so später optimale Anregungen der Aktuatoren gefunden werden, die den Eindruck realer Oberflächen möglichst detailgetreu abbilden.

Betreuer: Rasmus BuchmannAlexander Vais

Beschreibungstext verbergen
Betreuer: Rasmus Buchmann
Juni 2014
Oktober 2014
Bachelorarbeit
Nils Hein
Leibniz Universität Hannover
Strukturerhaltende Fluidsimulation
Beschreibungstext anzeigen

Visuelle Qualität und kurze Berechnungszeiten sind wichtige Eigenschaften einer Fluidsimulation, die erreicht werden müssen ohne die Stabilität der Simulation zu beeinträchtigen. Häufig verwendete Methoden wie "Stable Fluids" oder "Smoothed Particle Hydrodynamics" sind nicht ausreichend um die Vortizität eines Fluids ausreichend abzubilden. Diese Arbeit implementiert daher ein auf dem sog. "Discrete Exterior Calculus" basierendes Framework, dass die physikalischen Größen als diskrete Differentialformen modelliert und die zeitliche Entwicklung des Fluids über einen geometrisch motivierten Integrationsalgorithmus berechnet.

Beschreibungstext verbergen
Betreuer: Rasmus Buchmann
Juni 2014
Oktober 2014
Bachelorarbeit
Falk-David Deppe
Institut für Mensch-Maschine-Kommunikation
Zeitadaptive asynchrone Textilsimulation
Beschreibungstext anzeigen

In dieser Arbeit soll eine Textilsimulation mit einem einfachen Kontaktmodell implementiert werden, die sich an der haptischen Textilsimulation des HAPTEX Projektes orientiert. Einer der wesentlichen Anforderungen an die Simulation ist daher eine hohe Simulationsgeschwindigkeit, um die für haptisches Empfinden benötigten 1000Hz im Kontaktbereich erreichen zu können. Im Gegensatz zu dem vorangegangenem HAPTEX-Projekt soll ein FEM basierender Algorithmus implementiert werden, der sich auf die sog. Asynchrone Variationelle Integration (AVI) stützt. Dieser Ansatz hat den Vorteil, jedes Element mit einen individuellen Zeitschritt berechnen zu können. In dieser Arbeit soll nun untersucht werden, inwiefern es möglich ist, mit einem zeitadaptiven Ansatz die o.g. Anforderungen an die haptische Echtzeit zu erfüllen.

Beschreibungstext verbergen
Mai 2014
Oktober 2014
Bachelorarbeit
Sven Feldkord
Institut für Mensch-Maschine-Kommunikation
A scalable controller for operating multidirectional tactile arrays
Beschreibungstext anzeigen

In dem durch die DFG geförderten Projekt "Tactile Displays for Virtual-Reality-Applications" wird in Kooperation mit dem Institut für Dynamik und Schwingungen (IDS) und dem Institut für Mikroproduktionstechnik (IMPT) ein sog. taktiles Display entwickelt, welches in der Lage ist, den Wahrnehmungseindruck real existierender Oberflächen auf einem Array von beweglichen Stiften nachzubilden. Am Institut für Mensch-Maschine-Kommunikation wird zur Zeit ein Modell entwickelt, welches die für die Erzeugung dieses taktilen Eindrucks notwendigen Parameter in Form von zeitlich variablen diskreten Frequenzspektren auf Basis gegebener Oberflächenparameter bestimmt. Ziel dieser Arbeit ist es, eine Hardwareeinheit zu konzipieren und zu realisieren, welche die durch das Modell gegebenen diskreten Frequenzspektren in ein kontinuierliches Signal umsetzt, welches zur Ansteuerung des taktilen Displays verwendet werden kann. Wesentliche Anforderungen an dieser Hardwareeinheit sind neben einer hohe Qualität des Ausgangssignals auch eine einfache Möglichkeit der Skalierung auf größere Displays.

Beschreibungstext verbergen
Mai 2014
Oktober 2014
Bachelorarbeit
Jurek Leonhardt
Automatische Erkennung des Acetabulum in 3D-Pelvis Modellen
Beschreibungstext anzeigen

Hüftimplantate zählen zu den häufigsten orthopädischen Operationen. Für eine patientenindividuelle Planung von Implantat und Eingriff ist es notwendig, sowohl die Hüfte (Pelvis) als auch den Oberschenkelknochen (Femur) zu identifizieren. Von besonderem Interesse ist dabei die Kontaktregion, die aus dem Kopf des Femur (caput ossis femoris) und der Hüftpfanne (acetabulum) besteht.

Ziel dieser Arbeit ist es, das Acetabulum in gegebenen 3D-Pelvis Modellen zu identifizieren. Dafür sollen unterschiedliche Algorithmen untersucht, implementiert und verglichen werden.

Beschreibungstext verbergen
Mai 2014
September 2014
Bachelorarbeit
Thilo Schnelle
Fluidsimulation mit dem Lattice Boltzmann Verfahren
Beschreibungstext anzeigen

In dieser Arbeit soll eine Fluidsimulation mit der Lattice Boltzmann Methode implementiert werden. Diese Methode diskretisiert das Fluid mit zellulären Automaten und erreicht dadurch eine hohe Parallelität. Teil dieser Arbeit ist die Beschreibung der Diskretisierung, die im Lattice Boltzmann Verfahren angewandt wird. Zusätzlich dazu soll das Verfahren implementiert werden und anhand üblicher Beispiele wie dem "Lid-Driven-Cavity-Flow" Beispiel mit bekannten Lösungsverfahren verglichen werden. Dabei sind insbesondere die Konvergenzraten, Parallelität, Einhaltung der Inkompressibilitätsbedingung und die Interaktion mit Objekten von Interesse.

Beschreibungstext verbergen
Mai 2014
September 2014
Bachelorarbeit
Wolff Bock von Wülfingen
Das Lattice Boltzmann Verfahren für Cluster Architekturen
Beschreibungstext anzeigen

Diese Arbeit befasst sich mit der Parallelisierung des Lattice Boltzmann Verfahrens. Das Lattice Boltzmann Verfahren löst die Boltzmanngleichung über eine reguläre Diskretisierung und verwendet Regeln ähnlich der von Zellulären Automaten. Diese Formulierung hat den großen Vorteil, dass sie lokal arbeitet und somit leicht parallelisierbar ist. In dieser Arbeit wird neben der Shared-Memory Parallelisierung auch die Parallelisierung auf ein Clustersystem untersucht. Dazu wird ein Protokoll zur Kommunikations der einzelnen Rechner entwickelt welches möglichst gut Latenzen überdecken soll.

Beschreibungstext verbergen
April 2014
August 2014
Bachelorarbeit
Adrian Hengelhaupt
Mensch-Maschine-Kommunikation
Adaptive 3D-Visualization of fractal Heightmaps using Tessellation Shaders
Beschreibungstext anzeigen
Das Institut für Mensch-Maschine-Kommunikation verfügt über vielfältige Visualisierungs- und Interaktionssysteme für Virtual-Reality Applikationen. Als Demonstrationsanwendung soll eine Interaktive 3D-Umgebung geschaffen werden, die fortgeschrittene 3D-Visualisierung, haptische Interaktion und physikalische Simulation beinhaltet.
Ziel dieser Arbeit ist es, existierende Algorithmen zur Generierung von fraktalen Höhenkarten einzusetzen, um virtuell erkundbare Landschaften in Echtzeit dreidimensional visualisieren zu können. Um eine jederzeit flüssige und zugleich qualitativ hochwertige Darstellung zu garantieren, soll eine adaptive Verfeinerung eines Basismeshes durch einen Tessellation-Shader realisiert werden. Als Kriterium für die Verfeinerung können beispielsweise Gradienteninformationen der Höhenkarte ausgewertet werden.
Die Programmierung erfolgt in C++ und OpenGL. Als Basis für die Implementierung dient das aus dem Labor "Grafikprogrammierung" bekannte auf Qt basierende GDV-Framework.
Beschreibungstext verbergen
November 2013
März 2014
2013
Diplomarbeit
Dennis Schridde
Mensch-Maschine-Kommunikation
Geometrische Integrationsmethoden für Kontinuumsmechanik
Beschreibungstext anzeigen

Diese Arbeit präsentiert ein Verfahren zur Lösung von physikalisch motivierten partiellen Differentialgleichungen. Es wird erklärt, wie mit Hilfe der Hamiltonschen Formulierung aus den beschreibenden Gleichungen des physikalischen Systems ein zeit- und raumdiskreter Integrationsalgorithmus hergeleitet werden kann und wie hierbei durch Beachtung bestimmter Raum-Zeit Symmetrien die für physikalische Simulationen so wichtige Energie- und Momenterhaltung umgesetzt wird. Außerdem wird dargestellt, wie es möglich ist, Teilsysteme in jeweils unterschiedlichen Zeitschritten zu berechnen. Zusätzlich zur rein theoretischen Erläuterung des Verfahrens und seiner physikalischen und mathematischen Grundlagen wird eine Implementation desselben vorgestellt und an ausgewählten Beispielen untersucht.

Beschreibungstext verbergen
Betreuer: Rasmus Buchmann
Mai 2013
November 2013
Bachelorarbeit
Markus Schulze
Haptisches Heightfieldwater
Beschreibungstext anzeigen
Diese Arbeit befasst sich mit einem einfachen Wassermodell, das in der einfachsten Form nur aus Höhendaten besteht. Die Simulation eines solchen Wassers erweist sich als äußerst effizient, jedoch können einige Eigenschaften des Wassers nicht abgebildet werden. Für dieses sogenannte Heightfieldwater gibt es zahlreiche Publikationen über das Zusammenspiel mit starren Körpern. Diese erlauben es die Kräfte auf die Objekte realistisch zu berechnen. Zusätzlich existieren am Institut haptische Eingabegeräte die es erlauben Kräfte auszugeben. Für eine natürliche Interaktion sind dafür hohe Wiederholraten (am besten 1000Hz) erfordertlich. Dies lässt sich nur über eine gescheite Wahl der Modelle realisieren. Im Bereich der Wassersimulation gilt das Heightfieldwater als am wenigsten aufwändig und ist deswegen ein interessanter Kandidat für eine haptische Interaktion. In dieser Arbeit soll primär die Interaktion mit dem Wasser implementiert werden. Für die Interaktion der Körper untereinander soll Bullet verwendet werden. 
Beschreibungstext verbergen
Mai 2013
September 2013
Bachelorarbeit
Volker Schmidt
Über den Einfluss von Kompressionen auf das paralle superkonvergente Multigrid Verfahren
Beschreibungstext anzeigen
Das Multigrid Verfahren ist eines der performantesten Verfahren zum Lösen von Linearen Gleichungssystemen. Insbesondere für physikalische Probleme hat sich das das Multigrid Verfahren bewährt [1]. Für das Multigrid Verfahren existieren einige Parallelisierungsmöglichkeiten. Der Großteil setzt dabei jedoch an den Lösern für die linearen Gleichungssysteme an, die auch Smoother genannt werden. Ein ganz anderen Ansatz verfolgt das PSMG (parallele superkonvergente Multigrid) Verfahren [2]. Das Multigrid Verfahren versucht die Lösung im feinen Grid durch eine grobe Approximation des Fehlers auszugleichen und damit die Konvergenz zu beschleunigen. Für das Erstellen des groben Problems gibt es mehrere Möglichkeiten von denen üblicherweise eine gewählt wird. Im PSMG werden dahingegen alle Möglichkeiten gewählt und all diese werden parallel gelöst. Das PSMG Verfahren besitzt eine deutlich höhere Konvergenzrate als herkömmliche Verfahren jedoch erfordert sie auch einen größeren Kommunikationsoverhead. Ziel dieser Arbeit soll es sein, den Poisson Solver einer Fluid Simulation, zum Berechnen des Druckausgleiches, mittels PSMG zu realisieren. Dabei soll untersucht werden, ob Kompressionsalgorithmen den Kommunikationsaufwand signifikant zu verringern können.
  • [1] Trottenberg, Ulrich, Cornelius W. Oosterlee, and Anton Schuller. Multigrid. Academic press, 2000.
  • [2] Frederickson, Paul O., and Oliver A. McBryan. Recent developments for the PSMG multiscale method. No. CU-CS-524-91. COLORADO UNIV AT BOULDER DEPT OF COMPUTER SCIENCE, 1991. 
Beschreibungstext verbergen
Juni 2013
August 2013
Masterarbeit
Friedrich Hattendorf
Implementation und Analyse von Triangle Strip Algorithmen
Beschreibungstext anzeigen

Volumenkörper werden in der Computergrafik oft durch die Darstellung ihrer Oberfläche als Dreiecksnetz repräsentiert. Gerade bei komplexeren Objekten kann dabei die Dreieckszahl schnell mehrere Millionen erreichen, was auch heute noch eine Herausforderung für die Grafikkarte darstellt. Zwar existieren Verfahren, die ein Dreiecksnetz vereinfachen (= die Anzahl der Dreiekce reduzieren), dabei besteht jedoch immer die Gefahr, dass wichtige Details der Oberfläche Verloren gehen können oder schlimmstenfalls sogar Selbstüberschneidungen erzeugt werden. Eine interessante Alternative stellen die sogenannten Triangle-Strips dar. Bei dieser Datenstruktur, wird versucht, das Netz aus möglichst langen Dreiecks-Streifen zusammenzusetzen, bei der sich jeweilst zwei aufeinanderfolgende Dreiecke genau eine Kante teilen. Durch diesen Trick lässt sich im Idealfall der benöitgte Speicheraufwand auf 1/3 reduzieren. Das Problem der Findung einer solchen idealen Zerlegung ist jedoch N(P) vollständig. Daher existieren eine Vielzahl von Verfahren, die mit heuristischen Methoden versuchen, eine möglichst gute Triangle Strip Darstellung zu finden. Ziel dieser Arbeit ist es, verschiedene Verfahren aus dieser Kateogrie zu implementieren und für Dreiecksflächen aus medizinischen Anwendungen zu vergleichen. Zusätzlich soll ein eigenes Verfahren implentiert werden, bei dem der Augenmerk nicht in einer möglichst guten Strip Darstellung sondern der Erzeugung der Strip Struktur ohne nennenswerten Zeit- und Speicheraufwand liegt.

Beschreibungstext verbergen
November 2012
Mai 2013
Bachelorarbeit
Roman Zimbelmann
Haptisches Modellieren
Beschreibungstext anzeigen

In dieser Arbeit soll ein haptisches Gerät (z.B. das Phantom) verwendet werden um ein haptische Virtual Clay Simulation zu entwickeln. Das haptische Gerät soll einem dabei die Möglichkeit geben ein virtuelles Objekt zu verformen und vielleicht auch topologisch zu ändern, um so verschiedenste Modelle fertigen zu können. Dazu sollen verschiedene Werkzeuge angeboten werden, die einem das Modellieren erleichtern sollen. Es soll zunächst recherchiert werden ob Mesh-based, Voxel-based oder gemischte Verfahren am besten geeignet für die haptische Interaktionen sind . Die große Herausforderung steckt dabei im Erreichen der haptischen Echtzeit, die 1000 fps benötigt. Technisch kann dieses über lokal-adaptive Verfahren erreicht werden. Ein Teil dieser Arbeit wird sein, die vorhandene Netzwerkschnittstelle für die haptischen Geräte zu vervollständigen. Eine Bachelorarbeit / Studienarbeit mit geringerem Umfang ist auch denkbar.

Beschreibungstext verbergen
November 2012
März 2013
Bachelorarbeit
Sven Röttering
Vegetationsgenerierung mittels Zellulärer Automaten und Spieltheorie
Beschreibungstext anzeigen

Der am Institut entwickelte prozedurale Planetengenerator kann Terrain-Daten für einen Planeten mit verschiedenen klimatischen Zonen aus einem einzelnem Seed erzeugen. Der daraus resultierende Planet verfügt jedoch noch über keine Vegetation. Ein manuelles setzen der Vegetation ist nicht nur aufwändig, sondern führt auch zu unrealistische wirkenden Regionen. Deshalb soll in dieser Arbeit ein System entworfen werden, welches eine Vegetation für einen zufällig generierten Planeten erzeugt und auch visualisiert. Technisch soll die Vegetation durch einen Zellulären Automaten unter Zuhilfenahme von spieltheoretischen Modellen erzeugt werden. Dazu muss ein Basisdatensatz an Vegetationsobjekten wie Bäumen, Kakteen, Sträuchern, etc. erzeugt werden und geeignet kategorisiert werden. Unter Zuhilfenahme dieses Datensatzes soll  auf der Oberfläche ein Zellulärer Automat simuliert werden, dessen Regeln sich aus dem spieltheoretischen Modell und den klimatischen Gegebenheiten ableiten.

Beschreibungstext verbergen
Oktober 2012
Februar 2013
Seminararbeit
Volker Schmidt
Real Time Forest Rendering
Beschreibungstext anzeigen
Visualizing a huge amount of complex models can be a time consuming part of the rendering process. For many complex objects specialized methods exist. This seminartopic is about the realtime visualization of forests. Rendering forests can be a time consuimg task making it hard to find a method that is capable of rendering many trees in real time while maintining a decent visual quality. To achieve interactive framerates many methods introduce simplifications that lead to so called popping artifacts that distract the user and lower the immersion.
In recent years many advances and the development of modern graphics hardware lead to more elaborated methods which are capable of processing and rendering millions of trees in real time and with popping artifacts and convincing lighting effects.
Beschreibungstext verbergen
Oktober 2012
Januar 2013
2012
Masterarbeit
Marco Köhnen
Entwicklung einer halbautomatischen Segmentierungsmethode zur Bestimmung der intrakraniellen Luftmenge nach einer Schädeloperation
Beschreibungstext anzeigen
In dieser Arbeit soll ein neuer Ansatz automatischer Verfahren mit Hilfe von Deformable Models und gängiger Segmentierungsverfahren verfolgt werden, um den Liquorverlust nach einer Schädel-Operation zu Bestimmen. Hintergrund sind Operationen, bei denen der Patient in einer halb-sitzenden Stellung am Hinterkopf operiert wird. Eine Folge davon ist ein Verlust an Flüssigkeit, die sich im Laufe der Zeit rückbildet. Um diesen Rückbildungsprozess untersuchen zu können, soll ein halb-automatisches Verfahren zur Bestimmung der  intrakraniellen Luftmenge etnwickelt und mittels umfangreicher bereits vorliegender Daten auf Reproduzierbarkeit und Güte getestet werden.
Beschreibungstext verbergen
Juni 2012
Dezember 2012
Diplomarbeit
Daniel Brandes
Leibniz Universität Hannover
Finite Elemente Berechnung zur Spektralen Zerlegung von Laplace Operatoren auf Linienbündeln über dreidimensionalen Objekten.
April 2012
Oktober 2012
Bachelorarbeit
Peter Denis
Stereographische Visualisierung von 360° Aufnahmen auf einem Head Mounted Display (HMD)
Beschreibungstext anzeigen
Seit einiger Zeit sind Panoramafotos ein beliebtes Mittel zur Illustration von öffentlichen Plätzen oder Produkten geworden. Klassischerweise wird dabei eine normale Kamera rotiert und die dabei entstehenden Einzelaufnahmen zu einem großen Panorama zusammengefügt. Projiziert man dieses Panorambild zusätzlich auf eine zylindrische Geometrie, entsteht der Eindruck, als ob man sich in der Szene befindet.
Ein Defizit ist dabei natürlich die klassische Darstellung als 2D Bild auf einem 2D Monitor, da der Betrachter Kopfbewegungen in der virutellen Szene durch künstliche Hilfsmittel (Mausbewegung, Cursortasten etc.) simulieren muss. Zusätzlich besteht oft die Einschränkung, dass der Aufnahmebereich nach oben bzw. unten begrenzt ist. Ziel dieser Arbeit ist es daher, eine VR-Umgebung zu entwickeln, die 360° Panoramafotos (stereographisch) auf einem Head Mounted Display (HMD) darstellt. Zusätzlich soll über ein InertiaCube Sensor die Kopfbewegung erfasst und in eine Rotation der Szenengeometrie natürlich umgesetzt werden. Für eine möglichst hohen Grad an Immersion ist dabei eine schnelle Wiederholrate (FPS) notwendig. Das Ergebniss soll weitestgehend plattformunabhängig in der Programmiersprache Java prototypisch umgesetzt werden. Zusätzlich soll es möglich sein, mit einem Datenhandschuh in der virtuellen Szenerie zu interagieren, was als in der parallel zu dieser Arbeit laufenden Bachelorarbeit "Interaktive Szenenexploration mittels Datenhandschuh und optischem Tracking" von Marc Lühr realisiert wird.
HMDDatenhandschuh
Das Programm soll in Java/Java3D entwickelt werden. Grundlegende Kenntnisse in Linearer Algebra und Programmierung sind für diese Arbeit sehr hilfreich. VR-Hardware und Fotos werden zur Verfügung gestellt.
Beschreibungstext verbergen
Mai 2012
September 2012
Bachelorarbeit
Marc Lühr
Interaktive Szeneexploration mittels Datenhandschuh und optischem Tracking
Beschreibungstext anzeigen

Im alltäglichen Leben ist die Hand einer der wesentlichsten Werkzeuge um mit der umgebenden Welt zu interagieren. Diese Interaktionsmöglichkeit wird bei der Arbeit mit Computern nur unzureichend über eingaben via Tastatur und Maus umgesetzt. Besonders bei Interaktionen mit einer dreidimensionalen Welt sind diese limitierten Werkzeuge ein großes Hinderniss für eine intuitive Steuerung. Natürlicher wäre eine Steuerung die die Bewegung der Hände mit einbeziehen würde. Dazu soll in dieser Bachelorarbeit der CyberGlove 2 Datenhandschuh zur Exploration einer dreidimensionalen Szene verwendet werden. Die Fingerstellung wird dabei über Widerstandssensoren im Handschuh gemessen und kann so zur Darstellung des Handmodells verwendet werden. Die Informationen über die Lage der Hand im Raum soll anschließend, durch am Kopf befestigte Kameras und Marker auf der Hand, rekonstruiert werden. Diese Arbeit soll in ein plattformunabhängiges Java-Framework integriert werden, dass die Darstellung dreidimensionaler Szenen mittels eines Head-Mounted-Displays ermöglicht soll. Die Darstellung wird in der Bachelorarbiet "Stereographische Visualisierung von 360° Aufnahmen auf einem Head Mounted Display (HMD)" durch Peter Denis implementiert. Durch die stereoskopsiche Darstellung der Szene gepaart mit der Interaktion durch die Hand soll so eine hohe Immersion erreicht werden, die ein intuitives Arbeiten in der virtuellen Szene erlaubt.

Beschreibungstext verbergen
Mai 2012
September 2012
Bachelorarbeit
Oliver Weidner
Implementation eines Echtzeitmodells für den Wasserkreislauf
Beschreibungstext anzeigen

Auf Basis der vorangegangen Bachelorarbeit "Prozedurale Multiskalen-Generierung von Planetenoberflächen" angefertigt von Felix Haase, soll in dieser Arbeit ein physikalisches Modell entwickelt werden, dass den Wasserkreislauf eines Planeten simuliert. Das Modell für den Wasserkreislauf arbeitet mit verschiedenen Schichten, die z.B. die Planetenoberfläche und die Atmosphäre darstellen. In diesen Schichten werden unterschiedliche Modelle simuliert, so soll für die Atmosphäre ein projiziertes SPH Fluid verwendet werden. Ziel dieser Arbeit ist die Implementierung einer interaktiven Simulation auf einer Planetenoberfläche, die neben einer plausiblen Wolkenmechanik in der Atmosphäre auch eine realistisch wirkende Entwicklung der Vegetation auf der Planetenoberfläche ermöglichen soll.

Beschreibungstext verbergen
Mai 2012
September 2012
Bachelorarbeit
Artem Leichter
Leibniz Universität Hannover, DLR Braunschweig
Generierung von 4D Ausweichtrajektorien
Beschreibungstext anzeigen

Bei den aktuellen Planungsverfahren für den Luftverkehr entstehen regelmäßig Situationen, in denen die Flugzeuge die gesetzlich vorgeschriebenen Sicherheitsabstände nicht einhalten können. Diese Unterschreitungen werden als Kollisionen bezeichnet. Es gibt verschiedene Verfahren zur Erkennung von Kollisionen und zur Aulösung von Kollisionssituationen. Diese Verfahren sind wenig integriert und nutzen nicht die Vorteile der modernen Navigationstechnologie (z.B. DG-PS). Die Ausweichtrajektorien werden nicht optimiert. Am DLR (Deutsches Zentrum für Luft- und Raumfahrt) werden die Trajektorien als Teil des 4D-Raumes abgebildet. Der 4D-Raum setzt sich aus den drei Raumdimensionen und der vierten Zeitdimension zusammen. In dieser Arbeit wurde ein Programm entwickelt, das aus einer Menge von übergebenen Trajektorien eine Trajektorie so anpasst, dass keine Konflikte mehr vorhanden sind. Um dieses Ziel zu erreichen, wird ein mit Konflikten behafteter Bereich mit einer generierten Trajektorie überbrückt. Die Generierung der Ausweichtrajektorie geschieht in konsistenter 4D-Planung. Das automatisierte Generieren der Ausweichtrajektorien auf Basis des 4D-Raums erlaubt das Modellieren des Lateral- und Vertikal-Ausweichens. Zusätzlich kann mit Hilfe der Zeitdimension auch das Variieren der Geschwindigkeit zur Vermeidung der Kollision abgebildet werden. Bei der automatischen Generation eröffnet sich die Möglichkeit, die Trajektorie zu optimieren: Zum Beispiel nach solchen Aspekten wie Treibstoffeffizienz oder Flugkomfort für Passagiere. Das entwickelte Programm generiert keine fliegbare Trajektorie, sondern diskretisiert lediglich den Suchraum um den Konfliktbereich und sucht nach einer möglichen Überbrückung für den Konfliktbereich. Als Ergebnis wird eine Liste mit Punkten im 4D-Raum ausgegeben. Diese Liste wird von der DLR-eigenen TrafficSim in eine fliegbare Trajektorie umgewandelt. Bei der Generierung der Ausweichtrajektorie ist zu beachten, dass TrafficSim mit geringerer Anzahl von Punkten bessere fliegbare Trajektorien generiert als bei höherer.

Beschreibungstext verbergen
Mai 2012
September 2012
Bachelorarbeit
Felix Haase
Prozedurale Multiskalen-Generierung von Planetenoberflächen
Beschreibungstext anzeigen

Ziel dieser Arbeit ist es Planetenoberflächen prozedural zu generieren. Dazu sollen insbesondere Fraktale verwendet werden die es ermöglichen sollen die Planeten auf verschiedenen Skalen mit unterschiedlichem Detailgrad darzustellen. Die zu entwickelnden Methoden sollen dabei klimatische Unterschiede bei der Generierung berücksichtigen. Neben der prozeduralen Generierung sollen auch verschiedene LOD (Level of Detail) Verfahren untersucht werden, um die Planeten in Echtzeit anzeigen und deren Detailgrad nahtlos anpassen zu können.

Beschreibungstext verbergen
Februar 2012
Juni 2012
Diplomarbeit
Benjamin Fleischer
Welfenlab, IMS
Halbautomatische Segmentierung der knöchernen Strukturen des Kniegelenks in MRT Aufnahmen
Beschreibungstext anzeigen

Zuverlässige Segmentierung ist eine der wichtigsten und zugleich komplexesten Aufgaben in der modernen Volumen Analyse. Besonders im Bereich der Medizin sind bildgebende Verfahren heute ein integraler Bestandteil des klinischen Alltags geworden, was zur Folge hat das ein hoher Prozentsatz der Arbeitszeit auf die Nachbearbeitung bzw. Strukturfindung aufgewendet werden muss. Hier setzen (teil-) automatisierte, modellbasierte Verfahren an. Eine prominente Klasse der modellbasierten Segmentierungsverfahren ist der "Deformable Model" Ansatz. Grundidee ist die Verwendung eines initiales Modells, üblicherweise durch ein 3D Netz repräsentiert, welches in einem iterativen Verfahren an die zu findende Kontur angepasst wird und sich in jedem Schritt ausbreitet oder schrumpft, vergleichbar mit einem Ballon in den (lokal) Luft hingepumpt oder abgelassen wird.

Ziel dieser Arbeit ist es, unter Verwendung des am Welfenlab entwickelte YaDiV Deformable Model Framework (YDMF) angepasste Modelle für die knöchernen Strukturen im Bereich des menschlichen Kniegelenks (Patella, Femur, Tibia) zu entwickeln. Als Volumendaten werden MRT-Aufnahmen zum Einsatz kommen, was eine zusätzliche Herausforderung an das Modell darstellt, da die Differenzierung von knöchernen Strukturen durch Weichgewebe in MRT-Aufnahmen erschwert wird.

Als erster Schritt soll ein Modell für die Patella entwickelt werden, welches mit anatomischen Landmarken versehen wird und durch eine lokal und global angepassten Expansions- bzw. Erosionskraft die Strukturfindung ermöglicht. Das Modell soll mit einer geringen Auswahl an Datensätzten trainiert und anschließend durch die Anwendung in neuen Aufnahmen evaluiert werden. Die gewonnen Erkenntnisse sollen dann für die Modellierung der Femur bzw. Tibia Modelle genutzt werden, bei denen die zusätzliche Herausforderung besteht, das hier oft nur eine Teilabdeckung im Aufnahmebereich besteht.

Zusätzlich soll untersucht werden, in wie weit anatomische Landmarken, die in das initiale Modell eingebracht werden, nach Findung der Endkontur für eine weitere Analyse verwendet werden können.
Beschreibungstext verbergen
November 2011
Mai 2012
Seminararbeit
Oliver Ilnicki
Grid-based Fluid Simulations
Beschreibungstext anzeigen
Diese Seminararbeit beschäftigt sich mit den Grundlagen der Fluid-Simulation. Zunächst wird die Navier-Stokes Gleichung hergeleitet und darauf aufbauend werden verschiedene Lösungsansätze diskutierter mit dem Fokus auf dem Marker and Cell (MAC) Ansatz, der zwei versetze Gitter für die Drücke und Geschwindigkeiten im Fluid verwendet. Mittels finiter Differenzen wird dann eine Diskretisierung beschrieben die effizient das Fluid simulieren kann und dabei über einen Projektionsmechanismus die Inkompressibilität der Flüssigkeit gewährt.
Beschreibungstext verbergen
April 2012
Mai 2012
Bachelorarbeit
Romeo Shuka
Leibniz Universität Hannover
3D-Textursynthese auf Grundlage zweidimensionaler Exemplare
Beschreibungstext anzeigen

Texturen dienen in der Computergrafik der Erzeugung detaillierter Oberflächenstrukturen ohne eine Verfeinerung der zugrundeliegenden Geometrie. 2D Texturen sind dabei oft Fotografien von Oberflächen, die beim Rendern  auf die entsprechenden Oberflächen der Szene abgebildet werden. Sie erzeugen eine realistische Anmutung der Oberflächen von Objekten. Schnitte durch Objekte können mit dieser Methode allerdings nur schlecht visualisiert werden, da dies das Vorhandensein von 2D-Fotografien verschiedener Schnittrichtungen voraussetzt.

3D- oder Solid Textures können hier Abhilfe schaffen, da sie Informationen über die Detailstruktur des Inneren von Objekten geben. Sie werden üblicherweise als Voxeldatensatz, d.h. als Skalar- oder Vektorfeld auf einem ortsfesten, meist orthogonalen Raumgitter gespeichert. Moderne Grafikkarten bieten mittlerweile Hardware-Unterstützung für 2D-Texturen, so dass das Problem der Beschaffung von 3D-Texturen in letzter Zeit in den Mittelpunkt wissenschaftlicher Betrachtung gerückt wurde. Es wurden verschiedene funktionale Syntheseverfahren, als auch die Erzeugung auf Grundlage von Exemplaren, also zweidimensionalen Beispielbildern vorgeschlagen (Übersicht in [1]). In dieser Arbeit soll ein fortgeschrittenes Verfahren, z.B. basierend auf der Arbeit von Kopf et al. [2] entwickelt werden. Die Implementation soll in Java oder C++ erfolgen und die entstehenden 3D-Texturen in YaDiV geladen werden können. Speziell sollen als Exemplare Mikroskopien von Dualphasenstählen dienen, auf deren Besonderheiten Rücksicht genommen werden soll. Quellen [1] Pietroni et al. "Solid-Texture Synthesis: A Survey", IEEE Computer Graphics  and Applications, 2010. [2] Kopf et al. "Solid Texture Synthesis from 2D Exemplars", ACM Trans. Graph., Vol. 26, No. 3, 2007, p. 2.

Beschreibungstext verbergen
Januar 2012
Mai 2012
Studienarbeit
Dennis Schridde
Implementation eines Kompressionsverfahrens für animierte Geometrie mittels Octrees
Beschreibungstext anzeigen

Das Entwickeln verteilter Simulationen erfordert neben adaptierter Algorithmen meist auch eine schnelle Anbindung der einzelnen Berechnungsknoten. Oft ist jedoch, trotz modernster Technologie, der Datentransfer zwischen den Knoten der Flaschenhals der verteilten Simulation. Ziel diese Arbeit ist es ein Verfahren, welches bisher zur Speicherung von 3D-Szenen verwendet wurde, zu adaptieren um eine echtzeitfähige Verwendung zu ermöglichen. Das Verfahren soll darauf in verteilten physikalischen Simulationen mit unterschiedlichen Technologien erprobt werden. Im Insitut sind neben den standard Ethernet-Anbindungen auch Infiniband-Anbindungen vorhanden, die einen Durchsatz von bis zu 20GBit/s erreichen und dabei enorm kurze Latenzzeiten im Bereich von Mikrosekunden versprechen.

Beschreibungstext verbergen
Betreuer: Rasmus Buchmann
Februar 2012
April 2012
Bachelorarbeit
Georg Konwisser
Development and Analysis of 2D and 3D Shape Matching and Shape Retrieval Algorithms using Laplace-Beltrami Spectra and Medial Axis Information
Beschreibungstext anzeigen

Written by Georg Konwisser (gekonwi AT gmail.com):

Abstract

Development of algorithms often focuses on one task: creating an algorithm which is better than another one doing the same task. The developer is thus compelled to answer the question: "Which algorithm is better?" The highly extendable modular framework and application I developed and implemented for this thesis can help developers of any classifying, matching or retrieval algorithms to answer this question with less implementation effort saving development time and cost.

Overview

In this work I will refer to the mentioned framework and application using the current project name AlCom (Algorithm Comparison).

The main outline of this thesis is as follows:

  • general introduction to AlCom (chapter 2 and 3)
  • important concepts and components used in AlCom which can also be used to reduce the implementation effort of new modules and other AlCom extensions (chapter 2)
  • possibilities of customization and extension of AlCom (chapter 2)
  • AlCom’s GUI application (chapter 3)
  • the implemented extensions in AlCom and the corresponding theoretical basics (chapter 4)
  • an analysis of two shape matching algorithms as a demonstration of extension and usage (chapter 5) 

Beschreibungstext verbergen
November 2011
März 2012
Bachelorarbeit
Nicola Hauke
Entwicklung eines modularen Clusterframeworks
Beschreibungstext anzeigen

Ein Großteil der heutigen Anwendungen nutzen die parallele Ausführung von Programmen zum verringern der Rechenzeit. Die Parallelisierung erfolgt dabei meist in feinster Handarbeit und erfordert viel Zeit. Das Ziel dieser Arbeit ist die Erstellung eines Frameworks, dass die Parallelisierung von Programmen einerseits und den eigentlichen Entwicklungsprozess besser unterstüzen soll. Dabei soll das Framework mit einer Share-Nothing Architektur ein stabiles System bieten, dass ohne weiteren Aufwand die einzelnen Programmkomponenten parallel ausführen kann. Dazu soll das System modular gehalten werden, sodass die entwickelten Module leicht für jedermann verwendbar sind. Dafür werden klare Interfaces zur Kommunikation benötigt. Technisch wird das ganze über die ZeroMQ Bibliothek und einer Serialisierungsbibliothek wie Google Protocol Buffers implementiert werden. Dadurch wird es auch möglich sein Module in verschiedenen Programmiersprachen zu schreiben.

Beschreibungstext verbergen
November 2011
März 2012
Bachelorarbeit
Karoline Busse
Implementierung einer parallelen partikelbasierten Fluidsimulation
Beschreibungstext anzeigen
Ein gängiges Modell zur Fluidsimulation stellen die Navier-Stokes Gleichungen dar. Diese nicht linearen partiellen Differentialgleichungen lassen sich mittels verschiedener Diskretisierungsmethoden lösen, von denen einige auf Grids oder Dreiecks-Meshs arbeiten. Andere verfolgen einen Partikelansatz, wie die Smoothed Particle Hydrodynamics (SPH) Methode.  Das SPH Verfahren bietet dabei im Echtzeitbereich einige Vorteile. Aufgrund der Struktur des SPH Verfahrens ist es möglich interaktive Simulationen zu schaffen die auch visuell ansprechend sind.

Die Berechnung der kontinuierlichen Parameter im SPH Verfahren geschieht über sogenannte Smoothing Kernels. Diese ermöglichen das effiziente Berechnen des Druckes in jedem Raumpunkt, wenn die Nachbarschaft eines jeden Partikels schnell bestimmt werden kann. Dies geschiet üblicherweise über ein Spacial Hashing mit dem es möglich ist Fluide mit einigen tausend Partikeln zu simulieren.

In dieser Arbeit soll, unter der Verwendung von Grafikhardware, die mögliche Anzahl an Partikeln durch Parallelisierungstechniken erhöht werden. Dabei soll die Parallelisierung mit OpenCL umgesetzt werden, um auch mögliche Portierungen auf andere Plattformen zu erleichtern.
Beschreibungstext verbergen
Oktober 2011
Februar 2012
Diplomarbeit
Anton Korol
Numerische Untersuchungen zum Dirac Operator auf Flächen.
August 2012
Februar 2012
2011
Diplomarbeit
Andreas Tarnowsky
Head Position Invariant Gaze Tracking
Beschreibungstext anzeigen

Das Erfassen der Augenposition (oder Gaze Tracking), ist obwohl schon seit geraumer Zeit bekannt, noch kein verbreiteter Bestandteil heutiger immersiver VR-Umgebungen. Das ist teilweise auf die hohen Kosten kommerzieller Systeme zurückzuführen, speziell für Systeme die eine freie Kopfbewegung des Benutzers erlauben. Die vorliegende Arbeit untersucht, inwiefern sich auch mit erschwinglicher Hardware brauchbare Ergebnisse erzielen lassen. Dazu wird ein Prototyp konstruiert, der über eine Kamera die Reflektion verschiedener Markerpunkte auf dem Auge aufzeichnet und mittels eines selbst entwickelten Algorithmus den auf dem Bildschirm anvisierten Punkt ermittelt.

Beschreibungstext verbergen
Betreuer: Rasmus Buchmann
Juli 2011
Dezember 2011
Studienarbeit
Friedrich Krüger
Dynamische Erzeungung von Triangle Strips als Erweiterung des Marching Cube Verfahrens
Beschreibungstext anzeigen
Ein gängiges Verfahren zur indirekten Visualisierung von Volumendaten ist der Marching-Cube Algorithmus. Dabei wird jeweils ein (wandernder) Würfel über die Volumendaten gelegt und die Daten an dessen Eckpunkte ausgewertet. Je nach Eckpunktkonfiguration wird eine bereits vorberechnete Dreiecksmenge aus einer Lookup-Tabelle mit 256 Einträgen verwendet. Ein Manko diese Verfahrens ist es, dass selbst bei kleinen Volumendaten sehr schnell große Dreiecksmengen entstehen können. Eine nachträgliche Reduzierung würde jedoch die Laufzeit beeinträchtigen. Ein Königsweg kann hier die Verwendung von sogenannten Triangle-Strips darstellen. Bei dieser optimierten Repräsentation von Dreiecksflächen lässt sich nicht nur der Memory-Footprint reduzieren, sondern auch die Darstellungsqualität (FPS) erheblich verbessern. Daher ist es das Ziel dieser Studienarbeit, die Triangle Strips ohne Verlust der Performance dynamisch zu erzeugen.
Beschreibungstext verbergen
September 2011
Dezember 2011
Studienarbeit
Björn Bredthauer
Entwicklung eines Frameworks zur vereinfachten Softwareentwicklung fur den Cell Prozessor
Beschreibungstext anzeigen

Am Institut für Mensch-Maschine-Kommunikation wird aktuell ein Raum für Forschung in Bereich Virtual-Reality ausgestattet. In einer Reihe von studentischen Arbeiten sollen daher kleinere Anwendungen für die einzelnen Komponenten dieses VR-Raums entwickelt werden. Diese sollen in erster Linie für nachfolgende Arbeiten die Verwendung der vorhandenen Programmierschnittstellen demonstrieren. Es soll aber auch die Leistungsfähigkeit der Geräte und vor allem deren Grenzen analysiert
werden. In dieser Arbeit wird ein Framework entwickelt, das die Programmierung für die Cellarchitektur vereinfacht. Dazu wird einerseits eine Objektorientierte Struktur bereitgestellt, die dem Programmierer einen Zugang auf einer höheren Abstraktionsebene bietet. Zusätzlich wird eine Umgebung geboten, die das Testen von Programmteilen ohne Emulation ermöglicht.

Beschreibungstext verbergen
Betreuer: Rasmus Buchmann
Juni 2011
Dezember 2011
Diplomarbeit
Natalya Obydenna
Parametrisierung von Flächen mit Hilfe des Ricci-Flusses
Beschreibungstext anzeigen

Der kontinuierliche Ricci Fluss ist eine parabolische partielle Differentialgleichung, welche einen Diffusionsvorgang für die Metrik einer Riemannschen Mannigfaltigkeit in Abhängigkeit der durch sie induzierten Ricci- Krümmung beschreibt. Die Metrik kann dadurch in eine vorgegebene Zielmetrik deformiert werden, welche zur ursprünglichen Metrik konform äquivalent ist.

Im Falle von zweidimensionaler Flächen lässt sich mit Hilfe des Ricci Flusses beispielsweise eine Metrik berechnen, die eine flache Gausskrümmung induziert. Dadurch kann eine winkeltreue Parametrisierung eines Flächenstückes über der Ebene konstruiert werden. Dieser Anwendungsfall ist von besonderem Interesse, da sich viele Betrachtungen und Berechnungen (z.B. die Konstruktion von Splines) vereinfachen, sobald man über eine Parametrisierung verfügt.

Der diskrete Ricci-Fluss ist das Analogon des kontinuierlichen Ricci-Flusses für Flächen, die durch Dreiecksnetze beschrieben werden. Die Metrik wird dabei durch eine Funktion auf den Dreieckskanten dargestellt. Die diskrete Gausskrümmung wird durch den Winkeldefekt in den Eckpunkten des Dreiecksnetzes berechnet.

In der vorliegenden Diplomarbeit sollen zunächst die theoretischen Grundlagen des Ricci-Flusses und des diskteten Ricci-Flusses sowie ihr Zusammenhang erarbeitet und dargestellt werden. Ferner soll der Diskrete Ricci Fluss implementiert und in ein vorgegebenes C++ Framework eingebunden werden. Dabei stehen verschiedene Verfahren zur Auswahl. Diese unterscheiden sich hinsichtlich ihrer Konvergenzgeschwindigkeit und hinsichtlich ihrer Genauigkeit (insbesondere bei Triangulierungen mit schlechter Qualität), vgl. [1]. Mit Hilfe des implementierten Verfahrens sollen anschließend für Beispielobjekte Parametrisierungen konstruiert werden.

Literatur:
  [1] Yang, Guo, Luo, Hu, Gu (2009): Generalized Discrete Ricci Flow

Beschreibungstext verbergen
Betreuer: Alexander Vais
Mai 2011
November 2011
Masterarbeit
Maximilian Hans Gerhard Klein
Local Refinement Methods for Fluid Simulation
Beschreibungstext anzeigen
Die Komplexität der Simulation dynamischer Prozesse in Echtzeit setzt enge Grenzen was die Problemgröße und die Genauigkeit von SImulationen selbst auf neuester Hardware angeht. Dabei ist es häufig gar nicht nötig, jede Lösung über einem Teilgebiet der Simulationsdomäne mit der selben Präzision zu berechnen. Häufig liefern adaptive Verfahren bei einer Verringerung der Freiheitsgrade bessere Ergebnisse. Diese Arbeit untersucht im Kontext der Fluidsimulation eine adaptive Fassung des Multigrid Algorithmus, der diese Eigenschaft nutzen soll um interaktive Fluidsimulation mit hoher Genauigkeit zu ermöglichen. Dazu wird in einem sog. splitting Verfahren die Lösung der Fluidgleichungen in zwei Teilschritte zerlegt. Im ersten Schritt wird mit einem sog. semi-lagrangian Verfahren das (vorläufig divergenzbehaftete) Geschwindigkeitsfeld nach Einwirkung von verteilten Kräften, Randbedingungen und Advektion berechnet. Dieses wird dann in einem zweiten Schritt durch die Lösung eines geeigneten Poissonproblems mittels der Multigridmethode auf seinen divergenzfreien Anteil projiziert.
Beschreibungstext verbergen
Betreuer: Rasmus Buchmann
April 2011
Oktober 2011
Bachelorarbeit
Mohammad Ali Azizi-Sales
3D-Textursynthese für die Mikrostrukturmodellierung von Dualphasenstählen anhand von 2D-Metallographie
Beschreibungstext anzeigen

Wachsende Anforderungen im Bereich des Automobilbaus an den Werkstoff
Stahl im Hinblick auf geringe Kosten, hohe Ressourceneffizienz und
Sicherheitsanforderungen führen zu einem ansteigenden Einsatz von
hochfesten sowie höher- und höchstfesten Stählen im Karosseriebau. Bei
den meisten Stählen dieser Grenzklassen werden die mechanischen
Eigenschaften durch eine gezielte Mischung unterschiedlich harter
Gefügebestandteile (Phasen) wie Ferrit, Bainit, Austenit und Martensit
gesteuert. Für den Festigkeitsbereich von 350 – 1000 MPa gewinnen
besonders Dualphasenstähle (DP-Stähle) an Bedeutung.

Das makroskopische Fließverhalten von DP-Stählen hängt im Wesentlichen
von den Eigenschaften einzelner Phasen (Ferrit und Martensit) sowie der
Morphologie des Martensits ab und wird seit einiger Zeit im Rahmen der
numerischen Mikromechanik beschrieben. Dabei wird das makroskopische
Fließverhalten mit Hilfe eines repräsentativen Volumenelements (RVE)
modelliert, das einen statistisch repräsentativen Ausschnitt der
Mikrostruktur des Werkstoffs im dreidimensionalen Raum darstellt.

Das Ziel der Arbeit ist, eine Methode zu entwickeln, um auf Basis
möglichst weniger zweidimensionlaer Schliffbilder eines realen DP-Stahls
eine dreidimensionale Textur zu synthetisieren, die die statistische Verteilung
von wesentlichen Merkmalen und Struktur der Schnittbilder nachbildet.

Die im Rahmen dieser Arbeit zu entwickelnde Software soll als Plugin für
die YaDiV Software in Java realisiert werden.

Beschreibungstext verbergen
Juni 2011
Oktober 2011
Bachelorarbeit
Sergi Lazaro
Modelling of realistic Blood Vessel Geometry
Beschreibungstext anzeigen
With modern laser technology it has become possible to print living 3D organic structures like organs or muscles. Currently one of the main problems of this procedure is that the living material dies off during the printing process, therefor it becomes necessary to generate a supply. The goal of this thesis is to analyse and construct the geometry of blood vessels. A vessel consists of an inner and outer diameter and may branch several times. A special focus will lie on the two end points, which function as input and output of the liquid supply system. For this it is planned, to construct the basic structure as a connected graph generated by a Lindenmayer System. This graph is then understood as the medial axis of the vessel geometry. The inner and outer vessel diameter define the radius function. For the construction process, it should be possible to tweak these parameters.

Beschreibungstext verbergen
Mai 2011
September 2011
Bachelorarbeit
Magnus Adler
Leibniz Universität Hannover
Differentielle Wahrnehmungsschwellen in der Haptik
Beschreibungstext anzeigen
Es soll untersucht werden, wie sich die Wiederholrate der haptischen Darstellung auf die Qualität der Wahrnehmung auswirkt. Zu diesem Zweck werden unter Zuhilfename statistischer Methoden aus der Psychophysik Probandenversuche durchgeführt und analysiert.
Beschreibungstext verbergen
Betreuer: Rasmus Buchmann
Mai 2011
September 2011
Bachelorarbeit
Mona Lepke
Untersuchung zur Form- und Mustererkennung auf LC Displays bei benachbarten Farbwerten
Beschreibungstext anzeigen
In vielen Anwendungen wird Information als Farbwert kodiert. So stellt z.B. eine Wärmekamera Temperaturwerte in einer Falschfarbenskala dar. In der Medizin werden Intensitätswerte oft als Graustufen repräsentiert. Dabei können unterschiedliche physikalische Effekte kodiert werden, bei einem CT Bild stehen die Graustufen für die Schwächung der Röntgenenergie, bei einem MRT Bild für die Kernspinrelaxationszeit. Eine hohe Intensität wird dabei meist als Weiss, eine niedrige als Schwarz dargestellt, benachbarte Intensitäten erhalten ähnliche oder (bedingt durch den eingeschränkten Farbraum) sogar die gleiche Grauwerte.


Wie viele Flecken sind hier zu sehen?

Oft übersehen wird dabei die Frage, ob die darstellbaren Farb- oder Grauwerte auch optisch auseinandergehalten werden können. Im DICOM Standard wurden dazu umfangreiche Untersuchungen durchgeführt und für die medizinische Befundung spezielle Monitore und Kalibrierungstechniken gefordert. Wie aber sieht es auf normalen LCD Monitoren aus, die z.B. in der präoperativen Planung verwendet werden?

Hier setzt diese Arbeit an, in der Benutzertests zur Form- und Mustererkennung durchgeführt werden sollen. Dabei soll auf den Ergebnissen der Studienarbeit von Lara Toma aufgebaut werden, die ebenfalls am Welfenlab entstanden ist.
Beschreibungstext verbergen
Mai 2011
September 2011
Seminararbeit
Jose Caravaca Fernandez
Leibniz Universität Hannover
Gradient evaluation on non-orthogonal meshes
Beschreibungstext anzeigen

The gradient of a scalar function is a well-known tool of vector analysis and routinely used to analyze images or results of simulations or to enhance volume visualization. In these applications, the gradient is usually not known but has to be approximated from the values of the function which are commonly given on a discrete set of points in some space. If these points lie on a regular, orthogonal grid, approximation of the gradient can be easily done using divided differences. In the case of non-orthogonal meshes, this is not as simple. In this seminar, several methods will be presented which can overcome this problem.

 Volume raycasting without (left) and with (right) gradient hinting.

  • The work in PDF format
Beschreibungstext verbergen
April 2011
Juli 2011
Studienarbeit
Anton Korol
Laplace-Beltrami Operator für Punktwolken
Beschreibungstext anzeigen

In dieser Arbeit sollen die Eigenwerte und Eigenfunktionen des Laplace-Beltrami Operators für geschlossene zweidimensionale Mannigfaltigkeiten berechnet werden. Die Mannigfaltigeiten werden dabei durch eine Menge von Punkten repräsentiert. Da keine explizite Oberflächenbeschreibung vorliegt, können in diesem Fall keine herkömmlichen FEM-basierten Verfahren benutzt werden. In [1] wird ein Verfahren vorgeschlagen, welches direkt mit solchen punktbasierten Repräsentationen arbeitet ohne diese vorher in eine andere Repräsentation zu konvertieren. Im Rahmen der vorliegenden Studienarbeit soll neben der Erarbeitung der theoretischen Grundlagen das Verfahren aus [1] implementiert und in ein vorgegebenes C++ Framework eingebunden werden. Das implementierte Verfahren soll an einer Menge von Beispielobjekten mit Ausblick auf die Anwendung in der Gestalterkennung erprobt werden. [1] Yang Liu, Balakrishnan Prabhakaran, Xiaohu Guo, "Point-Based Manifold Harmonics," Technical Report, UTDCS-15-09, University of Texas at Dallas, 2009

Beschreibungstext verbergen
April 2011
Juli 2011
Bachelorarbeit
Alexander Lanin
Gestenerkennung mit einem Datenhandschuh
Beschreibungstext anzeigen

Am Institut für Mensch-Maschine-Kommunikation wird aktuell ein Raum für Forschung in Bereich Virtual-Reality ausgestattet. In einer Reihe von studentischen Arbeiten sollen daher kleinere Anwendungen für die einzelnen Komponenten dieses VR-Raums entwickelt werden. Diese sollen in erster Linie für nachfolgende Arbeiten die Verwendung der vorhandenen Programmierschnittstellen demonstrieren. Es soll aber auch die Leistungsfähigkeit der Geräte und vor allem deren Grenzen analysiert
werden.

Eine dieser Komponenten ist ein Datenhandschuh, der die Gelenkstellungen einer Hand erfassen kann. Mithilfe dieses Geräts soll ein System entwickelt werden, das die Steuerung von Anwendungen durch Gesten ermöglichen soll. Dazu soll im Rahmen dieser Arbeit die Ansteuerung des Datenhandschuhs und dessen Einbindung in ein bestehendes Framework realisiert werden. Die Möglichkeit der Erkennung einfacher Gesten soll dabei aufgezeigt werden.

Beschreibungstext verbergen
Betreuer: Alexander Vais
Januar 2011
Mai 2011
Masterarbeit
Matthias Becker
Welfenlab + Kiefer-, Mund und Geschitschirurgie der MHH
Modellbasierte Orbita Segmentierung und die automatisierte Bestimmung anatomisch relevanter Parameter
Beschreibungstext anzeigen

Der Begriff Segmentierung beschreibt die Auswahl von Voxeln in einem Volumendatensatz entsprechend einem vom Benutzer gewählten Homogenitätskriterium. Ein einfaches Verfahren könnte z.B. alle Voxel zwischen einer unteren oder oberen Intensitätsschranke segmententieren (Min-Max-Verfahren). Sollen komplexere Formen erkannt werden, kommen meist modellbasierte Verfahren zum Einsatz. Ein Beispiel für eine solche, komplexe Form, stellt die knöcherne Augenhöhle (Orbita) dar. Ziel dieser Masterarbeit war es, modellbasierte Verfahren anhand des klinisch relevanten Beispiels der Orbita-Segmentierung zu untersuchen. Die  entwickelten Algorithmen sind jedoch allgemeiner und auch für andere Anwendungsfälle einsetzbar. Ein Hauptaugenmerk lag dabei auf dem Deformable Model  Ansatz. Dabei wird ein zur gesuchten Segmentkontur topologisch äquivalentes Startmodell schrittweise "aufgeblasen" und durch geeignete innere oder äußere Parameter (Formerhaltung, Gradienten,  ...) gebremst. Zur Demonstration des Verfahrens wurde ein Modul für die von Karl-Ingo Friese geschriebene Software YaDiV entwickelt werden, das die Visualisierung und Kontrolle der Evolutionssparameter in jedem Schritt erlaubt.

In der Ausarbeitung wurde der Einfluss unterschiedlicher Parametergewichtungen untersucht. Ein weiteres Ziel dieser Arbeit bestand in der automatisierten Bestimmung anatomisch interessanter Punkte und Größen (Winkel, Abstände, etc.) und einer Analyse der Segmentgüte.

Beschreibungstext verbergen
Oktober 2010
April 2011
Seminararbeit
Pawel Gardzinski
Welfenlab
Exact and Approximate Geodesics on Meshes
Beschreibungstext anzeigen
The computation of geodesic paths and distances on triangle meshes is a common operation in many computer graphics applications. I will present several practical  algorithms for computing such geodesics from a source point to one or all other points efficiently. First, I will describe an implementation of the exact “single source,  all destination” algorithm presented by Mitchell, Mount, and Papadimitriou (MMP). I will show that the algorithm runs much faster in practice than suggested by worst case analysis. I will also show an algorithm (by V. And T. Surazhsky, D. Kirsanov, Steven J. Gortler and H. Hoppe) extended with a merging operation to obtain computationally efficient and accurate approximations with bounded error. Finally, to compute the shortest path between two given points, I will show how the authors used a lower-bound property of their approximate geodesic algorithm to efficiently prune the frontier of the MMP algorithm,  thereby obtaining an exact solution even more quickly.
Beschreibungstext verbergen
Betreuer: Alexander Vais
Februar 2011
Studienarbeit
Benjamin Fleischer
IMS + Welfenlab
Entwicklung eines Moduls zur automatisierten Bestimmung der Kniegelenkskinematik und -biomechanik durch dreidimensionale in vivo-Analyse mittels MRT
Beschreibungstext anzeigen
Durch nichtinvasive Verfahren gewonnene 3D-Bilddaten finden auch im Bereich der Kniegelenkserkrankungen und -verletzungen eine immer bereitere Anwendung. Durch Techniken wie dem (offenen) Up-Right MRT ist es möglich, funktionelle Aufnahmen in unterschiedlichen Gelenkstellungen mit und ohne (natürliche) Belastung durchzuführen. Von besonderem klinischen Interesse ist die Bestimmung biomechanischer Parameter, wie z.B. dem Patello-femoralen Winkel zwischen der Kniescheibe und der Hauptachse des Oberschenkelknochens. Dabei wird das Ziel verfolgt, bestehende oder zukünftige nicht-physiologische Verhältnisse besser
zu quantifizieren und Behandlungen objektiver bewerten zu können. Für die Bewältigung dieser Aufgabe ist eine intensive interdisziplinäre Zusammenarbeit (Medizin, Mathematik, Informatik, ...) erforderlich.

Derzeit ist die Bestimmung dieser Größen nur bedingt automatisiert und erfordert viel Zeit durch medizinisch ausgebildete Anwender. Bereits existierende Ansätze haben weitestgehend prototypischen Charakter. Für den Einsatz in der klinischen Praxis ist es jedoch erfoderlich, ein weitestgehend automatisiertes Verfahren (wenn möglich ohne die Verwendung mehrerer Softwarepakete) zu entwickeln, das die biomechanischen Parameter in vertretbarer Zeit berechnet. Dazu soll das Verfahren als Modul für die von Karl-Ingo Friese am Lehrstuhl für Graphische DV der LUH ("Welfenlab") entwickelte Software YaDiV integriert werden. Die Arbeit wird durch das Labor für Biomechanik und Biomaterialien (LBB) der Orthopädischen Klinik begleitet, das die Betreuung für die medizinischen Fragen übernimmt. Datengrundlage sind dabei die bereits in Patella, Femur und Tibia vorsegmentierten Volumendaten, die durch das LBB zur Verfügung gestellt werden. In dieser Arbeit sollen bereits bestehende Verfahren analysiert, verglichen und durch eigene Ansätze verbessert werden. So soll z.B. die Parameterbestimmung unabhängig von der Lage der drei Strukturen im Aufnahmeraum möglich sein.
Beschreibungstext verbergen
August 2010
Februar 2011
2010
Masterarbeit
Benjamin Berger
Leibniz Universität Hannover
Untersuchung von Eigenwertspektren zur Klassifikation von Bildinformation
Beschreibungstext anzeigen
Es gibt viele Gründe Verfahren zu entwickeln, die zu gegebenen Daten Duplikate oder "ähnliche" Versionen finden können. Die Anwendungen reichen von der Organisation von Datensammlungen über Mustererkennung bis zum Urheberrechtsschutz. In dieser Arbeit soll ein solches Verfahren für Bilddaten vorgestellt werden. Bei den bisherigen Verfahren, sofern sie ähnlich wie das in dieser Arbeit beschriebene die Bilder in Eigenwertprobleme umwandeln und dann die Eigenwertspektren vergleichen, wurde kein Augenmerk darauf gerichtet, inwieweit sich Information über Bildteile, also von Kanten umgrenzte Gebiete einigermaßen gleichförmiger Helligkeit, im Eigenwertspektrum unterbringen lässt beziehungsweise in einer für den Ahnlichkeitsvergleich sinnvolllen Weise berücksichtigen lässt. Diese Arbeit ist ein erster Versuch, die Problemstellung des partiellen Matching mit derartigen eigenwertbasierten Methoden anzugehen.

Beschreibungstext verbergen
Betreuer: Alexander Vais
Juni 2010
Dezember 2010
Diplomarbeit
Elena Bauer
Leibniz Universität Hannover
Geodesics as Minima of General Variation Problems and Their Applications.
August 2010
Studienarbeit
Johannes Wahle
Illustrative Volumendarstellung mit Lit Sphere Mapping unter Berücksichtiung von vorhandenen Segmentinformationen
Beschreibungstext anzeigen
Ray Casting ist eine weit verbreitete Methode, Volumendaten, bswp. aus der Medizin, zu visualisieren. Bildlich beschrieben lautet die Grundidee, einen imaginären Strahl durch jeden Pixel des zu berechnenden Bildes zu verfolgen, der ausgehend vom Betrachter den Volumendatensatz durchläuft und dabei einen Farbeindruck erzeugt. Das Verfahren ist somit - nicht nur namentlich - eng verwandt mit Konzepten aus dem Bereich Ray Tracing. Neben der möglichst realistischen Darstellung mit etablierten Lichtmodellen wie Goraud- oder Phong-Shading gibt es auch weniger bekannte Modelle, die einen eher künstlerischen Aspekt der Volumendarstellung verfolgen. Eines dieser Modelle ist das sogenannte Lit-Sphere-Mapping. Das Konzept geht zurück auf die Arbeit von Sloan et al. aus dem Jahr 2001, wo die Autoren ein Verfahren vorschlugen, mit dem sich Schattierungstechniken, wie sie in der Kunst verwendet werden, vergleichsweise einfach in Rendering Verfahren integrieren lassen. Künstler verwenden Schattierungs-Skizzen in Form einer projizierten Halbkugel, um in ihrem Bild einen bestimmten Zeichenstil zu verwenden. Dabei wird die Farbschattierung als Textur auf einer Kreisscheibe aufgetragen, die alle möglichen Normalen der Halbkugel als Stil- bzw. Farbinformation enthält. Ein Problem der Bilderzeugung mit einer intensitätswertbasierten Transferfunktion ist, dass unterschiedliche Gewebe (bedingt durch das verwendete bildgebende Verfahren wie CT, MRT, PET, ...) einen ähnlichen oder identischen Wert besitzen können. Ziel dieser Arbeit ist es, bereits vorhandene Segmentinformationen in der Farbgebung zu berücksichtigen. Dazu sollen unterschiedliche Ansätze implementiert und als Module für die die am Lehrstuhl entwickelte YaDiV-Plattform integriert und verglichen werden.
Beschreibungstext verbergen
Mai 2010
August 2010
Studienarbeit
Daniel Brandes
Welfenlab, DLR
CellARS: Cell Architecture Radar Simulation
Beschreibungstext anzeigen

In dieser Studienarbeit soll ein Flugzeug-Radar simuliert werden. Dies soll mit Hilfe von SRTM (Shuttle Radar Topografie Mission) Daten und mathematischen Transformationen geschehen und auf dem Cell-Prozessor implementiert werden. Ziel der Arbeit ist es auch, quantitative Ergebnisse zu erhalten, die darüber Auskunft geben, ob sich die Struktur des Cell-Prozessors für diese Art von Simulationen eignet.  Es  handelt sich um eine Kooperationsarbeit zwischen dem Deutschen Luft- und  Raumfahrtzentrum (DLR) und dem Institut für Mensch-Maschine-Kommunikation der Leibniz-Universität Hannover.

Beschreibungstext verbergen
Betreuer: Alexander Vais
April 2010
Juli 2010
Seminararbeit
Dennis Schridde
Advanced techniques for markerless motion tracking.
Februar 2010
Seminararbeit
Andreas Tarnowsky
Pose Estimation and Geometric Algebra
Beschreibungstext anzeigen
Eine typische Aufgabe im Bereich Computer Vision besteht darin,
bestimmte Objekte und Objektteile in einem Bild zu erkennen
und zu jedem Objekt die Position und Orientierung relativ zu
einem Koordinatensystem zu bestimmen. Dieser Prozess wird als
Poseschätzung (engl. pose estimation) bezeichnet.

Die dabei benötigten Berechnungen lassen sich in den Rahmen der sog.
Geometrischen Algebra einbetten. Diese basiert auf der mathematischen
Theorie der Clifford Algebren und definiert Operationen, die es u.a.
ermöglichen, direkt mit Teilräumen eines Vektorraums zu rechnen.
Die Geometrische Algebra erweitert die Lineare Algebra, die traditionell
in der Computergraphik und Robotik eingesetzt wird und integriert dabei
andere dort angewandte Konzepte wie z.B. komplexe Zahlen,
Quaternionen und Plücker-Koordinaten.
Beschreibungstext verbergen
Betreuer: Alexander Vais
Februar 2010
Bachelorarbeit
Falk Garbsch
Entwicklung einer VR-Umgebung zur Untersuchung der räumlichen Wahrnehmung von multiplen dynamischen Objekten
Beschreibungstext anzeigen

Diese Bachelorarbeit entstand in Zusammenarbeit mit dem Institut für Sportwissenschaft der Leibniz Universität Hannover und beschreibt die Entwicklung einer Applikation zur Darstellung von Szenen für die Durchführung von Wahrnehmungsversuchen.

Die Applikation soll vom Institut für Sportwissenschaft zur Untersuchung der spezifischen Wahrnehmungsfähigkeiten eingesetzt werden. Dabei wird einem Probanden eine Sequenz von Szenarien gezeigt in denen sich Kugeln auf definierten Trajektorien bewegen und sich sich in Geschwindigkeit, Größe, Farbe und Textur unterscheiden. Der Proband soll dabei frühzeitig beispielsweise Kollisionen zwischen Kugeln oder mit einem zentral aufgestellten Pylonen erkennen. Dabei sollen Korrelationen zwischen der Reaktionszeit, den Objektparametern und Merkmalen der Probanden bestimmt werden.

Während der Ausarbeitung entstand eine Applikation welche ein flexibles und benutzerfreundliches Frontend bietet. Dieses schließt unter anderem die Berechnung möglicher Kollisionszeitpunkte ein. Daher wird, nach einer kurzen Anforderungsanalyse, zunächst auf ein Verfahren zur Berechnung dieser Zeitpunkte eingegangen, welches maßgeblich auf der Lösung von Gleichungen 4. Grades über geeignete Formeln basiert.

Im Folgenden wird dann auf die notwendigen Grundlagen für die Anbindung an ein Headtracking-System in Kombination mit einer Stereoprojektion eingegangen. Dabei wird auf die mathematischen Hintergründe eingegangen, welche für die Umsetzung der Projektion notwendig waren. Dies schließt Verfahren wie die Augenseparation und die Transformation der Sichtebene abhängig von der Betrachterposition ein.

Abschließend erfolgt eine Erläuterung der Softwarearchitektur, welche maßgeblich auf Basis der Anforderungen spezifiziert wurde. Dabei wird aufgezeigt, wie durch die Strukturierung der Software eine zukünftige Erweiterbarkeit gewährleistet werden konnte.

Beschreibungstext verbergen
September 2009
Januar 2010
2009
Diplomarbeit
Richard Algaier
Schnelle dynamische Voronoi-Diagramme mit History-DAG
Beschreibungstext anzeigen

Das Voronoi Diagramm ist eine fundamentale räumliche Struktur, die sich in vielen Bereichen des täglichen Lebens wiederfindet, bei denen räumliche Abhängigkeiten und Nachbarschaftsbeziehungen eine Rolle spielen. Sie wird deshalb von vielen wissenschaftlichen Disziplinen, vor allem in ingenieurs- und naturwissenschaftlichen Bereich, zur Lösung unterschiedlichster Problemstellungen verwendet.

Ziel dieser Arbeit ist es, schnelle dynamische Voronoi-Diagramme mit einer Simplex-Datenstruktur im 3-dimensionalen zu erstellen. Mit „dynamisch“ ist gemeint, dass die vorhandene Punktmenge in zwei neue aufgeteilt wird, die dann voneinander weg bewegt werden sollen. Durch die Verschiebung der Punkte verändert sich auch das Voronoi-Diagramm. Der zu entwickelnde Algorithmus soll eine schnelle, d.h. möglichst effiziente Erstellung des neuen Voronoi-Diagramms nach der Verschiebung ermöglichen. Im Rahmen dieser Arbeit wird geprüft, ob eine effiziente Erstellung des Voronoi-Diagramms nach der Verschiebung durch einen Rückgriff auf bereits vorhandene Ergebnisse möglich ist. D.h. es werden nur für die Stellen neue Berechnungen angestellt, an denen sich durch die Verschiebung topologische Veränderungen im Voronoi-Diagramm ergeben haben. Aufgrund der einfacheren Berechenbarkeit wird nicht das Voronoi-Diagramm, sondern die duale Delaunay-Tesselierung erstellt. Diese wird mit Hilfe numerisch stabiler Prädikate und eines robusten Flipping-Algorithmus berechnet.

Beschreibungstext verbergen
Juli 2009
Dezember 2009
Diplomarbeit
Rasmus Buchmann
Improving finger contact models for haptic interaction
Beschreibungstext anzeigen

In the finished EU-research project HAPTEX, the Welfenlab developed a VR-system allowing the interaction between two fingers and a textile. For the interaction it was necessary to create a contact model for the objects simple enough to  maintain  a high update rate (~1kHz) for the computations driving the force feedback. In this thesis work a more precise contact model has to be developed considering the common approaches in the field of contact mechanics. An analysis and comparison of the new model against the previous work should be conducted. 

Beschreibungstext verbergen
März 2009
Dezember 2009
Diplomarbeit
Robert Christian Meyer
Welfenlab
Entwurf und Implementierung eines atlasbasierten Segmentierungsverfahrens für medizinische Volumendaten
Beschreibungstext anzeigen
In der medizinischen 3D Datenverarbeitung versteht man unter dem Begriff Segmentierung die Identifikation von medizinisch relevanten Strukturen, wie z.B. Organen, Knochen oder pathologischen Veränderungen. Bei der modellbasierten Segmentierung wird ein Modell der im Datensatz dargestellten Körperregion zur Verfügung gestellt, das an eine zu segmentierende Aufnahme angepasst werden kann. Die Idee dieses Verfahrens ist für medizinische Anwendungen besonders interessant, weil hier sehr oft sehr ähnliche Datensätze segmentiert werden. Diese Variante der Segmentierungsverfahren wird als Atlasbasierte Segmentierung und die als Modell genutzte Aufnahme als Atlas bezeichnet. Die größte Schwierigkeit dieses Verfahrens liegt darin, die Segmente des Atlas korrekt auf den Datensatz abzubilden. Da zwischen zwei Aufnahmen immer Differenzen auftreten, die beispielsweise durch die Aufnahme selbst (z.B. leicht unterschiedlicher Blickwinkel) oder auch durch eine leicht veränderte Form der betrachteten Struktur (z.B. beim Vergleich eines gewachsenen Tumors) ergeben können, muss eine Transformation gefunden werden, der den Atlas möglichst genau auf den Datensatz abbildet. Allgemein wird dieser Vorgang Registrierung genannt und ist Gegenstand vieler aktueller Forschungsvorhaben. Dabei wird zwischen einer affinen und einer elastischen Registrierung unterschieden. Im regiden Teil werden die Volumendaten durch eine affine Transformation (Verschiebung, Rotation, Skalierung, ...) vorregistriert. In der elastischen Registrierung werden dann durch eine auf B-Splines basierende multigrid Deformation lokale Differenzen ausgeglichen. Ziel dieser Arbeit ist es, ein aktuelles atlasbasiertes Segmentierungsverfahren zu implementieren und in die bestehende YaDiV Plattform zu integrieren.
Beschreibungstext verbergen
Juni 2009
Dezember 2009
Masterarbeit
Marc Christoph Vollmer
Leibniz Universität Hannover
Entwurf und Implementation einer haptischen Schnittstelle für YaDiV
Beschreibungstext anzeigen
In der heutigen Zeit wird aufgrund neuer technischer Innovationen und verstärkter Rechenleistung das Immersionsgefühl des Benutzer immer weiter gesteigert. Das Teilgebiet zur Integration von Haptik in eine dreidimensionale virtuelle Welt ist ein wesentlicher Bestandteil davon. Im Rahmen dieses Forschungsgebiet werden Algorithmen entwickelt mit dessen Hilfe Objekte nicht nur visuell begreifbar, sondern tatsächlich erfühlbar werden. Im Rahmen dieser Arbeit werden verschiedene Ansätze zur Anwendung von Haptik auf virtuelle Objekte untersucht. Dazu gehören Verfahren zur Kollisionerkennung sowie die Berechnungsmethoden für rückwirkende Kräfte. Zusätzlich werden noch Algorithmen zur Deformation in Echtzeit untersucht. Darunter fallen elastische Deformationen beim Kontakt mit dem virtuellen Objekt und Algorithmen zur permanenten Verformung der Objekte. Alle Ergebnisse wurden abschließend in ein Programm für die Visualisierung von dreidimensionalen Volumensdaten aus dem medizinischen Bereich (YaDiV ) integriert.
Beschreibungstext verbergen
April 2009
Oktober 2009
Seminararbeit
Johannes Wahle
Style Transfer Functions for Illustrative Volume Rendering.
Juni 2009
September 2009
Bachelorarbeit
Maximilian Klein
Numerical Solvers on the Cell B.E. Processor Architectur for Haptic Applications
Beschreibungstext anzeigen
To increase overall performance, parallelisation has become more and
more important over the last years. Although current PC processors
feature  more processor cores on per chip, still the floating point
performance of the cores is not enough for complex physical simulations
at interactive framerates. Lacking such high performance CPUs, IBM has
designed a processor closing the gap for scientific applications, named
the Cell B.E. Processor. Due to its parallel architecture, it requires a
lot of programming efforts to utilise the power. This thesis took the
first steps in using this architecture in a cluster environment to
accelerate a textile simulation. The IBM featured libraries were tested
and an implementation with emphasis on reusability using the physical
simuluation framework (SOFA) was made.
Beschreibungstext verbergen
April 2009
August 2009
Seminararbeit
Fadi Gabbara
Dual Marching Cubes.
Juni 2009
Juli 2009
Masterarbeit
Daniel Pralle
Parallelisierte Berechnung zur Fluiddynamik auf der Cell B.E. Prozessorarchitektur
Beschreibungstext anzeigen
Im Forschungsgebiet der Virtual Reality Simulationen unterstützt durch den im Aufbau befindlichen VR-Raums, soll überprüft werden, welche Möglichkeiten sich durch den Cell Rechencluster  eröffnen. Die ausgeschriebene Arbeit hat hierbei zum Thema eine Fluiddynamik Simulation zu entwickeln, die hohe Rechenleistung von bis zu 6,4 Teraflops ausnutzen kann. Dabei sollen die Konzepte der Parallelisierung auf High Performance Cluster und die Spezialisierung des Cell Prozessors ausgenutzt werden, um eine interaktive Simulation zu ermöglichen.

Beschreibungstext verbergen
Januar 2009
Juli 2009
Bachelorarbeit
Olaf Göllner
Implementierung und Untersuchung numerischer Algorithmen zur physikalischen Simulation auf CUDA-fähigen GPUs
Beschreibungstext anzeigen
Aufgrund der steigenden Rechenleistung heutiger Grafikkarten und der bereits aus bisherigen Arbeiten gewonnenen Erfahrungen am Institut zur Verwendung der GPUs für physikalische Simulationen, soll in dieser Bachelorarbeit die Fähigkeiten des CUDA-Frameworks aufgezeigt werden. Die Aufgabe ist es eine bestehende CPU-basierten Simulation auf dieses Framework und somit auf die GPU zu portieren. Weiterhin soll untersucht werden, welche Vor- und Nachteile sich aus diesem Framework für die Simulation ergeben und welche architektonischen Veränderungen an der Implementation notwendig sind um eine optimale Ausnutzung der Rechenleistung zu erhalten.Die NVIDIA CUDA Architektur ermöglicht die Verwendung neuer Programmierparadigmen für die von ihr unterstützten General-Purpose Graphic Processing Units (GPGPUs). Die vorliegende Arbeit hat das Ziel diese Architektur auf die Berechnung aufwendiger numerischer Echtzeitverfahren zur physikalischen Simulation zu untersuchen. Ein zentraler Aspekt dieser Arbeit ist dabei die Betrachtung und Implementierung konjugierter Gradientenverfahren, welche als Lösungssysteme zur Kräfteberechnung zum Einsatz kommen.
Beschreibungstext verbergen
Januar 2009
Mai 2009
Seminararbeit
Marc Christoph Vollmer
Leibniz Universität Hannover
Kurzvortrag: Entwurf und Implementation einer haptischen Schnittstelle
Beschreibungstext anzeigen
Marc Christoph Vollmer hält einen Kurzvortrag zum Beginn seiner Masterarbeit mit dem Titel "Entwurf und Implementation einer haptischen Schnittstelle für YaDiV" Im Rahmen dieser Arbeit werden Methoden zur effektiven und stabilen Integration eines haptischen Eingabegeräts in das Programm YaDiv untersucht. Hinsichtlich der bisher zur Verfügung stehenden Eingabegeräte werden Mechanismen zur taktilen Wahrnehmung nicht behandelt. Diese Arbeit beschränkt ausschließlich auf die kinästhetische Wahrnehmung.

Mit der hier entwickelten haptischen Schnittstelle soll dem Benutzer die Möglichkeit gegeben werden, unter Verwendung eines entsprechenden Eingabegeräts, effektiver und realistischer im dreidimensionalen VR-Raum zu navigieren als es bisher mit einer zweidimensionalen Maus möglich ist. Neben dem haptischen Eingabegeräten wird auch die Erstellung eines Prototypen zur Benutzung eines Datenhandschuhs Bestandteil sein.
Beschreibungstext verbergen
Mai 2009
Studienarbeit
Elena Bauer
Leibniz Universität Hannover
Elliptische Mediale Achse
Beschreibungstext anzeigen
Die Mediale Achse ist ein wichtiges Konzept, daß den sogenannten globalen Symmetriemengen zugeordnet werden kann. Es gibt bereits Verallgemeinerungen, z.B. den Cut-Locus bzw. sogenannte Symmetry Sets, die wichtige Erkenntnisse auch für den Bereich Mediale Achse gebracht haben. Definiert man die Mediale Achse als die Menge der Mittelpunkte von maximalen Innenkreisen, drängt sich die Verallgemeinerung auf, die maximalen Kreise durch maximale Ellipsen zu ersetzen. Die Anzahl der Freiheitsgrade einer in Ausrichtung und Exzentrität konstanten Ellipse legt die Vermutung nahe, dass eine Berechnung mit einer Verallgemeinerung der lokalen medialen Differentialgleichung möglich ist. In dieser Studienarbeit wurde aufbauend auf der Herleitung der lokalen medialen DGL eine verallgemeinerte Problemformulierung für Ellipsen untersucht und eine lokale elliptische mediale DGL aufgestellt. Desweiteren wurde ein Homotopieverfahren zum Auffinden eines Anfangswertes für die angesprochene DGL formuliert.
Beschreibungstext verbergen
Mai 2009
Studienarbeit
Stefan Hasselmann
Leibniz Universität Hannover
Fokale Singularität der Medialen GDL
Beschreibungstext anzeigen
Um die Mediale Achse eines berandeten Gebietes zu berechnen ist die mediale Differentialgleichung zur Berechnung der lokalen medialen Achse hilfreich. In den Fokalpunkten der Randkurve wird diese Differentialgleichung singulär. Im einfachen Fall eines parabelförmig berandeten Gebietes läßt sich diese DGL zu einer nichtsingulären DGL vereinfachen. Die lokale Ähnlichkeit einer fokalen Situation zur Nullpunktsituation der Parabel spricht für die allgemeine Lösbarkeit der Situation. In dieser Studienarbeit wurde zunächst eine allgemeine fokale Situation im achsensymmetrischen Fall untersucht und eine entsprechende Approximation für das Endstück der Medialen Achse entwickelt. Darauf aufbauend wurde der allgemeine Fall behandelt.
Beschreibungstext verbergen
Mai 2009
Masterarbeit
Alexander Vais
Leibniz Universität Hannover
Untersuchungen zur Medialen Achse Transformation in der Ebene
Beschreibungstext anzeigen
Diese Arbeit befasst sich mit der Berechnung der Medialen Achse einer geschlossenen Spline-Kurve in der euklidischen Ebene. Obwohl diese Problemstellung bereits früh untersucht wurde, belegen neuere Arbeiten, dass noch Forschungsbedarf besteht. Ein Teilproblem ist die exakte Lokalisierung von Verzweigungspunkten, in denen sich mehrere mediale Äste treffen. Die Berechnung der Startpunkte, medialen Äste und Verzeigungspunkte der Medialen Achse  kann in einer vereinheitlichenden Betrachtung auf das Problem der Nullstellensuche zurückgeführt werden. Als Verfahren zur Nullstellensuche werden unter anderem Homotopieverfahren, Prädiktor-Korrektor Techniken zur Pfadverfolgung sowie Spline-basierte Bisektionsverfahren vorgestellt.
Beschreibungstext verbergen
April 2009
Studienarbeit
Damaris Schumann
Leibniz Universität Hannover
Extraktion von Isoflächen mit Hilfe des Marching-Cubes-Algorithmus
Beschreibungstext anzeigen
Mit dem Software-System YaDiV existiert am Welfenlab eine Forschungs- und
Entwicklungsplattform für die Visualisierung und Segmentierung von
medizinischen dreidimensionalen Bilddaten. In dieser Arbeit wurde eine
Referenzimplementierung des Marching-Cube-Algorithmus (MCA) zur Extraktion von
Isoflächen erstellt und dokumentiert. Der MCA ermöglicht es, Isoflächen aus Voxel-Daten
zu extrahieren und so Volumen-Modelle durch praktikable polygonale Oberflächen-Modelle anzunähern und effizient zu visualisieren. Computertomographische Bilder können so auf befriedigende Weise schnell und aussagekräftig bildlich dargestellt werden. Der Standard-MCA weist topologische Mehrdeutigkeiten auf, d.h. an den Seitenflächen eines Voxel-Cubes als auch im Inneren können Unklarheiten darüber entstehen, ob eine Isofläche die Voxel mit der gleichen Notation (Null bzw. Eins) in einem Voxel-Cube trennen oder verbinden soll, da die 15 Fallbetrachtungen des Standard-MCA die trilineare Datenfunktion F(q,s,t) ungenügend approximieren. Der modifizierte MCA liefert einen Algorithmus zur Auflösung dieser Mehrdeutigkeiten, woraus der Marching Table von Chernyaev mit seinen 33verschiedenen räumlichen Strukturen resultiert, der auch in dieser Arbeit benutzt wurde.
Beschreibungstext verbergen
Februar 2009
April 2009
Masterarbeit
Maximilian Müller
Leibniz Universität Hannover
High-Quality Ray Casting Verfahren zur Visualisierung segmentierter medizinischer Voxeldaten
Beschreibungstext anzeigen

YaDiV Ray Casting BildBildgebende Verfahren haben insbesondere in der medizinischen Anwendung eine große Verbreitung erfahren. So sind z.B. Computertomographie oder Magnet-Resonanz-Tomographie aus dem klinsichen Alltag nicht mehr wegzudenken. Um die gewonnen 3D-Daten auch 3-dimensional zu visualiseren, können unterschiedliche Methoden des Direct-Volume-Rendering verwendet werden. Die Algorithmen unterscheiden sich vor allem in Laufzeit und Bildqualität. Ein vergleichender Überblick über die gängigen Verfahren wird z.B. in der Diplomarbeit von Dominik Sarnow gegeben.

In dieser Masterarbeit wurde ein Vertreter der sogenannten Raycasting-Verfahren implementiert und weiterentwickelt. Raycasting-Verfahren sind sehr flexibel erweiterbar (Early-Ray-Termination, Empty-Space-Skipping, Shadow-Maps, ...) und liefern zum Teil sehr beeindruckende Bilder. Das Verfahren wurde al Modul in die am Welfenlab entwickelte DICOM Visualisierungssoftware YaDiV ("Yet Another DIcom Viewer") eingebunden. Übergeordnetes Projekt: YaDiV
Beschreibungstext verbergen
Oktober 2008
April 2009
Studienarbeit
Natalya Obydenna
Implementierung einer Datenstruktur für simpliziale 3D-Netze
Beschreibungstext anzeigen

Heutzutage treten in verschiedensten Anwendungen häufig sehr große dreidimensio-
nale simpliziale Netze auf. Deren Sicherung ist speicherintensiv und beeinträchtigt
daher die Berechnungsgeschwindigkeit. Aus diesem Grund ist eine Datenstruktur ge-
wünscht, die möglichst kompakt ist. In einer Arbeit von 2003 stellten D. K. Blandford et al. eine Datenstruktur für simpliziale Netze vor, die geeignet ist, um Dreiecks- oder Tetraedernetze zu verwalten. Sie zeichnet sich durch eine einfach zu benutzende Schnittstelle aus und ist in der Lage, die Daten bei geringer Beeinträchtigung der Laufzeit zu komprimieren. Die Datenstruktur speichert eine Auswahl repräsentativer Kanten mit dazugehörigen Adjazenzlisten. Die Anzahl der repräsentativen Kanten beträgt dabei nur ein Viertel der gesamten Kanten. Diese Datenstruktur ist effizient in Hinblick auf ihren Speicherbedarf und Zugriffszeiten; siegestattet  wichtige Zugriffe in konstanter Zeit, sofern die Knoten (bei Dreiecksnetzen), bzw. Kanten (bei Tetraedernetzen) beschränkten Grad haben.
Als erste Anwendung wurde die Delaunay-Tesselation mit dem Bowyer-Watson-Algorithmus implementiert.

Beschreibungstext verbergen
Februar 2009
April 2009
Seminararbeit
Björn Bredthauer
Convolution Shadow Mapping
Beschreibungstext anzeigen
The rendering of realistic scenes in real time is an important goal of computer graphics. For a scene to appear realistic, the shadowing of the scene has to seem correct. There are several techniques to render real time shadows and Shadow Mapping is one of the most prominent of those. Many extensions of this technique have been developed to increase the quality of the resulting Shadows. This talk will give an overview of one of these extensions, the Convolution Shadow Mapping, which allows for better filtering of the shadows and thus increasing the image quality.
Beschreibungstext verbergen
Januar 2009
Seminararbeit
Sven Thomas
Leibniz Universität Hannover
Computation of Elastically Deformable Models
Beschreibungstext anzeigen
In computer graphics and especially in virtual reality it is not only important to represent rigid objects, but also to simulate deformable materials.  Curves, surfaces, or solids should deform according to interaction with other objects and react in a natural way.  A wide variety of techniques have been developed for modeling and animation of deformable objects.  One possible approach is to model the underlying physics by solving differential equations that balance externally applied forces with the object’s inertial mass as well as the damping force and an elastic force resulting from deformation.  The computation of the required deformation energy is derived from differential geometry and can be simplified for real-time simulation.  In this work the elastically deformable models are distinguished from other techniques and the basic equations and computations are described.
Beschreibungstext verbergen
Januar 2009
2008
Diplomarbeit
Björn Scheuermann
Leibniz Universität Hannover
Komplexe regionenbasierte Segmentierungsverfahren mit der Level Set Methode in der medizinischen Bildverarbeitung
Beschreibungstext anzeigen

In vielen Bereichen der modernen Medizin dienen Bilddaten aus Röntgen-Geräten, Magnet-Resonanz-Tomographen, Computer-Tomographen sowie Sonographen der Diagnostik oder Operationsplanung. Typischerweise sind diese Bilddaten häufig relativ kontrastarm und durch Bildrauschen gestört. Zudem ist die optimale Wahl des Bildausschnitts und der Richtung der Aufnahme nicht eindeutig zu bestimmen. Dem Betrachter wird es dadurch erschwert, relevante Informationen von irrelevanten Informationen zu unterscheiden. Durch diese Problematik können die relevanten Informationen meist nur von einem Experten manuell segmentiert werden. Diese manuelle Segmentierung ist vor allem bei dreidimensionalen Volumendaten sehr zeitaufwändig, da sich der Experte durch mehrere dutzend oder sogar hunderte Schichtbilder beziehungsweise Datensätze arbeiten muss. Hier wäre ein effizientes Verfahren notwendig, dass mit geringem Bedarf an Benutzerinteraktion die relevanten Informationen findet und von den irrelevanten Daten trennt beziehungsweise alle Daten segmentiert, die unter einem bestimmten Homogenitätskriterium inhaltlich zusammen gehören. Diese semiautomatischen Verfahren sind daher Gegenstand aktueller Forschung. Den oben genannten Kriterien übergeordnet ist das Kriterium der Robustheit gegenüber Bildstörungen und das Kriterium der Genauigkeit, weil ein (semi-) automatisches Verfahren das manuelle Verfahren nur dann vollständig ersetzen kann, wenn es zumindest eine ebenbürtige Genauigkeit bietet. Zur Zeit existieren bereits eine Vielzahl von Verfahren, die unterschiedliche Ansätze verfolgen und es dem Benutzer erleichtern, die relevanten Informationen von irrelevanten zu trennen. Zu den Einfachsten solcher Verfahren gehören unter anderem die Min-Max Segmentierung und die Region-Grow Segmentierung, die kurz vorgestellt werden, da sie im Laufe der Arbeit zum Vergleich und zur sogenannten Vorsegmentierung verwendet werden. In meiner Studienarbeit wurden zwei regionenbasierte Verfahren implementiert und untersucht, die zur Segmentierung aktive Konturen (oder „Snakes“) verwenden und auf den Level Set Methoden aufbauen. Das erste Verfahren nutzt das sogenannte „edge-stopping“, wohingegen das zweite Verfahren auf einem „energy minimization“ Algorithmus basiert. Ziel dieser Diplomarbeit ist die Optimierung und Weiterentwicklung der oben genannten Segmentierungsverfahren. Mit den entwickelten Algorithmen soll es dem Benutzer erleichtert werden, Volumendaten aus der medizinischen Praxis zu segmentieren, um so die relevanten Informationen schneller als bisher von den irrelevanten zu unterscheiden. Diesbezüglich ist eine Verbesserung der Laufzeiten der beiden Verfahren und eine Anpassung der Modelle an medizinische Volumendaten erforderlich.

Beschreibungstext verbergen
April 2008
September 2008
Studienarbeit
Stefan Hasselmann
Untersuchung der fokalen Singularität der medialen Differentialgleichung
Beschreibungstext anzeigen
Um die Mediale Achse eines berandeten Gebietes zu berechnen ist die mediale Differentialgleichung zur Berechnung der lokalen medialen Achse hilfreich. In den Fokalpunkten der Randkurve wird diese Differentialgleichung singulär. Im einfachen Fall eines parabelförmig berandeten Gebietes läßt sich diese DGL zu einer nichtsingulären DGL vereinfachen. Die lokale Ähnlichkeit einer fokalen Situation zur Nullpunktsituation der Parabel spricht für die allgemeine Lösbarkeit der Situation.
Eine allgemeine fokale Situation wurde in dieser Arbeit zunächst im achsensymetrischen Fall untersucht. Für diesen Fall wurde eine Approximation für das Endstück der medialen Achse entwickelt und darauf aufbauend der allgemeine Fall behandelt.
Beschreibungstext verbergen
August 2008
September 2008
Diplomarbeit
Daniel Glöckner
Leibniz Universität Hannover
Analysis of Coupled Dynamical Systems Exemplified by an Interactive Real-Time Simulation
Beschreibungstext anzeigen

The HAPTEX system is an interactive textile simulation providing haptic feedback to the user.Being based on physical laws, its goal is to give an impression of the feel of the real material. Future application is seen in online trade of textiles or garments. This thesis documents the employed techniques and performs measurements to assess the performance of the system in an objective way. Special focus is set on the approach of adaptively splitting the textile into two parts that are simulated with different temporal and spatial resolutions.

Beschreibungstext verbergen
Juli 2008
Masterarbeit
Daniela Lauer
A Generalized Architecture for Hybrid Tracking Including Inertial Sensor Technology
Beschreibungstext anzeigen
Tracking, als eines der wichtigsten Bestandteile der Realisierung von Augmented-Reality-Anwendungen, sorgt für die ortsspezifische Verknüpfung der Realität und der virtuellen Darstellung. Die anwendungsabhängigen Anforderungen an das Tracking können meist nicht durch bereits vorhandene Systeme oder Prototypen abgedeckt werden. Um positive Eigenschaften zu kombinieren und Mängel auszugleichen empfiehlt sich der Einsatz eines hybriden Trackingsystems, also die Fusion von Sensordaten. Um diese auf einfachem Wege zu ermöglichen werden im Rahmen dieser Arbeit Konzepte für flexible und sensorunabhängige Datenfusion aus anderen Fachgebieten auf die Anforderungen von Augmented-Reality-Anwendungen übertragen, um eine von der mathematischen Methode unabhängige Architektur und eine Kalman-Filter-Fusionsanwendung für den Augmented-Reality-Kontext zu gewinnen. In die Struktur der vorgestellten Schnittstelle fließen außerdem Konzepte aus der Theorie der Datenfusion und verallgemeinerter Software im Tracking-Bereich ein. Zur Realisierung von Sensorvariabilität und einer schnellen Einbindung in Augmented-Reality-Anwendungen wurde eine Integration der Architektur in die Software OpenTracker bereits konzeptionell vorgesehen und im Rahmen der Kalman-Filter-Implementierung umgesetzt. Die vorgestellte Software ermöglicht die Fusion von Positions-, Geschwindigkeits- beziehungweise Beschleunigungsdaten im Rahmen verschiedener Kalman-Filter-Architekturen als Knoten. Dieser kann flexibel in den OpenTracker-Flussgraphen eingebunden und so zu beliebigen Fusionsnetzwerken zusammengesetzt werden. Die Konfiguration erfolgt anhand einer XML-Spezifikation, die auch die Integration eigener Anwendungen und die Möglichkeit des verteilten Trackings einbezieht. Anhand synthetischer Daten wird die Verbesserung durch die Fusion der Messdaten verschiedener Quellen mit der Umsetzung demonstriert und der Erfolg des Einsatzes von Inertialsensoren in Kombination mit markerbasierten beziehungsweise markerlosem Tracking gezeigt. Außerdem werden die verschiedenen Systemmodelle für die Kalman-Filterung erläutert, anhand derer eine anwendungsabhängige Konfiguration der Datenfusion möglich ist. Die vorgelegte Arbeit enthält außerdem eine umfangreiche theoretische Betrachtung der Kalman-Filterung, insbesondere auch eine Einführung in die verschiedenen Möglichkeiten der Sensordatenfusion mit dem Filter. Weiterhin werden andere mathematische Verfahren zur Fusion von Daten für das Single-Target-Tracking vorgestellt. Für eine zukünftige Erweiterung der Implementation eröffnet das vorgeschlagene Konzept eine Vielzahl zusätzlicher Umsetzungsmöglichkeiten. Die vorgestellte Architektur bietet eine gute Grundlage für die Umsetzung beliebiger Sensordatenfusionssysteme im Augmented-Reality-Bereich. Die implementierte Kalman-Filter-Fusions-Anwendung ermöglicht eine Verbesserung von Trackingverfahren durch Sensordatenfusion und kann als Basis für zahlreiche Erweiterungen im Hinblick auf die unterschiedlichsten Anwendungen dienen.
Beschreibungstext verbergen
November 2007
Juli 2008
Studienarbeit
Lara Toma
Untersuchung zur Grauwertdarstellung auf LC-Displays
Beschreibungstext anzeigen

In der medizinische Diagnostik werden bei der Röntgenbildaufnahme oder Tomographie hingegen spezielle Graustufenmonitore ("Befundungsmonitore") verwendet, die bis zu 4096 unterschiedliche Graustufen darstellen können um z.B. Röntgenbilder oder CT-Aufnahmen beurteilen zu können. Dabei gilt schwarz als niedrigster und weiß als höchster Absoptionswert. Ein handelsüblicher PC kann auf einem RGB Monitor insgesamt 16,8 Millionen Farben darstellen, aber nur 256 Graustufen. Hier stellt sich die Frage, ob es wirklich nötig ist, mehr als 256 Abstufungen am Monitor darzustellen. Werden die Graustufen von normalen 8-Bit Monitoren genauso gut dargestellt, oder ist die Abstufung von 256 Grautönen für medizinische Anwendungen ein Muss, weil sonst 8-bit-Displays zu Fehldiagnosen oder unentdeckten Details führen könnten?

Um diese Fragen beantworten zu können, wurden in dieser Studienarbeit unterschiedliche Versuche durchgeführt. Es wurde untersucht, wieviele
RGB-Grauwerte das menschliche Auge überhaupt unterscheiden kann, welche Faktoren dabei eine Rolle spielen und ob es Unterschiede zwischen teuren
und preiswerten Monitoren in Hinsicht auf die Graustufendarstellung gibt.

Beschreibungstext verbergen
März 2008
Juni 2008
Seminararbeit
Robert Meyer
Atlas-based Segmentation
Beschreibungstext anzeigen
Segmentation is a problem in many areas of research and application. Therefore many different approaches exist to find regions of interest in images. A widely used approach employs so-called "Atlases" to which the image of interest is mapped. This seminar will give an overview of the technique and describe a general non-rigid registration technique and similarity measure which are used to find the mapping between atlas and image.
Beschreibungstext verbergen
Juni 2008
Masterarbeit
Coester Julia
Entwicklung haptischer Modellierkonzepte für die Medialen-Achsen-Rücktransformation
Beschreibungstext anzeigen
Ziel dieser Masterarbeit ist es, den am Lehrstuhl entwickelten Medial Modeller, der auf dem Konzept der Medialen-Achse aufgebaut ist, um Haptik und einen dynamischen, intuitiven Verformungsalgorithmus zu erweitern. Der Verformungsalgorithmus setzt an der Radiusfunktion an und durchläuft mehrere Schritte um eine Verformung der Radiusfunktion zu erreichen, unter anderem auch einen B-Spline-Deformierungsalgorithmus, der das B-Spline so verformt, dass ein verschobener Oberflächenpunkt genau an der Stelle liegt, wohin er geschoben wurde. Der Verformungsalgorithmus nutzt die Vorteile der Haptik aus, indem über das Haptikgerät die Verformung gesteuert wird. Dadurch lässt sich die Verformungsfunktion sich sehr intuitiv steuern. Des weiteren wird in dieser Masterarbeit näher auf Konzepte zur Einbindung von Haptik in ein Programm eingegangen. Allgemein wird die Haptik näher beleuchtet und auch der Medial Modeller genauer beschrieben.
Beschreibungstext verbergen
November 2007
Juni 2008
Bachelorarbeit
Li Li
Konstruktion und Visualisierung dreidimensionaler Voronoi-Diagramme.
März 2008
Mai 2008
Studienarbeit
Richard Algaier
Leibniz Universität Hannover
Dreidimensionale Dynamische Voronoi-Diagramme
Beschreibungstext anzeigen
Delaunay-DAGDas Voronoi-Diagramm ist ein in vielen Bereichen genutztes fundamentales Konzept der berechnenden Geometrie. Ausgehend von einer endlichen Menge von Punkten (Orte) wird mit Hilfe der Distanzfunktion eine Partitionierung des Raumes erzeugt, die eine Reihe interessanter Eigenschaften hat. Die Berechnung des Voronoi-Diagramms bzw. der dualen Delaunay-Triangulation kann in O(n log n) geschehen. Verfahren zur Berechnung sind z.B. Divide-and-Conquer oder inkrementelle randomisierte Algorithmen. Bewegt man eine Untermenge der Orte, so verändert sich die Struktur des Voronoi-Diagramms, wobei Anderungen der Topologie auftreten können. Ziel dieser Arbeit ist es, für einen Spezialfall sich bewegender Orte einen Algorithmus zu entwickeln
und zu implementieren, der das Voronoi-Diagramm im dreidimensionalen Euklidischen Raum
adaptiv berechnet. Der betrachtete Spezialfall besteht in einer Aufteilung der Ortsmenge in zwei Untermengen, wobei die eine Menge durch eine Translation bewegt wird. Das Voronoi-Diagramm muss in diesem Falle nicht komplett neu berechnet werden, sondern nur zum Teil, indem man einen Gerichteten Azyklischen Graphen, den sogenannten Delaunay-DAG verwendet.

Beschreibungstext verbergen
April 2008
Mai 2008
Studienarbeit
Rick Moritz
Leibniz Universität Hannover
Untersuchungen zur Vorhersage menschlicher Bewegungen
Beschreibungstext anzeigen

Für eine realistische Interaktion mit virtuellen Welten müssen VR-Systeme möglichst schnell auf Aktionen des Benutzers reagieren können. Die Zeit zwischen einer Aktion des Benutzers und der Reaktion des VR-Systems wird Latenzzeit genannt. Durch die Vorhersage der Aktion des Benutzers kann die Latenzzeit verringert werden, da die Berechnung der Reaktion bereits vor dem Ende der Aktion beginnen kann. In haptischen VR-Umgebungen agiert der Benutzer durch seine Bewegung. Diese ist durch physikalische Gesetze und durch anatomische Gegebenheiten des Benutzers eingeschränkt. Daraus folgt, dass aus vergangenen Bewegungsdaten wahrscheinliche zukünftige Bewegungen vorhergesagt werden können. Es sollen Verfahren zur Extrapolation von Bewegungsdaten implementiert und analysiert werden. Grundlegende Kenntnisse der numerischen Mathematik und der Stochastik sind hierfür von Vorteil.

Beschreibungstext verbergen
März 2008
Diplomarbeit
Jakob Kröker
Lösen großer Eigenwertprobleme als Komponente in einem Optimierungsprozeß
Beschreibungstext anzeigen
In dieser Diplomarbeit werden die Möglichkeiten für den Einsatz des Konzepts der Medialen Achsen Transformation in der Formoptimierung anhand von Eigenwertaufgaben aufgezeigt. Um viele oder große Eigenwertprobleme schnell und effizient lösen zu können, wurde nach verfügbarer freier Software recherchiert und ein geeigneter Ersatz für die bisher eingesetzte Software ausgewählt.
Beschreibungstext verbergen
Juni 2007
März 2008
Diplomarbeit
Christian Gerstenberger
Untersuchung des Laplace-Spektrums bei Voxeloberflächen.
Februar 2008
Masterarbeit
Chavdar Papazov
Morphing zwischen triangulierten Nicht-Mannigfaltigkeiten unter Berücksichtigung topologischer Änderungen
Beschreibungstext anzeigen

In der Arbeit aus dem Bereich Bio-Imaging wurde der Prozess der morphologischen Veränderungen bei der Entwicklung eines Samenkorns untersucht.

Beschreibungstext verbergen
September 2007
Februar 2008
Seminararbeit
Tobias Luginsland
Discrete Quadratic Curvature Energies
Beschreibungstext anzeigen
A family of discrete isometric bending models (IBMs) for triangulated surfaces in 3-space will be presented. It will be shown that these linear models for discrete mean curvature from which bending energies are assembled are very efficient. Under the assumption of isometric surface deformations it is also shown the formulated energies are quadratic in surface positions. The corresponding linear energy gradients and constant energy Hessians constitute an efficient model for computing bending forces and their derivatives, enabling fast time-integration of cloth dynamics with a two- to three-fold net speedup over existing nonlinear methods.

Beschreibungstext verbergen
Januar 2008
Seminararbeit
Prof. Dr. Konrad Polthier
FU Berlin
Angewandte Geometrie und Visualisierung
Beschreibungstext anzeigen
In diesem Vortrag wird ein Überblick über die Forschung im Bereich der "Angewandten Geometrie und Visualisierung" am MATHEON gegeben und über die Aktivitäten der Berlin Mathematical School (BMS) berichtet. Der Vortrag wird ausgewählte Themen aus dem Schwerpunkt "Visualisierung" des MATHEON vorstellen und das innovative Wechselspiel zwischen mathematischer Theorie und industrieller Praxis analysieren. Hierzu gehören Fallbeispiele aus der Diskreten Differentialgeometrie, der Mathematischen Visualisierung, der medizinischen Bildverarbeitung, dem CAD/CAM und Algorithmen für die Filmindustrie in Hollywood. Das DFG Forschungszentrum MATHEON entwickelt angewandte Mathematik für Schlüsseltechnologien. Die BMS ist eine Graduiertenschule, die im Rahmen der Exzellenzinitiative des Bundes gefördert wird. Beide Einrichtungen werden von den drei Berliner Universitäten (FU, HU und TU) zusammen mit dem Weierstrass- und Zuse Institut gemeinsam getragen.
  • Homepage von Prof. Polthier
  • Homepage von MATHEON
  • Homepage der Berlin Mathematical School
Beschreibungstext verbergen
Januar 2008
Seminararbeit
Alexander Teissier
Leibniz Universität Hannover
A Comparison of Mesh Smoothing Methods.
Januar 2008
2007
Seminararbeit
Karsten Vogt
Leibniz Universität Hannover
Modelling, Simulation and Rendering of Hair
Beschreibungstext anzeigen
Das Modellieren und die physikalische Simulation von Frisuren in virtuellen Umgebungen ist ein Themengebiet, das häufig in seiner Relevanz und Schwierigkeit unterschätzt wird. Dabei finden u.a. in der Film- oder Computerspieleindustrie viele unterschiedliche Verfahren Anwendung, die jeweils anderen Kriterien und Einschränkungen genügen müssen. In diesem Seminarvortrag soll ein Überblick über die Klassen von gebräuchlichen Algorithmen geboten werden, wobei eines dieser Verfahren genauer vorgestellt wird.
Beschreibungstext verbergen
Dezember 2007
Diplomarbeit
Dominik Sarnow
Leibniz Universität Hannover
Analyse von Direct Volume Rendering Verfahren zur Visualisierung von Voxeldaten
Beschreibungstext anzeigen

Inhalt dieser Arbeit war die Implementierung und der Vergleich verschiedener Direct Volume Rendering Verfahren zur Visualisierung von Voxeldaten. In der Medizin werden 3D-Bildgebende Verfahren wie die Computertomographie  (CT) täglich eingesetzt, um eine digitale Repräsentation des Menschlichen Körpers oder Körperteilen zu gewinnen. Diese Daten werden üblicherweise als Voxeldaten gespeichert. Einen Voxel kann man sich als kleinen "Würfel" (quasi ein dreidimensionales Gegenstück zum 2D-Pixel) vorstellen. Jeder Voxel enthält einen zusätzlichen Wert, der bei der Computertomographie als Materialdichte interpretiertwerden kann - und bei der Visualisierung üblicherweise als Graustufe dargestellt wird. In dieser Arbeit werden verschiedene Verfahren Voxeldaten  zu visualisieren verglichen. Diese Verfahren lassen sich grob in 4 Kategorien einteilen.

  • Ray Casting,
  • Splatting,
  • Shear Warp und
  • Texture-Based Algorithmen.

Ziel der Arbeit war es,  mindestens ein Verfahren aus aus jeder Kategorie zu implementieren und hinsichtlich Laufzeit, Speicherverbrauch und optischem Eindruck zu vergleichen. Übergeordnetes Projekt: YaDiV

Beschreibungstext verbergen
Juni 2007
Dezember 2007
Masterarbeit
Richard Guercke
Leibniz Universität Hannover
Boundary Extraction from Voxel Data Using Contour Lines
Beschreibungstext anzeigen
Skull ContourIn this thesis, an algorithm is introduced that extracts a boundary surface from a voxel data set representation of a shape. To achieve this objective, a connectivity graph is constructed from boundary polygons of the object in (usually orthogonal) 2D slices. This graph is used to find facets of the object's boundary surface.

At given sampling intervals, the resulting triangulated surfaces bear a considerably closer resemblance to the original voxel data object than the result of the (modified) Marching Cubes algorithm.  This is, however, only achieved at the cost of an increase in computation time and memory usage. At the closest sampling interval, the algorithm returns a closed surface without self-intersections.

The connectivity graph can also be used for the restriction of surface patches to be displayed according to visibility or as a basis for physical computations like FEM analysis. Project: YaDiV
Beschreibungstext verbergen
Juni 2007
November 2007
Studienarbeit
Björn Scheuermann
Leibniz Universität Hannover
Segmentierung medizinischer Bilddaten mit der Level-Set-Methode
Beschreibungstext anzeigen

In vielen Bereichen der modernen Medizin werden Bilddaten aus Röntgen-Geräten, Sonographen Magnet-Resonanz- oder Computer-Tomographen zur Diagnostik oder Operationsplanung herangezogen. Dabei gibt es jedoch Schwierigkeiten vielfältiger Art: häufig sind die Bilder kontrastarm und verrauscht oder Bildausschnitt und Aufnahmerichtung sind nicht optimal. Dadurch wird es dem Betrachter erschwert, relevante Informationen von irrelevanten Informationen zu unterscheiden. Experten können die relevanten Informationen meistens manuell extrahieren, dies ist jedoch vor allem bei dreidimensionalen Daten sehr zeitaufwändig, da sich der Experte durch viele dutzend oder gar hunderte Schichtbilder arbeiten muss. Daher sind effiziente automatische oder halbautomatische Verfahren, die dem Benutzer helfen, mit wenig Interaktion relevante Informationen zu finden Gegenstand aktueller Forschung. Solche Segmentierungsalgorithmen trennen relevante von irrelevanten Daten und erkennen Bildinhalte, die unter bestimmten Homogenitätskriterien inhaltlich zusammen gehören. Solche Verfahren sollen robust gegenüber Bildstörungen sein und der Genauigkeit einer manuellen Segmentation zumindest ebenbürtig sein. Es existieren bereits eine Vielzahl von Verfahren, die unterschiedliche Ansätze verfolgen und es dem Benutzer erleichtern, relevanten Informationen zu extrahieren. Einfachste Verfahren dieser Art sind etwa die Min-max-Segmentierung und die Region-Grow-Segmentierung. Ziel dieser Arbeit ist es, zwei Verfahren zu implementieren und zu untersuchen, die zur Segmentierung aktive Konturen (oder Snakes) verwenden und auf Level-Set Methoden aufbauen. Das erste Verfahren nutzt das so genannte Edge-stopping, wohingegen das zweite Verfahren auf einem Energy Minimization Algorithmus basiert.

Beschreibungstext verbergen
Juni 2007
Oktober 2007
Bachelorarbeit
Alexander Vais
Leibniz Universität Hannover
Eigenwertberechnungen voxelbasierter Daten mittels FEM.
August 2007
Masterarbeit
Michael Hanel
Leibniz Universität Hannover
Untersuchung und Implementation verschiedener Kollisionserkennungsalgorithmen für deformierbare Körper
Beschreibungstext anzeigen

Due to the rapid development in the graphics card sector, Virtual Reality (VR) Applications are getting a broader application range. In general VR-Applications try to map the real world to a virtual counterpart preserving the physical realism. Concerning the latter aspect, this is a very challenging task due to the requirements of user interaction. A crucial component of the VR-System is the collision detection. Realism in virtual environments demands avoidance of invalid states like intersection of objects.

In the context of the HAPTEX-Project (hapti interaction with virtual textiles) methods detecting the aforementioned states are presented. Moreover, a scheme for resolving collisions and technical solutions related to the integration within the HAPTEX VR-System architecture are shown.

Beschreibungstext verbergen
Februar 2007
August 2007
Masterarbeit
Sebastian Preuin
Leibniz Universität Hannover
Ein lernendes System zur taktilen Darstellung von Textilien
Beschreibungstext anzeigen
The satisfying simulation of surfaces of real fabrics is notwithstanding intensive efforts an unsolved problem. Within the HAPTEX project some procedures were developed, which used height profiles for calculating the output of simulations done by a tactile display. Methods were examined in this master thesis, how a simulation can be calculated without a height profile. The values of different parameters, which are determined by test persons, are compared with each other. The results of the test series show that some subjects selected similar attitudes of parameter and thereby created different concentration areas in the range of parameter for each used fabric. The results are ambiguous, but are promising that the use of memory-complex height profiles can be decrepit in the future.
Beschreibungstext verbergen
August 2007
Seminararbeit
Natalya Obydenna
Leibniz Universität Hannover
Periodizitätserkennung in Texturen.
April 2007
Juli 2007
Bachelorarbeit
Sven Thomas
Leibniz Universität Hannover
Implementation und Untersuchung verschiedener Mesh-Verfeinerungstechniken
Beschreibungstext anzeigen
Die Unterteilung von Flächen, das sogenannte Subdivisioning, ist mittlerweile eine Standardmethode zur Darstellung von glatten Freiformflächen in der Computergrafik. Diese Flächen sind definiert durch eine Abbildung von einem gegeben Kontrollmesh zu einem verfeinerten Mesh, dem Subdivision Operator.
  Da dieser Operator zusätzlich einen speziellen Tiefpass-Filter auf die Punktposition anwendet, liefert er eine Sequenz von Meshes, die zu einer glatten Fläche konvergieren. Durch diese Technik ist es sehr leicht möglich eine überall glatte Freiformfläche zu definieren. Die Gestalt dieser Fläche lässt sich dann bequem durch das Verschieben des Kontrollmeshes verändern ohne komplizierte Randbedingungen wie im Falle von verklebten Patches zu berücksichtigen. In der Arbeit sollen drei verschiedene Subdivision-Operatoren in C++ implementiert werden, die sich sowohl auf die Punkte als auch auf Zusatzdaten anwenden und invertieren lassen. Analysis and Implementation of Different Techniques for Mesh Subdivision Mesh subdivision is a common technique to display free-form surfaces. Based on a coarse triangular mesh, additional points can be calculated to get a finer and smoother representation of the surface. In the first part of this work these three techniques are described and compared concerning the runtime and the visual results. With regard to the HAPTEX project an adaptive version of the Butterfly scheme is presented to be able to subdivide a mesh only at positions where high detail is necessary. Using this implementation, triangle meshes can be refined and simplified at any time at arbitrary positions. In addition to the geometrical values, also further properties can be computed for new points added during refinement.
Beschreibungstext verbergen
Juli 2007
Bachelorarbeit
Branko Petkovic
Leibniz Universität Hannover
Darstellung von feinen Höhenprofilen mit einem taktilen Display
Beschreibungstext anzeigen

Virtuelle Realität ist die Darstellung der Wirklichkeit und ihrer physikalischen Eigenschaften in einer in Echtzeit computergenerierten virtuellen Umgebung. Neben der optischen und akustischen Wahrnehmung kann auch die taktile Wahrnehmung in der virtuellen Umgebung ermöglicht werden. Unter taktiler Wahrnehmung wird das Erkennen von Druck, Berührung und Vibrationen auf der Haut verstanden. Im Gegensatz zur haptischen Interaktion mit virtuellen Gegenständen über Kraftrückkopplungssysteme wurde die taktile Simulation feiner Oberflächenstrukturen bisher wenig erforscht. Am Lehrstuhl für Graphische Datenverarbeitung wurden verschiedene Experimente mit einem taktilen Display (siehe Bild) durchgeführt. In dieser Arbeit soll ein weiterer Algorithmus zur taktilen Simulation von Oberflächenstrukturen untersucht werden. Dazu ist es unter anderem notwendig, die Firmware des taktilen Displays anzupassen.

Beschreibungstext verbergen
Juni 2007
Bachelorarbeit
Marcus Rieche
Leibniz Universität Hannover
OpenSG - Verteilte Visualisierung in verschiedenen Anwendungsszenarien
Beschreibungstext anzeigen
Die 3D Grafikhardware hat gerade bei Stanard PCs in den letzten Jahren große Fortschritte gemacht. Dennoch gibt es auch heute noch Grenzen, z.B. bei der Visualisierung großer Voxel-Daten aus dem medizinischen Bereich. Abhilfe schaffen entweder teure Spezialcomputer (Graphic Workstations) oder ein verteilter Ansatz, auch Clustering genannt.
Mögliche Anordnung für eine OpenSG Anwendung
OpenSG ist ein Open Source Echtzeit-Renderingsystem, das auf OpenGL aufbaut. OpenSG verwendet eine Szenengraphstruktur (vergleichbar mit OpenInventor, Java3D) und ist kein eigenständiges Programm, sondern eine C++-Bibliothek zur Erstellung verteilter 3D Renderingsysteme. Besonderes Merkmal von OpenSG ist die Möglichkeit, das Rendering in verschiedene Threads unterteilen zu könnnen, die auch auf unterschiedlichen Rechnern laufen können. Die berechneten Szenen können entweder auf einem oder auf mehreren Ausgabegeräten (Beamer, Monitor) dargestellt werden. Anwendungen wären etwa die Darstellung von Szenen auf mehreren Monitoren zur Vergrößerung der Projektionsfläche, die Echtzeitdarstellung großer 3D Datenmengen auf einem Monitor oder Stereoprojektion mit mehreren Beamern. Auch eine Art Mini-Cave (Cockpit-Anordnung) der Ausgabegeräte liesse sich damit realisieren. Ziel dieser Arbeit soll es sein, mit minimalen Investitionen innovative Konzepte für Arbeitsumgebungen zu entwickeln, die eine Visualisierung grosser (z.B. medizinischer) Voxeldaten mit einem Optimum an 3D Immersivität ermöglichen. Dazu soll in einer Beispielapplikation mit Daten aus den aktuellen Welfenlab Projekten (Medizin, Haptex, u.a.), eine Mini-Cave entwickelt werden. Diese könnte z.B. aus einem System mit mehreren Rechnern und LC-Displays bestehen. Im Verlauf der Arbeit sollen auch Stärken und Schwächen der OpenSG Bibliothek untersucht werden.
Beschreibungstext verbergen
Februar 2007
Juni 2007
Masterarbeit
Cem Dogan
Leibniz Universität Hannover
Mediale-Achsen-Rücktransformation in Riemannschen Mannigfaltigkeiten
Beschreibungstext anzeigen
The Medial Axis is the set of centers of all maximally inscribed spheres. This geometric concept is used for object representation and, together with the Medial Axis Inverse Transform (MAIT), for modeling of solids by editing their medial surface and a radius function. Extending the three-dimensional Euclidean to the Riemannian situation allows to treat physical and technical problems that can be modeled with an adapted metric. The Geodesic Medial Modeler (GMM) is a tool to design the Medial Axis as a tensor spline surface and to deform the Euclidean space locally. It performs the associated MAIT calculations in real time and visualizes the resulting envelope in the three-dimensional parameter space.
Beschreibungstext verbergen
Januar 2005
Mai 2007
Bachelorarbeit
Maximilian Müller
Leibniz Universität Hannover
Simulation des Greifvorgangs von starren Körpern am GRAB-Device
Beschreibungstext anzeigen

In the recent years the visual illusion of virtual reality systems has reached a convincing level. But a more important factor, the interaction with the virtual environment, is still far away from being natural. Thus research groups investigate methods to enrich interaction by adding the haptic modality.

This talk will present a part of the work within the eu-funded research group of HAPTEX, which aims to mediate the experience of touch and feel of virtual textiles .

Beschreibungstext verbergen
Mai 2007
Seminararbeit
Rasmus Buchmann
Leibniz Universität Hannover
Approximating the Medial Axis from the Voronoi Diagram
Beschreibungstext anzeigen
The Medial Axis is an important geometric concept related to the Voronoi
diagram and other distance-sets. Even though its definition is easily
stated and intuitive, the computation of the Medial Axis for non-trivial
sets is difficult and time-consuming. The computation of the Voronoi
diagram in contrast is well understood and there exist stable
algorithms. This is the first of two talks presenting the approximation
of the Medial Axis from the Voronoi diagram.
Beschreibungstext verbergen
Mai 2007
Seminararbeit
Rasmus Buchmann
Leibniz Universität Hannover
Approximating the Medial Axis from the Voronoi Diagram
Beschreibungstext anzeigen
The Medial Axis is an important geometric concept related to the Voronoi
diagram and other distance-sets. Even though its definition is easily
stated and intuitive, the computation of the Medial Axis for non-trivial
sets is difficult and time-consuming. The computation of the Voronoi
diagram in contrast is well understood and there exist stable
algorithms. This is the first of two talks presenting the approximation
of the Medial Axis from the Voronoi diagram.
Beschreibungstext verbergen
Mai 2007
Seminararbeit
Sabina Grimm
Leibniz Universität Hannover
Non-photorealistic Rendering using Surface Intersections
Beschreibungstext anzeigen
Traditionally, research on computer graphics is centered around the quest for visual realism. But looking at even older techniques of illustration one notices that there is a need for non-photorealistic drawings, for example in the area of medical imaging and for educational purposes. Here an image should display the relevant features of an object rather than rendering it photorealistically. We present a method to (semi-)automatically generate such representations from a given polygonal model of the object. The technique is based on calculating lines of intersection along a skeleton of the object model.
Beschreibungstext verbergen
April 2007
Studienarbeit
Martin Schmidt
Leibniz Universität Hannover
Approximation der Medialen Achse polygonal berandeter Gebiete in der euklidischen Ebene
Beschreibungstext anzeigen
Die mediale Achse von polygonalen Gebieten in der euklidischen Ebene, die durch sehr viele Eckpunkte gegeben sind, setzt sich aus extrem vielen lokalen medialen Ästen zusammen. Dies kann bei einer Vermeshung des Gebietes zu Problemen aufgrund einer Tetraedisierung von schlechter Qualität führen und eine anschließende FEM-Berechnung auf dem Gebiet erschweren. Ziel dieser Studienarbeit war es daher, die gegebene komplizierte mediale Achse eines komplexen polygonalen Gebietes in der Ebene zu approximieren. Dabei bestand die Grundidee im Zusammenfassen mehrerer lokaler Äste inklusive ihrer Radiusfunktionen durch B-Splines. Die Ergebnisse der Implementation werden anhand des realen Problems der zweidimensionalen Repräsentation einer Zahnbrücke durch ihre Mediale dargestellt und aufgrund der Approximation resultierende topologische Probleme diskutiert.

Beschreibungstext verbergen
April 2007
Bachelorarbeit
Daniel Pralle
Leibniz Universität Hannover
Numerische Berechnungen auf Grafikkarten.
April 2007
Seminararbeit
Yvonne Bernard
Leibniz Universität Hannover
Low-Cost Laser Range Scanner and Fast Surface Registration Approach
Beschreibungstext anzeigen
In the last twenty years many approaches for contact-free measurement techniques for object surfaces and approaches for 3d object reconstruction have been proposed; but often they still require complex and expensive equipment. Not least due to the rapidly increasing number of efficient 3d hard- and software system components, alternative low-cost solutions are in great demand. We propose such a low-cost system for 3d data acquisition and fast pairwise surface registration. The only hardware requirements are a simple commercial hand-held laser and a standard grayscale camera.
Beschreibungstext verbergen
April 2007
Diplomarbeit
Hannes Thielhelm
Leibniz Universität Hannover
Geodätische Voronoi-Diagramme
Beschreibungstext anzeigen
Voronoi-Diagramme finden seit ihrer Einführung durch Georgi Voronoi 1905 in sehr vielen Bereichen der Wissenschaft, wie Biologie, Medizin und natürlich auch Mathematik und Informatik verschiedenste Anwendungen. Sie liefern auf natürliche Weise eine Partitionierung des umgebenden Raums in Bezug auf den Abstand zu gegebenen Referenzobjekten (meistens Punkte).

In dieser Arbeit werden Voronoi-Diagramme in dreidimensionalen metrischen Räumen berechnet. Der Abstandsbegriff wird hier durch das Konzept der Metrik verallgemeinert. Dabei wird die gegebene Metrik durch den Abstandsbegriff auf einer im vierdimensionalen eingebetteten dreidimensionalen Höhenfläche induziert. Schwerpunkt der Arbeit ist die Entwicklung eines Verfahrens zur Berechnung von geodätischen Voronoi-Diagrammen, das ohne Verschneidungsalgorithmen auskommt. Dies wird durch ein Perturbationsverfahren erreicht, das die Berechnung der Knoten, d.h. der Punkte des Voronoi-Diagramms, zu denen mindestens vier Referenzpunkte gleichen Abstand haben, ermöglicht. Dabei wird eine homotope Deformation der euklidischen Metrik hin zur gegebenen Metrik durchgeführt.
Beschreibungstext verbergen
April 2007
Diplomarbeit
Steffen Blume
Leibniz Universität Hannover
Entwicklung eines Realzeit-Deformationsmodells der Fingerkuppe zur haptischen Kraftrückkopplung
Beschreibungstext anzeigen
Die heutzutage verfügbaren Virtual Reality-Systeme sind häufig in ihrer Interaktion zwischen Benutzer und virtueller Umgebung sehr eingeschränkt, da die Interaktionsmechanismen sehr indirekt sind. Insbesondere werden die Manipulationen mit deformierbaren Körpern nicht physikalisch korrekt abgebildet. Für solche Interaktionen werden spezielle Algorithmen zur Behandlung von Kollisionserkennung und Kollisionsantwort benötigt. In dieser Arbeit wurde ein Kontaktmodell und deren Antwort für die Anwendung dünner deformierbarer Objekte (z.B. Textilien ) entwickelt und implementiert für Kraftrückkopplungssysteme, welches die Form der Fingerkuppen im Kontakt berücksichtigt. 
Beschreibungstext verbergen
April 2007
Seminararbeit
Hannes Thielhelm
Leibniz Universität Hannover
Geodätische Voronoi-Diagramme.
Beschreibungstext anzeigen
Voronoi-Diagramme finden seit ihrer Einführung durch Georgi Voronoi 1905 in sehr vielen Bereichen der Wissenschaft, wie Biologie, Medizin und natürlich auch Mathematik und Informatik verschiedenste Anwendungen. Sie liefern auf natürliche Weise eine Partitionierung des umgebenden Raums in Bezug auf den Abstand zu gegebenen Referenzobjekten (meistens Punkte).

In dieser Arbeit werden Voronoi-Diagramme in dreidimensionalen metrischen Räumen berechnet. Der Abstandsbegriff wird hier durch das Konzept der Metrik verallgemeinert. Dabei wird die gegebene Metrik durch den Abstandsbegriff auf einer im vierdimensionalen eingebetteten dreidimensionalen Höhenfläche induziert. Schwerpunkt der Arbeit ist die Entwicklung eines Verfahrens zur Berechnung von geodätischen Voronoi-Diagrammen, das ohne Verschneidungsalgorithmen auskommt. Dies wird durch ein Perturbationsverfahren erreicht, das die Berechnung der Knoten, d.h. der Punkte des Voronoi-Diagramms, zu denen mindestens vier Referenzpunkte gleichen Abstand haben, ermöglicht. Dabei wird eine homotope Deformation der euklidischen Metrik hin zur gegebenen Metrik durchgeführt.
Beschreibungstext verbergen
April 2007
Bachelorarbeit
Yasin Alakese
Leibniz Universität Hannover
Eine taktile Benutzerschnittstelle für blinde Computernutzer
Beschreibungstext anzeigen
Durch die fortschreitende Verbesserung der grafischen Darstellung am Computer wird die Informationsaufnahme zwar für sehende Personen erleichtert, für blinde Computernutzer wirkt sich dies aber eher zum Nachteil aus. So sind etwa Webseiten für Blinde nur dann richtig nutzbar, wenn diese entsprechend gestaltet wurden. Eine Verbesserung könnte sich aus der Darstellung des Bildschirminhalts mit Hilfe eines taktilen Displays ergeben. Es soll ein System entwickelt werden, das den Bildschirminhalt mit Hilfe eines taktilen Displays erfühlbar macht. Der Nutzen dieses Systems soll in Versuchen untersucht werden.
Beschreibungstext verbergen
März 2007
Diplomarbeit
Yifan Yu
Leibniz Universität Hannover
Algorithmen zur Randflächenapproximation von Volumenkörpern in Voxeldarstellung
Beschreibungstext anzeigen
Schädel mit FehleranalyseVolumenvisualisierung beschreibt Verfahren, dreidimensionale Volumenkörper, beispielsweise durch Voxeldaten beschrieben, in geeigneter Art und Weise auf einem Computerbildschirm sichtbar zu machen. Dadurch wird es möglich, abstrakten Datenmengen als dreidimensionalen Objekte, die die Daten beschreiben, in einer virtuellen Welt realistisch darzustellen. Dabei kann man anschaulich mit den Daten arbeiten: z.B. die Oberfläche bzw. eine Isofläche berechnen, nach benutzerdefinierten Werten segmentieren, lokale Teilgebiete genauer untersuchen usw. Das Thema findet in vielen wissenschaftlichen und technischen Bereichen Anwendung: Geowissenschaft, Astrophysik, Chemie, Mikroskopie, Maschinenbau, zerstörungsfreie Prüfung usw. In dieser Diplomarbeit wird die Anwendung im Bereich der Medizin betrachtet. In dieser Diplomarbeit wird die Anwendung im Bereich der Medizin betrachtet. Medizinische Daten über Patienten bestehen aus Materialdichte, die z.B. durch CT (Computertomographie), MRT (Magnetresonanztomographie) o.ä. gewonnen werden, wobei das zu untersuchende Objekt von den Geräten in regelmäßigen Abständen gemessen wird. Volumenvisualisierungstechniken werden in der Regel in zwei Kategorien eingeteilt: direktes Volumenrendering sowie Rekonstruktion der Oberfläche. Thema dieser Diplomarbeit ist die Oberflächenrekonstruktion. Es gibt zahlreiche Methoden für die Rekonstruktion einer Oberfläche. Sie haben jeweils Vorteile und Nachteile und eignen sich daher für verschiedene Aufgaben. In meiner Diplomarbeit habe ich drei verschiedenen Gruppen untersucht: Marching Cubes, Contour Lines und GDM (Geometrically Deformed Models). In dieser Arbeit wurden Verfahren aus den ersten beiden Kategorien implementiert und auf medizinische Daten angewendet, um zu analysieren und zu vergleichen, wie gut sie in verschiedener Hinsicht geeignet sind.
Beschreibungstext verbergen
Februar 2007
2006
Seminararbeit
Ingo Wehmeier
Leibniz Universität Hannover
Spherical Harmonic Lighting
Beschreibungstext anzeigen
Spherical Harmonic lighting (SH lighting) is a technique for calculating the lighting on 3D models from area light sources that allows us to capture, relight and display global illumination style images in real time. The talk gives an overview of this technique starting from the definition of global illumination to the interreflectance between objects.
Beschreibungstext verbergen
Dezember 2006
Masterarbeit
Maxim Marchenko
Leibniz Universität Hannover
Dynamische 3D-Visualisierung eines Radial-Axial-Ringwalzprozesses
Beschreibungstext anzeigen

Im Rahmen dieser Arbeit wurde eine 3D-Visualisierungssoftware entwickelt, die aufbauend auf einer am Institut für Umformtechnik und Umformmaschinen (IfUM) der Leibniz Universität Hannover entwickelten Simualtion, einen Radial-Axial-Ringwalzprozess dynamisch darstellt.  Ziel ist es hierbei, den Ingenieur arbeitsbegleitend bei der Evaluation und Analyse während der Spezifikation einer Ringwalzstrategie zu unterstützen. Die Hauptanforderung für die Simulation besteht daher in der schnellen Vorhersage des Werkstofffluss und der Ringgeometrie zu jedem Zeitpunkt des Walzprozesses.

Nach dem Entwurf eines Anforderungsprofils in Zusammenarbeit mit dem IfUM wurde eine entsprechende Entwurfsspezifikation erstellt. Diese dient die Grundlage für das erstellte Softwaresystem und bildet insbesondere die Anforderungen eines Konstruktionsingenieurs während der Auslegung des Ringwalzprozesses ab. Die Spezifikation erforderte eine Erweiterung der Werkstoffflusssimulation um eine Datenstruktur und Algorithmen zur Speicherung der Werkstoffflussbilanz und ihrer Summe.

Das entwickelte Softwareprogramm ermöglicht es, den Radial-Axial-Ringwalzprozess dreidimensional dynamisch zu jedem Zeitpunkt zu betrachten. Weiterhin stehen dem  Benutzer Schnittwerkzeuge zur Verfügung, um zu jedem Zeitpunkt Ringschnitte anzuzeigen, die das Ringprofil zeigen und den Stofffluss in der Schnittebene abbilden. Um die Korrektheit einzelner Softwaremodule zu gewährleisten wurden Unit-Tests implementiert, die ein automatisches Testen ermöglichen.

Schließlich wurde die Simulation bezüglich der Zeitkomplexität sowohl analytisch untersucht, als auch in praktischen Versuchen auf ihr Zeitverhalten und den Speicherverbrauch getestet. Das als Proof-of-concept zu verstehende Softwaresystem ist wie erwartet deutlich schneller als Lösungen mit FEM-Systemen. Weitere Arbeiten könnten sich mit Untersuchungen zur Genauigkeit und Verwendbarkeit im Koonstruktionsprozess beschäftigen.

Beschreibungstext verbergen
Dezember 2006
Seminararbeit
Dr. Peer-Timo Bremer
Leibniz Universität Hannover
Spectral Surface Quadrangulation
Beschreibungstext anzeigen
Resampling raw surface meshes is one of the most fundamental operations used by nearly all digital geometry processing systems. The vast majority of this work has focused on triangular remeshing, yet quadrilateral meshes are preferred for many surface PDE problems, especially fluid dynamics, and are best suited for defining Catmull-Clark subdivision surfaces. We describe a fundamentally new approach to the quadrangulation of manifold polygon meshes using Laplacian eigenfunctions, the natural harmonics of the surface. These surface functions distribute their extrema evenly across a mesh, which connect via gradient flow into a quadrangular base mesh. An iterative relaxation algorithm simultaneously refines this initial complex to produce a globally smooth parameterization of the surface.  From this, we can construct a well-shaped quadrilateral mesh with very few extraordinary vertices.The quality of this mesh relies on the initial choice of eigenfunction, for which we describe algorithms and heuristics to efficiently and effectively select the harmonic most appropriate for the intended application.
Beschreibungstext verbergen
November 2006
Masterarbeit
Karin Matzke
Leibniz Universität Hannover
Ein System zur taktilen Simulation ebener Oberflächen
Beschreibungstext anzeigen

In der modernen Computertechnik spielt die Bedeutung der so genannten Virtuellen Realität eine immer wichtigere Rolle. Dabei ist es das Ziel, eine künstliche oder reale "Welt" mit dem Computer zu simulieren und durch entsprechende Ausgabegeräte für alle Sinne wahrnehmbar zu machen. Neben Geräten für Seh- und Hörsinn ist dabei jedoch ein Sinn noch wenig bedacht: der Tastsinn. Dabei ist die Menge an Informationen, die wir von unserer Umwelt und der Interaktion mit der Umwelt über den Tastsinn wahrnehmen, so groß wie von keinem anderen Sinn. Daher liegt es nahe, auch für diesen Sinneskanal entsprechende Hard- und Software zu entwickeln.

In der vorliegenden Arbeit wurden Strategien entwickelt, um mit Hilfe eines taktilen Displays reale Textilien zu simulieren und für den Menschen "fühlbar" zu machen. Dabei wurden in Anlehnung an bisherige Erkenntnisse über die Funktionsweise des taktilen Sinnes beim Menschen verschiedene Mechanorezeptortypen in der Haut durch Vibrationen aus zwei Basisfrequenzen stimuliert. Die Amplituden der Schwingungen wurden mit unterschiedlichen Algorithmen aus dem Höhenprofil der virtuellen Textilie berechnet. Die durchgeführten Versuche zeigen, dass sich die Rauheit der Textilien mit dem vorhandenen Gerät und den entwickelten Renderingstrategien darstellen lässt, und dass darüber hinaus auch feine regelmäßige Muster modellierbar sind, die den Gefühlseindrücken der realen Textilien ähnlich sind. In Zukunft soll die Dimension der erzeugten Sinneseindrücke durch die Kombination mit einem Display für den kinesthätischen Sinn erweitert werden, um damit der idealen virtuellen "gefühlten" Welt einen wesentlichen Schritt näher zu kommen.

Beschreibungstext verbergen
November 2006
Bachelorarbeit
Karsten Vogt
Leibniz Universität Hannover
Entwicklung eines Verfahrens zur Realzeit-Simulation von Textilien unter Verwendung von progressiven Meshs
Beschreibungstext anzeigen
Unter den populären Verfahren der Textilsimulation gibt es viele Ansätze, die in Echtzeit glaubwürdige Ergebnisse liefern. Diese Verfahren verwenden jedoch keine echten Messdaten zur Beschreibung des Textilverhaltens.  Dagegen sind Verfahren, die mit realen Messdaten arbeiten, in der Regel nicht echtzeitfähig.  Für die spätere Verwendung im HAPTEX Projekt (HAPtic sensing of virtual TEXtiles) soll deshalb ein Verfahren entwickelt werden, das Textilien in einer virtuellen Umgebung visualisiert und eine haptischen Interaktion auf einem handelsüblichen Personal Computer ermöglicht. Entscheidend ist, dass die nachgebildeten Textilien nicht nur den optischen, sondern auch den haptischen Erwartungen entsprechen.
Beschreibungstext verbergen
September 2006
Studienarbeit
Arne Kreutzmann
Leibniz Universität Hannover
Verbindung und Triangulierung mehrerer Medialer Äste
Juni 2006
Bachelorarbeit
Tomasz Bujalski
Leibniz Universität Hannover
Effiziente globale Verfeinerung von Tetraeder-Netzen.
Juni 2006
Seminararbeit
Damaris Schumann
Leibniz Universität Hannover
Volumenvisualisierung: 3D Texturierung
Beschreibungstext anzeigen
Volumenvisualisierung basiert darauf zwei verwandte Integralgleichungen zu lösen, eine Radon-Transformation und eine inverse Radon-Transformation. Dies ist sehr rechenaufwendig und kann durch hardware-implementiertes Texture-Mapping beschleunigt werden. Literatur:
  • Brian Cabral, Nancy Cam, and Jim Foran. Accelerated volume rendering and tomographic reconstruction using texture mapping hardware. In VolVis '94, pages 91--98. ACM Press, 1994.
Beschreibungstext verbergen
Juni 2006
Seminararbeit
Björn Scheuermann
Leibniz Universität Hannover
Volumenvisualisierung: Shear-Warp Transformation
Beschreibungstext anzeigen
Die Shear-Warp Transformation beschreibt eine sehr schnelle Faktorisierung der Sichttransformation verbunden mit einer scanline-basierten Abtastung des Volumens. Dieses Verfahren ist eine sehr schnelle und genaue Möglichkeit, Volumina ohne Hardwareunterstützung zu visualisieren. Literatur:
  • Lacroute, P., and Levoy, M. Fast Volume Rendering Using a Shear-Warp Factorization of the Viewing Transformation. Proc. SIGGRAPH. ACM, Orlando, FL, 1994, pp. 451-458.
Beschreibungstext verbergen
Juni 2006
Studienarbeit
Steffen Blume
Leibniz Universität Hannover
Konstruktion eines Gerätes zur Simulation von Oberflächenstrukturen für den Einsatz in VR-Umgebungen
Beschreibungstext anzeigen
For the simulation of surface structures receptors in the human skin have to be stimulated in an appropriate way. A device for the stimulation of these receptors via vibrations was developed at the University of Exeter. The goal of this student research project was the design of an electronic component capable of driving that device.
Beschreibungstext verbergen
Mai 2006
Seminararbeit
Christian Kubitza
Leibniz Universität Hannover
Shape From Shading
Beschreibungstext anzeigen
Shape from Shading (SFS) deals with the recovery of shape from a gradual variation of shading in an image. This is particularly important in applications where direct surface measurements are not possible. The basic problems of SFS and three different approaches for a solution are presented in the seminar.
Beschreibungstext verbergen
Mai 2006
Seminararbeit
Fabian Laitritz
Leibniz Universität Hannover
Fraktalkompression.
Mai 2006
Seminararbeit
Hans-Jörg von Mettenheim
Leibniz Universität Hannover
Grauwertdarstellung in medizinischen Anwendungen.
Mai 2006
Seminararbeit
Martin Schmidt
Leibniz Universität Hannover
Mehrdimensionale Interpolation.
Mai 2006
Masterarbeit
Marc Herrlich
Leibniz Universität Hannover
Untersuchungen zur Eignung von 3D-Spieleengines für die wissenschaftliche Visualisierung anhand der CryENGINE
Beschreibungstext anzeigen
Computerspiele sind in heutiger Zeit aus dem Alltag vieler Menschen nicht mehr wegzudenken. Darüber hinaus erreichte die Technologie moderner Spiele im Laufe der letzten Jahre einen Standard, der diese auch für Anwendungen fernab des Unterhaltungssektors interessant macht. Die Visualisierung wissenschaftlicher Daten ist ein bedeutendes Anwendungsgebiet der graphischen Datenverarbeitung. Insbesondere die interaktive dreidimensionale Darstellung virtueller oder realer Umgebungen stellt ein wichtiges Hilfsmittel dar. In dieser Arbeit wird anhand der in dem Computerspiel Farcry eingesetzten CryEngine untersucht, welche Möglichkeiten moderne Spieleengines für die wissenschaftliche Arbeit bieten. Als Anwendungsbeispiel soll mit Hilfe der CryEngine eine auf GIS-Daten basierende dreidimensionale Landschaftsdarstellung umgesetzt werden. Dazu wird in der vorliegenden Arbeit ein Konverter entwickelt, um automatisiert aus vorhandenen GIS-Daten einen entsprechenden Farcry-Level zu erzeugen.
Beschreibungstext verbergen
März 2006
Studienarbeit
Yifan Yu
Leibniz Universität Hannover
Non photorealistic rendering: Schnittflächenverfahren und Implementierung
Beschreibungstext anzeigen
Implementation von Verfahren des Non-Photorealistic-Rendering
Beschreibungstext verbergen
Februar 2006
Studienarbeit
Stefan Huy
Leibniz Universität Hannover
Design und Implementierung eines Objektmodells zur Erstellung und Verwendung komplexer Grafikobjekte in Webseiten
Beschreibungstext anzeigen
Web pages traditionally only allow the on-line manipulation of text items. To enable the web user to use graphics in web pages as a medium for discussion and presentation of concepts an object model is presented that allows the declarative description and in-page construction of composite pictures that can be used like normal images by integrating the delivered interpreter engine. The current implementation relies on a prototype based approach and uses a HTML and Javascript based file format as the descriptor. The open approach furthermore allows the easy implementation of the algorithm in other programming languages and therefore the integration into existing systems.
Beschreibungstext verbergen
Januar 2006
Masterarbeit
Tjard Köbberling
Leibniz Universität Hannover
Verschiedene Methoden zur Generierung virtueller taktiler Oberflächenstrukturen
Beschreibungstext anzeigen
Virtuelle Realität ist die Darstellung der Wirklichkeit und ihrer physikalischen Eigenschaften in einer in Echtzeit computergenerierten virtuellen Umgebung. Neben der optischen und akustischen Wahrnehmung kann auch die taktile Wahrnehmung in der virtuellen Umgebung möglich gemacht werden. Unter taktiler Wahrnehmung wird das Erkennen von Druck, Berührung und Vibrationen auf der Haut verstanden. Es wurden verschiedene, bereits in vorherigen Arbeiten beschriebene Methoden zur Generierung virtueller taktiler Oberflächenstrukturen implementiert und miteinander verglichen. Als Vorlage dienten dabei Textilien, die in der virtuellen Umgebung möglichst realistisch dargestellt werden sollten.
Beschreibungstext verbergen
Januar 2006
2005
Diplomarbeit
Norbert Witt
Leibniz Universität Hannover
Echtzeitberechnung der medialen Achse von CSG-Objekten der Ebene
Beschreibungstext anzeigen
CSG steht für ''Constructive Solid Geometry'' und ist ein weitverbreitetes Verfahren zur Darstellung von Objekten mit Hilfe von Grundobjekten, den sogenannten Primitiven, und Mengenoperatoren, die diese kombinieren.
Ein Objekt, als zusammenhängende und begrenzte Teilmenge des zwei- oder dreidimensionalen Raumes, wird mittels CSG prozedural beschrieben. In mehreren CSG-Schritten wird so aus einfacheren
  Objekten ein komplexeres Objekt gebildet. Dabei ist ein CSG-Schritt die Verknüpfung zweier Objekte durch einen Mengenoperator. Das Ergebnis dieser Verknüpfung ist wiederum ein Objekt. Interessant ist die CSG-Technik beim Editieren von Objekten. So kann ein komplexes Objekt in mehreren Schritten, bei denen die Zwischenergebnisse sichtbar sind, zielgerichtet editiert werden. Da neben dem Endergebnis auch die Zwischenergebnisse in Form von Objekten vorliegen, ist das Verfahren ideal für eine Kombination mit einer weiteren Technik: der Berechnung der medialen Achse von Objekten. Wird die Berechnung der medialen Achse mit dem CSG-Verfahren gekoppelt, so dass nach jedem Verknüpfungsschritt nicht nur der Rand, sondern auch die mediale Achse berechnet wird, dann gibt es durchaus interessante und positive Nebeneffekte. Eine solche Kopplung der beiden Verfahren nutzt aus, dass bereits mediale Achsen der beiden zu verknüpfenden Objekte existieren. Diese bereits berechneten medialen Achsen werden teilweise (falls möglich) übernommen. Gewisse Teile der medialen Achse sind also bereits berechnet. Da bei einem CSG-Schritt nicht die komplette mediale Achse neu berechnet werden muss, ist die Abarbeitungsgeschwindigkeit bei der Editierung entsprechend hoch. Außerdem kann die mediale Achse bereits während des Editierens angezeigt werden. So kann etwa die Veränderung der medialen Achse bei Veränderung des Randes betrachtet werden. Auch das Verhalten bei der Konstruktion bestimmter Objekte kann durch die frühe Sichtbarkeit des Verlaufs der momentanen medialen Achse beeinflußt werden. Entsprechend des Arbeitstitels werden nur CSG-Objekte der Ebene behandelt.
Beschreibungstext verbergen
September 2005
Bachelorarbeit
Richard Guercke
Leibniz Universität Hannover
Auffinden ähnlicher Flächen durch den Laplace-Beltrami-Operator
Beschreibungstext anzeigen
Die beiden obigen Bilder zeigen Zwischenstufen der Verformung des 3d-Modells eines Schraubenziehers und die Entwicklung der zugehörigen Spektra (projiziert in den dreidimensionalen Raum). Das Problem, eine leicht verformte und eventuell auf verschiedene Weise dargestellte (Bezier-, B-Spline-Darstellung, trianguliert,...) oder umparametrisierte Fläche in einer Sammlung von Flächen wiederzufinden, hat insbesondere im Zusammenhang mit Patentrechtsverletzungen oder bei der Identifikation von Objekten eine wichtige Bedeutung. Aufgrund der Vielzahl der möglichen Darstellungsformen und Parametrisierungen ist dieses Problem ohne aufwendige Vorbereitungsschritte nur schwer lösbar. Die Berechnung der Eigenwerte des Laplace-Beltrami-Operators bildet eine Fläche auf eine Menge von Zahlen ab, wobei hier nur die ersten (kleinsten) k - typischerweise 50 bis 500 - Eigenwerte benutzt werden.
Diese Zahlen lassen sich als die Frequenzen der Eigenschwingungen des betreffenden Objektes interpretieren. Dieser (materialunabhängige) "Ton" bei der Anregung eines Objektes zu einer Eigenschwingung dient als "Fingerabdruck" für die Fläche, anhand dessen Flächen auf Ähnlichkeit geprüft und in Sammlungen eingeordnet werden können. Theoretische Überlegungen und praktische Versuche zeigen, dass der Abstand zwischen den k-dimensionalen Punkten, die durch die (aufsteigend sortierten) ersten k Eigenwerte beschrieben werden, ein sinnvolles Maß für die Ähnlichkeit der zugehörigen Flächen ist. So lässt sich die Suche nach ähnlichen Flächen in einer Sammlung auf die Suche nach nächsten Nachbarn von Punkten im k-dimensionalen Raum zurückführen. In dieser Arbeit wurden einerseits weitere Untersuchungen zur Entwicklung der Laplace-Spektra bei der Verformung von Objekten angestellt und andererseits verschiedene Versuche zum Informationsverlust bei der Anwendung der Principal Component Analysis (Projektion der hochdimensionalen Punkte auf die Achsen ihrer größten Varianz) auf Mengen von Spektra zur Verringerung der Dimensionalität durchgeführt.
Beschreibungstext verbergen
September 2005
Studienarbeit
Jakob Kröker
Leibniz Universität Hannover
Parallelisierung einer Finite-Element-Berechnung auf einer Flächentriangulierung mittels MPI
Beschreibungstext anzeigen
In dieser Studienarbeit wurde ein zeitintensiver Programmabschnitt aus dem Softwareprojekt "Laplace" unter Verwendung der Nachrichtentauschbibliothek MPICH parallelisiert, um die Programmlaufzeit zu verbessern. Als Test- und Laufzeitumgebung diente dabei der Computercluster des GDV-Instituts. Bei dem parallelisiertem Abschnitt handelt es sich um die Aufstellung des allgemeinen Eigenwertproblems, welches als Loesung das Spektrum des Laplaceoperators auf einer gegebenen Flaeche im Raum liefert. Bei der Aufstellung des Eigenwertproblems benoetigte die Berechung der Eintraege der beteiligten Matritzen die meiste Zeit. Diese Berechnung wurde auf mehrere Prozessoren verteilt. Die Aufteilung erfolgt zentralgesteuert und dynamisch nach dem workpool-Prinzip, indem jedem freien Prozessor ein noch zu berechnender Zeilenbereich aus einer entsprechend hohen Anzahl (min. 10*Prozessoranzahl) zugewiesen wird. Die Parallelisierung verbessert die Programmlaufzeit wesentlich, wobei durch die dynamische Lastverteilung das Programm auch auf einem Cluster mit Rechnern unterschiedlicher Leistungsfaehigkeit gut skaliert. Wie bereits erwaehnt, ist eine der moeglichen Anwendungen vom Laplace-Projekt die Bestimmung der Spektren von parametrisierten Flaechen. Damit kann z.B untersucht werden, ob sich die Form zweier Flaechen anhand ihrer Spektren vergleichen bzw. identifizieren laesst. Weitere Informationen dazu sind in der Diplom- bzw. Doktorarbeit von Martin Reuter zu finden.
Beschreibungstext verbergen
August 2005
Studienarbeit
Hannes Thielhelm
Leibniz Universität Hannover
Mediale Polarkoordinaten
Beschreibungstext anzeigen
Diese Studienarbeit beschäftigt sich mit der Darstellung von ebenen Gebieten durch die von Blum 1967 eingeführte Mediale Achse. Dabei wird ein zweidimensionales ebenes Gebiet durch die Mittelpunkte der größten Innenkreise und die zugehörigen Radien beschrieben. Die so gewonnene skelettartige eindimensionale Struktur enthält alle Informationen, die nötig sind, um das Gebiet vollständig zu rekonstruieren. Zusätzlich werden topolgische Informationen des Gebietes auf die mediale Achse übertragen, z.B. läßt sich zeigen, dass die Mediale Achse eines Gebietes mit stetigem und stückweise stetig differenzierbarem Rand selbst stetig ist. Durch die starke Symmetrie eines Kreises, der die Verbindung zwischen der medialen Achse und dem Rand des Gebietes darstellt, werden Symmetrien des Gebietes quasi in die mediale Achse komprimiert. Diese Symmetrien lassen sich beispielsweise bei der Berechnung des Flächeninhalts des Gebietes ausnutzen. Gibt man eine Parametrisierung des Randes vor, so erhält man in natürlicher Weise eine Parametrisierung der medialen Achse und der zugehörigen Radien. Führt man einen zusätzlichen Parameter ein, der das Verbindungsstück eines Randpunktes zur medialen Achse parametrisiert, so erhält man eine Parametrisierung des Gebietes in den sogenannten medialen Polarkoordinaten. Die Eigenschaften dieser Koordinaten und ihre Eignung zur Flächenberechnung sind Gegenstand der Arbeit. Zusätzlich wurde ein Programm entwickelt, das ein durch eine mediale Achse und Radiusfunktion gegebenes Gebiet darstellt und gebenenfalls die Fläche approximiert bzw. berechnet.
Beschreibungstext verbergen
August 2005
Seminararbeit
Astrid Krüger
Leibniz Universität Hannover
Berechnung kürzester Wege mit Hilfe geodätischer Offsets.
Beschreibungstext anzeigen
Den kürzesten Weg zwischen zwei Punkten auf einer vollständigen Fläche im dreidimensionalen Raum zu finden ist allein deswegen schon so schwierig, weil dieser Weg unter Umständen nicht eindeutig ist. Beispiele dafür lassen sich sehr leicht mit gewissen Symmetriebedingungen erzeugen. Das in der Studienarbeit erzeugte Verfahren zur Berechnung eines solchen kürzesten Weges beruht auf der Berechnung der lokalen medialen Achse der zwei Punkte auf der Fläche. Man kann zeigen, dass der kürzeste Weg diese Mediale Achse in einem gewissen Punkt senkrecht schneidet. Solche Punkte muss man demnach suchen. Bei der Suche muss man die geodätischen Differentialgleichungen sowie die Jacobi-Gleichungen beachten, um zum Ziel zu kommen.
Beschreibungstext verbergen
Juli 2005
Studienarbeit
Astrid Krüger
Leibniz Universität Hannover
Berechnung kürzester Wege mit Hilfe geodätischer Offsets
Beschreibungstext anzeigen
Den kürzesten Weg zwischen zwei Punkten auf einer vollständigen Fläche im dreidimensionalen Raum zu finden ist allein deswegen schon so schwierig, weil dieser Weg unter Umständen nicht eindeutig ist. Beispiele dafür lassen sich sehr leicht mit gewissen Symmetriebedingungen erzeugen. Das in der Studienarbeit erzeugte Verfahren zur Berechnung eines solchen kürzesten Weges beruht auf der Berechnung der lokalen medialen Achse der zwei Punkte auf der Fläche. Man kann zeigen, dass der kürzeste Weg diese Mediale Achse in einem gewissen Punkt senkrecht schneidet. Solche Punkte muss man demnach suchen. Bei der Suche muss man die geodätischen Differentialgleichungen sowie die Jacobi-Gleichungen beachten, um zum Ziel zu kommen.
Beschreibungstext verbergen
Juli 2005
Studienarbeit
Dominik Sarnow
Leibniz Universität Hannover
3D Welten - Eine Untersuchung zur Visualisierung wissenschaftlicher Daten mit Spiele-Engines
Beschreibungstext anzeigen
Die Unterhaltungsindustrie ist ein grosser und wichtiger Markt geworden und es fließen beachtliche Summen in die Entwicklung neuer Game Engines. Ausserdem, und das ist ein entscheidender Vorteil der Game Engines gegenüber anderen 3D-Visualisierungsprogrammen, ist die Anschaffung der Software wesentlich günstiger. Der Gedanke liegt also nahe, dieses Potential zu nutzen. Am Institut für Mensch-Maschine-Kommunikation, Fachbereich Graphische Datenverarbeitung wurden in Zusammenarbeit mit dem Institut für Bergbau und Vermessungstechnik einsturzgefährdete Höhlen mit Hilfe eines Lasers vermessen. In zwei darauf folgenden Diplomarbeiten von Bijan Frajollahi und Karl-Ingo Friese, wurden aus den Punktwolken, die eigentlichen Höhlen in Form von Dreiecksflächen, so genannten Triangle Mesh rekonstruiert. Es gab mehrere Messungen an verschiedenen Punkten in der Höhle und mit Hilfe eines Visualisierungsprogrammes konnten sie dargestellt werden. Ziel und Motivation dieser Studienarbeit ist es nun an die voran gegangenen Schritte anzuknüpfen und die Höhlen begehbar zu machen, mit Hilfe einer der heutigen kommerziellen Game Engines. Bei der Rekonstruktion war das Augenmerk auf eine möglichst genaue, detaillierte Darstellung der Höhlen gerichtet. Hierfür war es unter anderem notwendig die Datenmenge zu verkleinern, (d.h. die Anzahl der Dreiecke reduzieren) ohne die Topologie zu verändern. Links:
Beschreibungstext verbergen
Juni 2005
Diplomarbeit
Jennis Meyer-Spradow
Leibniz Universität Hannover
Ein mathematisches Echtzeit-Modell taktiler Merkmale von Oberflächen
Beschreibungstext anzeigen
Die Interaktion zwischen Benutzer und Computer ist eines der zentralen Probleme der Informatik. Nachdem die visuelle Darstellung einen sehr hohen Realitätsgrad erreicht hat, wird auch der Tastsinn verstärkt Gegenstand der Forschung. Die Arbeit entwickelt eine Simulation der physikalischen Interaktion eines Stifts mit Oberflächen und macht diese Oberflächen "erfühlbar". Dazu kommt das haptische, "PHANToM" genannte, Gerät der Firma Sensable zum Einsatz. Die Stabilitätseigenschaften der entwickelten Algorithmen werden untersucht. Aus der psychologischen Forschung stammende Experimente zum Rauigkeitsempfinden werden wiederholt. Dadurch wird die Qualität des durch die Algorithmen erzeugten Fühleindrucks beurteilt. Es stellt sich heraus, dass die Ergebnisse gut mit denen der Psychologen übereinstimmen.
Beschreibungstext verbergen
Juni 2005
Seminararbeit
Cem Dogan
Leibniz Universität Hannover
Visualization of masking thresholds and reconstructed audio signals in frequency domain.
Juni 2005
Seminararbeit
Daniela Lauer
Leibniz Universität Hannover
Fingertip Deformation Models for Grasping in Virtual Environments.
Juni 2005
Seminararbeit
Iavor Fetvadjiev
Leibniz Universität Hannover
Isoparametric Concepts in FEM.
Juni 2005
Seminararbeit
Christian Gerstenberger
Leibniz Universität Hannover
Shortest Paths on Surfaces.
Juni 2005
Seminararbeit
Daniela Lauer
Leibniz Universität Hannover
Decomposition of Polygons in the Euclidean Plane into Convex Partitions.
Juni 2005
Bachelorarbeit
Andreas Borowski
Leibniz Universität Hannover
Implementierung des Buchberger-Algorithmus als Vorstufe zum Lösen multiaffiner Gleichungssysteme
Beschreibungstext anzeigen
In vielen Bereichen der Mathematik und der Ingenieurswissenschaften tauchen Probleme auf, die das Lösen von Polynomgleichungen in mehreren Variablen erfordern. Also im Allgemeinen Gleichungen der Form:
f1(x1, x2, . . . , xn) = 0
f2(x1, x2, . . . , xn) = 0
...
fs(x1, x2, . . . , xn) = 0
Eine bekannte Möglichkeit solche Gleichungen zu lösen ist zunächst die Methode der Gröbnerbasen anzuwenden um die Gleichungen algebraisch zu vereinfachen, und anschließend numerische Verfahren zu verwenden. Der für die algebraische Umformung verwendete Algorithmus ist der Buchberger-Algorithmus.
Dieser wurde 1965 von Buchberger eingeführt. Die von diesem Algorithmus berechneten Gröbnerbasen sind von zentraler Bedeutung im Bereich der Computeralgebra, so dass er in allen gängigen Computeralgebrasystemen, wie Maple, MuPAD, oder Mathematica implementiert ist. Ziel dieser Arbeit ist, den Buchberger-Algorithmus zu implementieren und zum Lösen von Gleichungen obiger Form zu verwenden.
Beschreibungstext verbergen
Mai 2005
Seminararbeit
Richard Guercke
Leibniz Universität Hannover
Preparation of measurements of fabric surface properties for haptic simulation
Beschreibungstext anzeigen
Cloth modeling has been an important topic studied by computer graphics people since the mid of 1980s. Beside the visual pleasantness of a fabric, the hand or feel of the fabric plays an important role in the perception of a fabric.

Roughness and friction are important parameters for the haptic simulation of fabrics. In this talk a DFFT based correlation-restoration method to model the surface roughness and friction coefficient of a given fabric is described.
Beschreibungstext verbergen
April 2005
Bachelorarbeit
Daniela Lauer
Leibniz Universität Hannover
Zerlegung polygonal berandeter Gebiete in der euklidischen Ebene in konvexe Teilbereiche
Beschreibungstext anzeigen
In der Computergrafik werden möglichst einfache Darstellungen verwendet um geometrische Objekte zu modellieren. Eine gängige Methode ist es ein Objekt durch die Approximation seiner Oberfläche darzustellen. Dabei wird diese aus einer Menge planarer Vielecke, hier Polygone genannt, zusammengesetzt. Damit auch komplexe Objekte effektiv verwaltet und bearbeitet werden können, wird jedoch noch eine einfachere Darstellung der Teilstücke benötigt. Eine Möglichkeit ist, Polygone als die Vereinigung von weniger komplexen Teilstücken zu repräsentieren. Ein konvex zerlegtes Polygon setzt sich nur aus konvexen Teilstücken (einfacheren Polygonen) zusammen. Die Motivation für die vorliegende Arbeit kommt aus der Computergrafik aus dem Gebiet wissenschaftliche Visualisierung mit Spiele-Engines. Für eine optisch anspruchsvolle Visualisierung in Echtzeit wird unter anderem eine leistungsstarke Renderingsoftware benötigt. Eine günstige Alternative zu kommerziellen Produkten wie z.B. 3D Studio MAX oder Autocad bieten Spiele-Engines. Im Gegensatz zu den Anfängen der Computergrafik sind heute die Hersteller von animierten Filmen und Computerspielen führend im Bereich der Echtzeit 3D-Visualisierung. Deshalb wird am Lehrstuhl Graphische Datenverarbeitung, Institut für Mensch-Maschine-Kommunikation der Leibniz Universität Hannover, die Eignung von Spieleengines für die Visualisierung wissenschaftlicher Daten anhand einiger Beispiele (Sarnow: Quake 3, Hanel: Unreal 2) erprobt. Die von einem Laserscanner gemessene Punktwolke der Höhlenwände wurde in Diplomarbeiten (Farajollahi, Friese,) in eine triangulierte Darstellung überführt und dient als Datenquelle für diese Untersuchungen. Erste Ergebnisse ermöglichen ein flüssiges Durchwandern der Höhle. In der Darstellung mit der Quake-Engine führte jedoch beispielsweise das Hinzufügen von aufwändigen Lichteffekten zu Performanceverlusten. Dies liegt unter anderem an der Menge der darzustellende Polygone (bislang Dreiecke). Die Quake Engine ist jedoch in der Lage, nicht nur Dreiecke, sondern konvexe Polygone einzulesen und zu verarbeiten. Dies eröffnet die Möglichkeit, durch das Verwenden größerer konvexer Teilstücke mit möglichst wenig Detailverlust die Anzahl der Polygone zu reduzieren. Die Idee liegt also nahe, nach großen planaren oder quasiplanaren Teilgebieten bestehend aus mehreren Dreiecken zu suchen, um diese dann als Vereinigung einer Menge von konvexen Polygonen darzustellen. Es wird also ein Algorithmus benötigt, der ein in triangulierter Form vorliegendes Gebiet (Polygone) in möglichst wenige konvexe Teilstücke zerlegt.
Beschreibungstext verbergen
Januar 2005
2004
Studienarbeit
Nico Amtsberg
Leibniz Universität Hannover
Templates as a new Concept for C++ Programming and their Application in Geometric Modeling
Beschreibungstext anzeigen
Template programming in C++ is a method to parameterize code. This parametrization enables the compiler to generate code from parameterized code. Using this method a template can express the structure of a class of programms or algorithms at compile time (also known as metaprogramming). Although nowadays the use of templates is common practice this does not include complicated applications. It is known that template programming is turing complete. Nonetheless since templates are formulated in terms of low level constructs it is somewhat difficult to write more complicated programs with them. This seminar provides a unified formalism to express higher level constructs to use them for writing complicated programs. In the end a functional programming language will be presented making template programming straight forward. There exists no formula computing isolines of the maximal principal curvature function of a general B-spline surface patch. Therefore those isolines where approximated using a brute force approach providing discrete results. Getting these results in real time was another requirement making it necessary to create a fast spline library with C++ in conjunction with the template technique. The library is capable to compute rapidly a B-spline patch together with all derivatives. We will present some programming techniques used in this library and some approaches to speed up computation of B-spline and Bzier patches.
Beschreibungstext verbergen
Dezember 2004
Bachelorarbeit
Daniel Scholz
Leibniz Universität Hannover
Triangulation on Parametrized Surfaces
Beschreibungstext anzeigen
The triangulation of parametrized surfaces is a difficult and important step towards FEM calculations and visualization of the surface. Therefore the triangles have to fulfill certain constraints. The difficulty lies in creating the triangles in parametric space, such that the mapped triangles on the (curved) surface offer the desired qualities. For further quality improvements, a Laplace smoothing can be applied to the triangles vertices.
Beschreibungstext verbergen
Dezember 2004
Bachelorarbeit
Cem Dogan
Leibniz Universität Hannover
Perceptual Audio Coding Using Wavelet Packet Analysis
Beschreibungstext anzeigen
A perceptual audio coder analyzing each audio segment adaptively using a best wavelet basis according to the time-varying characteristics of the audio signal has been constructed. The adaptive wavelet packet tree is obtained minimizing a perceptual cost function implementing a masking model mimicking the human auditory system. The resulting scheme is a variable bit-rate audio coder providing compression ratios comparable to MPEG-I layers 1 and 2 with almost transparent quality. A short overview of the structure of the audio coder will be given.
Beschreibungstext verbergen
Dezember 2004
Bachelorarbeit
Michael Hanel
Leibniz Universität Hannover
3D-Visualisierung mit Hilfe von Spiel-Engines unter Berücksichtigung erweiterter Texturierungsmöglichkeiten
Beschreibungstext anzeigen
Nowadays, the graphical (re)presentation of several computer-based applications becomes more important, especially in the entertainment electronics sector. With the Unreal Engine 2 and the associated application Unreal Tournament 2004, the user has the possibility to change some parameters of the engine (so called Modifications) and to create his own maps.
If we try to use the Unreal Engine 2 to visualize scientific data (e.g. a scatter-plot of a cave obtained from a laser measurement), the problem of how the data has to be formatted, so that the engine is able to read it, arises. In this Bachelor-thesis, the approach of representing scientific data with the Unreal Engine 2 as realistic as possible is being accomplished.
Beschreibungstext verbergen
Dezember 2004
Seminararbeit
Prof. Dr. Frederic Fol Leymarie
Leibniz Universität Hannover
The Shock Scaffold - A directed graph hierarchy for the 3D medial axis.
November 2004
Seminararbeit
Patrick Klie
Leibniz Universität Hannover
Wavelet decomposition of scalar functions on surfaces.
November 2004
Diplomarbeit
Patrick Klie
Leibniz Universität Hannover
Waveletzerlegung skalarer Funktionen auf Flächen
Beschreibungstext anzeigen
In den letzten beiden Jahrzehnten haben Wavelets in der Mathematik, in den Naturwissenschaften sowie in den Ingenieurswissenschaften ein hohes Maß an Aufmerksamkeit erlangt.
Sie kamen zunächst für eindimensionale reguläre Diskretisierungen zum Einsatz. Es wird ein Verfahren vorgestellt, das die Wavelettransformation mit Hilfe des Lifting-Schemas auf irreguläre Diskretisierungen von Funktionen auf parametrisierten Flächen generalisiert. Dieses Verfahren ist unabhängig von der Gestalt und der Dimension des zugehörigen Parameterbereichs. Eine Kopplung mit der Medialen-Achsen-Transformation (MAT) liefert in naher Zukunft die Möglichkeit, die Wavelettransformation auf die in der MAT benutzten Radiusfunktion anzuwenden. Damit lassen sich typische Anwendungen wie Kompression und Entrauschen auf die Randfläche des Körpers, der durch die MAT beschrieben wird, übertragen.
Beschreibungstext verbergen
Oktober 2004
Diplomarbeit
Guido Böttcher
Leibniz Universität Hannover
Medial Axis and Haptics
Beschreibungstext anzeigen
The Medial Axis, being the set of centers of all maximally inscribed spheres in a solid, is widely used for skeletal extraction, pattern recognition and object representation. Using the Medial Axis Transform for dynamic modeling of 3-D free form objects is a rather new approach. The modeling of solids by editing the underlying Medial Axis with its associated radii and the computation of the corresponding boundary of the solid including curvature data is one of the main goals in this work. Moreover, to give an aid in the modeling process the integration of haptic is introduced. Therefore, understanding the human sense of touch and the appropriate stimulation utilizing the PHANToM haptic device are further topics treated here.
Beschreibungstext verbergen
Oktober 2004
Studienarbeit
Emil Alexander Röhrich
Leibniz Universität Hannover
Optimized triangulation of connected planar regions
Beschreibungstext anzeigen
A fast Delaunay triangulation algorithm has been implemented for polygonal connected planar regions. Especially a fast retrospective point insertion has been achieved in constant time. Furthermore constrained edges (boundary edges and inner edges) have been incorporated.
Beschreibungstext verbergen
September 2004
Diplomarbeit
Philipp Blanke
Leibniz Universität Hannover
Experimentelle und theoretische Untersuchungen zur topologischen Struktur der Medialen Achse polyedrischer Körper
Beschreibungstext anzeigen
Die Mediale Achsen Transformation (MAT) ist eine fundamentale geometrische Operation, die in vielen Gebieten Anwendung findet. Die Topologie der Medialen Achse zu untersuchen, hat verschiedene Motivationen: zum einen ist es wichtig, die Eigenschaften dieses Objektes zu kennen, wenn man Algorithmen zur Konstruktion angeben möchte.
Andererseits eröffnet ein tieferes Verständnis der Zusammenhänge der topologischen Eigenschaften eines Körpers und seiner MA möglicherweise neue Ansätze zur Erzeugung von Invarianten, die den Körper beschreiben, bzw. zur Klassifikation von Körpern dienen können.
Beschreibungstext verbergen
Juli 2004
Seminararbeit
Prof. Dr. Sanyuan Zhang
Leibniz Universität Hannover
Car Plate Recognition.
Juni 2004
Diplomarbeit
Martin Gutschke
Leibniz Universität Hannover
Untersuchungen zur Berechnung kürzester Verbindungswege auf gekrümmten Flächen.
April 2004
Diplomarbeit
Dennis Allerkamp
Leibniz Universität Hannover
Untersuchungen zur Berechnung Medialer Mengen bezüglich gekrümmter Referenzflächen und -kurven im Euklidischen Raum
Beschreibungstext anzeigen
Die verschiedenen Repräsentationsformen geometrischer Objekte bilden einen wichtigen Aspekt der grafischen Datenverarbeitung. Unterschiedliche Repräsentationen bieten jeweils spezifische Vorteile, aber auch Nachteile. Daher müssen für viele Anwendungen die verwendeten Repräsentationsformen mit Bedacht gewählt werden. Es gibt allerdings viele Problemgebiete, fur die noch keine befriedigenden Darstellungsformen der Geometriedaten bekannt sind. Aus solch einer Situation entstand auch das Konzept der medialen Achse, das Harry Blum in den 60er Jahren des vorherigen Jahrhunderts zur Beschreibung biologischer Formen erdachte. Die mediale Achse ist die Menge der Mittelpunkte aller maximalen Kugeln eines Bereichs und bildet eine Art Skelett desselben. Eine Kugel heißt maximal, wenn sie komplett in einem Bereich enthalten ist und keine andere sie umschließende Kugel in diesem Bereich existiert. Zusammen mit den Radien der Kugeln stellt die mediale Achse eine vollständige Beschreibung der Form des Bereichs dar, wie wir später noch sehen werden. Bis heute hat die mediale Achse in vielen weiteren Anwendungen an Bedeutung gewonnen. So wird sie zum Beispiel zur Gewinnung guter Triangulierungen beziehungsweise Tetraedisierungen und als intuitive Möglichkeit zur Gestaltung von Formen eingesetzt. Dafür muss oft zu vorhandenen Geometriedaten zunächst die mediale Achse berechnet werden. Diese Arbeit beschäftigt sich mit der Berechnung der medialen Achse von dreidimensionalen Körpern in Randflächendarstellung.
Beschreibungstext verbergen
April 2004
Studienarbeit
Anton Dumler
Leibniz Universität Hannover
Effiziente Erkennung von ähnlichen Konturen mit Hilfe von Shape Contexts
Beschreibungstext anzeigen

Ein wichtiges Problem im Bereich Computer-Vision stellt die Unterscheidung verschiedener Bildinhalte dar. Zu diesem Zweck werden erkennbare Objekte oftmals auf ihre Konturen reduziert, um dann diese Konturen vergleichen zu können. Das algorithmisches Hauptproblem ist dann die Zuordnung von Punkten zweier Konturen zueinander. Dieses Problem soll hier durch eine neuartige Repräsentation gelöst werden, den von Mori, Belongie und Malik entwickelten "Shape Context".

Beschreibungstext verbergen
November 2003
Februar 2004
Studienarbeit
Norbert Witt
Leibniz Universität Hannover
Berechnung der medialen Achse von mehrfach berandeten einfachen polygonalen Gebieten in der euklidischen Ebene
Beschreibungstext anzeigen
Die mediale Achse eines nichtleeren, beschränkten, abgeschlossenen Gebietes ist die Menge aller Punkte des Gebietes, deren minimaler Abstand zum Rand des Gebietes mindestens an zwei verschieden Stellen des Randes auftritt. Wäre also ein Punkt ein Element der medialen Achse und außerdem Mittelpunkt einer Kreisscheibe mit dem minimalen Abstand als Radius, so läge die Kreisscheibe ganz im Gebiet, würde deren Rand aber an mindestens zwei Stellen berühren. Der medialen Achse eines Gebietes ist eine sogenannte Radiusfunktion zugeordnet, die auf der medialen Achse operiert und angewandt auf einen Punkt der medialen Achse den minimalen Abstand des Punktes zum Rand liefert. Ein nichtleeres, beschränktes, abgeschlossenes Gebiet in der euklidischen Ebene kann durch Kurven, die das Gebiet beranden, dargestellt werden. Ausgehend von dieser Darstellung kann die mediale Achse des Gebietes berechnet werden. Wird außerdem die zugehörige Radiusfunktion berechnet, erhält man eine alternative Darstellung des Gebietes. Unter einem mehrfach berandeten einfachen polygonalen Gebiet ist ein Gebiet zu verstehen, das durch mehrere einfache Polygonzüge berandet wird. Der Polygonzug, der das Gebiet vollständig umfaßt, wird als äußerer Rand bezeichnet, während alle weiteren Polygonzüge innere Ränder sind und auch als Löcher bezeichnet werden können. Es wird ein Verfahren zur Berechnung der medialen Achse solcher Gebiete vorgestellt.
Beschreibungstext verbergen
Februar 2004
2003
Studienarbeit
Philipp Blanke
Leibniz Universität Hannover
Die topologische Struktur der Medialen Achse eines dreidimensionalen Polyeders
Beschreibungstext anzeigen
Ein Körper und seine Mediale Achse (MA) teilen gewisse topologische Eigenschaften. Wolter zeigte, dass die Mediale Achse M(B) einer n-dimensionalen, berandeten Untermannigfaltigkeit B des R² mit C² stetigem Rand ein Deformationsretrakt des Objektes ist. In diesem Fall ist M(B), wie B wegzusammenhängend und besitzt denselben Homotopietyp. Insbesondere ist M(B) zusammenhängend, wenn B zusammenhängt. Sherbrooke konnte außerdem beweisen, dass die MA eines dreidimensionalen Polyeders ohne Hohlräume, d.h. mit zusammenhängendem Rand, ebenfalls zusammenhängt. Jedoch besteht die offene Frage, ob in diesem Falle auch der Homotopietyp, bzw. die Fundamentalgruppe erhalten bleibt. Diese Fragestellung soll an Beispielen analysiert werden. Zudem wird ein Programm zur Erstellung der MA eines Polyeders implementiert und um graphische Ausgaberoutinen erweitert.
Beschreibungstext verbergen
Dezember 2003
Studienarbeit
Jennis Meyer-Spradow
Leibniz Universität Hannover
Portierung des Visualisierungssystems Janus nach Linux unter besonderer Berücksichtigung objektorientierter Signale
Beschreibungstext anzeigen
Das Janus-Visualisierungssystem ist ein Programmpaket, welches am Lehrstuhl für Graphische Datenverarbeitung verwendet wird, um die in vielen Bereichen hier anfallenden grafischen Daten zu visualisieren. Es ist eine Eigenentwicklung und war bisher lediglich auf SGI-Workstations unter dem Betriebssystem IRIX lauffähig. In diesem Vortrag werden die Schritte erläutert, um das Janus-System nach Linux zu portieren. Insbesondere wird auf die neu verwendete Bibliothek Gtkmm eingegangen, und es werden an Beispielen Anwendungen für das mächtige Konzept der "Signale" gegeben.
Beschreibungstext verbergen
Dezember 2003
Seminararbeit
Christian Görries
Leibniz Universität Hannover
Morse-Theorie III: Diskrete Morse-Theorie.
November 2003
Seminararbeit
Thomas Schwanck
Leibniz Universität Hannover
Morse-Theorie II: Zusammenhang von Homotopietyp und kritischen Werten.
November 2003
Seminararbeit
Jens Neugebauer
Leibniz Universität Hannover
Morse-Theorie I: Einführung in die Morsetheorie und das Lemma von Morse.
November 2003
Bachelorarbeit
Sebastian Intas
Leibniz Universität Hannover
Polygonextraktion aus Schwarz-/Weiß-Bildern.
November 2003
Bachelorarbeit
Mathias Fiedler
Leibniz Universität Hannover
Automatisierung eines Verfahrens zur Zerlegung von Polygonen in singuläre Elemente
Beschreibungstext anzeigen
Bei diesem Projekt wurde ein geschlossener 2d-Polygonzug automatisch in Teilgebiete zerlegt, die gewissen Bedingungen genügen. Dazu wurde ein Meshgenerator in C++ zu einer bestehenden Polygon-Klasse zugefügt. Das Verfahren zur Generierung ist bereits bekannt und wird benötigt um spezielle Schwingungsberechnungen auf ebenen Polygonen durchzuführen.
Beschreibungstext verbergen
Oktober 2003
Bachelorarbeit
Przemislaw Dul
Leibniz Universität Hannover
XML-Marshalling für C++-Datenstrukturen
Beschreibungstext anzeigen
Das Fachgebiet Graphische Datenverarbeitung verwendet mehrere Datenformate nebeneinander, durch die Weiterentwicklung der Projekte kommen immer wieder neue Datenformate hinzu. Um eine weitere Divergenz zu verhindern, bietet sich eine auf XML basierende Struktur an. Es wurde ein C++-Modul entwickelt, das den bereits bestehenden, sowie den in Zukunft noch zu implementierenden Klassen ein einfaches Interface bietet, um Daten ihrer Instanzen in ein XML-Dokument zu schreiben und aus diesem wieder zu lesen. Die Technik, C++-(oder Java-) Datenstrukturen in einem XML-Format zu repräsentieren, wird als Marshalling bezeichnet. Der eigentliche Zweck des Marshallings ist die Übertragung von Objekten in einem Netzwerk, in diesem Projekt wird Marshalling als eine mächtigere Form der Serialisierung verwendet, Objekte als XML-Dokumente zu speichern und zu einem späteren Zeitpunkt wieder aufzunehmen.
Beschreibungstext verbergen
September 2003
Diplomarbeit
Toni Gläser
Leibniz Universität Hannover
Numerische Spektralberechnung des Laplace-Beltrami-Operators bei Körpern
Beschreibungstext anzeigen
Für die Untersuchung der Eigenschaften von Schwingungsspektren von Körpern wird eine Finite-Elemente-Methode zur numerischen Berechnung der Eigenwerte vorgestellt. Für den dreidimensionalen Fall werden insbesondere die Eigenschaften der Zerlegungen, wie z.B. eine Ähnlichkeitsinvariante zur Qualitätsbestimmung, und die Durchführung der Verfeinerung der Zerlegungen dargestellt. Es wird auf die Verwendung von linearen und quadratischen Formfunktionen eingegangen und ihre Genauigkeit und Fehlerkonvergenz verglichen. Es wird gezeigt, wie man die Methode der Interpolation von Ergebnissen anwendet. Die Vorteile der verwendeten Finiten-Elemente-Methode sowie Genauigkeit und Geschwindigkeit des Verfahrens werden erläutert. Anhand von Beispielen kann man sich ein Bild von den Ergebnissen machen.
Beschreibungstext verbergen
Juli 2003
Diplomarbeit
Dennis Fehse
Leibniz Universität Hannover
Optimierte FEM-Vernetzung von Flächen und Körpern der Rücktransformierten Medialen Achse
Beschreibungstext anzeigen
Soll ein in CAD-Anwendungen entworfenes zwei- oder dreidimensionales Objekt mit Hilfe der Finiten-Elemente-Methode (FEM) analysiert werden, so wird als erster Schritt stets eine Zerlegung durchgeführt, bei der das jeweilige Exponat in kleine Einheiten, die Finiten Elemente, eingeteilt wird. Das Ziel dieser Diplomarbeit ist es, diesen Zerlegungsprozeß durch Entwicklung von geeigneten Diskretisierungs- bzw. Vernetzungstechniken zu automatisieren. Als Besonderheit ist hervorzuheben, daß die zu vernetzenden Flächen bzw. Körper hier durch ihre sogenannte Mediale Achse repräsentiert werden und somit die zu entwickelnden Vernetzungsverfahren speziell auf diesem Konzept aufbauen. Insbesondere werden durch die Arbeit die Bereiche Objektentwurf und FEM-Analyse miteinander verknüpft, da als Grundlage ein Programm zur Modellierung von Körpern mittels Medialer Achse Verwendung fand.
Beschreibungstext verbergen
Juli 2003
Diplomarbeit
Henning Naß
Leibniz Universität Hannover
Eigenraumapproximation des Laplaceoperators bei berandeten planaren Gebieten
Beschreibungstext anzeigen
Mit Hilfe des Separationsprinzips ergeben sich für die unbeschränkte Helmholtzgleichung Lösungen, bei denen Besselfunktionen und trigonometrische Funktionen eine sehr wichtige Rolle spielen. Schränkt man sich auf Lösungen ein, die gewissen Bedingungen (hier speziell: Dirichletbedingung) genügt, so kommt der Approximationsansatz ins Spiel. Die Güte von approximierten Lösungen soll über einen Rayleighquotienten bestimmt werden, der in speziellen Fällen sogar einen absoluten Fehler darstellt. Es wird ausführlich dargestellt, wie man Randkurven von planaren (und speziell sternförmigen) Gebieten darstellen kann, und warum die Darstellungsform eine entscheidende Rolle spielt. Bei polygonaleberandeten Gebieten wird sich zeigen, daß dort nur eine qualitative Aussage über den Fehler möglich ist, der mit einer exponentiellen Konvergenzordnung versehen ist.
Beschreibungstext verbergen
Juli 2003
Studienarbeit
Guido Böttcher
Leibniz Universität Hannover
Modeler.NET: Entwurf eines geometrischen Modellierers mit erweiterbarer Funktionalität
Beschreibungstext anzeigen
Beim Lösen wissenschaftlicher Problemen steht meistens nicht die Darstellung der Lösungen im Vordergrund, sondern lediglich die Erlangung. Die Nachteile, die dadurch entstehen, werden leider oft vernachlässigt. So kann eine geeignete Visualisierung eine genauere Aussage über das Verhalten oder die Lösung eines Problems treffen als es anhand von Zahlenreihen möglich ist. Dieses Manko sollte mittels eines Visualisierungstool beseitigt werden. Da die Anforderungen dabei nicht genau definiert sind, musste das Projekt in der Lage sein sich den Bedürfnissen des Benutzers gut anpassen zu können. Aufgrund dieser Zielsetzungen wurden Anstrengungen unternommen ein offenes Modellier-System zu entwickeln, welches diese erfüllt.
Beschreibungstext verbergen
Juni 2003
Seminararbeit
Frau Prof. Nadia Thalmann
MIRALab - University of Geneva
The Simulation of Virtual Humans.
Juni 2003
2002
Studienarbeit
Patrick Klie
Leibniz Universität Hannover
Kompression von kompakten, triangulierten 2-Mannigfaltigkeiten ohne Rand unter Verwendung von approximativen Voronoidiagrammen
Beschreibungstext anzeigen
Bei der Gestaltmodellierung von dreidimensionalen Objekten benutzt man auch heute noch vielfach Triangulierungen der jeweiligen Oberfläche. Dabei kommt es immer wieder zu Situationen, in denen z.B. aus Performancegründen die Zahl der verwendeten Dreiecke reduziert werden soll. Es wird ein Verfahren vorgestellt, das selbst bei hohen Kompressionen detailerhaltende Resultate liefert. Darüberhinaus berücksichtigt es Flächen beliebigen topologischen Typs, wie z.B. Tori oder Kleinsche Flaschen, ganz im Gegensatz zu vielen anderen Verfahren, die nur sphärische Objekte bearbeiten können.
Beschreibungstext verbergen
Dezember 2002
Studienarbeit
Henning Naß
Leibniz Universität Hannover
Spektrum polygonalberandeter Gebiete
Beschreibungstext anzeigen
Das Spektrum eines polygonalberandeten Gebietes soll mit Hilfe eines Least-Square-Ansatzes berechnet werden. Dazu wird dieses Gebiet in Teilgebiete zerlegt, auf denen man jeweils partikuläre Lösungen der Helmholtzgleichung einpflanzt, die auch gleichzeitig lokal die Randbedingung erfüllen. Diese müssen dann nur noch gegenseitig verschmolzen werden, indem man an den Übergängen die "Methode der kleinsten Quadrate" auf deren Differenz und die Differenz der Gradienten anwendet. Das Minimierungsproblem erfolgt über die Minimierung eines Rayleighquotienten, was gewährleistet, daß die entstandene Fuktion nicht identisch null ist. Die Konvergenz dieses Verfahrens ist exponentiell.
Beschreibungstext verbergen
Oktober 2002
Seminararbeit
Peer-Timo Bremer
Leibniz Universität Hannover
Automatic Construction of B-spline Surfaces from Adaptively Sampled Distance Fields.
Juni 2002
Seminararbeit
Jennis Meyer-Spradow
Leibniz Universität Hannover
Wavelets in spatial multiresolution Modelling.
Juni 2002
Seminararbeit
Henning Naß
Leibniz Universität Hannover
Eigenwerte des Laplace-Beltrami Operators auf polygonal berandeten Gebieten des R².
Juni 2002
Seminararbeit
Herr Walter
Leibniz Universität Hannover
Dassault Systèmes und die 3D CAD/CAM Software CATIA.
Juni 2002
Studienarbeit
Dennis Fehse
Leibniz Universität Hannover
Visualisierung der superpositionierten Eigenschwingungen von verschiedenen Flächen und Körpern.
Januar 2002
Studienarbeit
Christian Schlüter
Leibniz Universität Hannover
Eine Datenstruktur für Atlanten zur FEM-Berechnung
Beschreibungstext anzeigen
Die Erstellung beliebiger Flächen und das Aufstellen geeigneter Triangulierungen, für die möglichst genaue Berechnung der Schwingungsspektren der Flächen mit Hilfe des Laplace - Beltrami - Operators ist im Allgemeinen sehr schwierig. Ein intuitiver Ansatz ist die Komposition einer Fläche aus mehreren Teilflächen, die eine einfachere Darstellung besitzen und deren Triangulierung an das Gesamtproblem angepasst werden kann. Das Ziel dieser Arbeit ist das Zusammenfügen (im folgenden Verschweissen genannt) beliebiger Flächen zu einer neuen Fläche. Auf dieser Fläche soll die Eigenwertberechnung des Laplace - Beltrami - Operators möglich sein. Zur genaueren Berechnung sollen ferner auch eine Verfeinerung bzw. das Anlegen höhergradiger Finiter - Elemente möglich sein. Ein weiterer Aspekt ist die Verbesserung des globalen Indexes (Sortierung der vorhandenen Flächenpunkte). Dadurch wird zum einen der Speicherplatzbedarf zur Berechnung des Laplace - Beltrami - Operators verringert und zum anderen auch dessen Berechnungszeit verkürzt.
Beschreibungstext verbergen
Januar 2002
2001
Seminararbeit
Dennis Allerkamp
Leibniz Universität Hannover
Mathematische Grundlagen von semiorthogonalen Wavelets zur Modellierung räumlicher Oberflächen.
November 2001
Diplomarbeit
Niklas Peinecke
Leibniz Universität Hannover
Eigenwertspektren des Laplaceoperators als Invariante zur Klassifizierung von Grauwertbildern
Beschreibungstext anzeigen
Momentan sind leider keine Erläuterungen zu dieser Arbeit vorhanden.
Beschreibungstext verbergen
Juni 2001
Diplomarbeit
Martin Reuter
Leibniz Universität Hannover
Höhergradige Finite Elemente zur Spektralberechnung des Laplace-Beltrami-Operators bei verschiedenen Flächen
Beschreibungstext anzeigen
Eine Beschreibung zu dieser Arbeit ist im Moment leider nicht vorhanden.
Beschreibungstext verbergen
Juni 2001
Seminararbeit
Prof. Kitamura, MIT
Leibniz Universität Hannover
How can a Robot Have Consciousness.
Juni 2001
Seminararbeit
Prof. J. Pegna
Ecole Polytechnique, Montreal, Canada
Free Form Fabrication: The Next Challenges.
Juni 2001
2000
Seminararbeit
Guido Böttcher
Leibniz Universität Hannover
Findung der Nullstellen anhand Flächenverschneidung.
November 2000
Diplomarbeit
Peer-Timo Bremer
Leibniz Universität Hannover
Boundary Simplification of a Triangulated Body.
April 2000
Diplomarbeit
Karl-Ingo Friese
Leibniz Universität Hannover
Randflächenrekonstruktion von Volumenkörpern anhand diskreter Daten
Beschreibungstext anzeigen
Die Rekonstruktion von Volumenkörpern spielt in der Computergrafik eine entscheidende Rolle. Sei es der Kopf eines Schauspielers, der für die Spezialeffekte in einem neuen Kinofilm erfaßt wird, ein Bauteil, das nach der Fertigung vermessen und mit dem 'virtuellen Prototyp' verglichen werden soll. Sei es ein Gebäude, ein Industriekomplex oder - wie in diesem Fall - eine Höhle, die als physisches Objekt gegeben ist und nun vermessen
und im Computer dargestellt werden soll. Bijan Farajollahi hat in seiner Arbeit Verfahren zur Bereinigung der Meßfehler, zur Elimination 'überflüssiger' Meßpunkte, sowie ein Verfahren, das jede Messung für sich trianguliert vorgestellt. Die Triangulation der einzelnen Messung ist für diese Arbeit als gelöst vorausgesetzt. An dieser Stelle gibt es zwei Möglichkeiten, wie man fortfahren könnte. Entweder man faßt alle Meßpunkte zusammen, bereinigt die Fehler und versucht dann die entstandene Punktwolke zu triangulieren - oder man trianguliert jede Messung für sich und vereinigt die so entstandenen Flächen zu einer einzigen. In dieser Arbeit soll das zweite Verfahren behandelt werden; die Vereinigung von einfachen, geschlossenen Dreiecksflächen. Anschaulich betrachtet bedeutet dies, daß hierfür die kleinste, umschließende Hülle gefunden werden muß, also die Dreiecksfläche, die alle eingeschlossenen Punkte von beiden Ausgangsflächen enthält.
Beschreibungstext verbergen
Januar 2000
1999
Studienarbeit
Martin Reuter
Leibniz Universität Hannover
Fraktaldimension von Grauwertbildern
Beschreibungstext anzeigen
In der Natur gibt es viele rauhe, unregelmäßige Gebilde wie z.B. Bäume, Wolken, Blitze oder Küstenlinien. Sie lassen sich mit Hilfe von Fraktalen beschreiben. Fraktale besitzen unabhängig von ihrer Vergrößerung denselben Grad an Irregularität. Dieser läßt sich messen und ermöglicht es, von einer Fraktaldimension zu sprechen. Die Fraktaldimension stellt ein gutes Maß für die Zersplitterung bzw. Rauheit von Objekten und Texturen dar. Man kann diese Eigenschaft auf Grauwertbilder übertragen und erhält so ein grobes Maß für die Rauheit der abgebildeten Textur. Diese Arbeit stellt verschiedene Verfahren zur Berechnung der Fraktaldimension vor. Außerdem wird versucht, einige Verfahren zu vergleichen, um Grauwertbilder bezüglich ihrer Rauheit möglichst gut zu klassifizieren.
Beschreibungstext verbergen
Juli 1999
Studienarbeit
Peer-Timo Bremer
Leibniz Universität Hannover
Volumenberechnung einer Höhle und Darstellung mit Mechanical Desktop
Beschreibungstext anzeigen
Das Ziel dieser Arbeit ist es, ausgehend von einem Satz möglichst allgemeiner Höhenlinien, eine Höhle oder einen anderen Volumenkörper zu rekonstruieren und sein Volumen zu berechnen. Dazu werden verschiedene Möglichkeiten aufgezeigt werden, die zweidimensionale Information der Höhenlinien geeignet zu erweitern und Algorithmen um dies automatisch durchzuführen. Nach einer Betrachtung welche Einschränkungen der Gestalt der Höhenlinien für die einzelnen Verfahren notwendig sind, wird erläutert, wie der rekonstruierte Volumenkörper mit AutoCAD 14 dargestellt werden kann. Die Höhenlinien wurden in dem vorliegenden Spezialfall durch eine Laserabtastung des Inneren einer Höhle gewonnen.
Beschreibungstext verbergen
Juli 1999
Studienarbeit
Niklas Peinecke
Leibniz Universität Hannover
Symmetriefindung in periodischen Texturen
Beschreibungstext anzeigen
Texturen treten in der Natur in vielen Bereichen in unterschiedlichsten Ausprägungen auf. So können die Helligkeit eines Schwarzweiß-Fotos oder die Musterung einer Tapete als Textur aufgefaßt werden. Eine spezielle Klasse stellen die periodischen Texturen dar. Sie zeichnen sich dadurch aus, daß sie Periodizität in zwei nicht kollinearen Richtungen aufweisen. In dieser Arbeit soll ein Analysewerkzeug für diese Klasse der Texturen entwickelt werden.
Beschreibungstext verbergen
Juni 1999
Diplomarbeit
Stefan Nölle
Leibniz Universität Hannover
Klassifikation von Bildsequenzen
Beschreibungstext anzeigen
In der heutigen "Multimediawelt" werden die Eingabemedien zunehmend optisch und akustisch unterstützt. Z.B. gibt es in der Textverarbeitung Verfahren zur Erkennung von diktierten Worten anhand von akustischen Signalen. Interessant ist hierbei die Frage, in wieweit eine Worterkennung allein auf der Grundlage von optischen Informationen realisiert werden kann. Dies führt dann zum Erkennen von Bewegungsabläufen in Bildsequenzen. Ziel dieser Arbeit ist es, ein Verfahren aus der Mustererkennung zum Klassifizieren von Formen in Bildern auf ein Klassifizieren von Bewegungen in Bildsequenzen zu erweitern. Neben verschiedenen Erweiterungskonzepten wird das Verfahren zum besseren Verständnis zusätzlich geometrisch betrachtet.
Beschreibungstext verbergen
Juni 1999
Diplomarbeit
Ulric Neumann
Leibniz Universität Hannover
Vierecksnetzgenerierung auf Flächenverbänden
Beschreibungstext anzeigen
Im Automobilbau wird eine Karosserie durch einzelne Werkstücke beschrieben. Jedes dieser Werkstücke besteht wiederum aus einer hohen Anzahl von einzelnen Detailflächen in Form von parametrischen Freiformflächen. In der Regel sind dies B-Spline-Patches von geringem Grad. In Bezug auf ein darzustellendes Werkstück wird eine endliche Zahl von solchen Flächenbeschreibungen als Flächenverband bezeichnet. Die aus der Konstruktionsabteilung durch herkömmliche CAGD-Programme gelieferten Daten zur Beschreibung eines Bauteils sind in der Regel nicht ohne weiteren Aufwand für nachfolgende Prozesse innerhalb des Entwicklungsprozesses einer Karosserie weiterverwendbar. Insofern ist eine Aufbereitung und Vereinfachung der CAD-Daten nötig, die insbesondere Fehler der Konstruktionsbeschreibung ausgleichen und vermeiden soll. Zu diesem Zweck wurde der Ansatz entwickelt ein Werkstück zu vereinfachen, indem die globale Gestalt des zugrundeliegenden Flächenverbandes neu approximiert wird. Als Grundlage der Neuapproximation soll eine Vernetzung des Flächenverbandes unter ausschließlicher Verwendung von Viereckselementen dienen. An die Gestalt der verwendeten Elemente werden besondere Anforderungen gestellt, die der zugrundeliegende Netzgenerator erfüllen soll. Eine von der Volkswagen AG verwendete Methode zur Generierung eines solchen Netzes, das sogenannte Paving liefert unbefriedigende Ergebnisse bezüglich der Netzgestalt. Neben einer Erstellung einer übersicht über alternative Vernetzungsmöglichkeiten und Netzmanipulationen war die Aufgabe dieser Diplomarbeit die Dokumentation und Analyse des implementierten Paving-Verfahrens, sowie die Konzeption und Entwicklung von qualitätssteigernden Methoden.
Beschreibungstext verbergen
Juni 1999
Diplomarbeit
Bijan Farajollahi
Leibniz Universität Hannover
Flächenrekonstruktion aus Mengen diskreter Messpunkte
Beschreibungstext anzeigen
In den meisten Anwendungen in der geometrischen Modellierung, der Computergrafik und Objekterkennung sind die Eingabedaten in der Form einer Menge von 2D- oder 3D- Koordinaten erhältlich, die Punkten auf dem Rand eines Objektes entsprechen. Eine Menge von Punkten ist eine mehrdeutige Repräsentation von einem Objekt, und kann deshalb in manchen Anwendungen nicht direkt verwendet werden. Oft ist eine eindeutige Darstellung von dem ganzen Rand des Objektes notwendig. Die Randkonstruktion aus einer Menge diskreter Punkte kann z.B. im Initialentwurf eines Artefakts, in der numerischen Analyse oder in der graphischen Darstellung verwendet werden. Die Punkte auf dem Rand eines Objektes können auf verschiedene Weise gewonnen werden. Wenn eine Punktmenge von einem 2D- Objekt in einer sequenziellen Ordnung entlang des Randes - z.B. durch Verfolgung des Randes - gegeben ist, repräsentiert die Kontur durch diese Punkte die Randkurve. Wenn eine Punktmenge von einem 3D- Objekt durch einen Stapel von Konturen - z.B. durch parallele Schnitte des Objektes - gegeben ist, können die Punkte aus je zwei aufeinanderfolgenden Konturen so miteinander verbunden werden, daß sich die Randfläche aus den erzeugten Bändern von Dreiecken ergibt. Jedoch gibt es zahlreiche Methoden, bei denen solche klaren strukturellen Beziehungen zwischen Punkten aus der Punktmenge nicht gegeben sind. Die Art und Weise, durch die die Punkte gewonnen werden, kann uns nützliche Informationen über die Anordnung der Punkte geben. Bestimmt diese Anordnung die Nachbarschaftsbeziehung zwischen den Punkten, kann sie beim Konstruktionsverfahren genutzt werden. Das Verfahren ist dann von diesen speziellen Daten abhängig. Wenn nicht bekannt ist, wie die Daten gewonnen werden, oder es soll nur ein Konstruktionsmodell für alle Datentypen geben, werden u.U. keine strukturellen Beziehungen zwischen den Punkten berücksichtigt, außer daß alle Punkte auf der Randfläche des Objektes liegen. In diesem Fall betrachtet man die Daten als gestreute Punkte (scattered points). Die Randkonstruktion aus gestreuten Punkten ist ein zeitaufwendiger Prozeß, der für Anwendungen mit einer großer Datenmenge kaum eingesetzt werden kann. In dieser Arbeit wird ein Modell für die Flächenrekonstruktion aus einer diskreten Punktmenge vorgestellt, die mit einem Meßinstrument gewonnen wird. Dabei werden die gegebenen Informationen aus der Datenaufnahme ausgenutzt, um den Fall der gestreuten Punkte zu vermeiden.
Beschreibungstext verbergen
Juni 1999
Seminararbeit
Dirk Hillbrecht
Leibniz Universität Hannover
Ein System zur Lippensegmentierung in einer Java Umgebung.
Juni 1999
Seminararbeit
Jürgen Hunold
Leibniz Universität Hannover
Texturierung von Freiformflächen.
Juni 1999
Seminararbeit
Achim Kaiser
Leibniz Universität Hannover
Untersuchungen zu Lotpunktberechnungen bei Kurven und Flächen.
Juni 1999
Seminararbeit
Sven Mooshake
Leibniz Universität Hannover
Netzwerkerweiterung für VR Applikationen.
Juni 1999
Seminararbeit
Rene von Wieding
Leibniz Universität Hannover
Symmetrische Aspekte der haptischen Wahrnehmung von Materialien.
Beschreibungstext anzeigen
Im Rahmen eines Projektes soll die Integration haptischer Wahrnehmungen in eine bestehende VR-Umgebung untersucht werden. Die Zielvorstellung umfaßt die Erzeugung von Signalen für ein Gerät zur Simulation haptischer Eindrücke auf Basis eines Grauwertbildes zu einem gegebenen Material. Das Ziel dieser Diplomarbeit war die Klassifikation symmetrischer Anteile als wesentliches Charakteristikum von Materialien anhand eines Grauwertbildes. Den zentralen Aspekt bildete dabei der Entwurf und die Entwicklung von Methoden und Verfahren zur Differenzierung symmetrischer Anteile.
Beschreibungstext verbergen
Mai 1999
Diplomarbeit
Lennart Betz
Leibniz Universität Hannover
Lagekorrektur von Oberflächengeometrien
Beschreibungstext anzeigen
Die Entwicklung von Fahrzeugen ist in heutiger Zeit sehr stark von CAD- und CAGD-Systemen beeinflußt. Durch Verwendung moderner Informationsysteme ist das Fahrzeug schon während der Produktplanung und der Konstruktion für die Konstrukteure sichtbar. Fehler in der Konstruktion können so schon frühzeitig erkannt und vermieden werden. Mit Hilfe von Meisterbock und Cubing können Fehler in der Produktion der Bauteile erkannt werden, die sich an den einzelnen Bauteilen nur bedingt oder gar nicht feststellen ließen. Die Montage der Bauteile auf den Meisterbock erfolgt nach Referenzpunkten, die auf dem Meisterbock und den gefertigten Bauteilen übereinstimmen müssen. Offensichtlich ist das ganze Verfahren sehr stark abhängig von der Genauigkeit dieser Referenzpunkte. Stimmen diese Punkte nicht überein, wird das Bauteil verworfen. Es ist daher von Vorteil die Soll- bzw. Istdaten als Ganzes zu betrachten, um die mögliche Ungenauigkeit einzelner Referenzpunkte zu umgehen. Daher entsteht das Problem die Meßpunkte der gefertigten Bauteile optimal den Solldaten des virtuellen Meisterbocks anzupassen. Um dies zu erreichen, ist eine Verschiebung und eine Drehung zu bestimmen. Die Bestimmung dieser Verschiebung und Drehung ist Aufgabe dieser Diplomarbeit.
Beschreibungstext verbergen
Mai 1999
Diplomarbeit
Sven Mooshake
Leibniz Universität Hannover
Netzwerkerweiterung für VR-Applikationen
Beschreibungstext anzeigen
Ziel der Diplomarbeit war es, ein VR-Einzelplatz-System zu einem verteilten System zu erweitern. Der Schwerpunkt lag dabei auf der Netzwerkfähigkeit einer bestehenden Computer Aided Styling (CAS)- Anwendung für dieses System. Darüber hinaus sollten zukünftige Applikationen auf einfache Weise verteilt realisiert werden können. Kern der Arbeit war es, geeignete Datenstrukturen und Protokolle zu entwerfen, die den spezifischen Anforderungen von VR-Applikationen genügen.
Beschreibungstext verbergen
Mai 1999
Diplomarbeit
Jürgen Hunold
Leibniz Universität Hannover
Automatisches Texturieren von Freiformflächen
Beschreibungstext anzeigen
Im Rahmen der Tätigkeiten im Bereich Fahrzeugforschung bei der Volkswagen AG in Wolfsburg untersucht man derzeit unter anderem die Einsatzmöglichkeiten von Virtual Reality (VR-) Applikationen in den Bereichen Konstruktion sowie Design. Mit dem Einsatz von VR-Methoden soll der Entwicklungprozeß beschleunigt werden. Dazu wird die vom Fraunhofer Institut für graphische Datenverarbeitung in Darmstadt entwickelte VR-Software "Virtual Design II" eingesetzt. Als Modelldaten sollen aus dem Entwicklungsprozeß stammende CAD/CAM-Daten verwendet werden. Diese Daten müssen dafür mit entsprechenden Materialien versehen und im interne Datenformat des VR-Systems ablegt werden. Das dafür entwickelte Konvertierungssystem Opera soll im Rahmen dieser Diplomarbeit um ein Modul zur weitgehend automatischen Generierung von Texturkoordinaten erweitert werden.
Beschreibungstext verbergen
Mai 1999
Diplomarbeit
Achim Kaiser
Leibniz Universität Hannover
Untersuchungen zu Distanzberechnungen bei Geometrischen Freiformobjekten
Beschreibungstext anzeigen
Die Untersuchung des Abstands eines Objektes zu einem Punkt, ist ein in der Praxis häufiger vorkommendes Problem. Dabei sind auch die Punkte auf dem Objekt von Interesse, die den Abstand repräsentieren. Um diese Distanz-Projektion auszuführen, erweist sich die Orthogonale Projektion als ein ideales Mittel. Aufgabe dieser Diplomarbeit war es, Verfahren zu entwickeln, die in der Lage sind, zu Flächen oder Kurven die Orthogonale Projektion bzw. die Distanz-Projektion durchzuführen. Ausserdem sollten im Zusammenhang mit der Projektion von Kurven auf Flächen die Problemstellen untersucht werden.
Beschreibungstext verbergen
Mai 1999
Diplomarbeit
Rene von Wieding
Leibniz Universität Hannover
Symmetrische Aspekte der haptischen Wahrnehmung von Materialien
Beschreibungstext anzeigen
Im Rahmen eines Projektes soll die Integration haptischer Wahrnehmungen in eine bestehende VR-Umgebung untersucht werden. Die Zielvorstellung umfaßt die Erzeugung von Signalen für ein Gerät zur Simulation haptischer Eindrücke auf Basis eines Grauwertbildes zu einem gegebenen Material. Das Ziel dieser Diplomarbeit war die Klassifikation symmetrischer Anteile als wesentliches Charakteristikum von Materialien anhand eines Grauwertbildes. Den zentralen Aspekt bildete dabei der Entwurf und die Entwicklung von Methoden und Verfahren zur Differenzierung symmetrischer Anteile.
Beschreibungstext verbergen
Mai 1999
Diplomarbeit
Iris Herbst
Leibniz Universität Hannover
Fraktale Aspekte der haptischen Wahrnehmung von Materialien
Beschreibungstext anzeigen
Die computergestützte Modellierung neuer Prototypen in der industriellen Entwicklung ist heute Standard. Insbesondere bietet der Einsatz der sogenannten Virtuellen Realität (VR) aufgrund des Konzepts der Mensch-Maschine-Schnittstelle gegenüber it Computer Aided Design (CAD) und it Computer Aided Geometric Design (CAGD) Vorteile. Die Konzeption und Weiterentwicklung spezieller Ein- und Ausgabegeräte ermöglicht dem Benutzer einen intuitiven Umgang mit der künstlichen Welt, da die Interaktionsformen denen der realen Welt möglichst ähnlich nachgebildet werden. Wichtige Voraussetzungen dafür sind Dreidimensionalität, Direktmanipulation und multisensorische Reize. Das Bauen von kostenintensiven und zeitaufwendigen Modellen kann offensichtlich durch Verwendung von virtuellen Entwicklungsumgebungen reduziert werden; ein vollständiger Verzicht ist derzeit jedoch indiskutabel, da vor allem der Tastsinn aufgrund noch fehlender bzw. unbefriedigender Technologien nicht integriert werden kann. Das Ziel dieser Arbeit war die Entwicklung von Verfahren, mit denen sich der Eindruck des Befühlens einer rauhen Oberfläche erzeugen läßt. Als haptisches Gerät wurde das PHANToM eingesetzt.
Beschreibungstext verbergen
Mai 1999
Diplomarbeit
Thomas Altschaffel
Leibniz Universität Hannover
Untersuchungen zur Spektralanalyse von Freiformflächen
Beschreibungstext anzeigen
"Can you hear the shape of a drum?". Das war die Frage, die Kac 1966 stellte. Das Ziel war es herauszufinden, ob alleine das Spektrum der Schwingungsgleichung vollständig Auskunft darüber gibt, wie das Gebiet beschaffen ist. Diese Diplomarbeit ist eine Fortsetzung der Diplomarbeit von Thomas Howind, die sich mit der Analyse des Spektrums von ebenen polygonalen Gebieten beschäftigt. Es werden Methoden entwickelt, die Berechnung des Spektrums auch für Flächen im dreidimensionalen durchführen zu können. Dafür wird der Laplace-Beltrami-Operator verwendet, der eine Erweiterung des Laplace-Operators für ebene Gebiete ist. Die Lösung der Gleichungssysteme zur Berechnung der Eigenwerte wird mit Hilfe der Finite Elemente Methode durchgeführt.
Beschreibungstext verbergen
Mai 1999
Diplomarbeit
Julian Schmidt
Leibniz Universität Hannover
Klassifikation von (Lippen-)Bewegungen durch Differenzenbetrachtungen
Beschreibungstext anzeigen
Diese Diplomarbeit dient der Untersuchung und Implementation von Methoden zum Erkennen von Lippenbewegungen. Dabei werden Lippenbildsequenzen bearbeitet und anhand einer Bibliothek eingeordnet, so daß jeder Sequenz eine Bedeutung (z.B. eine Silbe) zugeordnet werden kann. Um die Lippensequenzen einzuordnen, wird zuerst eine Vektorisierung der Lippenbilder vorgenommen. Diese Vorgehensweise hat eine Reduzierung der zu bearbeitenden Datenmengen zur Folge und ermöglicht eine Vielzahl von Korrekturen, die sonst nur schwierig oder gar nicht zu verwirklichen wären. So kann zum Beispiel die Bewegung des Kopfes während des Sprechens erkannt und korrigiert werden. Dabei werden in einer Ebene veschobene Lippen ebenso korrigiert wie ein schräg gestellter Kopf. Die Einordnung der vektorisierten und korrigierten Lippenbildsequenzen wird dann im Vergleich mit verschiedenen Methoden vorgenommen: einer einfachen Euklidischen Abstandsberechnung und der sogenannten "Principal Component Analysis" (PCA), auch "Karhun-Loeve Entwicklung" genannt. Letztere ist ein statistisches Verfahren, das Anfang des 20. Jahrhunderts zur Reduzierung der Dimensionierung von Problemen entwickelt wurde, die eine Einordnung anhand einer Bibliothek betreffen. Die PCA wurde schon erfolgreich für die Erkennung von Gesichtern angewandt. Auch hat Stefan Nölle in einer Studienarbeit die Anwendung der PCA auf einzelne Lippenbilder untersucht. Hier hat sich gezeigt, daß diese zu wenig Informationen enthalten, um eine vernünftige Zuordnung zu ermöglichen. Auch ein routinierter Lippenleser wird mit einer einzelnen Lippenstellung wenig anfangen können. Die Bewegung der Lippen ist das, was ihm das Lippenlesen ermöglicht. Daher werden in dieser Arbeit Sequenzen von Lippenbildern untersucht.
Beschreibungstext verbergen
Mai 1999
Diplomarbeit
Dirk Hillbrecht
Leibniz Universität Hannover
Mouthtracker - Ein System zur Lippensegmentierung aus Videosignalen in Realzeit
Beschreibungstext anzeigen
MouthTracker ist ein Programmsystem zur Erfassung und Aufbereitung von Lippenkonturen in Bewegtbildern. Es wurde im Kontext mehrerer Projekte zur Lippenbewegungsauswertung entwickelt, so dass sich einige Randbedingungen ergeben haben: * Der Mund eines Sprechers muss, ggf. mit einer kleinen Hilfestellung, erkannt und ohne Hilfe verfolgt werden. Dabei sollen keine besonderen Vorbereitungen im Gesicht des Sprechers nötig sein. Die übergebenen Pixelinformationen sollen sich auf die Lippen selbst beschränken. Weitergabe der Information in Echtzeit soll ebenso möglich sein wie Zwischenspeicherung sämtlicher erfasster Lippenbilder. Dabei soll die Schnittstelle zur Abfrage der Lippenbilder einfach und flexibel sein und darf keine Programmierumgebung von der Kommunikation ausschließen. Der Vortrag beschreibt Grundlagen, Aufbau und Entwicklung des MouthTracker. Dabei wird sowohl auf die grundlegenden Algorithmen also auch auf die Implementierung des Systems in der Programmierumgebung Java eingegangen.
Beschreibungstext verbergen
März 1999
Diplomarbeit
Peter von Grumbkow
Leibniz Universität Hannover
Die Medialen Achsen polyhedral berandeter topologischer Vollbälle im E3
Beschreibungstext anzeigen
Die mediale Achse hat in einigen Gebieten der Computergraphik zunehmend an Bedeutung gewonnen. Sie wird u.a. zur Symmetrieanalyse und zur Erstellung von Finite-Elemente-Gittern verwendet. Diese Diplomarbeit beschäftigt sich mit der medialen Achse (MA) von Polyedern im dreidimensionalen euklidischen Raum. Dabei wird zunächst eine Klassifikation der Punkte der medialen Achse eingeführt und gezeigt, daß die MA eines Polyeders aus Teilen von Flächen zweiter Ordnung (Quadriken) besteht. Anschließend wird ein Algorithmus vorgestellt, der anhand der Schnittkurven dieser Quadriken alle Teile der medialen Achse in parametrisierter Form berechnet.
Beschreibungstext verbergen
Februar 1999
1998
Diplomarbeit
Moritz Baer
Leibniz Universität Hannover
Berechnung Medialer Achsen von einfach berandeten zusammenhängenden Teilstücken parametrisierter Flächen
Beschreibungstext anzeigen
Diese Diplomarbeit befaßt sich mit der Berechnung der medialen Achsen von einfach berandeten Gebieten auf riemannschen Flächen.  
Nach einer Zusammenfassung der notwendigen Differentialgeometrie werden Fokalkurven und lokal mediale Kurven vorgestellt. Die Berechnung dieser ist für den später vorgestellten Algorithmus zur Berechnung der medialen Achse notwendig. Bevor der Algorithmus vorgestellt wird werden noch wichtige Eigenschaften der medialen Achse geklärt.
Beschreibungstext verbergen
Dezember 1998
Seminararbeit
Karl-Ingo Friese
Leibniz Universität Hannover
Mathematische Aspekte der Innen- und Außenerkennung in der Ebene und im R³.
November 1998
Seminararbeit
Axel Howind
Leibniz Universität Hannover
Untersuchung und Berechnung der Medialen Achse im dreidimensionalen Euklidischen Raum.
November 1998
Seminararbeit
Jörg Schwarzländer
Leibniz Universität Hannover
Rekonstruktion der Ränder von Gebieten mit Hilfe der Medialen Achsen Transformation.
November 1998
Studienarbeit
Jörg Schwartzländer
Leibniz Universität Hannover
Inversion und Manipulation einer MAT in der Ebene
Beschreibungstext anzeigen
Die Aufgabe dieser Studienarbeit besteht im wesentlichen darin, eine graphische Benutzeroberfläche zur Modellierung (einfach zusammenhängender) ebener Gebiete zu entwickeln. Als theoretische Grundlage für den hier verwendeten Modellierungsansatz dient die Mediale-Achsen-Transformation (MAT) eines Gebietes und ihre Inversion. Unter der MAT eines ebenen Gebietes versteht man dessen Mediale Achse als Abschluß der Menge aller Mittelpunkte maximaler Kreisscheiben und die zugehörige Radiusfunktion. Die Inversion einer MAT ermöglicht die Rekonstruktion des Ur-Gebietes. Veränderungen der MAT eines Gebietes beeinflussen folglich die zugehörige Inverse. Auf diese Weise lassen sich neue Gebiete modellieren. Manche Veränderungen führen dabei auf sichtbare Probleme, die es in Zukunft zu lösen gilt.
Beschreibungstext verbergen
Oktober 1998
Diplomarbeit
Axel Howind
Leibniz Universität Hannover
Untersuchungen und Berechnungen zur Medialen Achse im Raum
Beschreibungstext anzeigen
Die Mediale Achse wurde Ende der sechziger Jahre von Blum zur Beschreibung von (ebenen) Formen in der Biologie eingeführt. Sie besteht aus allen Mittelpunkten maximaler einbeschriebener Kreise, d.h. Kreisen maximaler Größe, die ganz im Innern des betrachteten Objekts liegen. Zusammen mit der auf ihr definierten Radiusfunktion beschreibt die Mediale Achse die Form eines Objektes exakt. Diese Darstellung wird Mediale Achsentransformation genannt. In dieser Arbeit wurde die Eignung der Medialen Achse zur Konstruktion und Manipulation dreidimensionaler Objekte untersucht. Ein Modellierungswerkzeug für dreidimensionale Objekte wurde entwickelt, um die Anwendung der Medialen Achse zur Konstruktion von Objekten zu demonstrieren.
Beschreibungstext verbergen
Oktober 1998
Diplomarbeit
Thomas Howind
Leibniz Universität Hannover
Spektralanalyse von berandeten Gebieten
Beschreibungstext anzeigen
Ziel dieser Diplomarbeit ist die numerische Berechnung des Spektrums des Laplaceoperators bei planaren Gebietsformen mit Hilfe der Finiten Element Methode. Dabei wird die allgemeine Eigenwertaufgabe Ax = λ Bx aufgestellt und mit dem Galerkinverfahren das Spektrum, insbesondere die kleinsten Eigenwerte, approximiert. Mit dem erstellten Programm wurden einige Beispiele gerechnet, die im Rahmen dieses Seminars vorgestellt werden.
Beschreibungstext verbergen
September 1998
Diplomarbeit
Andre Wöbbeking
Leibniz Universität Hannover
Entwicklung eines echtzeitfähigen Kopf-Rumpf-Modells des Menschen für VR-Applikationen
Beschreibungstext anzeigen
Die Industrie ist fortlaufend darum bemüht, die Entwicklungszeit für ein neues Produkt zu verkürzen, um Kosten einzusparen. Dazu versucht man, sowohl die einzelnen Schritte bei der Entwicklung zu beschleunigen, als auch Mängel der Konstruktion so früh wie möglich zu erkennen. Ein neuer Ansatz ist die Verwendung der Virtuellen Realität (VR). Mit VR-Systemen kann man ein Produkt, das mit CAD- oder CAGD-Programmen konstruiert wurde, dreidimensional darstellen und manipulieren. Das Ziel dieser Arbeit ist, in einem VR-System einen virtuellen Oberkörper zu generieren, der mit geeigneten Eingabegeräten in Echtzeit gesteuert werden kann. Dabei sollen die Daten von fehlenden Eingabegeräten mit Hilfe von mathematischen Verfahren bestimmt werden (Stichwort "inverse Kinematik"). Mit diesem virtuellen Oberkörper ist es nun möglich, ein Produkt daraufhin zu untersuchen, ob es von einem Menschen einfach zu handhaben ist, ohne vorher ein reales Modell des Produkts anfertigen zu müssen.
Beschreibungstext verbergen
August 1998
Diplomarbeit
Olaf Etzmuß
Leibniz Universität Hannover
Geometrievereinfachung von Flächenverbänden
Beschreibungstext anzeigen
Bei der Konstruktion industrieller Bauteile, z. B. im Fahrzeugbau, entwerfen die Ingenieure geometrische Objekte mit CAD-Systemen, indem sie diese durch eine Vielzahl von Freiformflächen beschreiben.

Diese Geometriedaten sind in der Praxis oft ungeeignet für eine weitere Verarbeitung. Sie enthalten Löcher, überlappungen und Degenerierungen. Weiterhin sind die Zusammenhangseigenschaften nicht bekannt. Das Problem besteht nun darin, eine geeignetere Darstellung des Objektes zu finden, in der die genannten Probleme korrigiert sind. In der Diplomarbeit wird nun ein Verfahren entworfen, das durch eine Projektionsmethode die Objektgeometrie erfaßt und das Objekt durch nur wenige Flächen mit bekannten Zusammenhangseigenschaften beschreibt.
Beschreibungstext verbergen
August 1998
Diplomarbeit
Ingo Stadel
Leibniz Universität Hannover
Ein virtueller Meisterbock für die Fahrzeugaußenhaut
Beschreibungstext anzeigen
Bevor die Serienproduktion von Fahrzeugen beginnt, müssen die einzelnen Bauteile eines Fahrzeugs eine Qualitätskontrolle durchlaufen. Jedes Bauteil muß dafür vorgegebenen Fehlertoleranzen genügen. Darüber hinaus muß das Zusammenspiel der Einzelteile beurteilt werden, da sonst Fehler in Fugen- und Kantenverläufen nicht erkannt werden können. Ein Meisterbock ist ein Gerüst, an dem die in der Vorserienproduktion entstandenen Bauteile zu einem Prototyp zusammengebaut werden. Anhand des Meisterbocks können dann Fehler der Produktion im Vergleich zu den CAD-Solldaten gefunden und behoben werden.Der Aufbau eines Meisterbocks nimmt 2-6 Wochen in Anspruch und muß oft wiederholt werden bevor die Serienproduktion begonnen werden kann. Ziel dieser Arbeit ist, einen virtuellen Meisterbock zu erstellen. Der virtuelle Meisterbock soll Iterationen des realen Meisterbocks einsparen, indem Fehler in der Produktion in einem VR-System sichtbar gemacht werden. Der virtuelle Meisterbock wird ausgehend von den CAD-Solldaten unter Berücksichtigung von Meßdaten des produzierten Bauteils erzeugt.
Beschreibungstext verbergen
August 1998
Seminararbeit
Olaf Etzmuß
Leibniz Universität Hannover
Geometrievereinfachung von Flächenverbänden.
Beschreibungstext anzeigen
Bei der Konstruktion industrieller Bauteile, z. B. im Fahrzeugbau, entwerfen die Ingenieure geometrische Objekte mit CAD-Systemen, indem sie diese durch eine Vielzahl von Freiformflächen beschreiben.

Diese Geometriedaten sind in der Praxis oft ungeeignet für eine weitere Verarbeitung. Sie enthalten Löcher, überlappungen und Degenerierungen. Weiterhin sind die Zusammenhangseigenschaften nicht bekannt. Das Problem besteht nun darin, eine geeignetere Darstellung des Objektes zu finden, in der die genannten Probleme korrigiert sind. In der Diplomarbeit wird nun ein Verfahren entworfen, das durch eine Projektionsmethode die Objektgeometrie erfaßt und das Objekt durch nur wenige Flächen mit bekannten Zusammenhangseigenschaften beschreibt.
Beschreibungstext verbergen
August 1998
Seminararbeit
Ingo Stadel
Leibniz Universität Hannover
Ein virtueller Meisterbock für die Fahrzeugaußenhaut.
Beschreibungstext anzeigen
Bevor die Serienproduktion von Fahrzeugen beginnt, müssen die einzelnen Bauteile eines Fahrzeugs eine Qualitätskontrolle durchlaufen. Jedes Bauteil muß dafür vorgegebenen Fehlertoleranzen genügen. Darüber hinaus muß das Zusammenspiel der Einzelteile beurteilt werden, da sonst Fehler in Fugen- und Kantenverläufen nicht erkannt werden können. Ein Meisterbock ist ein Gerüst, an dem die in der Vorserienproduktion entstandenen Bauteile zu einem Prototyp zusammengebaut werden. Anhand des Meisterbocks können dann Fehler der Produktion im Vergleich zu den CAD-Solldaten gefunden und behoben werden.Der Aufbau eines Meisterbocks nimmt 2-6 Wochen in Anspruch und muß oft wiederholt werden bevor die Serienproduktion begonnen werden kann. Ziel dieser Arbeit ist, einen virtuellen Meisterbock zu erstellen. Der virtuelle Meisterbock soll Iterationen des realen Meisterbocks einsparen, indem Fehler in der Produktion in einem VR-System sichtbar gemacht werden. Der virtuelle Meisterbock wird ausgehend von den CAD-Solldaten unter Berücksichtigung von Meßdaten des produzierten Bauteils erzeugt.
Beschreibungstext verbergen
August 1998
Studienarbeit
Bijan Farajollahi
Leibniz Universität Hannover
Untersuchung der lokalen und globalen Struktur spezieller Enveloppen.
Juli 1998
Studienarbeit
Lennart Betz
Leibniz Universität Hannover
Erkennung der Lage von Objekten im Raum.
Juli 1998
Seminararbeit
Oliver Guntermann
Leibniz Universität Hannover
Janus - Just another Nurbs-based System
Beschreibungstext anzeigen
Janus ist ein Visualisierungs und Modellier-System, dass am Lehrstuhl Graphische Datenverarbeitung der Universität Hannover entwickelt wurde.
Beschreibungstext verbergen
Juni 1998
Seminararbeit
J. Riechers
Leibniz Universität Hannover
Unfoldings.
Juni 1998
Seminararbeit
E. Jundt
Leibniz Universität Hannover
Applications of Unfoldings.
Juni 1998
Seminararbeit
Juri Solodenko
Leibniz Universität Hannover
More on Applications of Unfoldings.
Juni 1998
Studienarbeit
Julian Schmidt
Leibniz Universität Hannover
Blending mit Coonsflächen
Beschreibungstext anzeigen
Diese Studienarbeit ist eingebunden in ein Projekt der Abteilung K-DOE-16 bei VW Wolfsburg. Aufgabe dieses Projekts ist es, verschiedene Methoden zur Aufbereitung und Korrektur dreidimensionaler graphischer Daten zur Verfügung zu stellen, insbesondere Flächengeometrien durch z.B. Neuapproximationen zu vereinfachen. Ziel dieser Studienarbeit in dem Rahmen ist es, gegebene dreidimensionale Flächen neu zu berechnen und einen nach Vorgabe erstellten Patchverband zu liefern. Dies dient der Einordnung von großen, unübersichtlichen Patchverbänden in neue, vorgegebene Strukturen und dem Stopfen von "Löchern", die in dem gegebenen Patchverband auftreten können. Eine mögliche Anwendung ist, aus einem Patchverband aus sehr vielen, kleinen Patches einen gröber strukturierten Patchverband zu erzeugen, der dann aufgrund der geringeren Datenmengen für den weiteren Gebrauch leichter und besser zu handhaben ist. Vorgegeben werden für die Erzeugung des neuen Patchverbandes dessen Randkurven, sowie Punktlisten auf diesen Randkurven und damit verbunden der darunterliegende alte Patchverband. Diese Informationen werden dazu verwendet, Blendflächen, die sogenannten C^1-Gordon-Coons-Flächen, zu berechnen.
Beschreibungstext verbergen
Mai 1998
Studienarbeit
Tarek El-Sibay
Leibniz Universität Hannover
Automatische Korrektur von Trimmkurven
Beschreibungstext anzeigen
Zum Design von Karosserieteilen in der Automobilproduktion werden Trimm-Kurven und Trimm-Flächen benutzt. Diese Kurven enthalten, kleine Fehler, bedingt durch die menschliche Konstruktion, Formatkonvertierungen, etc. Eine Weiterverarbeitung, z.B. durch Finite Elemente Methoden (FEM), wird dadurch erschwert. In meiner Studienarbeit wurde ein Paket von Routinen erstellt, die es ermöglichen, einfach und schnell diese Fehler automatisch zu beheben.
Beschreibungstext verbergen
Februar 1998
Diplomarbeit
Oliver Sniehotta
Leibniz Universität Hannover
Manipulation von NURBS-Kurven und Flächen in VR-Umgebungen
Beschreibungstext anzeigen
Der industrielle Konstruktionsprozeß hat sich im Laufe der Jahre immer stärker auf EDV-gestützte CAGD-Systeme verlagert und ist heute ohne ihren Einsatz nicht mehr denkbar. CAGD-Systeme bieten dem Anwender eine exakte mathematische Beschreibung der konstruierten Geometrien, gleichzeitig hohe Geschwindigkeit und schnellen Zugriff auf große Datenmengen. Darüber hinaus hat der Benutzer jederzeit die Möglichkeit, die erstellten Geometrien aus beliebigen Blickwinkeln zu betrachten. Das entstehende Produkt ist also zu einem frühen Zeitpunkt sichtbar. So wird eine schnelle und effektive Konstruktionsphase innerhalb des Produktentstehungsprozesses ermöglicht. Dies hilft Zeit und Kosten zu sparen, denn je mehr Konstruktionsfehler im späteren Verlauf der Prozeßkette auftauchen, um so länger dauert es und um so teurer ist es, sie zu beseitigen. Neben diesen Vorteilen gegenüber dem klassischen Konstruieren am Zeichenbrett werden CAGD-Systeme nicht allen Anforderungen an den Konstruktionsprozeß gerecht. Die bearbeiteten Daten im Rechner sind dreidimensionale Daten, dem Anwender stehen in der Regel aber nur zweidimensionale Eingabegeräte und ein zweidimensionales Display zur Verfügung. Aufgrund der eingeschränkten Visualisierungsmöglichkeiten ist der Konstrukteur allenfalls durch seine persönlichen Erfahrungen in der Lage, Unstimmigkeiten im Design zu entdecken, den Montageprozeß zu simulieren oder die Erreichbarkeit von Bedienelementen zu analysieren. Um den Konstruktionsprozeß weiter zu verbessern und zu beschleunigen, setzt man VR-Systeme ein. Diese bieten dem Benutzer eine dreidimensionale Darstellung der erstellten Geometrien und dreidimensionale Interaktionsmöglichkeiten. Das macht das neue Produkt bereits vor der ersten Fertigung von Modellen für den Konstrukteur und Designer erlebbar. Er kann sich um das Produkt, zum Beispiel ein Automobil, herumbewegen und es dabei aus beliebigen Blickwinkeln betrachten, er kann sich virtuell hineinsetzen, um einen Eindruck vom Innenraum zu bekommen, oder er kann Montagemöglichkeiten testen. VR-Systeme haben allerdings den Nachteil, daß die dreidimensionale Darstellung sehr rechenintensiv ist und es somit schwierig ist, die geometrischen Objekte gleichzeitig zu manipulieren und schnell darzustellen. Die Szene wird deshalb aus Polygonen aufgebaut. Ein weiterer Nachteil besteht in der Auflösung der heutigen VR-Eingabegeräte. Die mit ihnen erreichbare Genauigkeit liegt weit unter der von CAGD-Systemen. Optimal wäre also eine Verbindung von CAGD und VR, so daß man die Vorteile beider Systeme nutzen kann. Das Ziel dieser Arbeit ist es, auf der Basis des VirtualDesign~II-Systems des Fraunhofer IGD ein Programm zu schaffen, das die direkte Manipulation von CAGD-Daten - speziell von NURBS-Geometrien - in einer VR-Umgebung ermöglicht.
Beschreibungstext verbergen
Januar 1998
1997
Studienarbeit
Stefan Nölle
Leibniz Universität Hannover
Eigenlips - Ein System zur Erkennung und Steuerung von virtuellen Lippen- bewegungen
Beschreibungstext anzeigen
In modernen Computersystemen gewinnt die virtuelle Repräsentation von Menschen mehr und mehr an Bedeutung. Dabei spielt insbesondere die Darstellung von Gesichtsausdrücken und Lippenstellungen virtueller Menschen eine wesentliche Rolle. Die Erkennung von Lippenstellungen realer Menschen und die Abbildung dieser Lippenstellungen auf virtuelle Menschen ist der Schwerpunkt dieser Studienarbeit. Dabei wird die Erkennung der Lippenstellungen auf der Grundlage von Phonemartikulationen durchgeführt. Der erste Teil der Arbeit beschreibt ein bekanntes Verfahren aus der Mustererkennung. Dieses Verfahren wird in der Bildverarbeitung zur Identifikation und Klassifizierung markanter Formen eingesetzt. Im zweiten Teil wird dieses Verfahren zunächst überprüft. Bei dieser Prüfung werden typische Störeinflüsse berücksichtigt, wie sie während der Aufnahme von Videosequenzen auftreten können. Darauf folgend wird das Verfahren auf virtuelle und reale Lippenstellungen angewendet und die daraus resultierenden Beobachtungen kurz diskutiert. Schliesslich wird ein im Rahmen dieser Studienarbeit entwickeltes Softwaretool vorgestellt, welches reale Lippenstellungen einer Testperson erkennt und auf Lippenstellungen eines virtuellen Menschen überträgt.
Beschreibungstext verbergen
Dezember 1997
Studienarbeit
Achim Kaiser
Leibniz Universität Hannover
Exakte polynomiale Basistransformation von Monom-Splines in B- Splines
Beschreibungstext anzeigen
Aus historischen Gründen liegen die Geometrieinformationen bisheriger CAD-Systeme in Monombasis vor. Das Ziel der Studienarbeit liegt darin, eine Bibliothek zur Verfügung zu stellen, die es ermöglicht, sowohl Splines in Monomdarstellung als auch B-Splines in die jeweilige andere Basis zu konvertieren. Für die Evaluation werden verschiedene Methoden verwendet, die auf exakten Basistransformationen basieren. Dabei werden noch eventuelle Unstetigkeiten, die aus der monomialen Form resultieren, korrigiert.
Beschreibungstext verbergen
Dezember 1997
Seminararbeit
Thomas Altschaffel
Leibniz Universität Hannover
Exakte polynomiale Basistransformationen.
November 1997
Seminararbeit
Peer-Timo Bremer
Leibniz Universität Hannover
Multiresolution, Incremental Generation of 3D Computer Models from Video Data.
November 1997
Seminararbeit
H. Busch
Leibniz Universität Hannover
Envelopes.
November 1997
Seminararbeit
Carsten Carulli
Leibniz Universität Hannover
Datenmodelle für den Übergang von CAD- zu CAE-Geometrien.
November 1997
Seminararbeit
Malte Schulze
Leibniz Universität Hannover
VR-Applikationen.
November 1997
Seminararbeit
Malte Schulze
Leibniz Universität Hannover
VR-Applikationen.
November 1997
Seminararbeit
Malte Schulze
Leibniz Universität Hannover
VR-Applikationen.
November 1997
Seminararbeit
Roman Legat
Leibniz Universität Hannover
Knottheory - Surfaces and Knots.
November 1997
Seminararbeit
Niklas Peinecke
Leibniz Universität Hannover
Some Basics of Knots, Combinatorial Techniques.
November 1997
Seminararbeit
Martin Reuter
Leibniz Universität Hannover
Knottheory - Polynomials.
November 1997
Seminararbeit
Jörg Schwarzländer
Leibniz Universität Hannover
Cut Locus and Medial Axis in Global Shape Interrogation and Representation.
November 1997
Seminararbeit
Oliver Sniehotta
Leibniz Universität Hannover
Manipulation von getrimmten Nurbs-Kurven und -Flächen in VR-Umgebungen.
November 1997
Studienarbeit
Jürgen Hunold
Leibniz Universität Hannover
COLTEX-Manipulation von Oberflächeneigenschaften in einer VR-Umgebung
Beschreibungstext anzeigen
Im Rahmen der Tätigkeiten im Bereich Fahrzeugforschung bei der Volkswagen AG in Wolfsburg untersucht man derzeit unter anderem die Einsatzmöglichkeiten von Virtual Reality (VR-) Applikationen in den Bereichen Konstruktion sowie Design. Mit dem Einsatz von VR-Methoden soll der Entwicklungprozeß beschleunigt werden. Dazu wird die vom Fraunhofer Institut für graphische Datenverarbeitung in Darmstadt entwickelte VR-Software "Virtual Design II" eingesetzt. Die Konfiguration dieser Software erfolgt über drei getrennte Skripte mit unterschiedlicher Semantik und impliziten Querverknüpfungen. Daher war die Schaffung einer benutzerfreundlichen, ergonomischen Konfigurationsschnittstelle erforderlich. Realisiert wurde diese im Rahmen der Kooperation mit dem VR-Labor der Volkswagen AG durch das Programm "Virtual Design Configuration". Der geplante Einsatz des VR-Systems im Bereich des Fahrzeug-Designs bei Volkswagen erforderte die Entwicklung von interaktiven Mechanismen zur Manipulation von Farben und Texturen innerhalb der verwendeten VR-Umgebung. Aus diesen überlegungen heraus entstand das Modul "Coltex", das die geforderten Mechanismen zur Verfügung stellt.
Beschreibungstext verbergen
Oktober 1997
Studienarbeit
Rene von Wieding
Leibniz Universität Hannover
Virtual Design Configuration - Entwicklung eines graphischen Front-Ends zur Konfiguration einer VR-Applikation
Beschreibungstext anzeigen

Rene von Wieding, Leibniz Universität Hannover, Oktober 1997

Im Rahmen der Tätigkeiten im Bereich Fahrzeugforschung bei der Volkswagen AG in Wolfsburg untersucht man derzeit unter anderem die Einsatzmöglichkeiten von Virtual Reality (VR-) Applikationen in den Bereichen Konstruktion sowie Design. Mit dem Einsatz von VR-Methoden soll der Entwicklungprozeß beschleunigt werden. Dazu wird die vom Fraunhofer Institut für graphische Datenverarbeitung in Darmstadt entwickelte VR-Software "Virtual Design II" eingesetzt. Die Konfiguration dieser Software erfolgt über drei getrennte Skripte mit unterschiedlicher Semantik und impliziten Querverknüpfungen. Daher war die Schaffung einer benutzerfreundlichen, ergonomischen Konfigurationsschnittstelle erforderlich. Realisiert wurde diese im Rahmen der Kooperation mit dem VR-Labor der Volkswagen AG durch das Programm "Virtual Design Configuration". Der geplante Einsatz des VR-Systems im Bereich des Fahrzeug-Designs bei Volkswagen erforderte die Entwicklung von interaktiven Mechanismen zur Manipulation von Farben und Texturen innerhalb der verwendeten VR-Umgebung. Aus diesen überlegungen heraus entstand das Modul "Coltex", das die geforderten Mechanismen zur Verfügung stellt.
Beschreibungstext verbergen
Oktober 1997
Diplomarbeit
Richard Kunze
Leibniz Universität Hannover
Geodätische Voronoidiagramme auf Parametrisierten Flächen
Beschreibungstext anzeigen
Das Voronoidiagramm ist eine in der Computergeometrie als Hilfsmittel in vielen Bereichen wichtige und auch für sich betrachtet interessante Struktur. In der vorliegenden Arbeit wird ein Verfahren entwickelt, um Voronoidiagramme auf Flächen im Raum zu berechnen. Das klassische Voronoidiagramm wird hier in dem Sinne verallgemeinert, daß statt der euklidischen Metrik ein anderer, durch die Geometrie der Fläche bestimmter Abstandsbegriff verwendet wird. Die Hauptaspekte der Arbeit sind: Entwicklung differentialgeometrischer Methoden zur Bestimmung einer medialen Kurve von zwei Punkten auf einer Fläche; Entwicklung eines Divide-and-Conquer-Verfahrens für die Berechnung geodätischer Voronoidiagramme.
Beschreibungstext verbergen
Oktober 1997
Studienarbeit
Peter von Grumbkow
Leibniz Universität Hannover
Berechnung der medialen Achse von einfach zusammenhängenden, polygonal berandeten Gebieten in der euklidischen Ebene
Beschreibungstext anzeigen
Die mediale Achse gewinnt in der Computergraphik zunehmend an Bedeutung. Anschaulich betrachtet stellt sie das Skelett eines Gebietes dar. In Verbindung mit einer zugeordneten Radiusfunktion läßt sich aus dem Skelett das ursprüngliche Gebiet rekonstruieren, d.h. die mediale Achse enthält alle geometrischen Informationen des Ausgangskörpers. Diese Studienarbeit befaßt sich mit der Berechnung der medialen Achse von einfach zusammenhängenden, polygonal berandeten Gebieten in der euklidischen Ebene. Zunächst wird der theoretische Teil der Berechnung vorgestellt, wobei die sogenannten lokalen medialen Achsen als Obermenge der medialen Achse betrachtet werden. Diese werden durch geeignete Schnittverfahren stückweise zur medialen Achse zusammengesetzt. Anschließend wird die Implementierung des Algorithmus vorgestellt und das Laufzeitverhalten des Programms untersucht. Am Ende werden einige Beispiele zur Verdeutlichung präsentiert.
Beschreibungstext verbergen
Juli 1997
Seminararbeit
Moritz Baer
Leibniz Universität Hannover
Berechnung kürzester Pfade auf parametrischen Frei-Form-Flächen.
Juni 1997
Seminararbeit
Lennart Betz
Leibniz Universität Hannover
Beschreibung von affinen Bewegungen mit Hilfe von Quaternionen.
Juni 1997
Seminararbeit
Iris Herbst
Leibniz Universität Hannover
Formerkennung mit Hilfe der Eigenwerte des Laplace-Operators und deren Berechnung durch die Methode der Finiten Elemente (Teil 1).
Juni 1997
Seminararbeit
Jürgen Hunold
Leibniz Universität Hannover
Texture Mapping.
Juni 1997
Seminararbeit
Sven Mooshake
Leibniz Universität Hannover
Entwicklung von Interaktionsmethoden zur Manipulation von Materialparametern innerhalb einer virtuellen Umgebung (VE).
Juni 1997
Seminararbeit
Ulric Neumann
Leibniz Universität Hannover
Eigenschaften der Medialen Achse (Medial Axis Transforms).
Juni 1997
Seminararbeit
Stefan Nölle
Leibniz Universität Hannover
Erkennung signifikanter Gesichtsmerkmale durch Eigenfaces.
Juni 1997
Seminararbeit
Stephanie Sust
Leibniz Universität Hannover
Formerkennung mit Hilfe der Eigenwerte des Laplace-Operators und deren Berechnung durch die Methode der Finiten Elemente (Teil 2).
Juni 1997
Seminararbeit
Rene von Wieding
Leibniz Universität Hannover
Entwicklung eines graphischen Front-Ends zur Konfiguration einer VR-Applikation.
Juni 1997
Seminararbeit
Andre Wöbbeking
Leibniz Universität Hannover
Menschmodell.
Juni 1997
Studienarbeit
Axel Howind
Leibniz Universität Hannover
Der Abbildungsgrad und seine Anwendung zur Bestimmung von Extremwerten
Beschreibungstext anzeigen
Zur Bestimmung der Extremwerte einer Funktion mehrerer Veränderlicher kann das Gradientenfeld der Funktion untersucht werden. Die Extremwerte der Funktion entsprechen singulären Punkten des Gradientenfeldes. Zur Lokalisierung dieser Singularitäten können iterative Verfahren, wie zum Beispiel das Newton-Verfahren eingesetzt werden. Dabei müssen Startwerte für alle zu bestimmenden singulären Punkte des Gradientenfeldes bekannt sein. Mit Hilfe des Abbildungsgrades ist es möglich, Aussagen über die Anzahl der in einem Gebiet des Parameterraumes eines Vektorfeldes liegenden singulären Punkte zu machen. Es wird ein Verfahren angegeben, mit dem für zwei- und dreidimensionale Vektorfelder die Anzahl der singulären Punkte in Gebieten des Parameterraums berechnet werden kann. Dieses Verfahren wurde für zwei- und dreidimensionale Vektorfelder in der Programmiersprache C++ implementiert. Da die genaue Berechnung des Abbildungsgrades sehr aufwendig ist, wurden verschiedene Heuristiken untersucht, mit denen für zweidimensionale Vektorfelder auf die Existenz von singulären Punkten geschlossen werden kann. Es wurde ein Verfahren implementiert, daß mit Hilfe der untersuchten Heuristiken Approximationen für die singulären Punkte eines zweidimensionalen Vektorfeldes berechnet.
Beschreibungstext verbergen
Januar 1997
Studienarbeit
Karl-Ingo Friese
Leibniz Universität Hannover
Effiziente Algorithmen zur Innen- / Außenerkennung
Beschreibungstext anzeigen
Obwohl viele der Begriffe und Sätze die im folgenden vorgestellt werden, für allgemeine stetige Kurven in der Ebene gelten, ist es eine Unterklasse dieser allgemeinen Kurven, die den Schwerpunkt dieser Arbeit bildet - die Polygonzüge. Dies hat mehrere Gründe. Zum einen sind Polygonzüge wohl die einfachste Klasse von zweidimensionalen Kurven. Im Gegensatz zu allgemeinen Kurven (man denke z.B. an NURBS- oder Bezier-Kurven, die jedoch bei der Darstellung mit dem Computer meistens polygonal approximiert werden) treten zum Beispiel erheblich weniger numerische Probleme auf, so daß die Umsetzung der Algorithmen in einer Programmiersprache nicht davon behindert wird. Außerdem spielen Polygonzüge in der Computergraphik eine große Rolle, so daß sie nicht zuletzt auch praktischen Nutzen besitzen. Interessierten, die sich nicht nur auf Polygonzüge beschränken möchten, sondern einen allgemeineren Überblick über Ebene Kurven unter Gesichtspunkten der Computergraphik erhalten möchten, sei die Arbeit von Thomas Rausch empfohlen: Rausch, Thomas, 1995: Computergraphik und geometrische Probleme in der Ebene, Universität Hannover. Neben den unterschiedlichen Innen-/Außenbegriffen, ihrer algorithmischen Implementierung (= Test) und Laufzeit- / Optimierungsuntersuchungen, wird insbesondere ein Algorithmus zur Überprufung des Geometrischen Innen-/Außenproblems angegeben, der bis dahin nicht allgemein untersucht worden ist.
Beschreibungstext verbergen
Januar 1997
1996
Studienarbeit
Oliver Sniehotta
Leibniz Universität Hannover
Berechnung medialer Kurven
Beschreibungstext anzeigen
Betrachtet man zwei differenzierbare, reguläre Kurven alpha(t) und beta(t) in der Euklidischen Ebene, so kann man nach der Menge aller Punkte fragen, die zu beiden Randkurven den gleichen Abstand besitzen. Diese Menge kann wieder als parametrisierte Kurve - die Mediale Kurve - mu(t) beschrieben werden. Der Abstand von der Randkurve wird im Euklidischen Fall als der Euklidische Abstand in Richtung der Kurvennormalen gemessen, d.h. orthogonal zur Kurventangente. Die gleiche Fragestellung kann man ebenfalls auf beliebigen Flächen S untersuchen, insbesondere auf der Klasse der parametrisierten regulären Flächen. Hierbei ist die Fläche S durch eine differenzierbare Abbildung r : D subset R^2 rightarrow R^3 über einem bestimmten Parameterbereich D gegeben. Die betrachteten Randkurven sind nun Flächenkurven alpha(t) = r(u(t), v(t)), die durch Kurven (u(t), v(t)) subset D (für beta(t) entsprechend) im Parameterraum beschrieben werden. Im Gegensatz zum Euklidischen Fall werden im Flächenfall Abstände als Längen geodätischer Kurvensegmente gemessen. Geodätische Kurven sind lokal kürzeste Linien auf der gegebenen Fläche. Ihre Bogenlängen sind daher geeignet, den Abstand im Hinblick auf die Flächengeometrie zu messen. Man spricht hier auch von geodätischem Abstand. Will man mit diesem Abstandsbegriff im Flächenfall Mediale Kurven berechnen, so muß man geodätische Abstände berechnen können. Dazu wird zunächst die geodätische Offsetfunktion O(s,t) eingeführt. Die Berechnung der partiellen Ableitungen der Offsetfunktion wird auf die Jacobi-Differentialgleichung führen. Damit wird die Mediale Differentialgleichung und ihre Lösung hergeleitet. Daran schließt sich die Beschreibung des im Rahmen dieser Studienarbeit entwickelten Programms tt geo an.
Beschreibungstext verbergen
November 1996
Seminararbeit
Tarek El-Sibay
Leibniz Universität Hannover
3D Motion Estimation in Model-Based Facial Image Coding.
November 1996
Seminararbeit
Olaf Etzmuß
Leibniz Universität Hannover
Erkennung und Modellierung der menschlichen Lippendynamik bei Phonemartikulation.
November 1996
Seminararbeit
Axel Howind
Leibniz Universität Hannover
Abbildungsgrad und seine Anwendung zur Lokalisierung von Extremwerten.
November 1996
Seminararbeit
Björn Jammer
Leibniz Universität Hannover
Extraction of 3D Shapes from the Moving Human Face using Lighting Switch Photometry.
November 1996
Seminararbeit
Marc Junker
Leibniz Universität Hannover
Visually Controlled Graphics.
November 1996
Seminararbeit
Richard Kunze
Leibniz Universität Hannover
Kürzeste Verbindung zweier Punkte auf regulären Flächen und geodätische Voronoi-Diagramme.
November 1996
Seminararbeit
Sven Mooshake
Leibniz Universität Hannover
Deformable models.
November 1996
Seminararbeit
Ulric Neumann
Leibniz Universität Hannover
Curvature computations for degenerate surface patches.
November 1996
Seminararbeit
Thomas Rausch
Leibniz Universität Hannover
Mediale Kurven und verwandte Themen.
November 1996
Seminararbeit
Rene von Wieding
Leibniz Universität Hannover
Dirichlet Free-Form Deformations and their applications for Hand Modeling and Animation.
November 1996
1995
Seminararbeit
Thomas Altschaffel
Leibniz Universität Hannover
Umbilics and Lines of Curvature for Shape Interrogation.
November 1995
Seminararbeit
Olaf Etzmuß
Leibniz Universität Hannover
Geometric Criteria to Guarantee Curvature Continuity of Blending Surface.
November 1995
Seminararbeit
Peter von Grumbkow
Leibniz Universität Hannover
Low Degree Approximation of High Degree B-Spline Surfaces.
November 1995
Seminararbeit
Axel Howind
Leibniz Universität Hannover
Topological and Differential Equation Methods for Surface Intersection.
November 1995
Seminararbeit
Thomas Howind
Leibniz Universität Hannover
Inspection and Feature Extraction of Marine Propellers.
November 1995
Seminararbeit
Achim Kaiser
Leibniz Universität Hannover
Designing and Mapping Trimming Curves on Surfaces Using Orthogonal Projection.
November 1995
Seminararbeit
D. Krupinski
Leibniz Universität Hannover
Approximation of High Degree and Procedural Curves.
November 1995
Seminararbeit
Richard Kunze
Leibniz Universität Hannover
Degeneracies of Offsets of Explicit Quadratic Surfaces.
November 1995
Seminararbeit
Ingo Stadel
Leibniz Universität Hannover
Computational Methods for Blending Surface Approximation.
November 1995