Studiengang
Interaktionsgestaltung
Hochschule für Gestaltung in Schwäbisch Gmünd!
Patrik Daust
Interaktionsgestaltung
7. Semester
Arbeit von Patrik Daust, Tobias Strohbach — WS 2015/2016
bei Prof. David Oswald, Prof. Hans Krämer
3D, API, Abläufe, Alltag, Animation, Anleitung, Bachelor, Bachelorthesis, Blender, Ei ngabe, Ergonomie, Fitness, GUI, Gesundheit, Interaktion, Prototyp, Realistic Design, Sport, Szenario, Touch, Touchscreen
Wir wollen mit unserer Applikation Lösungsansätze und Perspektiven aufzeigen, die motivieren sollen, das Rad wieder mehr im Alltag zu nutzen.
Das besondere an unserem Ansatz ist, dass wir kein langwidriges Portal mit Informationen zu Gesundheit oder rein zur Kaufempfehlung von nützlichen Komponenten abbilden wollen, sondern eine Brücke zwischen den verschiedenen Aspekten schlagen.
Auf das Thema sind wir gekommen wegen der steigenden Popularität des Radverkehrs der letzten Jahre und nicht zu vergessen der persönlichen Freude am Rad fahren.
Der Service startet mit der Auswahl von persönlichen Schwierigkeiten des Nutzers mit seinem Rad. Danach wählt der Nutzer einen spezifischen Radtyp und stattet diesen so wie sein eigenes Fahrrad aus. Im Anschluss werden ihm je nach vorhandener Ausstattung, Komponenten empfohlen, die den alltäglichen Gebrauch erleichtern oder die das Rad wenigstens nach StVO verkehrstauglich machen.
Dieses Rad wird übernommen, um damit unterschiedliche Szenarien zu durchlaufen, die Hilfestellung für die am Anfang gewählten Probleme bieten. Um einen Anreiz für die Nutzung der Applikation zu liefern füllt sich parallel zur Anwendung ein Fortschrittsbalken. Wenn dieser bis zu einem bestimmten Level gewachsen ist, steht ein ausdruckbares “Supportsheet” zu Verfügung, welches die Aktionen, die man ausgeführt hat, dokumentiert und Zusatzinformationen zu relevanten Bereichen bereithält. Wenn der Balken ganz gefüllt ist erhält man einen Rabattgutschein für Leistungen bei teilnehmenden regionalen Fahrradhändlern. Zugang zum Service kann an Messeständen fahrradfreundlicher Verbände oder über ein Webportal geschaffen werden.
Das Layout ist für Touchgesten ausgelegt und somit für Tablets oder Multitouchtische einsatzbereit. Zur besseren Veranschaulichung sind die Szenarien mit 3D-Modellen realisiert.
Interaktionsgestaltung
6. Semester
Arbeit von Marvin Overmeyer, Patrik Daust — SS 2015
Projektschwerpunkte Interaktion
bei Prof. Hans Krämer, Prof. Marc Guntow
3D, Anleitung, Application, Auge, Augmented Reality, Ausstellung, Cinema
4D, Content, Hilfe, Interaktion, Processing, Präsentation, Touchscreen, Tracking, Tu torial, Webcam
Bei dem Projekt "unknown" geht es um die Vermittlung von Ausstellungstechniken.
Mit den Beispielen "Trackingbox" (abgeschlossenes System für Farbtracking) und dem "AR Ipad" (Ipad ausgestattet mit einer Augmented Reality Software), soll verdeutlicht werden wie Studenten mit einfachen Mitteln, ihren Projekten mehr Informationstiefe geben können.
Wir haben uns mit der Problematik beschäftigt, dass Studenten in den Studiengängen die nicht programmierlastig sind, oft nicht die Möglichkeiten haben ihre Projekte am Ende des Semesters "interaktiv" zu präsentieren.
Dies bedeutet, dass die Studenten zwar oft ein fertiges Präsentationskonzept besitzen, allerdings fehlt ihnen oft die Zeit oder das technische Know-how um diese Ideen um zu setzen. Genau hier kommt "unknown" ins Spiel, mit der Kombination aus vorgefertigten Beispielen, der passenden Software, schriftlichen Anleitungen und/oder Tutorial Videos, soll den Studenten geholfen werden einen schnellen und einfachen Zugang zu einem interaktiven Ausstellungsexponat zu ermöglichen.
Die Trackingbox ist ein abgeschlossenes System zum erstellen und testen von Kontentzuweisung mit Hilfe von Farbtracking. Sie soll in den nachfolgenden Semestern im Medienlabor 2 frei zugänglich sein.
Wie funktioniert sie?
Die Trackingbox hat eine eingebaute frei platzierbare Webcam, eine eigene Lichtquelle für einheitliche Beleuchtung und einen eingebauten Rechner mit der benötigten Software. Da sie transportabel ist kann sie in jedem Raum plaziert werden, allerdings besteht auch die Möglichkeit die installierte
Software auf jedem anderen Rechner zu installieren (für mehr Informationen, siehe unten "Die Webseite").
Mit der Software lässt sich unterschiedlicher Kontent, genauer Videos, Bilder und Audiofiles, abspielen. Diesem wird mit Hilfe der Software unterschiedliche Farben zugewiesen. Die ausgewählten Farben werden erkannt wenn sie in einem, ebenfalls frei festbelegbarem, Bereich des Kamerabildes auftauchen.
Das AR Ipad funktioniert mit Hilfe der Augmented Reality Software Metaio, mit Hilfe dieser Software lassen sich Inhalte wie Videos, Bilder, 3d Modelle, Webseiten... unterschiedlichen Markern, wie QR Codes, ID Markern oder Bildern und Objekten mit eindeutigen Kanten zuweisen.
Um die Software zu nutzen benötigt man nur ein Ipad, einen Computer und iTunes. (weitere Informationen, siehe unten "Die Webseite")
Auf unserer Webseite: - under Cunstruction -
findet man die benötigte Software, die Anleitungen sowie die Links zu den Tutorials, um die beiden oben genannten Beispiele testen und benutzen zu können.
Wir wünschen viel Erfolg und Vergnügen beim Testen und Umsetzen.
Interaktionsgestaltung
2. Semester
Arbeit von Pascal Ruppert, Patrik Daust, Surya Wöhrle — SS 2013
Interaktive Kommunikationssysteme 1
bei Roger Walk
Animation, Cinema 4D, Interface, ig, informationssystem
Die Unterrichtseinheit Interaktive Kommunikationssysteme befasste sich mit der Konzeption und Umsetzung eines interaktiven Museumsexponats. Das Thema war relativ frei wählbar, vorgeschrieben war lediglich eine Einordnung in den Kontext einer Kinder-/ Jugendausstellung. Unsere Wahl fiel auf ein Thema, welches viele Kinder fasziniert - Feuerwerkskörper, oder genauer gesagt Raketen.
Für unser Kommunikationssystem wählten wir ein Baukastensystem. Der Benutzer wird durch den stark vereinfachten Herstellungsprozess einer Feuerwerksrakete geführt. Dabei kann er die einzelnen Bauteile wie Spitze, Körper oder Treibladung aus einer Variation auswählen und sich so seine eigene Rakete zusammenstellen. Ein Industrieroboter baut die Rakete dann in einem geschlossenen Werkstattraum zusammen. Durch seine hohe Erlebbarkeit schien dieses System am Angemessensten.
Neben dem spielerischen Ansatz der Raketenerstellung soll aber auch Wissen vermittelt werden. Uns war es vor Allem wichtig, dass diese Wissensvermittlung auf spielerische Weise geschieht. Des weiteren sollte die Informationsvermittlung nicht erzwungen werden, der Besucher muss selbst entscheiden können, wie detailliert er die Informationen erhalten möchte.
Unser Exponat ist in zwei Ansichten unterteilt, Werkstatt und Bibliothek. Dabei kommt der Werkstatt Ansicht eine größere Bedeutung zu, da sich hier die meiste Interaktionen hier abspielt. Den Großteil der Ansicht nimmt das Werkstattfenster ein, welches einen direkten Blick auf den arbeitenden Roboter bietet. In der linken Hälfte des Screens werden Hilfs- und Infotexte zu den Arbeitsschritten bzw. angewählten Bauelementen gezeigt, diese sollen verhindert, dass sich vor allem jüngere Benutzer allein gelassen fühlen.
Um noch mehr Informationen bereitstellen zu können wurde der Bibliotheksscreen entwickelt. Wird diese Ansicht ausgewählt, legt sich das Bibliotheksfenster über die aktuelle Werkstattansicht. Links davon erscheint dann die Navigation.
Interaktionsgestaltung
2. Semester
Arbeit von Surya Wöhrle, Patrik Daust — SS 2013
Projektarbeit
bei Prof. Dr. Franklin Hernandez-Castro
Thema dieses Semesters war es ein interaktives Partikelsystem zu schaffen. Das System sollte in einen Glaskasten projiziert werden und mit einem realen Gegenstand kombiniert werden.
Zum Thema fielen uns viele verschiedene Ideen ein, die von Flammen und einfachen Partikeln, bis zu einem Sterngebilde mit schwarzem Loch reichten.
Die meisten dieser Ideen schienen jedoch zu weit gefächert. Ein greifbareres Thema erschien uns besser, zudem wollten wir, dass Gegenstand und Projektion nur gemeinsam funktionieren, also ohne einander nicht richtig wirken können.
Wir entschieden uns schließlich für Schneekristalle in einer Schneekugel, die durch die Gegend gewirbelt werden.
Unser Ziel war es eine möglichst reale Schneekugel zu simulieren. Der Reiz dieser Aufgabe besteht darin, das Schweben leichter Schneeflocken im Wasser nachzustellen, die möglichst gut beeinflussbar sein sollten.
Als reale Gegenstände benutzen wir eine Acrylglaskugel und eine selbtgefertigte Eisbergnachbildung.
Der Sketch ist komplett in Processing geschrieben.
Wir fingen damit an einen runden Rahmen zu konstruieren, in dem die Schneepartikel umherfliegen sollten. Der nächste Schritt betand dann daraus, ebendiese als kleine Polygone zu erschaffen. Startet man den Sketch entstehen am höchsten Punkt der Kugel nacheinander Schneeflocken. Die Bewegungen der Schneeflocken sind durch Windsimulationen, die wir in den Sketch einfügten, möglich.
Mit Hilfe von Kameratracking kann der Betrachter die Schneeflocken in ihren Bewegungen beeinflussen.
Als nächstes wollten wir der Schneekugel ein interessanteres Innenleben geben. Wir schafften dies, indem wir das Bild eines Eisberges einfügten. Die Form des Eisbergs fuhren wir nach. Auf diese Weise entstand eine Fläche, auf der die Schneeflocken landen können.
Der Bereich, der auf dem Bild als Wasser zu sehen ist, ist im Sketch ein Löschbereich.
Landet eine der Schneeflocken im Wasser wird diese gelöscht, zeitgleich entsteht am Startpunkt der Ursprungsschneekugel eine neue Schneeflocke. Abschließend bauten wir den nachgepfadeten Eisberg nach und plazierten ihn in der Kugel.
Durch das bereits erwähnte Kameratracking ist es dem Betrachter möglich die Schneeflocken bewusst zu steuern.
Bewegt der Nutzer sich vor der Kamera, so folgen die Schneeflocken in die jeweilige Richtung.
Als kleine Aufgabe kann es gesehen werden, die Schneeflocken entweder bewusst ins Wasser zu werfen, um sie zu löschen oder sie auf den Eisberg zu häufen, um sie zu retten.
13