Design für Machine Learning, Machine Learning für Design — einwöchiger Workshop an der Hochschule für Gestaltung Schwäbisch Gmünd, November 2018.
Durch Machine Learning (ML) lernen Computer, ohne explizit programmierte Regeln Muster in Daten zu erkennen. Die Technologie steuert autonome Fahrzeuge und Netflix-Empfehlungen, erkennt Kätzchen und Gesichter, wie wir dastehen und auf was wir stehen, Alexa spricht, Siri hört zu.
Für Gestalter öffnen sich aufregende Möglichkeiten — individuelle User Experiences, neuartige Interfaces, der Computer als kreativer Assistent, smarte Designtools.
Was ist ML und was nicht? Wie können wir Machine Learning in unseren Projekten einsetzen, wie im Designprozess selbst? Wie gestalten wir verantwortungsvoll mit einer Technologie an der Spitze des Hype Cycle? Ziel des Workshops ist es, verschiedene ML Anwendungsbereiche kennenzulernen und in eigenen Projekten prototypisch anzuwenden (ohne dabei Hype und Mythos zu verfallen).
von Philipp Schmitt. Stand: November 2018.
Eine Liste von Ressourcen, die ich persönlich nützlich finde. Nicht als vollständige Referenz zu sehen, sondern als Einstieg.
Widerstand einwerfen, Ohmzahl ablesen, fertig. Michelle Bauch und Aaron Eichler haben mit Wekinator ein Model trainiert dass elektronische Widerstände anhand ihres Farbcodes erkennt.
NeuraLorem von Sven Löchner ist ein Plugin für Sketch zur Erstellung von Lorem Ipsum Fülltext. Das Plugin generiert den Text basierend auf der Eingabewörter und versucht, anstelle des Standard Lorem Ipsum Fülltextes einen kontextbasierten Fülltext zu erstellen. Das Projekt basiert auf minimaxir/textgenrnn, einem Neural Network zur Textgenerierung.
Christopher Himann und Maurice Rio haben einen ML Color Picker entwickelt. Der Benutzer wählt eine Farbe aus und ein Neurales Netzwerk ergänzt zwei weitere. Der ML Color Picker basiert auf brain.js und wurde mit Farbharmonien trainiert.
(Un)Sichtbare Emotionen, von Maximilian Härle und Tobias Haag, erkennt per Webcam Gesichtsaustrücke, versucht Emotionen zu erkennen und setzt die Daten in Farben und Frequenzmuster aus Salzkristallen um. Das räumlich-visuelle Konzept hat die Absicht, dass eine Person vor dem Screen steht und die zum Gesichtsausdruck verbundene Farbe wahrnimmt und eine andere Person das „Emotionsmuster“ erkennt.
Pixelsound von Laura Humpfer und Monika Litzinger verwandelt mit Hilfe von Wekinator visuellen Input in auditiven Output.
Florian Deitermann, Janis Walser-Cofalka und Max Mertens haben mit Hilfe von t-SNE, Bag-of-Words und p5.js Tweets des US-Präsidenten visualisiert, um Rhetorik visuell erkenntlich zu machen.
Datenkunst mit t-SNE von Florian Deitermann, Janis Walser-Cofalka und Max Mertens.
Valerie Grappendorf hat mit Wekinator und Processing eine Handschrift-Erkennung programmiert.
Herzlichen Dank an die motivierten Studenten, die HfG Schwäbisch Gmünd sowie an die zahlreichen Autoren von Open-Source Tools und Lernmaterialien, auf denen dieser Workshop basiert!