D
droelf_
.
Hallo Leute,
ich bin immer noch auf der Suche nach der richtigen Methode, Mensch und (Musik-) Computer optimal zu verbinden. So daß der Computer eben ein eigenes, richtiges Instrument wird (davon ist man imho noch weit entfernt, wenn der Stand der Dinge darin besteht, emulierte Potis auf Holzimitat auf dem Bildschirm mit der Maus oder mit Midi Controllern (127 Schritte... *grusel*) mit viel zu wenig Reglern zu bedienen).
(siehe dazu auch: https://www.sequencer.de/synthesizer/viewtopic.php?t=19412&highlight=)
Idealerweise will man ja sowas wie ein Multitouchscreen, da man dann die Oberfläche dynamisch jederzeit ändern, speichern und recallen kann, was ja mit Hardware nur schwer möglich ist. Gleichzeitig fehlt dabei aber das haptische Feedback, das richtige Schrauben an den Knöpfen eben...
Mein aktueller Gehirnfurz dazu sieht folgendermaßen aus:
Schaut euch mal die Demovideos von http://www.tactiva.com/ an. Das ist ein noch nicht existierendes Multitouchpad. Anders als üblich hat das aber kein eingebautes Display, man benutzt das des vorhandenen Computers/Notebooks. Über dem Touchpad ist eine Kamera, die die Konturen der Hände aufnimmt und diese als Schatten ins Bild einblendet, so daß man Feedback hat, wo man gerade rumfingert.
Zunächst die Frage: Glaubt ihr, daß sowas für Musik geeignet ist? Im Grund ist das ja eine ähnliche Trennung der Bewegung und des optischen Feedbacks wie traditionell bei Maus/Tastatur, ist das dann nicht zu indirekt?
Dann noch zwei DIY-Ideen dazu:
1.) Man montiert auf eine Platte eine Tastenmatrix und mehrere Endlosenkoder. Darüber so ne Kamera, die auch die Hände im Bildschirm einblendet. Die Knöpfe und Taster wären dann auf dem Bildschirm frei beschriftbar und man hat trotzdem haptisches Feedback. Da die eingeblendeten Hände ja nur zur Orientierung des Menschen dienen und der Computer damit gar nix anfangen muss, kann die Bildverarbeitung sehr einfach ausfallen und kleine Fehler machen da nix aus.
2.) Man nimmt die bisherigen DIY-Multi-Touchscreens mit (Infrarot-LEDs an den Seiten, deren Licht dann am Finger gebrochen und für die darunter liegende Kamera sichtbar wird) und nimmt _zusätzlich_ (mit der selben oder einer zweiten Kamera) die Hände auf und blendet sie wie oben ein. Somit kommt man ohne den dazu üblichen Beamer aus, der das Bild von unten draufwirft und kann seinen (Laptop-) Bildschirm verwenden, das Ganze wird portabler usw.
So! Schreibflash vorbei, schreibt mal was ihr davon so denkt.
Gruß,
droelf
ich bin immer noch auf der Suche nach der richtigen Methode, Mensch und (Musik-) Computer optimal zu verbinden. So daß der Computer eben ein eigenes, richtiges Instrument wird (davon ist man imho noch weit entfernt, wenn der Stand der Dinge darin besteht, emulierte Potis auf Holzimitat auf dem Bildschirm mit der Maus oder mit Midi Controllern (127 Schritte... *grusel*) mit viel zu wenig Reglern zu bedienen).
(siehe dazu auch: https://www.sequencer.de/synthesizer/viewtopic.php?t=19412&highlight=)
Idealerweise will man ja sowas wie ein Multitouchscreen, da man dann die Oberfläche dynamisch jederzeit ändern, speichern und recallen kann, was ja mit Hardware nur schwer möglich ist. Gleichzeitig fehlt dabei aber das haptische Feedback, das richtige Schrauben an den Knöpfen eben...
Mein aktueller Gehirnfurz dazu sieht folgendermaßen aus:
Schaut euch mal die Demovideos von http://www.tactiva.com/ an. Das ist ein noch nicht existierendes Multitouchpad. Anders als üblich hat das aber kein eingebautes Display, man benutzt das des vorhandenen Computers/Notebooks. Über dem Touchpad ist eine Kamera, die die Konturen der Hände aufnimmt und diese als Schatten ins Bild einblendet, so daß man Feedback hat, wo man gerade rumfingert.
Zunächst die Frage: Glaubt ihr, daß sowas für Musik geeignet ist? Im Grund ist das ja eine ähnliche Trennung der Bewegung und des optischen Feedbacks wie traditionell bei Maus/Tastatur, ist das dann nicht zu indirekt?
Dann noch zwei DIY-Ideen dazu:
1.) Man montiert auf eine Platte eine Tastenmatrix und mehrere Endlosenkoder. Darüber so ne Kamera, die auch die Hände im Bildschirm einblendet. Die Knöpfe und Taster wären dann auf dem Bildschirm frei beschriftbar und man hat trotzdem haptisches Feedback. Da die eingeblendeten Hände ja nur zur Orientierung des Menschen dienen und der Computer damit gar nix anfangen muss, kann die Bildverarbeitung sehr einfach ausfallen und kleine Fehler machen da nix aus.
2.) Man nimmt die bisherigen DIY-Multi-Touchscreens mit (Infrarot-LEDs an den Seiten, deren Licht dann am Finger gebrochen und für die darunter liegende Kamera sichtbar wird) und nimmt _zusätzlich_ (mit der selben oder einer zweiten Kamera) die Hände auf und blendet sie wie oben ein. Somit kommt man ohne den dazu üblichen Beamer aus, der das Bild von unten draufwirft und kann seinen (Laptop-) Bildschirm verwenden, das Ganze wird portabler usw.
So! Schreibflash vorbei, schreibt mal was ihr davon so denkt.
Gruß,
droelf