Da Musik, Klangsynthese und Interaktion mit dem menschlichen Gehirn zunehmend erforscht werden, könnte ein neuartiger Synthesizer auf
neurobiologischer Steuerung basieren. Statt herkömmlicher Bedienelemente wie Tasten, Knöpfe oder Schieberegler würde dieser Synthesizer direkt auf die Hirnaktivität des Musikers reagieren und diese in Klang umwandeln.
Neurobiologische Synthese
Das Hauptkonzept wäre, die elektrische Aktivität des Gehirns (gemessen mit einem EEG-Headset) und andere biometrische Daten (wie Herzfrequenz, Hautleitfähigkeit, Blickbewegungen) zu nutzen, um die Klangparameter zu steuern.
- EEG-Wellen:Verschiedene Gehirnwellenfrequenzen könnten unterschiedlichen Syntheseparametern zugeordnet werden:
- Delta-Wellen (0.5-4 Hz): Könnten die LFO-Rate oder die Hüllkurvengeschwindigkeit steuern, um tiefe, langsame Klangbewegungen zu erzeugen.
- Theta-Wellen (4-8 Hz): Könnten für die Frequenzmodulation (FM) oder die Steuerung der Obertöne verwendet werden, was zu komplexen, träumerischen Klängen führt.
- Alpha-Wellen (8-13 Hz): Könnten mit der Filter-Cutoff-Frequenz verbunden werden. Ein Zustand der Entspannung würde zu einem weichen, geschlossenen Klang führen, während erhöhte mentale Aktivität das Filter öffnet.
- Beta-Wellen (13-30 Hz): Könnten die Lautstärke oder das Panning beeinflussen, was eine direkte Verbindung zur Konzentration herstellt.
- Andere Biosignale:
- Herzfrequenz: Eine erhöhte Herzfrequenz könnte die Hüllkurven-Attack-Zeit verkürzen, was zu perkussiven, aggressiven Klängen führt.
- Hautleitfähigkeit: Eine Veränderung der Hautleitfähigkeit (ein Indikator für emotionale Erregung) könnte die Dichte eines Granularsynthesizers steuern.
- Blickbewegungen: Mit Eye-Tracking könnte die Position des Blicks auf einem Bildschirm eine Klanglandschaft modulieren, wobei die Frequenzen und Amplituden der Klänge in Echtzeit auf die Blickrichtung reagieren.
Anwendererfahrung
Der Musiker würde den Synthesizer nicht "spielen" im herkömmlichen Sinne. Stattdessen würde er meditieren, sich auf Emotionen konzentrieren oder visuelle Objekte im Geiste bewegen, um den Klang zu formen. Die Benutzeroberfläche wäre eine visuelle Darstellung der eigenen Hirnaktivität, die sich in eine Klanglandschaft übersetzt. Ein
Lernalgorithmus würde das System mit der Zeit kalibrieren, um die einzigartigen neuronalen Muster jedes Benutzers zu verstehen. Dies würde eine völlig neue, zutiefst persönliche und intuitive Form der Musikgestaltung ermöglichen.
Die Herausforderung bestünde darin, die Messung, die Signalverarbeitung und die Interpretation der Gehirnsignale zuverlässig zu gestalten, um ein intuitives und ausdrucksstarkes Instrument zu schaffen.