Wie kann ich meine Musik "verbilden"?

M

M15064

Guest
Ja, ich weiß, blöder Titel! :selfhammer: ... ist gemeint als Gegenkonzept zu "Video vertonen".

Die Herausforderung: Ich habe schon eine Tonspur ... und hätte gern eine Videosequenz dazu generiert, um das auf einer Plattform wie YouTube hochzuladen, ohne dass dabei meine eigene Hackfresse oder meine Rumpelkammer im Bild sein muss.
Ich bin nicht schöner als loopup und der zeigt sein Gesicht auch nicht ... und ich habe auch keine Lust, jedes Mal vorher meine Rumpelkammer aufzuräumen, dass man die Instrumente im Video zeigen kann.

Das Thema kam nun in verschiedenen Threads als Nebenstrang der Diskussion auf:
- @Bernie hat hier schon mal einen Vorschlag eingebracht: https://www.sequencer.de/synthesize...ie-leute-bringen-aber-wie.160653/post-2308223
- bei den lustigen Sachen: https://www.sequencer.de/synthesizer/threads/lustige-sachen.124857/post-2312893

Ich kann mich auch daran erinnern, dass der Windows Media Player mal so eine Funktion drin hatte, dass er passend zur Musik irgendwas generiert hat. Finde ich unter Windows10 nicht mehr.

Dummerweise war ich all die Jahre zu faul, beim Drachenfliegen die Actioncam anzumachen, weil ich der Meinung bin, dass damit das Erlebnis nicht ansatzweise wieder kommt.
Hätte ich's mal gemacht, dann hätte ich jetzt was zum Vertonen.

Ich bitte, diesen Thread als offenes Brainstorming zu verstehen... könnte ja sein, dass auch Andere das Problem haben.

Ich für meinen Teil würde eine Lösung bevorzugen, bei der ich nicht das komplette Musikstück irgendwem hochladen muss und für die ich auch nicht extra noch ein separates Projekt mit größeren finanziellen und zeitlichen Investitionen starten muss.
 
Kein Material?
Dann schau doch mal bei den freien Plattformen für Videos und Bildern (z. B. Pixabay, Pexels, usw.), dort findest du genug Bildmaterial für deine Musik.
Eine kleine Diashow, bisserl Fotos zoomen und ein paar passende Clips dazwischen geschnibbelt und fertig ist dein Video.

Einfache Videoprogramme sind ideal, ich nutze dafür Magix Videomaker.
Das ist wie Cubase nur mit Bildern -super easy zu bedienen.

Ja, deine Drachenflugvideos wäre sicher gut gewesen ...

Meine Videos sind hier:
 
Auch wenn es nicht so ganz zum Wunsch des OPs passt, aber vielleicht ist das ja ein Denkanstoß: wenn ich Musik höre, höre ich Musik, da interessiert mich nicht ein eventuelles Video (vielleicht ist das ja gerade eines der Probleme, warum Musik so schnelllebig ist?). Ich finde, das lenkt eher von der Musik ab.

Es gab auch irgendwo hier einen Thread, in dem es um eine Raspberry Pi-Visualisierungssoftware ging, der Rest fällt mir aber gerade nicht ein, kann ja jemand einspringen.
 
Zuletzt bearbeitet:
Erstmal super-Idee, einen solchen Thread aufzumachen! Auch finde ich gut, dass Du uns nicht sofort auf eine bestimmte Software oder ein festgelegtes Procedere festnagelst. Spontan hätte ich gesagt: "Ru-Dall-E". Damit lassen sich KI-unterstützt Bilder generieren und zwar durch Texteingabe. Wir haben dazu hier im Forum auch einen eigenen thread, wo Du Dir die generierten Bilder ansehen kannst (ist natürlich alles Geschmacksache und viel Unbrauchbares dabei). Mit diesen Bildern könnte man eine Art Diashow machen und damit Deine (seine) Musik bebildern.

Man muss natürlich höllisch aufpassen, dass das eine zum anderen passt (Musik zum Bild und umgekehrt). Mit einem Video-Editor könnte man die Standbilder taktsynchron wechseln und dabei noch (sparsam) Übergangseffekte einbauen.

Vorstellbar wäre sowohl, die Musik als Vorlage für die Visualisierung zu nehmen, als auch den umgekehrten Weg zu gehen.

"Visions of Chaos" kann - wie im Spaß-thread bereits erwähnt - mit einer KI nachgerüstet werden und dann darauf basierende Videos generieren (findet man bei Youtube, wobei die dabei präsentierte Musik eher armselig ist...)
 
Zuletzt bearbeitet:
Auch wenn es nicht so ganz zum Wunsch des OPs passt, aber vielleicht ist das ja ein Denkanstoß: wenn ich Musik höre, höre ich Musik, da interessiert mich nicht ein eventuelles Video

Ist eine legitime Ansicht, aber nicht meine... und ich sehe mich auch nicht in der Poition, mich diesbezüglich zu ändern oder andere Leute umzuerziehen.
Man könnte es auch so formulieren: Man löst eine Aufgabe nicht, indem man sie in Frage stellt.

Es gab auch irgendwp hier einen Thread, in dem es um eine Raspberry Pi-Visualisierungssoftware ging, der Rest fällt mir aber gerade nicht ein, kann ja jemand einspringen.

Das wiederum klingt interessant, wobei sich da die Frage stellt, warum es ausgerechnet ein Raspberry sein muss?
Müsste doch eigentlich unter jedem Linux-Derivat (ggf. auch in einer VM auf jedem PC) laufen.
Wäre schön, wenn da mal Einer einen zielführenden Link wüsste.

... Mit diesen Bildern könnte man eine Art Diashow machen und damit Deine (seine) Musik bebildern...

Das ist in meinen Augen in vielerlei Hinsicht eine Notlösung.
Einerseits kostet allein das Zusammenschneiden der Slideshow mehr Zeit, als z.B. meine Rumpelkammer mal wieder aufräumen und einfach live mitzuschneiden.
Andererseits ist das dann meist so spannend, wie Farbe beim Trocknen zuzusehen.

Ich fänd's halt auch schön, wenn das irgendwie im Takt der Musik wäre.
Gibt es eigentlich den Winamp noch? Der konnte doch sowas auch...
 
Ich kann mich auch daran erinnern, dass der Windows Media Player mal so eine Funktion drin hatte, dass er passend zur Musik irgendwas generiert hat. Finde ich unter Windows10 nicht mehr.
Der alte Winamp hat so eine Funktion, gibts auch haufenweise Scripte für.

Ansonsten Dashcam ins Auto und ab auf die Überholspur, hinterher alles in höherer Geschwindigkeit mit ein paar Verfremdungen abspielen.
 
Weiß nicht genau, wie hoch der Anspruch ist. Man könnte auch einfach nach Musik & Visualisierung googeln. Da ist sicher was dabei, das schnell und einfach Ergebnisse liefert.
 
Auch wenn es nicht so ganz zum Wunsch des OPs passt, aber vielleicht ist das ja ein Denkanstoß: wenn ich Musik höre, höre ich Musik, da interessiert mich nicht ein eventuelles Video (vielleicht ist das ja gerade eines der Probleme, warum Musik so schnelllebig ist?). Ich finde, das lenkt eher von der Musik ab.

Bei Youtube geht es aber um eine Videoplattform, da wäre passendes Material schon ganz praktisch :xenwink: . Und bei einigen Genres (zb Synthwave) ist passende visuelle Unterstützung ja schon fast Pflicht. Ähnlich wie man sich bei einem Plattencover ja auch Gedanken machen sollte.

https://www.photomirage.io/en/ PhotoMirage ist auch sehr geil, damit kann man Bewegung in Fotos bringen, grade für ruhigere Genres richtig passend. Das gab es irgendwann mal im Humble Bundle, ansonsten zählt aktuell noch der Cyber Deal.
 
Im 4. Anlauf endlich klappt das Hochladen!
VOC00001.GIF

Die Forensoftware mag keine AVIs und keine MPEGs. Daher hier ein kleines Demo (gerade generiert mit Visions of Chaos) als animated GIF. Wer möchte, kann's gerne vertonen... ;-)
 
Ich bitte, diesen Thread als offenes Brainstorming zu verstehen... könnte ja sein, dass auch Andere das Problem haben.

also wenn ich bilder brauche dann nehme ich bilder und das problem ist gelöst.

bilder kann man entweder selbst machen, oder kaufen, oder klauen, oder jemanden damit beauftragen.

die ganz analen unter den bildermachern triggern ihre selbstprogrammierten animationen mit den gleichen steuerdaten, mit der auch die musik gemacht wurde, die ganz langweiligen unter uns machen einen screenshot von irgendeinem einem "kauf mich" button und benutzen den als "video".

du weißt doch auch, wie man töne macht? bilder macht man genauso. :)
 
Der alte Winamp hat so eine Funktion, gibts auch haufenweise Scripte für.

Ich hab gerade mal die letzte Version von Winamp installiert.
Das eine Visualization Plugin funktioniert nicht (mehr), weil es eine alte DirctX9 DLL nicht findet, das Andere generiert tatsächlich was, tatsächlich auch ein Bisschen im Takt der Musik, aber von der Qualität her eher nicht so der Knaller. Erinnert mich mehr so an Amiga-Grafik. Das wäre eine Quick&Dirty-Notlösung, aber da ist noch Potential nach oben.

Daher hier ein kleines Demo (gerade generiert mit Visions of Chaos)

Das gefällt mir besser. Muss ich tatsächlich mal anschauen...

du weißt doch auch, wie man töne macht? bilder macht man genauso.

Auch bei den Tönen lasse ich mich gern mal von Anderen inspirieren. Gut kopiert ist besser als schlecht erfunden! :sowhat:
 
Bei Youtube geht es aber um eine Videoplattform, da wäre passendes Material schon ganz praktisch :xenwink: .
Ja, und bei YouTube bleiben die meisten auch weit unter 1000 Views, also hmm, ich halte mich mal zurück... Selbst guter Content (dazu zählt ich zum Beispiel den Talk hier) bleibt hinter den Erwartungen zurück. Warum? Weil es einfach übervoll ist meiner Meinung nach.
 
Ja, und bei YouTube bleiben die meisten auch weit unter 1000 Views, also hmm, ich halte mich mal zurück... Selbst guter Content (dazu zählt ich zum Beispiel den Talk hier) bleibt hinter den Erwartungen zurück. Warum? Weil es einfach übervoll ist meiner Meinung nach.

Wenn es danach geht, ist das doch überall so.

Youtube ist halt die größte Plattform für Musik, daher gibt es da auch die meiste Konkurrenz. Wenn man deswegen nicht mitmacht, hat man doch schon verloren. Ich würde des vorallem erstmal immer für ich selber machen und wenn leute was hören wollen, ist es online und man kann denen einen Link schicken. Oder in Foren verteilen, in denen es um diese Genres geht. Wenn andere noch durch Zufall drauf kommen, umso besser.

Und wenn jemand nach mir sucht, dann ist Spotify oder Youtube immer die erste Anlaufstelle, danach dann wohl Soundcloud und Bandcamp. Daher sollte man bei Youtube vertreten sein, ist ja im Gegensatz zu Spotify auch kostenlos.
 
In der Familie meiner Freundin ist es modern, Geburtstagsvideos mit den Handy zu machen. Das habe ich zum Geburtstag meiner Freundin auch mal probiert, App der Wahl ist da InShot. Habe ich dann auch genommen, ich hatte keine Lust, da noch herumzutesten. Bilder, Videos und Musik zu einem Ganzen verbinden klappt damit auch für einen Handyverweigerer, das Ergebnis ist gut, aber das Ganze ist mühselig, das fängt schon damit an die benötigten Dateien, die nicht auf dem IPhone sind, dahinzubekommen. Es geht also, aber es bleibt bei diesem einen Experiment, nächstes mal wieder mit richtiger Tastatur, Maus und ordentlichem Bildschirm am PC.
Werde dann wohl, wie von @Bernie empfohlen, Magix nehmen.
 
Man könnte es auch so formulieren: Man löst eine Aufgabe nicht, indem man sie in Frage stellt.
Meinst du? Ich kenne genügend Gegenbeispiele ... :kiffa:

Das wiederum klingt interessant, wobei sich da die Frage stellt, warum es ausgerechnet ein Raspberry sein muss?
Müsste doch eigentlich unter jedem Linux-Derivat (ggf. auch in einer VM auf jedem PC) laufen.
Wäre schön, wenn da mal Einer einen zielführenden Link wüsste.

Das weiss ich nicht, weil es mich nur nebensächlich interessiert hat, aber es war das Critter & Guitari ETC.
 
Reine Diashows mit beliebigen Bildern finde ich langweilig. Ich würde Text mitverwursten. Sowas wie George Lucas mit den Openern seiner Star-Wars-Filme gemacht hat, natürlich aber nicht genau das. Wie wäre es mit Spiegelschriften oder so? Textkunst eben, typographische Experimente. Das hat den Vorteil, dass sie computergeneriert werden und Bedeutung transportieren können. Und wer sich bemüht, kriegt Schrift hin, die im Takt pulsiert, federt, etc. Das erfordert natürlich spezielle Programme, und du machst nicht den Eindruck großer Ambitionen.

Muss nicht viel Text sein, einzelne Worte, Sprichwörter, Aphorismen, was auch immer. Und wenn du Text unterlegst mit beliebigen Bildern starker Unschärfe, einfach zu dezenten Hintergrundfärbung, ist er noch mal interessanter.

Klassische Musik besteht aus Motiven. Moderne Videomusik hat diese Motive ins Bildliche verlagert, die Ohren kriegen Rhythmus, Klang und Tonfolgen zu hören, ach ja, und oft Text. Wenn deine Musik instrumental ist, würde sich bildlicher Text noch einmal mehr eignen.

Inkscape, Blender, Indesign, was auch immer helfen dir. Diese Programme haben natürlich kein Taktgefühl, aber beherrschen mehrere Ebenen. Dann gibt es Dateiformate, die Ebenen mitspeichern und Animationsprogramme können vielleicht keyframe-orientiert mal die eine, mal die andere Ebene anzeigen, mal Mischungen daraus oder Zwischenframes interpolieren auf die Art und Weise, dass die Identität von Körpern möglichst gewahrt wird. Das sind Vermutungen, stelle mir nur vor, wie das grundsätzlich funktionieren könnte, ausprobieren müsstest du.
 
Das weiss ich nicht, weil es mich nur nebensächlich interessiert hat, aber es war das Critter & Guitari ETC.

Danke! Das hat mich dahin geführt: https://github.com/daviderovell0/bzzzbz

Und tatsächlich ist das ein Projekt, was unter jedem Linux-Derivat laufen müsste und den Raspi nur braucht, wenn man die dort gezeigte Interface-Hardware benutzen möchte.
Wenn's nur darum geht, aus einem Audio Stream digitale Video-Synthes zu machen, dann müsste es auch so laufen.

Aber das bringt mich zum richtigen Stichpunkt für die weitere Recherce: digital video synthesizer 👍
 
Reine Diashows mit beliebigen Bildern finde ich langweilig. Ich würde Text mitverwursten. Sowas wie George Lucas mit den Openern seiner Star-Wars-Filme gemacht hat, natürlich aber nicht genau das.
Eine Diashow mit Text habe ich hier mal ausprobiert.
Die (Handy-) Bilder hatte meine Tochter aufgenommen, als sie die 99 Tempel in Japan abgelaufen ist.


https://youtu.be/S0rwYqVOlHo
 
Ja, und bei YouTube bleiben die meisten auch weit unter 1000 Views, also hmm, ich halte mich mal zurück... Selbst guter Content (dazu zählt ich zum Beispiel den Talk hier) bleibt hinter den Erwartungen zurück. Warum? Weil es einfach übervoll ist meiner Meinung nach.
Das schwankt immer sehr stark.
Bei mir sind einige Videos, die nach 14 Tagen immer noch mit unter 100 Views langsam vor sich hin dümpeln und andere, die bereits über 20.000 Views bekommen haben.
Es ist mir ein Rätsel und ich habe keine Ahnung, woran das liegt.
 
Ja, ich weiß, blöder Titel! :selfhammer: ... ist gemeint als Gegenkonzept zu "Video vertonen".

Die Herausforderung: Ich habe schon eine Tonspur ... und hätte gern eine Videosequenz dazu generiert, um das auf einer Plattform wie YouTube hochzuladen, ohne dass dabei meine eigene Hackfresse oder meine Rumpelkammer im Bild sein muss.
Ich bin nicht schöner als loopup und der zeigt sein Gesicht auch nicht ... und ich habe auch keine Lust, jedes Mal vorher meine Rumpelkammer aufzuräumen, dass man die Instrumente im Video zeigen kann.

Das Thema kam nun in verschiedenen Threads als Nebenstrang der Diskussion auf:
- @Bernie hat hier schon mal einen Vorschlag eingebracht: https://www.sequencer.de/synthesize...ie-leute-bringen-aber-wie.160653/post-2308223
- bei den lustigen Sachen: https://www.sequencer.de/synthesizer/threads/lustige-sachen.124857/post-2312893

Ich kann mich auch daran erinnern, dass der Windows Media Player mal so eine Funktion drin hatte, dass er passend zur Musik irgendwas generiert hat. Finde ich unter Windows10 nicht mehr.

Dummerweise war ich all die Jahre zu faul, beim Drachenfliegen die Actioncam anzumachen, weil ich der Meinung bin, dass damit das Erlebnis nicht ansatzweise wieder kommt.
Hätte ich's mal gemacht, dann hätte ich jetzt was zum Vertonen.

Ich bitte, diesen Thread als offenes Brainstorming zu verstehen... könnte ja sein, dass auch Andere das Problem haben.

Ich für meinen Teil würde eine Lösung bevorzugen, bei der ich nicht das komplette Musikstück irgendwem hochladen muss und für die ich auch nicht extra noch ein separates Projekt mit größeren finanziellen und zeitlichen Investitionen starten muss.
Es gibt zumindest ein paar einfache Tools wie VS (Imaginando) als App oder die großen wie vvvv,
es gibt auch audioabhängige Tools wie Modul8 bzw Arkaos GrandVJ (das erste ist etwas akademischer, das zweitere kann man als Gegenpart zu DJing mit Visuals ansehen) und natürlich Resolume.

Das sind alles weitgehend die größeren, VS ist ein bisschen kleiner und einfacher und bietet eher festere Muster für schnelles spontanes - Modul8 ist offener und sollte etwas vorgelernt werden, noch mehr vvvv.. aber Arkaos und Resolume sind Platzhirsche - mit denen verarbeitest du eigenes Filmmaterial und kannst Audio als Trigger einbringen - meiner Ansicht nach braucht man Audio hier aber nicht, ein halbwegs umsichtiger Video Operator kriegt das bald selbst hin - macht Spaß.

Du scheibst, dass du eher so Kringelmaler suchst, das hier ist etwas drüber dafür. Dann eher VS ...
Aber wenn du das etwas cooler machen willst, wären das die genannten, so sie nicht eh genannt wurden.

Automatik-Tools gibt es noch viel mehr.
Was Lernkurve und Nutzen betrifft würde ich Resolume empfehlen, Arkaos wenn es etwas einfacher sein kann - denn das klappt auch prima und ist noch etwas einfacher - finde aber man kann mit Resolume einfach mehr machen. Aber - alle diese Sachen sind zum dran sitzen und machen - nur laufen lassen wird idR zu statisch - aber mit Operator hast du hier gute Sachen zu erwarten - die meisten meines Umfeldes nutzen eines dieser Tools und kreativ.
 
Danke! Das hat mich dahin geführt: https://github.com/daviderovell0/bzzzbz

Und tatsächlich ist das ein Projekt, was unter jedem Linux-Derivat laufen müsste und den Raspi nur braucht, wenn man die dort gezeigte Interface-Hardware benutzen möchte.
Wenn's nur darum geht, aus einem Audio Stream digitale Video-Synthes zu machen, dann müsste es auch so laufen.

Aber das bringt mich zum richtigen Stichpunkt für die weitere Recherce: digital video synthesizer 👍
Teenage Engineering Op-z, vielleicht kann man auch einfach die Software nutzen, weiß aber nicht ob das ohne Gerät funktioniert.
 
Vorhin das hier entdeckt: https://www.zwobotmax.com/



Nur Max for Live, aber bei den Möglichkeiten Effekte zu nutzen und alles synchron zu modulieren reicht bestimmt auch eine Aufnahme der Haustür oder des Osterhasen und man kann Visuals für einen kompletten Track generieren.

29,- Euro als Standard-Version
59,- Euro als Suite-Version
 
Zuletzt bearbeitet:
licht, mit nem spot (power (richtig power) auf den punkt) der genau passt, der rest wird dann dunkel dargestellt, kannst dann entweder mit nem neutraldichte (ND) filter arbeiten um weiterhin kleine blendenzahlen verwenden zu können oder nimmt die schärfe durchs ganze bild in kauf und erhöst nur die blendenzahl also kneifst das auge der cam zu quasi und soft machste das ganze mit fettfingern auf dem filter oder objektiv, musste nur gucken wo es hübscher ist... n paar nylonfäden im richtigen abstand dazwischen für spacige reflexe und hübsch is. edit: n poolfilter hab ich vergessen ... zum justieren und animieren der refektionen auf nichtmetallischen oberflächen... man kann quasi durch fenster die spiegeln durchsehen hex hex

würde dir auch was basteln wenn du vorstellungen hast und diese nicht so dolle gespickt sind mit boßhaftigkeiten dem workflow gegenüber.

endoscope cams sind auch ziemlich geil was die perspektive angeht, kannste wie ne ameise übern synth mit wandern oder ne feste einstellung von bewegten objekten bzw. kraft ausübung zeigen
 
Zuletzt bearbeitet:


News

Zurück
Oben