Unglaublich.....Melodyne Direct Note Access

Das Ding ist schon astrein, da gibts garnix. Wer sich da die Finger wundeditiert, um Musik aus Müll machen zu wollen, der ist damit aber garantiert falsch bedient. Oder egal, soll er doch. So kleinere oder größere Reparaturarbeiten damit ausführen können ist definitiv supercool. Oder wegen mir auch mal schnell ne Alternative rausbasteln, falls es mit ner Neueinspielung aus irgendwelchen Gründen nicht klappt. Dass aber gerade die Gitarrenlästerer drauf abfahren, ist eher unfreiwillig komisch ;-) Außerdem muss man noch mit allen möglichen Materialien testen, was jeweils bei rauskommt. Interessieren täten mich auch noch die künstlich klingenden Resultate, das macht Melodyne ja so schon, wenn auch zum Glück nicht nur. Und Sachen machen, die mit dem Originalinstrument eigentlich gar nicht gehen (Gitarrenlagen zum Beispiel), wäre auch noch interessant. Ist auf jeden Fall ein echtes Messehighlight. Ein weiteres wäre, wenn Herr Becker den Fußsack abrasieren würde, ich vermute in solchen Gewächshäusern exotische Tiere und Speisen älteren Datums, es irritiert mich einfach, da jemandem beim Reden zuzuschauen :D
 
du meinst son bart wär nicht zeitgemäss? und die software hatte bessere erfolgschancen.auserdem sind wir nicht in einem chinacloster oder sowas . das meinst du bestimmt .mit dem ungeziefer die bemerkung
kenn ich aus der zeit vor hundert jahren die angst vor der pest
 
Ui sehr faszinierend das Ganze!

Weiß jmd. wie der Algorithmus im Groben funktionieren könnte?
Erkennt der wohl dann z.B. auch die Einzelnoten von Instrumenten, die keine harmonischen Obertöne besitzen?

Muss bei Gelegenheit mal einen Bekannten von mir fragen, der mit Mr. Neubäcker gut befreundet ist.
 
bei musotalk gibts n interview mit dem (übrigens enorm sympathischen) erfinder - und da sagt der auch nochmal was dazu: Das Tool sucht keine Einzelne Instrumente, sondern einzelne Harmonien. Wenn also zwei Instrumente dasselbe spielen, dann werden die auch beide zusammen verschoben, wenn man was ändert. Und Instrumente ohne harmonische Obertöne könnten dementsprechend wohl auch schwierig werden.

mfg,
Mirko
 
Das ist wirklich eine Innovation - made in Germany. Habe noch nie ein Sonicstate-Video mit Beifallsbekundungen gesehen :)
Und wie ruhig er das alles vorträgt ... wie ein alter Sack, der seine Präsentation im Ruheständler-Modus mal nebenbei beim Kaffä-Trinken und Rente-von-der-Bank-Abholen macht :P Vor lauter Tüfteln darüber, wie er seine Idee am heimischen Computer umsetzen kann, hat er natürlich auch das Bart-Rasieren vergessen. Völlig nachvollziehbar! :D

Schade, dass man die neuen Möglichkeiten erst ab Herbst entdecken kann. Und natürlicha auch, wo die momentanen Grenzen dieser Technologie sind.
 
hallo kpr
ich weis jetzt aber was du meinst :
also dir stinkt es, das er dem bart während des intervies offen trägt.

und du hälst es für möglich ,das er da sogar tiere drin hatt.
die tiere sind dann so klein das mann sie nur ahnt . das erzeugt unsicherheit.
ich kenne andere leute mit langen bärten- ich meine das da keine tiere drin sind. das ist nur so eine angst von dir, weil die du das märchen:die bösen zwerge von anderson- im dunkeln vorgelesen bekommen hast.
:)
 
Nee, immer noch nicht. Aber schreib ruhig hier weiter hin, was dir so alles im Kopf rumgeistert :D
 
Huhu archeology!
Darf ich deine KPR Interpretationen als Text für mein neuestes Opus verwenden? So als Sprechgesang?
 
ja das geht ,dann füge bitte noch folgenden nicht auf sprechgesang gemachten anhang hinzu:

der bart des künstlers teil 456
beim essen fallen teile der nahrung hinein
wie würdest du damit fertig werden
ohne das es jemand merkt.

wenn die tiere so gross sind das mann sie nicht sieht
damit hatt keiner gerechnet
4 meter grosse zebras oder andere grosse zwerge die im dunkeln fotos machen

tsja und weil alle denken das stimmt niemals ,kann mann es nicht sehen.
nun ,das ist die lösung
.wir sind euch auf die schliche gekomen
 
nun kann man aber angeblich doch verschiedene instrumente trennen.
muss mann allerdings dann selbst machen .das heist beim anklicken spielt er auch den sound . beschränkt wird es nur durch zeitgleiche unisonos die der nicht auseinander hält .
nun ,vom prinzip leuchtet mir das nicht ein .
da ja selbst verschiedene sounds,auch bei unterschiedlichen rytmus und notenlängen dann so oder so in der gleichzeitigkeit erscheinen . er schaftt es jedenfals bei gleichem klang ,so wird er das obige schon irgendwie hinkriegen.ja genau
 
theorist schrieb:
Freu mich schon auf die Analyse von Jazz Akkorden die ich einfach nicht hinbekommen habe..
Wobei, das Programm wird ja Noten anzeigen können und verschiedene Skalen zur Auswahl bereit stellen. Wird es aber auch Akkorde anzeigen können?...
 
reines software problem- accordauswahl implementieren und automatisch vergleichen.
 
ist klar. wäre halt praktisch, wenn das feature im programm implementiert wäre. neben den noten könnten dann auch die jeweiligen stufen innerhalb des akkords angezeigt werden wie große/kleine terz, septime, none etc. wäre beim (um)arrangieren eine gute hilfe, denke ich.
 
punky40 schrieb:
man wird noch mehr stundenlang an mist rumbasteln anstatt einfach nochmals aufnehmen,
bzw. überhaupt erst ein Instrument "gut" spielen lernen

gute Musiker werden im Getriebe des Business nochmals weiter nach hinten gestuft.
Meine Rede.

Es war nur eine Frage der Zeit bis sowas kommen würde. Und in ein paar Jahren wird es in Echtzeit gehen, und dann kann man mit jeglichem akkustischen Instrument direkt MIDI-Daten generieren. Dann wird das ganze mit einem KI-Musikalgorithmus verknüpft, und man kann mit dem Computer in Echtzeit wie mit einem Mitmusiker jammen. Zuguterletzt lässt man die Computer mit sich selber jammen, und schaut nur noch zu.

Mit der vom Menschen inbrünstig vorangetriebenen technischen Entwicklung geht unweigerlich eine zunehmende Automation sämtlicher Prozesse einher, die den Menschen dann selber letztendlich obsolet macht. Wieso soll dieser Vorgang, der in allen industriellen Zweigen stattfindet oder längst stattgefunden hat, vor der Musikbranche Halt machen? ;-)

Aber wengistens kann ich jetzt Mozarts "alla turca" vom KV331 nach Dur quantisieren -juhee. :lol:
 
Ich denke das Audiosignal wird so ähnlich wie bei mp3 Kodierung in einzelne Frequenzen zerlegt und dann darauf analysiert, was da tonal zusammengehört und was atonale Komponenten sind. Die tonalen Komponenten werden den am markantesten vorkommenden Tönen zugeordnet und können mit zugehörenden Harmonischen verändert werden.
 
Michael Burman schrieb:
Ich denke das Audiosignal wird so ähnlich wie bei mp3 Kodierung in einzelne Frequenzen zerlegt und dann darauf analysiert, was da tonal zusammengehört und was atonale Komponenten sind. Die tonalen Komponenten werden den am markantesten vorkommenden Tönen zugeordnet und können mit zugehörenden Harmonischen verändert werden.
Ja, etwas in dieser Art stelle ich mir auch vor. Eine hochauflösende FFT, und dann wird mittels eines cleveren Algorithmus ermittelt, welche Schwingungen als Partials einer Grundschwingung interpretiert werden können, und die werden dann als Paket zusammengefasst und isoliert. Das würde dann auch erklären, warum a)zwei verschiedene Instrumente, die aber auf der exakt selben Tonhöhe schwingen, als eines interpretiert werden, und b)allfällige Reverbanteile dieser Schwingung miteinbezogen werden. Laut Aussage des Entwicklers hat der Algorithmus ja Probleme mit verhallten Tonhöhensweeps, da diese ja nachklingen, aber zu einem späteren Zeitpunkt dann eben nicht mehr einer Grundschwingung zugeordnet werden können, also faktisch "für sich in der Luft liegen". Unter diesem Aspekt würde das dann auch einleuchten.
Ist aber letztendlich doch sehr spekulativ meinerseits. ;-)
 
tim schrieb:
Ja, etwas in dieser Art stelle ich mir auch vor. Eine hochauflösende FFT, und dann wird mittels eines cleveren Algorithmus ermittelt, welche Schwingungen als Partials einer Grundschwingung interpretiert werden können, und die werden dann als Paket zusammengefasst und isoliert. Das würde dann auch erklären, warum a)zwei verschiedene Instrumente, die aber auf der exakt selben Tonhöhe schwingen, als eines interpretiert werden, und b)allfällige Reverbanteile dieser Schwingung miteinbezogen werden. Laut Aussage des Entwicklers hat der Algorithmus ja Probleme mit verhallten Tonhöhensweeps, da diese ja nachklingen, aber zu einem späteren Zeitpunkt dann eben nicht mehr einer Grundschwingung zugeordnet werden können, also faktisch "für sich in der Luft liegen". Unter diesem Aspekt würde das dann auch einleuchten.
Ist aber letztendlich doch sehr spekulativ meinerseits. ;-)

Jau sowas vermute ich auch, richtig interessant ist dann halt der Algorithmus, der entscheidet, welche Frequenzgruppen zusammengehören.
Hätte das Programm gern zum 'reverse-engineeren'.. was passiert zum Beispiel wenn man einen Klang mit invertiertem Spektrum (also wachsenden Fourierkoeffizienten) reinschickt? Ob die irgendwelche Snapshots von Spektren verschiedener Instrumente verwenden? Offenbar klappt es ja mit Gitarrensounds recht gut - warum? Gibt es irgendwelche Besonderheiten am Spektrum einer Gitarre?

Hab hier noch ein recht interessantes Paper gefunden:
http://www.merl.com/reports/docs/TR2004-094.pdf
 
tim schrieb:
punky40 schrieb:
man wird noch mehr stundenlang an mist rumbasteln anstatt einfach nochmals aufnehmen,
bzw. überhaupt erst ein Instrument "gut" spielen lernen

gute Musiker werden im Getriebe des Business nochmals weiter nach hinten gestuft.
Meine Rede.

Es war nur eine Frage der Zeit bis sowas kommen würde. Und in ein paar Jahren wird es in Echtzeit gehen, und dann kann man mit jeglichem akkustischen Instrument direkt MIDI-Daten generieren. Dann wird das ganze mit einem KI-Musikalgorithmus verknüpft, und man kann mit dem Computer in Echtzeit wie mit einem Mitmusiker jammen. Zuguterletzt lässt man die Computer mit sich selber jammen, und schaut nur noch zu.

Mit der vom Menschen inbrünstig vorangetriebenen technischen Entwicklung geht unweigerlich eine zunehmende Automation sämtlicher Prozesse einher, die den Menschen dann selber letztendlich obsolet macht. Wieso soll dieser Vorgang, der in allen industriellen Zweigen stattfindet oder längst stattgefunden hat, vor der Musikbranche Halt machen? ;-)

Aber wengistens kann ich jetzt Mozarts "alla turca" vom KV331 nach Dur quantisieren -juhee. :lol:

Halte ich für falsch. Tatsache ist dass halbseidende Musiker nun endgültig vom Tisch weggefegt werden.
Auserdem war Clubmusik und Hiphop noch nie direkt von Musikern abhängig, sondern von deren Veröffentlichungen.Abgesehen mal von Sugarhill gang und Giorgio Moroder ganz plakativ gesagt

Viele wirds sicher freuen dass so ein Tool rauskommt und ich freue mich auch! Ich finds schon sehr kreativ und befriedigend Samples zu verwurschteln. Ist doch auch eine kreative Tätigkeit!
 
ich hab mal mit einer unisoftware (aus den usa?) herumgespielt die machte mit beliebigem audiomaterial folgendes:

1 zerlegen des materials in vordergrund (töne, geräusche) und hintergrund
2 resynthese der elemente durch additive sinusschwingungen
3 neue ambient soundlandschaften aus dem grundmaterial

das fand ich auch ziemlich erstaunlich. durch die resynthese kann man dann wirklich alles mit tonhöhe oder zeit ohne klangverlust machen. die trennung von hintergrund und vordergrund hat auch top funktioniert.

hab leider vergessen wie das hiess, kennt das jemand, konnte man umsonst runterladen.

so gesehen sind lineare dsp programme schon steinzeittechnologie. die zukunft ist auf jeden fall algorhytmisch ...
 
lilak schrieb:
http://taps.cs.princeton.edu/
könntenwa einen eigenen thread dazu machen ....
Solltenwa, ist nämlich offenbar recht anders als Melodyne. Melodyne setzt immer voraus, dass eine notenbasierte Musik zugrunde liegt. Ist das bei dem eingespielten Material der Fall, so bekommst du sinnvolle, bearbeitbare musikalische Objekte. Diesen von vornherein musikalischen Bezug hat Tapestrea (wie viele andere) offenbar nicht, es sieht nur das Audiosignal. Das darf aber dann auch ohne inhaltlich einschränkenden Annahmen jedes Material sein. Je nachdem, ob man "in Noten denken" möchte oder nicht, wird man Melodyne brauchen können, oder aber sich andere Werkzeuge suchen. Tapestrea könnte gut so eines sein. Ich werde es mal ausprobieren, vielen Dank jedenfalls!
 
ja klar ... und im gegensatz zu melodyne steht da nicht methusalem dahinter sondern junge programmiercracks. richtig spass macht das vor allem in verbindung mit "chuck", einer programmiersprache für audio ... ist halt alles open source ohne copyrightsgehabe. mit chuck hab ich auch mal rumgespielt ist wieder ein eigenes universum für sich.
 
Ich habe den Eindruck, dass ich klarstellen muss: Nichts davon war wertend gemeint.

Übrigens habe ich Tapestrea gerade ausprobiert. Ist schon wieder von der Platte gelöscht. Das war jetzt wertend gemeint.
 
na dit ging ja schnell! hast du die 4x4 bassdrum vermisst? das jetzt war auch nicht wertend gemeint ...

also ich finde einfach sachen interessant die von revoluzzern als neue konzepte in den raum geworfen werden und dann muss man sich das als "user" erst mal selbst zusammenbauen. (so ist ursprünglich ableton entstanden) - wobei programmierfähigkeiten entscheidend weiterhelfen.

was ich nicht so toll finde ist wenn eine firma genau die kreativen energien "abschöpft", dann ein "produkt" auf den markt bringt und das rechtsanwalttechnisch absichert (so ist microsoft entstanden) ... den eindruck hab ich bei melodyne immer auch wenn rauschebart noch so 68ger daherkommt.
 


Neueste Beiträge

News

Zurück
Oben