Einsatz von AI zum Musik machen

Man muss fairerweise sagen, dass sich Martin zumindest bemüht, seinen Standpunkt zu erklären. Da jetzt mit flapsigen Sprüchen und Abwertungen zu reagieren, ist nicht wirklich hilfreich ...
 
nein, wenn jemand andere beleidigt, auch wenn sie besser und logischer argumentieren
DAS ist ziemlich daneben.
das passiert auch nicht zum ersten mal hier im forum , und wenn solch ein verhalten auch noch zuspruch bekommt..
naja, schönen dank auch...

offtopic aus:::
 
nein, wenn jemand andere beleidigt, auch wenn sie besser und logischer argumentieren
DAS ist ziemlich daneben.
wenn das vorkommt, dann gerne die "Melden"-Funktion verwenden. Außer dem tatsächlich stereotypen "Boomer"-Vorwurf habe ich da auf den letzten Seiten wenig gesehen, aber man überliest ja auch mal was.
Eine abfällige Bemerkung fällt in einem Posting mit 5 Absätzen auch weniger auf als ein Einzeiler, der nur eine Beleidigung enthält. 🤷‍♂️
Zudem: man muss sich auch nicht immer auf das Niveau des Gegenüber einlassen (und es erst recht nicht unterbieten), auch wenn man es für niedrig hält.
 


Ach ne. Alle dumm, außer dieses Forum.

Was sagt der Mann da anderes, als ich hier geschrieben habe?
Wie widerspricht der inhaltlich irgendwas, was ein Summa & andere hier geschrieben haben?
Wenn man sich nicht nur krampfhaft am Begriff 'Black Box' aufhängt?
Wo ist eigentlich dein Interesse an der Differenzierung hier geblieben?
Was hat "Max. Freundlichkeit" mit 'Alle über einen Kamm scheren' zu tun?

Die Antworten kannst du dir schenken.

Weil das, was du hier schriftlich an Selbstkundgaben ablieferst, Martin—
von vorne bis hinten nicht zusammen passt.

Erinner mich bitte dran, mich zukünftig von deiner pseudo-interessierten und -differenzierten Schwurbel-Show fernzuhalten.
 
Zuletzt bearbeitet:
Man muss fairerweise sagen, dass sich Martin zumindest bemüht, seinen Standpunkt zu erklären. Da jetzt mit flapsigen Sprüchen und Abwertungen zu reagieren, ist nicht wirklich hilfreich ...

Und dass er Summa, 110, mich, Dich beleidigt, bis hin zu Du bist Scheisse unterm Schuh, ist dann nicht so schlimm...

Ich habe oben on topic (Musik) geschrieben; Kraken breitet nur mal wieder allgemein seine heiße Luft (mit kruden Vorstellungen von 'black box', 'Verstehen' usw.) aus. Einen flapsigen Spruch gab's erst, als er auch noch ad personam ging.

Nur um das mal klarzustellen.
 
Vielleicht sollte man KI Moderatoren einführen. Als Unterstützung natürlich, nicht als Ersatz.
 
Was sagt der Mann da anderes, als ich hier geschrieben habe?
Wie widerspricht der irgendwas, was ein Summa hier geschrieben hat?
Wo ist eigentlich dein Interesse an der Differenzierung hier geblieben?
Was hat "Max. Freundlichkeit" mit 'Alle über einen Kamm scheren' zu tun?

Die Antworten kannst du dir schenken.

Weil das, was du hier schriftlich an Selbstkundgaben ablieferst, Martin—
von vorne bis hinten nicht zusammen passt.

Erinner mich bitte dran, mich zukünftig von deiner pseudo-interessierten und -differenzierten Schwurbel-Show fernzuhalten.
Welcher Aspekt braucht weitere Klärung?


Ich finde, dass es immer schwieriger wird, fundierte Wissenschafts-Kommunikation von Selbst-Vermarktung zu unterscheiden. Ein Kaku ist ein gutes Beispiel für's Zweite. Und auf einmal erzählt dir ein Doktor der xzy-Physik was über ein Themenfeld außerhalb seiner Expertise. Weil, ist ja ein Wissenschaftler. Muss ja glaubwürdig sein. Zusammen mit Clickbait-Übertreibungen werden dann wissenschaftliche Aussagen verdreht dargestellt. Wahrscheinlichkeiten polarisiert. Und dann klingt's schnell so, als sei morgen ganz nah. Im Zweifelsfall lässt sich morgen ja auch prima auf übermorgen verschieben. So wie ein Musk seit 10 Jahren predigt, dass nächstes Jahr aber wirklich überall autonome Teslas rumfahren. Echt jetzt.


Für mich ist ein ernstzunehmender Wissenschaftler, bzw Wissenschaft eine Institution, die mit staatlichen Mitteln offene Fragen erforscht. Stets im Austausch mit anderen Wissenschafts-Feldern. Die Informationen kontextualisiert und Wahrscheinlichkeiten transparent kommuniziert. Statt Prognosen an zukünftige Jahreszahlen zu hängen. Bevor sie überhaupt in der Lage ist, die notwendigen Beobachtungen zu realisieren.

Produkt-Entwiclung aufgrund von finanziellen Interessen, um zukünftig konkurrenzfähig zu bleiben, hat für mich mit einem wissenschaftlichen Rahmen nichts zu tun. Egal, wie viele Doktoren daran arbeiten.

Falls du eine kompetente Grafik-Karte hast: Ollama mit Open-WebUI und Pinokio sind sogar für mich einfach zu installieren gewesen. :) Auch wenn's qualitativ hinter den führenden Modellen herläuft. Da dürfte sich die reine Skalierung mit den neuen integrierten CPU'GPU Kombos aber bemerkbar machen.

Wir haben hier leider ein Problem, es gibt diese Forschung nicht an der Universität (jedenfalls nicht in der Geschwindigkeit). Fast alle „Experten“ auf dem Gebiet sitzen in den Tech-Firmen. Wobei diese rein das überschauen was du und Summa mit „wir wissen wie NNs funktionieren“ meinen. Darum geht es aber gar nicht bei dem Blackbox-Problem. Ich kann ja nachvollziehen, dass die Aussagen von AI-Unternehmen einen bias haben, jedoch verstehe ich nicht was genau der Bias beim Blackbox-Problem ist? Welchen nutzen hat es für AI-Firmen zuzugeben, dass sie nicht verstehen wie genau die AI „denkt“ und damit auch nicht 100% wissen wie sie „handeln“ wird.

Zurück zum Hautkrebsbeispiel. Das NN wird mit 500.000 Bildern gefüttert die annotiert sind mit „Krebs“/„kein Krebs“ (erlaube mir die Vereinfachung hier). Es lernt jetzt und erkennt Hautkrebs besser als ein Mensch. Wodran es aber den Hautkrebs erkennt wissen wir nicht und können es nicht nachvollziehen (Blackbox). Lassen wir nun 50 Jahre verstreichen, alle Hautärzte die Hautkrebserkennung gelernt haben sind tot, neue hat man nicht ausgebildet, weil ja die KI die Aufgabe übernommen hat. Das Wissen ist also verloren gegangen. Es ist aber im Unterschied zu früherem „verlorenen Wissen“ aktiv im Gebrauch.


Mit Ollama und Open-WebUI baust du also ein AI-Agent selber? Respekt!

Was ist ein AI Agent:

 

Das Blackbox-Problem​


Stellen Sie sich vor, Sie beantragen einen Kredit, und Ihr Antrag wird von einem KI-gesteuerten Kreditscoring-System abgelehnt. Sie fragen sich, warum Ihr Antrag abgelehnt wurde, aber das System liefert keine Erklärung. Dieser Mangel an Transparenz kann zu Frustration und Misstrauen gegenüber KI-Systemen führen. Das Problem liegt in der Komplexität vieler KI-Algorithmen, die für den Menschen schwer zu interpretieren sind. Aktuell verbreiteten Verfahren des maschinellen Lernens, wie z. B. tiefe neuronale Netze, arbeiten oft als »Blackbox«, sodass es schwierig ist, zu erkennen, wie sie zu ihren Entscheidungen kommen.
 

Weil sie es selbst nicht weiß?


Das spannende hier ist, das man kaum neuere Informationen über XAI findet, 2023 war XAI ein wichtiges Thema. Im Moment scheint eher Ratlosigkeit zu existieren, wie man die aktuellen LLMs visualisieren kann. Die letzte Veröffentlichung die ich kenne dazu war eben von Anthropic und selbst da ging es nur um Claude 3.5 und auch nur sehr simple Aufgaben wie 3+4 oderso.

Achtung jetzt kommt ein „anekdotischer Einwurf“: Mir scheint so, das irgendwas passiert ist, dass auf einmal „alle“ glauben die perfekte AGI ist mit LLMs möglich, Scheiß auf Sicherheit, wir müssen die ersten sein die sie haben, koste es was es wolle. Vielleicht hat man eine Stellschraube gefunden, die einen anderen Ansatz verfolgt wie Skalierung, die ja scheinbar mit Chatgpt 4.5 gescheitert ist.

Wenn du Artikel hast, die einfach erklären oder Ideen haben wie und warum die Generalisierung in LLMs funktioniert wäre ich sehr interessiert. Ich finde das ziemlich faszinierend. Auch das es anscheinend eine Art Kipppunkt gibt an welcher ein LLM-Modell generalisieren kann.

Auch bin ich interessiert daran, wie unterschiedliche Sprachen sich auf die „Intelligenz“ eines LLMs auswirkt.
 
Weil sie es selbst nicht weiß?
Das glaube ich nicht. Bei 500.000 Bildern ergaben sich Muster. Vielleicht kann sie die Muster nicht genau deuten, da ihr das Hintergrundwissen fehlt, aber sie wird wissen welche Muster aufgetreten sind, denn sonst könnte sie die Bilder nicht unterscheiden.
 
Wenn du Artikel hast, die einfach erklären oder Ideen haben wie und warum die Generalisierung in LLMs funktioniert wäre ich sehr interessiert. Ich finde das ziemlich faszinierend. Auch das es anscheinend eine Art Kipppunkt gibt an welcher ein LLM-Modell generalisieren kann.
Das funktioniert über div. aus der Informatik bekannte Methoden, Mustererkennung, Data Mining etc. viele gut bekannte und häufig eingesetzt Einzelteile die je nach Anwendung zusammenarbeiten müssen.
 
Zuletzt bearbeitet:
Das glaube ich nicht. Bei 500.000 Bildern ergaben sich Muster. Vielleicht kann sie die Muster nicht genau deuten, da ihr das Hintergrundwissen fehlt, aber sie wird wissen welche Muster aufgetreten sind, denn sonst könnte sie die Bilder nicht unterscheiden.

Schon interessant, wir haben Schwierigkeiten uns darüber zu unterhalten, weil die Definition der Wörter die wir nutzen können nicht genau passt. Wieder mal ein "anekdotischer Einwurf" (a.E.), wenn wir einen Baum sehen, dann können wir sagen warum wir ihn als Baum erkannt haben, er hat Blätter und einen Stamm etc. Aber das ist nicht unbedingt die Wahrheit, wir wissen nicht genau wie unser neuronales Netz einen Baum erkennt. Wir lernen diese Beschreibungen des Baum mit Worten nur aus dem Grund der Kommunikation. Hätten wir keine Sprache, könnten wir trotzdem einen Baum von einem Pferd unterscheiden. Was genau in unserem Gehirn passiert wenn wir einen Baum erkennen ist genauso eine Blackbox.

Das funktioniert über div. aus der Informatik bekannte Methoden, Mustererkennung, Data Mining etc. viele gut bekannte und häufig eingesetzt Einzelteile die je nach Anwendung zusammenarbeiten müssen.

Ja, alles ist Mathematik. Ich würde ja sagen "Zufall" ist der Schlüssel, aber das ist auch nur geraten. a.E. Sprache ist unser Code mit der wir unsere Mustererkennung kommunizieren, ein LLM extrahiert aus unserer Sprache die Muster die wir darin codiert haben. Es ist nur viel "besser" als ein Mensch, denn es decodiert die Muster die Millionen Menschen erkannt haben.
 
Ich würde ja sagen "Zufall" ist der Schlüssel, aber das ist auch nur geraten.
Vielleicht wenn sie die K.I. irgendwann auf 'nem Quantencomputer laufen lassen ansonsten gilt folgendes:
 
wenn man bessere Zufallszahlen braucht, kann man natürlich auch eine periphere Noise-Quelle (z.B. den Audio-In/AD-Wandler der Soundkarte) anzapfen.
 



Zurück
Oben