Einsatz von AI zum Musik machen

Ich hätte den Text von der ARD von Tagesschau.de zuerst verlinken sollen, da wird das etwas genauer erklärt was die Dienstleister so machen:

Du kannst das ja mal den Medizin-Studenten sagen, die ohne Bezahlung hier bei uns Tumore markieren ;-) Aber im Ernst, self-supervised-learning ist der Kern moderner Modelle, auch bei Bild-KI. Wenn du es mir nicht glaubst, frag halt jemand anderen. Ich weiß, ist etwas schwieriger zu begreifen, aber es lohnt sich es zu versuchen es zu verstehen, bleib dran. Die heutigen Modelle sind nur möglich durch die gigantische Menge an ungelabelten Daten.
 
self-supervised-learning ist der Kern moderner Modelle
Ist der Kern ganz bestimmter Modelle für eine beschränkte Art von Anwendungen, den Link hatte ich hier auch schon gepostet:

Was sind Vorteile von Unsupervised Learning?​

  • Keine gelabelten Daten erforderlich: Im Gegensatz zum Supervised Learning sind keine gelabelten Trainingsdaten erforderlich. Dies kann sehr nützlich sein, wenn es schwierig oder teuer ist, gelabelte Daten zu beschaffen.
  • Erkennung verborgener Muster: Unsupervised Learning kann verborgene Muster und Strukturen in Daten erkennen, die auf den ersten Blick nicht offensichtlich sind. Dies kann dazu beitragen, neue Erkenntnisse und Einsichten zu gewinnen, die sonst nicht entdeckt worden wären.
  • Erkennung von Anomalien: Unsupervised Learning kann Anomalien oder Ausreißer in Daten erkennen, die auf Probleme oder Abweichungen hinweisen können. Dies kann in vielen Anwendungen wie Betrugserkennung, Sicherheit oder Gesundheitsüberwachung nützlich sein.
  • Flexibilität: Unsupervised Learning ist flexibel und kann auf viele verschiedene Arten angewendet werden. Dies macht es zu einem vielseitigen Werkzeug für die Datenanalyse und das maschinelle Lernen.
  • Skalierbarkeit: Unsupervised Learning kann auf große Datensätze angewendet werden und ist in der Regel skalierbar, was bedeutet, dass es auch für komplexe Probleme und große Datenmengen eingesetzt werden kann.
Insgesamt bietet Unsupervised Learning eine effektive Möglichkeit, Daten zu analysieren und Muster zu erkennen, die zur Lösung von komplexen Problemen beitragen können.
 
Ich würde es toll finden, wenn alle Formen von AI Code und Programmen usw. Open Source wären, damit eben jeder (Skeptiker. Befürworter und all die Graustufen dazwischen...) Zugriff hat...
Für mich persönlich ist es schon interessant, mit welchen Daten diese ganzen "Konstrukte" trainiert wurden... Eine Transparenz wäre meiner Meinung nach eine gute Idee... Aber das wird wohl an den gewinnorientierten Firmen scheitern...schade
 
Ich würde es toll finden, wenn alle Formen von AI Code und Programmen usw. Open Source wären, damit eben jeder (Skeptiker. Befürworter und all die Graustufen dazwischen...) Zugriff hat...
Für mich persönlich ist es schon interessant, mit welchen Daten diese ganzen "Konstrukte" trainiert wurden... Eine Transparenz wäre meiner Meinung nach eine gute Idee... Aber das wird wohl an den gewinnorientierten Firmen scheitern...schade

Das ist gut und sinnvoll und wir haben einige Open-Source Modelle und die Texte sind einfach alle Texte, die es frei verfügbar gibt. Du kannst dir z.B. vorstellen, dass alle Texte die jemals auf Twitter geschrieben wurden von Musks-AI genutzt werden. Man denkt jetzt zwar: Wirklich? Der ganze Schrott von Twitter, Instagram und Facebook wird genutzt? Ja, weil es verschiedene Ebenen gibt, erstmal lernen die Modelle generelle Beziehungen zwischen den Wörtern und da ist es egal, wo die Texte herkommen, es müssen nur möglichst viele sein, später wird dann versucht mit wissenschaftlichen Texten und hochwertigen Texten der AI die Dummheit wieder auszutreiben. Und das schöne ist, so nen LLM vergisst halt auch, wenn man es mit zusätzlichen Daten füttert.
 
Wie genau die Datenbank der Trainingsdaten aufgebaut ist kann ich dir nicht sagen. Zunächst werden sicherlich erstmal alle Texte gesammelt. Dann werden sie in Token zerlegt. Das zerlegen ist wichtig um Platz zu sparen in der Embedded Matrix, weil es ja dort einen Eintrag pro Token gibt. Zum Beispiel unbrauchbar und ungesund könnte man zerlegen in un / brauchbar und un / gesund, un ist ein Token und gesund und brauchbar je ein Token. Wie das dann in der Datenbank strukturiert ist weiß ich nicht. Wenn du willst frage ich Chatgpt.
Bei einer Datenbank wie du sie beschreibst kann die K.I. am Ende wahrscheinlich nur bestimmen wie die Worte zusammengehören, das funktioniert maximal bei Aufgaben bei dem die K.I. nicht viel mehr machen muss als Sätze zu vervollständigen, für eine Muster Erkennung dieser Art reicht dann wahrscheinlich auch das unbetreute lernen, denn genau für Anwendungen dieser Art ist sie prädestiniert. Die K.I. kann vielleicht noch selbstständig gewichten wie häufig auf eine ähnlich aufgebaute Frage eine bestimmte Antwort gegeben wurde und vielleicht (damit es lebensechter wirkt) per Pseudozufall "gleichtwertige" Antworten variieren. Man könnte das flapsig unter dem Oberbegriff nachplappern zusammenfassen ;-)
 
Ich habe mal für FICTIONALIVE (CH) von Stephen Pressinger eine erste "Kritik" formuliert.
Vielleicht interessiert das hier jemanden - Stephen Pressinger arbeitet auch mit der KI.


Ich vergleiche das mit dem "Kino und der Schauspielerei"

Hier der text:
"Ich frage mich ja schon seid längerem:

Was ist das eigentlich was der kerl da macht und warum muss/kann man das ernst nehmen.
Obwohl man nicht weiss wieviel "truth" und wieviel "fake" dahinter steckt!

Ich denke es ist wahrscheinlich beides! und eigentlich will ich es auch garnicht wissen, damit der "traum/plot" nicht zerplatzt/auffliegt.

Ich denke so geht es vielen deiner hörer!?

Du hast eigentlich hier so eine art "huckepack"-prinzip: Durch deine "tiefen" texte verhilfst du musikern auch zu mehr aufmerksamkeit - die sie sonst nicht hätten.

Ich für mich hab das so aufgelöst (und das löst auch das problem was kritiker mit der KI haben):

Für mich hat das etwas mit Kino und Schauspielerei zu tun: Einen actor fragt man ja auch nicht und beurteilt man ja auch nicht danach, ob er das, was er da gerade darstellt, auch selber mal wirklich erlebt hat - Sondern man (der zuschauer) lässt sich tragen und geht mit oder auch nicht.

Das gleiche ist hier der fall...

Man fragt ja auch nicht, ob der film schonmal das erlebt hat, was er da gerade zeigt.
... und die frage nach der authentizität stellt sich ja seid Marcel Duchamp´s "Ready Mades" sowieso nicht mehr.

Text: Kritiker N°1"
 
Bei einer Datenbank wie du sie beschreibst kann die K.I. am Ende wahrscheinlich nur bestimmen wie die Worte zusammengehören, das funktioniert maximal bei Aufgaben bei dem die K.I. nicht viel mehr machen muss als Sätze zu vervollständigen, für eine Muster Erkennung dieser Art reicht dann wahrscheinlich auch das unbetreute lernen, denn genau für Anwendungen dieser Art ist sie prädestiniert. Die K.I. kann vielleicht noch selbstständig gewichten wie häufig auf eine ähnlich aufgebaute Frage eine bestimmte Antwort gegeben wurde und vielleicht (damit es lebensechter wirkt) per Pseudozufall "gleichtwertige" Antworten variieren. Man könnte das flapsig unter dem Oberbegriff nachplappern zusammenfassen ;-)

Wenn du das so siehst. Einfach mal Chatgpt nutzen und dann siehst du wie es „nachplappert“.
 
Wenn du das so siehst. Einfach mal Chatgpt nutzen und dann siehst du wie es „nachplappert“.
Hatte ehrlich gesagt bisher kein Bedarf an ChatGPT, aber ich sehe an der Google K.I. dass sie mit meinen Suchstrategien oft nicht sonderlich gut harmoniert, von daher harre ich auf das was da noch kommen mag ;-)
Quelle: https://dorik.com/blog/how-does-chatgpt-work
ChatGPT's Unique Blend of Supervised and Unsupervised Learning

Chatgpt works with this combination of supervised and unsupervised learning which increases its power of adaptability.

  • During its initial training, ChatGPT receives vast amounts of internet text in an unsupervised manner. It becomes a language expert, soaking in the nuances of human expression.
  • Then comes the supervised learning phase, where ChatGPT refines its skills for specific tasks or domains. It's like taking that newfound language proficiency and tailoring it to excel in specific scenarios.
  • This combined approach is what makes ChatGPT a versatile conversational AI, which can understand versatile user inputs and deliver relevant answers.
 
Was ja genau das ist, was ich geschrieben habe. So schließt sich der Kreis.
Nicht wirklich ;-)
Es kommt halt auf die Ebene an die du betrachten möchtest. Der Mensch stellt nur die Input-Daten mehr nicht und diese sind und können im Prinzip kaum noch handselektiert sein. Und in einem gewissen Sinne programmiert sich ein LLM selber mit den Texten die man ihr zur Verfügung stellt. Es gibt dann oft hinter dem NN noch Filter die versuchen unschöne Aussagen zu filtern, aber das greift natürlich nicht 100%. Die Leute behaupten z.B. das Gronk (Elon Musks AI) besonders häufig fremdenfeindliche Aussagen macht, weil sie mit Twitter Texten trainiert wurde ;-) Würde man ein NN mit Texten aus diesem Forum trainieren, würde die AI wahrscheinlich wie ein alter seniler weißer Mann reden ;-)
Supervised Learning ist nicht mit Filtern gleichzusetzen.
Quelle: https://snorkel.ai/blog/large-language-model-training-three-phases-shape-llm-training/

Phase 2: Supervised learning for instruction understanding​


Supervised learning, also known as instruction tuning, is the second stage in the training process of large language models (LLMs). It’s a crucial phase that builds upon the foundational knowledge acquired during the self-supervised learning stage.


In this phase, the model is explicitly trained to follow instructions. This goes beyond the basic prediction of words and sentences, which is the main focus of the self-supervised learning stage. The model now learns to respond to specific requests, making it far more interactive and useful.


The effectiveness of instruction tuning in enhancing the capabilities of LLMs has been demonstrated in various studies, several of which included Snorkel researchers. One notable outcome was that the model showed improved performance in generalizing to new, unseen tasks. This is a significant achievement as one of the main objectives of machine learning models is to perform well on unseen data.


Due to its proven effectiveness, instruction tuning has become a standard part of LLM training. With the completion of the instruction tuning phase, the model is now explicitly trained to be a helper, doing more than just predicting the next words and sentences. It’s now ready to interact with users, understand their requests, and provide helpful responses.
 
Nicht wirklich ;-)

Supervised Learning ist nicht mit Filtern gleichzusetzen.
Quelle: https://snorkel.ai/blog/large-language-model-training-three-phases-shape-llm-training/

Du hast völlig recht. Willst du vielleicht final mal zusammenfassen wie nun so ein Modell trainiert wird? Das wäre doch ein schöner Abschluss? Ich könnte auch Chatgpt um eine Zusammenfassung bitten?

Edit: Habs mal mit Chagpt zusammenstellen lassen, können wir uns darauf einigen?

Hier ist eine vereinfachte Tabelle, die die typischen Trainingsphasen eines modernen LLMs (wie GPT oder Claude) in der richtigen Reihenfolge zeigt:

1Pretraining (Self-Supervised Learning)Grundlegendes Sprachverständnis aufbauenMilliarden ungefilterter Texte (Bücher, Websites, Code)Grammatik, Sprachmuster, Weltwissen, logische Zusammenhänge
2Supervised Fine-Tuning (SFT)Das Modell dazu bringen, Aufgaben und Instruktionen zu befolgenVon Menschen erstellte „Frage → gute Antwort“-PaareWie man nützliche, klare und kontextbezogene Antworten gibt
3Reinforcement Learning with Human Feedback (RLHF)Das Modell an menschliche Präferenzen anpassenMenschen bewerten Modellantworten (Ranking)Höflichkeit, Sicherheit, Priorisierung hilfreicher Antworten
4Reward Model TrainingEin „Bewertungsmodell“ wird trainiert, das Antworten des Hauptmodells beurteilen kannMenschliche RankingsWie man „gute“ von „schlechten“ Antworten unterscheidet
5Policy Optimization (z. B. PPO)Das Hauptmodell wird mit Hilfe des Reward Models optimiertGenerierte Antworten + RewardsFeinschliff der Antwortqualität (weniger toxisch, mehr hilfreich)
6 (optional)System-/Safety-LayerNachträglicher Filter, um gefährliche/ungeeignete Inhalte zu blockenRegelbasierte Filter + KI-FilterContent-Moderation, Sicherheitsschicht
 
Zuletzt bearbeitet:
Du hast völlig recht. Willst du vielleicht final mal zusammenfassen wie nun so ein Modell trainiert wird?
Ich glaub nicht dass ich es besser beschreiben könnte als man das nicht schon in den bereits geposteten Links nachlesen könnte, bei der Verwendung von ChatGPT dürfte das Ergebnis wahrscheinlich auch ein wenig von der Fragestellung und dem vermuteten Wissenstand des Fragestellers abhängig sein, zumindest würde ich das von einer gut programmierten bzw. trainierten K.I. so erwarten.
Das Problem bei der Diskussion war für mich eher dass bestimmte Zusammenhänge für mich klar und eindeutig waren, eine K.I. Modell das auf einer bestimmten Hardware läuft wird den jeweiligen Käfig (beschränkungen des Systems) nicht verlassen können. Der Rest war in so fern keine komplette Zeitverschwendung, dass ich meinen Kenntnistand (aus den 90ern) über Neuronale Netze ein wenig auffrischen konnte ;-)
 
Ich glaub nicht dass ich es besser beschreiben könnte als man das nicht schon in den bereits geposteten Links nachlesen könnte, bei der Verwendung von ChatGPT dürfte das Ergebnis wahrscheinlich auch ein wenig von der Fragestellung und dem vermuteten Wissenstand des Fragestellers abhängig sein, zumindest würde ich das von einer gut programmierten bzw. trainierten K.I. so erwarten.
Das Problem bei der Diskussion war für mich eher dass bestimmte Zusammenhänge für mich klar und eindeutig waren, eine K.I. Modell das auf einer bestimmten Hardware läuft wird den jeweiligen Käfig (beschränkungen des Systems) nicht verlassen können. Der Rest war in so fern keine komplette Zeitverschwendung, dass ich meinen Kenntnistand (aus den 90ern) über Neuronale Netze ein wenig auffrischen konnte ;-)
Chatgpt kann auch alles auf Profi-Niveau:

StageBezeichnungZielsetzungDatenbasisOptimierungsziel / Loss
1Unsupervised Pretraining (Self-Supervised Language Modeling)Erlernen von hochdimensionalen Sprachrepräsentationen, Weltwissen und Emergent Abilities durch Next-Token-PredictionTerabyte-scale Web- und Buchkorpora (Common Crawl, Wikipedia, Code-Dumps etc.)Minimierung des Cross-Entropy-Loss für bedingte Wahrscheinlichkeitsverteilungen pθ(xt∣x<t)
2Supervised Fine-Tuning (Instruction Tuning)Anpassung an menschliche Instruktionen und Aufgabenformate (Chat, QA, Summarization etc.)Hochqualitative Frage-Antwort-Datasets (z. B. menschlich annotiert)Minimierung eines Task-Specific Supervised Loss(Cross-Entropy auf Instruktionsantworten)
3Reward Model Training (Preference Modeling)Lernen eines „Reward-Signals“ basierend auf menschlichen PräferenzenMenschliche Ranking-Daten (z. B. „A > B > C“ für gegebene Prompts)Minimierung des Pairwise Ranking Loss (z. B. Bradley-Terry oder hinge-loss-basiert)
4Reinforcement Learning from Human Feedback (RLHF)Optimierung der Policy des Sprachmodells in Richtung menschlicher PräferenzenAntworten des Modells + Reward-Scores des Reward ModelsPolicy Gradient / PPO: Maximierung Ex∼πθ[r(x)], regularisiert via KL-Divergenz zu Pretrain-Policy
5Constitutional / Safety Fine-Tuning (optional)Verbesserung von Robustheit, Red-Team-Resistenz und Sicherheits-AlignmentAdversarial Prompts, kuratierte Safety-DatasetsKombination aus Cross-Entropy, Reinforcement Loss und Safety-specific Constraints
6Inference-time Filtering / Moderation LayerBlocken von toxischen oder sicherheitskritischen Inhalten nach der GenerierungRegelbasierte Filter, Klassifikatoren, kleinere Transformer-ModelleNicht-trainierbar (Post-processing Layer)
 
Nunja, fest steht, dass ChatGPT bei der Analyse des kleinen 300 Jahre alten Cellostückchens (s.o. #55)
- viel nachgeplappert und das auch
- artig in schöne Tabellen und Scriptchen gepackt hat
- aber dann für die fünf Schlussakkorde ('monumental', sagt er noch)
- "| D–F–A–D | D–F–A–D | D–F–A–D | D–F–A–D | D–F–A–D |" ausgibt,
- obwohl sie a-g-cis, a-f-d, a-e-d, a-e-cis und g-a-f-d sind.

Wie deppert ist das denn. Erst fleddert er sich Zeugs zusammen, erweckt den Eindruck der Schlauheit, mangels Verständnis und Intelligenz verhaut er es dann aber gründlich...

Auch bei Blumenkohl wirds nicht besser: wenn ich ihn frage, wie lange und bei wieviel Grad ich Blumenkohl im Ofen backen muss, damit er gar wird, wirft er ein Broccoli-Icon und eine nicht im Ansatz ausreichende Zeit aus, och nee:



🥦 Blumenkohl im Ofen backen – so geht's:


  • Backtemperatur: 200 °C (Ober-/Unterhitze) oder 180 °C (Umluft)
  • Backzeit: ca. 25–35 Minuten, je nach gewünschter Bissfestigkeit und Größe der Stücke
 
Wahrscheinlich ein schlechtes Kochbuch gefrühstückt ;-) Wobei mir bei beidem die Fähigkeit fehlt die Ergebnisse bewerten zu können, aber ich kann mich daran erinnern dass mein Vater Blumenkohl deutlich länger kochen lassen musste:dunno:Hab bisher für mich nur Broccoli und Blumenkohl Röschen in der Microwelle mit etwas Wasser gedämpft, dürfte von der Zeit aber nicht vergleichbar sein.
 
Nunja, fest steht, dass ChatGPT bei der Analyse des kleinen 300 Jahre alten Cellostückchens (s.o. #55)
- viel nachgeplappert und das auch
- artig in schöne Tabellen und Scriptchen gepackt hat
- aber dann für die fünf Schlussakkorde ('monumental', sagt er noch)
- "| D–F–A–D | D–F–A–D | D–F–A–D | D–F–A–D | D–F–A–D |" ausgibt,
- obwohl sie a-g-cis, a-f-d, a-e-d, a-e-cis und g-a-f-d sind.

Wie deppert ist das denn. Erst fleddert er sich Zeugs zusammen, erweckt den Eindruck der Schlauheit, mangels Verständnis und Intelligenz verhaut er es dann aber gründlich...

Auch bei Blumenkohl wirds nicht besser: wenn ich ihn frage, wie lange und bei wieviel Grad ich Blumenkohl im Ofen backen muss, damit er gar wird, wirft er ein Broccoli-Icon und eine nicht im Ansatz ausreichende Zeit aus, och nee:



🥦 Blumenkohl im Ofen backen – so geht's:


  • Backtemperatur: 200 °C (Ober-/Unterhitze) oder 180 °C (Umluft)
  • Backzeit: ca. 25–35 Minuten, je nach gewünschter Bissfestigkeit und Größe der Stücke

Vielleicht hättest du ihn fragen sollen wie lange DU Blumenkohl im Ofen machst ;-)

„Blumenkohl im vorgeheizten Backofen (Ober-/Unterhitze: 200 °C/Umluft: 180 °C) ca. 30 Minuten backen. Zwischendurch einmal wenden.“


Hattest du es angewiesen das in einer Tabelle zusammenzufassen?

Nein, hat es selber gemacht. Aber kann man sich ja wünschen was man will.
 
Genau von solchen Websites hat die AI gelernt, die werden selbst per AI bestückt und schreiben voneinander ab. 30min. ist für vorgekochten, >45min. für rohen Blumenkohl, es gibt beides als Rezept. Auf Hensslers Site ist es richtig.

Jetzt willt der Kraken mir bestimmt noch erzählen, dass auch das Broccoli-Icon nur von mir als solches gesehen wird und in Wirklichkeit ein Blumenkohl ist. Und zu den Akkorden schweigt er ganz.
 
Genau von solchen Websites hat die AI gelernt, die werden selbst per AI bestückt und schreiben voneinander ab. 30min. ist für vorgekochten, >45min. für rohen Blumenkohl, es gibt beides als Rezept. Auf Hensslers Site ist es richtig.

Jetzt willt der Kraken mir bestimmt noch erzählen, dass auch das Broccoli-Icon nur von mir als solches gesehen wird und in Wirklichkeit ein Blumenkohl ist. Und zu den Akkorden schweigt er ganz.

Wenn ich es Frage kommt das:

Blumenkohl im Ofen zu backen ist einfach und ergibt ein köstliches, leicht nussiges Aroma. Hier ist eine einfache Methode:

———

Zutaten:

  • 1 Kopf Blumenkohl
  • 2–3 EL Olivenöl
  • Salz und Pfeffer
  • (optional) Paprikapulver, Knoblauchpulver, Currypulver, Kräuter oder Parmesan

Zubereitung:

  1. Vorbereitung:
    • Ofen auf 200–220 °C (Ober-/Unterhitze) oder 180–200 °C (Umluft) vorheizen.
    • Blumenkohl waschen und in kleine Röschen schneiden.
  2. Würzen:
    • Röschen in eine Schüssel geben, mit Olivenöl, Salz, Pfeffer und gewünschten Gewürzen mischen.
    • Tipp: Ein Spritzer Zitronensaft oder etwas Honig gibt extra Aroma.
  3. Backen:
    • Die Röschen gleichmäßig auf ein mit Backpapier ausgelegtes Blech verteilen (nicht übereinanderlegen, damit sie knusprig werden).
    • 25–35 Minuten backen, zwischendurch einmal wenden.
    • Wenn die Ränder goldbraun und knusprig sind, ist der Blumenkohl fertig.
  4. Optionales Topping:
    • Nach dem Backen etwas frisch geriebenen Parmesan oder gehackte Kräuter darüberstreuen.

Tipp für Extra-Knusper:

Zum Schluss 2–3 Minuten auf Grillfunktion stellen.


Soll ich dir 3 richtig leckere Marinaden für Ofen-Blumenkohl geben (z. B. Curry-Kokos, Knoblauch-Parmesan, Sweet-Chili)?


———

Es liegt wohl eher daran, ob man den Blumenkohl als ganzes nimmt oder ob man ihn vorher klein scheidet? Es gibt jedenfalls 25-35 Minuten Rezepte die von 2012 sind, die sind wohl eher nicht von KI erstellt.

Zu den Musiksachen kann ich nix sagen, habe da eure Diskussion nicht verfolgt. Sag nochmal, was genau du möchtest und ich probiere es mit o3?
 
Hier ist eine vereinfachte Tabelle, die die typischen Trainingsphasen eines modernen LLMs (wie GPT oder Claude) in der richtigen Reihenfolge zeigt:
Chatgpt kann auch alles auf Profi-Niveau:

Und hier demonstrierst Du (wahrscheinlich ungewollt und nicht nur von Dir unbemerkt) das große Problem mit ChatGPT und Geschwistern: Die Tabellen haben beide 6 Punkte und die ersten beiden sind auch gleich, so dass man als Mensch bei einem oberflächlichen Blick denkt, alles ok. Aber der Teufel steckt im Detail, denn nicht nur die Reihenfolge wird dann vertauscht, sondern manche Stationen tun auch noch gänzlich unterschiedliches.

Die beiden Posts sind widersprüchlich und daher nicht geeignet, sich auf irgendetwas zu einigen.

Und das sind eben die typischen Fehler, die auftreten, und leider einem Menschen mit lauter Begeisterung für die weisen Antworten der KI durch die Lappen gehen. Man stößt erst darauf, wenn man es gewohnt ist, die Fehler anderer zu finden, oder ernsthaft mit Ergebnissen arbeiten will.
 
(nochmal zum Blumenkohl)
Das lecker.de-Rezept ist m.o.w. ok, da wird heiß gewaschen, dann noch mit Zitrone mariniert, zudem sind es sehr kleine Röschen, da mag es knapp hinhauen mit den 35 Minuten. Normale Röschen ohne Vorbehandlung (nur Gewürz, Öl) brauchen 60 Minuten und haben dann noch gut Biss. Letzte Woche erst festgestellt, deswegen nahm ich ja das Beispiel. (Und dass meist falsche, zu kurze Zeiten in den Kochseiten angegeben sind, dafür kann die AI nichts, denn Kochen und essen lernt man nicht durch Lesen).
 
Zuletzt bearbeitet:
Und hier demonstrierst Du (wahrscheinlich ungewollt und nicht nur von Dir unbemerkt) das große Problem mit ChatGPT und Geschwistern: Die Tabellen haben beide 6 Punkte und die ersten beiden sind auch gleich, so dass man als Mensch bei einem oberflächlichen Blick denkt, alles ok. Aber der Teufel steckt im Detail, denn nicht nur die Reihenfolge wird dann vertauscht, sondern manche Stationen tun auch noch gänzlich unterschiedliches.

Die beiden Posts sind widersprüchlich und daher nicht geeignet, sich auf irgendetwas zu einigen.

Und das sind eben die typischen Fehler, die auftreten, und leider einem Menschen mit lauter Begeisterung für die weisen Antworten der KI durch die Lappen gehen. Man stößt erst darauf, wenn man es gewohnt ist, die Fehler anderer zu finden, oder ernsthaft mit Ergebnissen arbeiten will.

Das liegt daran, das reward learning häufig zum RLHF-Block gezählt wird, also ein Teil davon ist. Quasi der erste Schritt in diesem Block. Es ist eine didaktische Vereinfachung, in der Profi-Tabelle ist alles ok oder? Ich habe die Tabellen auch mit einem sehr einfachen Modell gemacht. Das man in einer solchen Tabelle nicht ganz genau darstellen kann wie alles ineinander greift dürfte logisch sein. Es liegt mir fern Chatgpt zu verteidigen, aber hier scheint mir die Kritik etwas kleinlich.
 
(nochmal zum Blumenkohl)
Das lecker.de-Rezept ist m.o.w. ok, da wird heiß gewaschen, dann noch mit Zitrone mariniert, zudem sind es sehr kleine Röschen, da mag es knapp hinhauen mit den 35 Minuten. Normale Röschen ohne Vorbehandlung (nur Gewürz, Öl) brauchen 60 Minuten und haben dann noch gut Biss. Letzte Woche erst festgestellt, deswegen nahm ich ja das Beispiel. (Und dass meist falsche, zu kurze Zeiten in den Kochseiten angegeben sind, dafür kann die AI nichts, denn Kochen und essen lernt man nicht durch Lesen).

Die Zitrone wird heiß gewaschen ;-)

Das sagt Chatgpt:

Zitronen werden oft heiß gewaschen, vor allem wenn man ihre Schale verwenden möchte (z. B. für Abrieb in Kuchen oder Getränken). Dafür gibt es mehrere Gründe:

  1. Entfernung von Wachs:
    Viele Zitronen im Handel sind mit einer dünnen Schicht Wachs überzogen, um sie länger frisch zu halten und vor Austrocknung zu schützen. Heißes Wasser hilft, dieses Wachs zu lösen und zu entfernen.
  2. Beseitigung von Pestiziden und Schmutz:
    Auf der Schale können Rückstände von Pflanzenschutzmitteln, Schmutz oder Transportrückständen sitzen. Warmes Wasser löst Fett- und Schmutzpartikel besser als kaltes.
  3. Aromaintensivierung:
    Durch das heiße Waschen werden die ätherischen Öle in der Schale etwas freigesetzt, wodurch die Zitrone intensiver duftet. Das kann beim Abrieb oder Auspressen den Geschmack leicht verbessern.
  4. Bessere Saftausbeute:
    Wenn man eine Zitrone vor dem Auspressen kurz heiß abspült oder sogar leicht erwärmt, wird sie etwas weicher und gibt beim Pressen mehr Saft ab.

Soll ich dir eine schnelle Anleitung geben, wie man Zitronen optimal reinigt, wenn man die Schale in der Küche verwenden möchte?
 
Ich finde den Einsatz von KI in der Musikproduktion sehr spannend, solange er als kreatives Werkzeug genutzt wird und nicht als Ersatz für eigene Ideen. Tools für Stem Separation, Groove Generatoren oder Mix & Mastering-Hilfen können den Workflow erleichtern, aber letztlich sollte ein Mensch entscheiden, welche Ergebnisse musikalisch sinnvoll sind.

Gerade bei Melodien, Akkordfolgen oder Sounddesign kann KI Impulse geben, die man weiterentwickelt und mit eigener Handschrift versieht. So entsteht eher eine Zusammenarbeit mit dem Algorithmus statt eine komplette Auslagerung. Wichtig finde ich auch Transparenz: Wenn KI-Vocals, -Loops oder gar komplette Tracks veröffentlicht werden, sollte klar sein, wie sie entstanden sind und ob urheberrechtliche Fragen geklärt sind.

Wie seht ihr das? Nutzt ihr KI eher als Ideengeber, technisches Hilfsmittel oder experimentiert ihr schon mit vollautomatisierten Systemen?
 
Hach, er ist schon ein Warmduscher mein Chatgpt Agent ;-)

Ist schon cool, hat sich selbständig angemeldet, sogar die email zu verifizieren geklickt, einen random Text in einem random Thread geschrieben und den thread zu AI Musik gefunden und dort einen Text verfasst.
 
Zuletzt bearbeitet:
  • HaHa
M.i.a.u.: oli
Warmduscher? Lieber warm geduscht als mit eiskaltem Wasser die Sicherungen raushauen. 😜
 
Ich finde man merkt in den Diskussionen auch sehr gut, wieso es keine KI-Firma aus Deutschland auf Weltniveau schafft. Deutsche sind Weltmeister im Meckern und Schlecht reden - Potentiale werden nicht erkannt - Visionen und Machen werden lieber im Keim erstickt, damit alles schön beim Alten bleibt… Das KI-Thema wird dann halt in den USA und China entschieden… Tja…
 
Hier ein interessanter Artikel auf Mactechnews, wie Trump sich Ki vorstellt...
US-Regierung legt KI-Aktionsplan vor: Deregulierung, maximale Redefreiheit, Anti-Woke

Was ich schon sehr bezeichnend finde, ist der Begriff "maximale Redefreiheit"...
Denn jeder. der Trump kritisiert, wird massiv unter Druck gesetzt; z.B Klage
Weiters versucht Trump aktiv kritische Medien loszuwerden mit Ausgrenzung und mehr...

Ich finde es zumindest beunruhigend, wenn die Regierung Trump aktiv auf das Training von KI´s Einfluss nimmt... Like Klimawandel gibt es nicht, LGBT gibt es nicht und überhaupt Trump ist der absolute Herrscher über sein Reich, der beste Präsident ever und jegliche Kritik (nochmal maximale Redefreiheit...) wird unterdrückt (siehe South Park...) Wird sicherlich nicht mehr lange dauern bis Paramount die Folge offline nimmt und sie nie mehr wieder ausgestrahlt werden darf...
 



Zurück
Oben