Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Kindergeburtstag ist aber Next Level, da gehts ja ums Überleben. Das Offensichtliche blieb dir verborgen, weil du nur ein Tunnelblick für die Meldung (Grüße gehen raus an den Anzeigenhauptmeister)...
Die Frage ist, ob es überhaupt noch ne Möglichkeit gab in Europa so etwas zu etablieren oder ob wir das Rennen in der digitalen Welt schon vor 20 Jahren verloren haben. Wer sollte die Summen...
Hach, er ist schon ein Warmduscher mein Chatgpt Agent ;-)
Ist schon cool, hat sich selbständig angemeldet, sogar die email zu verifizieren geklickt, einen random Text in einem random Thread...
Die Zitrone wird heiß gewaschen ;-)
Das sagt Chatgpt:
Zitronen werden oft heiß gewaschen, vor allem wenn man ihre Schale verwenden möchte (z. B. für Abrieb in Kuchen oder Getränken). Dafür gibt...
Das liegt daran, das reward learning häufig zum RLHF-Block gezählt wird, also ein Teil davon ist. Quasi der erste Schritt in diesem Block. Es ist eine didaktische Vereinfachung, in der...
Wenn ich es Frage kommt das:
Blumenkohl im Ofen zu backen ist einfach und ergibt ein köstliches, leicht nussiges Aroma. Hier ist eine einfache Methode:
———
Zutaten:
1 Kopf Blumenkohl
2–3 EL...
Vielleicht hättest du ihn fragen sollen wie lange DU Blumenkohl im Ofen machst ;-)
„Blumenkohl im vorgeheizten Backofen (Ober-/Unterhitze: 200 °C/Umluft: 180 °C) ca. 30 Minuten backen...
Chatgpt kann auch alles auf Profi-Niveau:
Stage
Bezeichnung
Zielsetzung
Datenbasis
Optimierungsziel / Loss
1
Unsupervised Pretraining (Self-Supervised Language Modeling)
Erlernen von...
Du hast völlig recht. Willst du vielleicht final mal zusammenfassen wie nun so ein Modell trainiert wird? Das wäre doch ein schöner Abschluss? Ich könnte auch Chatgpt um eine Zusammenfassung...
Ich habe mal für FICTIONALIVE (CH) von Stephen Pressinger eine erste "Kritik" formuliert.
Vielleicht interessiert das hier jemanden - Stephen Pressinger arbeitet auch mit der KI...
Das ist gut und sinnvoll und wir haben einige Open-Source Modelle und die Texte sind einfach alle Texte, die es frei verfügbar gibt. Du kannst dir z.B. vorstellen, dass alle Texte die jemals auf...
Ich habe hier eine kleine Indie-Band, mit der ich ein wenig verbandelt bin. Zwei junge Menschen, die ein wenig Musik machen. Hört mal rein, wäre schade, wenn sie den Mut verlieren weiter zu...
Du kannst das ja mal den Medizin-Studenten sagen, die ohne Bezahlung hier bei uns Tumore markieren ;-) Aber im Ernst, self-supervised-learning ist der Kern moderner Modelle, auch bei Bild-KI...
Nein, du missverstehst das. Es geht nur ums Finetuning, damit die KI nicht auf "Du Arschloch" mit "Du Idiot" antwortet, was nämlich viele Menschen so machen würden. Im Prinzip sucht ein Computer...
Ja, Finetuning findet mit gelabelten Daten statt. Aber das sind nur sehr kleine Datensätze. Ich könnte mir aber vorstellen, dass Batches (ein LLM wird hintereinander mit verschieden Batches an...
Wie genau die Datenbank der Trainingsdaten aufgebaut ist kann ich dir nicht sagen. Zunächst werden sicherlich erstmal alle Texte gesammelt. Dann werden sie in Token zerlegt. Das zerlegen ist...
Es geht darum, ob LLMs eine Blackbox sind. Ob wir wissen, warum „Next word prediction“ mit Millionen von Texten am Ende solche Fähigkeiten wie Chatgpt entwickelt. Und ob wir noch nachvollziehen...
Es wird lächerlich. Diese Haarspalterei ist sinnlos.
Strohmann oder Dummheit? Nach seitenlanger Diskussion so eine Antwort. Irgendwann wirds peinlich. Informiere dich halt selbst. Die „Ordnung“...
Der Text ist von 2007? Das wäre dann schon ein wenig veraltet. Google Transformer ist von 2017 und seit dem hat das Ganze Quantensprünge gemacht. Ob das noch mit einem Text zu vergleichen ist von...
Ok, du hast gewonnen, die Trainingsdaten sind in einer Datenbank gespeichert.
Das hat zwar nix mit der eigentlichen Diskussion zu tun...aber wenn es dich glücklich macht.
Ich hoffe du...
Ich habe echt keinen Plan woher du diese Überheblichkeit nimmst.
Woher kommen die Daten? Also für Noobs wie mich kommen sie aus einer Mischung öffentlich verfügbarer Texte (z. B. Websites...
Ich glaube kaum, dass eine Quelle das so beschreibt. Ich hatte dir schon Videos verlinkt, zum Beispiel das des Nobelpreisträgers, aber du willst sie nicht anschauen. Es heist Backpropagation, weil...
Puh, ich verstehe ja von wo du kommst. Du kennst dich aus mit Informatik, Logik, Programmen usw. Worum es geht ist, zu verstehen was ein wenig anders ist. Es gibt keine Datenbank, ein LLM...
Zur Klärung; Es gibt den Programcode, die Backform und die Trainingsdaten, die Zutaten. Daraus entsteht ein Kuchen. Wir wissen wie die Backform aussieht, wir kennen die Zutaten und wissen wie der...
Nein, sie sind nicht gelabelt in LLMs. Das ist es ja gerade was ich dir versuche zu erklären. Zu Beginn ist jeder Token naiv, es besitzt random Zahlen. Also dem Wort „Katze“ wurden ein Vector mit...
Ein LLM baut keine Wörter aus Buchstaben. Jedes Wort ist vereinfacht gesagt ein Token, manchmal werden Wörter noch in mehrere Token aufgesplittet. Aber zur Vereinfachung sei jetzt mal jedes Wort...