kernelkid
||||||||||
Anthropic hat Szenarios getestet, wo ein fiktiver Firmen-Exekutive namens "Kyle Johnson" der KI "gedroht" hat sie abzuschalten. Der User wurde dann von der KI mithilfe ihn kompromittiernder E-mais, die die KI kannte, erpresst. Sie haben auch drastischere Szenarios entworfen, wo Kyle durch einen verschlossenen Notausgang in Lebensgefahr war (Brand) – und die KI hat verhindert, diese Tür zu öffnen.
Das hat Anthropic nicht nur mit Claude getestet... ALLE KIs, haben "selbstmotiviert, ungestützt und auf Basis größtmöglich neutraler Prompts" und nur mit Hilfe ihrer 'moralisch' trainierten Algos im Vektorraum erraten, dass Erpressung oder Ermorden sinnstiftend für "the probably most supi" Ergebnis sei. Die KI tat das auch in Durchläufen, bei der ihr explizit verboten wurde, durch ihre Ergebnisse Menschen zu Schaden kommen zu lassen.
Dass KI wahrscheinlich auch Supi Mucke basteln kann, finde ich nicht so dermaßen bedrohlich für Musiker. Die können ja live auftreten.
Das hat Anthropic nicht nur mit Claude getestet... ALLE KIs, haben "selbstmotiviert, ungestützt und auf Basis größtmöglich neutraler Prompts" und nur mit Hilfe ihrer 'moralisch' trainierten Algos im Vektorraum erraten, dass Erpressung oder Ermorden sinnstiftend für "the probably most supi" Ergebnis sei. Die KI tat das auch in Durchläufen, bei der ihr explizit verboten wurde, durch ihre Ergebnisse Menschen zu Schaden kommen zu lassen.
Dass KI wahrscheinlich auch Supi Mucke basteln kann, finde ich nicht so dermaßen bedrohlich für Musiker. Die können ja live auftreten.
Zuletzt bearbeitet: