Die Zukunft von Musikern

also maschinen bauen die musik machen kriegen wir schon irgendwie hingefrickelt.
die wirkliche herausforderung besteht aber darin, maschinen zu bauen die musik moegen.

dafuer sehe ich noch keinerlei ansatz.
aber ich halte das fuer eine notwendige voraussetzung fuer ersteres,
wenn das mehr sein soll als ein wenig statistik daruber was menschen so im allgemeinen gefaellt.

(siehe auch das 'game of life' beispiel, wo auch nur was interessantes rauskommt. wenn jemand
entsprechende ausgangskonfigurationen waehlt, oder sehr lange probiert und die ergebnisse beurteilt...)
 
Ich könnte mir gut vorstellen, dass um ein System der Größe "Maus" vollständig simulieren zu können, alle Ressourcen des Universums um sehr viele Größenordnungen zu klein wären.
Wer sagt daß man die Maus auf Quantenebene simulieren muss damit die Simulation mentale Zustände erlebt?
U.a. Penrose hatte das zwar behauptet, aber er hatte keine zwingenden Argumente dafür.

Nach allem was wir heute wissen bzw vermuten können ist das Bewusstsein "nur" ein mentaler Zustand
der gewissermaßen ein Modell seiner selbst abbildet.
Es gibt keinen Grund warum ein digitales Modell das nicht leisten könnte.
 
(siehe auch das 'game of life' beispiel, wo auch nur was interessantes rauskommt. wenn jemand
entsprechende ausgangskonfigurationen waehlt, oder sehr lange probiert und die ergebnisse beurteilt...)
Aber das gilt auch für Dich.
Dein Gehirn in ewiger Isolation hätte sehr wenig hervorgebracht, und ohne Vorkonfiguration noch weniger.
 
Knapp 40 min ist grad zu lang, kannst Du's zusammenfassen?
Ich vermute mal: er will den angeblich technikfeindlichen Deutschen die Angst nehmen.

"Ein Computer wird niemals, blah blah. ", die Weltherrschaft an sich reißen, whatever, so in dem Stil.

Dabei ist die deutsche Forschung da hinten dran und eher visionlos, ich schätze das vertritt er in der Position dann
unfreiwilliger Weise auch...
 
Was würdest Du sagen wenn ich ein Katzen"connectom" bis aufs Jota simulieren würde, samt Körper, Schmerzzellen und allem,
und das dann virtuell quälen würde?
Wäre das in Ordnung, und wenn nein, warum nicht?
Wäre es Dir recht wenn man den Versuch mit einer Kopie von Dir machen würde?

Es spricht nichts dagegen und alles dafür daß es der Katze dann genau so gehen würde wie einer "echten" Katze.
Sie würde sich genau so fühlen. Für die Simulation wäre es nicht unterscheidbar ob sie "echt" oder "unecht" ist.


das einzige was dort stand finden würde ist ein mitfühlen des betrachters...also wiederum des menschens.
es gibt keinen digitalen schmerz und auch keinen simulierten schmerz. es gibt jetzt schon tausende gequälte digitale katzen . spüre nichts.
schmerz ist das echteste vom echten. für die simulation ware es nicht unterscheidbar?
das beweisst nur das es eine simulation ist und die kein bewusstsein von sich selber hat. wenn wundert das?

die gefahr die in dem ganzen steckt ist doch eben die vermischung von zwei welten die nicht gleichwertig sind und die fundamentales unterscheidet bei gleichzeitig wachsender unfähigkeit zu differenzieren.........und genau das machst du ja auf dieser ebene schon .


hab mir die videos angeschaut. beeindruckt mich alles kein bisschen. sehe da nur planlose ziellose simulationen die mechanische bewegungen ausführen.......verdammt weit weg von irgendwas auch nur im geringsten menschlichem.

warten wir auf die hybridwesen.
 
Zuletzt bearbeitet von einem Moderator:
Die Videos sollen doch was ganz anderes demonstrieren, nähmlich wie Komplexität und Struktur und Verhaltensweisen aus einfachsten Gegebenheiten entsteht, die nicht "einprogrammiert" sind.
das einzige was dort stand finden würde ist ein mitfühlen des betrachters...also wiederum des menschens.
es gibt keinen digitalen schmerz und auch keinen simulierten schmerz. es gibt jetzt schon tausende gequälte digitale katzen . spüre nichts.
schmerz ist das echteste vom echten. für die simulation ware es nicht unterscheidbar?
das beweisst nur das es eine simulation ist und die kein bewusstsein von sich seber hat
Wo gibt es diese Katzen? Und woher weißt Du daß so eine Simulation keinen Schmerz empfinden würde?
Und wie kommt es daß Du welchen empfindest?
 
ich weiss das diese simulation keinen schmerz empfinden würde weil ich es nicht will.
 
Ich will das auch nicht unbedingt. Aber nach allem was man weiß und vermutet ist das
wahrscheinlich trotzdem der Fall.
 
Knapp 40 min ist grad zu lang, kannst Du's zusammenfassen?
Ich vermute mal: er will den angeblich technikfeindlichen Deutschen die Angst nehmen.

"Ein Computer wird niemals, blah blah. ", die Weltherrschaft an sich reißen, whatever, so in dem Stil.

Dabei ist die deutsche Forschung da hinten dran und eher visionlos, ich schätze das vertritt er in der Position dann
unfreiwilliger Weise auch...
Er erklärt was für eine Art Intelligenz heut künstlich möglich ist und dass es noch andere Formen der menschlichen Intelligenz gibt, wie emotionaler und sozialer Intelligenz, die überhaupt nicht technisch realisierbar sind heutzutage. Die aber das ausmachen was wir Mensch sein nennen. Unser Gehirn wird beispielsweise neben Verbindungen und elektrischen Impulsen auch stark chemisch hormonell gesteuert. Das sind dann die Geschichten wo Emotionen etc mit ins Spiel kommen, Selbsterhaltungstrieb und all sowas. Das hat alles null zu tun mit KI, AI, Deep Learning usw.
Interessant ist noch, dass Deutschland führend in der KI ist, nur sind wir nicht so pseudowissenschaftlich unterwegs wie z.B. die Amis, die eher in die SciFi Richtung ihre nicht beweisbaren Thesen postulieren um medienwirksam Geld einzusacken. Und das klappt recht gut, die Leute glauben wirklich daran, dass die KI Richtung Mensch geht und irgendwann von selbst "erwacht" und was weiß ich nicht noch alles. Da kursiert ziemlich viel Horror um eine Technologie die uns unterstürzen wird, aber uns nie als Mensch ersetzten kann. Jedenfalls nicht in absehbarer Zeit. Eine KI kann z.b. überhaupt nicht abstrahieren etc. Sie muss mühsam aus vielen Beispielen was lernen, während der biologisch Intelligenz ein paar Beispiele und das Abstraktionsvermögen ausreichen. Das sind zwei völlig unterschiedliche paar Schuhe.

Hier mal ein kleiner Textausschnit aus einem Buch "Deep Learning mit Python und Keras" das ich gerade lese:
Neuronales Netz: Der Begriff entstammt zwar der Neurobiologie, aber obwohl einige der grundlegenden Konzepte des Deep Learnings zum Teil durch unser Verständnis vom Gehirn inspiriert wurden, sind Deep-Learning-Modelle keine Nachbildungen des Gehirns.‌ Es gibt keinerlei Hinweise darauf, dass das Gehirn irgendwelche Verfahren einsetzt, die den in modernen Deep-Learning-Modellen eingesetzten Lernmechanismen ähneln. In populärwissenschaftlichen Artikeln wird gelegentlich behauptet, Deep Learning funktioniere wie das Gehirn oder sei dem Gehirn nachgebildet worden, aber das stimmt nicht. Für Neulinge in diesem Fachgebiet wäre es verwirrend und kontraproduktiv, wenn sie annähmen, dass Deep Learning irgendetwas mit Neurobiologie zu tun hat. Vergessen Sie die Mythen und Rätsel, die um die Vorstellung »genau wie unser Gehirn« gesponnen wurden, und am besten auch alles, was Sie über hypothetische Zusammenhänge zwischen Deep Learning und Biologie gelesen haben.
 
Fachwissen lässt sich wohl sehr gut künstlich modellieren. Also wer Fachidiot ist, was ja nicht heißen muss dass dieser Mensch intelligent ist, der muss schon eher um seinen Aufgaben mit einer KI eventuell kämpfen.

Auf jeden Fall ist in Deutschland das größte KI Zentrum und die KI Technologien wie Long Short Term Memory LSTM, die Google etc. jetzt alle einsetzen, kommen auch aus Deutschland. Prof. Dr. Jürgen Schmidhuber glaubt, dass sich die Rechenleistung immer mehr exponentiell steigern wird. Das glaube ich weniger, aber ich bin auch kein Akademiker oder Experte in einem der Bereiche. Den Videobeitrag finde ich auch nur teilweise informativ und zwar den Teil wo es um LSTM geht. Der Anfang ist eher peinlich.

Ansehen: https://www.youtube.com/watch?v=rafhHIQgd2A
 
Mit der Rechenleistung bin ich auch skeptisch und kann es aber auch nicht beurteilen.

Nochmal zu den Punkten oben, meine Sicht:
Erstmal, es ist ein Fehler den Mensch als Maßstab zu nehmen, das ist sowohl Hybris wie Kurzsichtigkeit.

Und Selbsterhaltungstrieb hat vermutlich schon das Connectom des simulierten Wurms mit seinen 300 Neuronen.

Daß die Technik nie den Mensch ersetzen kann ist ein Postulat ohne Grundlage,
geht aber auch am Kern vorbei da die konkreten Ausblicke und Gefahren derzeit ganz woanders liegen,
nähmlich daß zunehmend Entscheidungen und Verantwortung an zunehmend komplexe und anfällige Systeme abgegeben wird.

Was Abstrahieren angeht, das ist letztlich falsch, weil das was ein neuronales Netz abbildet eine Abstraktion ist.

Natürlich ähnelt der Trainingsmechanismus im Deep L auf einer Ebene nicht dem Lernen des menschlichen Gehirns, das spielt allerdings letztlich keine Rolle, genausowenig wie es eine Rolle spielt daß eine Kamera nur bedingt einem Auge ähnelt,
oder ein Hörgerät überhaupt nicht wie ein Ohr funktioniert, oder ein Flugzeug nicht wie ein Vogel fliegt - es fliegt dennoch,
und das schneller, weiter, und mit mehr Last als ein Vogel das könnte.

Eine einzelne Nervenzelle ist relativ komplex und umständlich, dh heißt aber keineswegs zwingend daß man diese Umständlichkeit braucht um mentale Zustände zu erzeugen.
 
Das ist jetzt ein rein sprachliches Problem.

Was ich meine ist, jede auf NNs basierende KI führt eine Abstraktion durch - das was im NN repräsentiert ist ist eine Abstraktion
der Trainingsdaten.
Das Abstrahieren auf einer Meta-Bewusstseinsebene das Du meinst kann nicht mal jeder Mensch gleich gut.
Und ein Insekt wahrscheinlich überhaupt nicht.
 
So meinte ich das
https://quickdraw.withgoogle.com/
was man da zeichnet ist eine Abstraktion, und das NN hat intern eine Abstraktion der Abstraktion
Natürlich weiß das simple Ding nicht was eine Erdbeere ist oder was auch immer man da reinzeichnet
sondern erkennt auf der unteren Ebene Kanten, Ecken, Kurven und ähnliche Musterelemente
und aus denen, bzw deren Gewichtung und Metamustern der Musterelemente dann den vorgelernten Suchbegriff.

Sehr simpel wahrscheinlich aber dennoch leistungsfähig und eine Abstraktion.
 
Ja, ich glaube auch wir meinen was verschiedenes.
KI ist einfach nur eine andere Art der Programmierung nicht mehr und nicht weniger. Wenn eine KI abstrahieren könnte müsste sie nicht so aufwendig trainiert werden.

Unbenannt.PNG
 
Zum Verständnis siehe meine Post direkt drüber - die internen Gewichtungen im neuronalen Netz sind eine Abstraktion der Trainingsdaten.
 
Wenn eine KI abstrahieren könnte müsste sie nicht so aufwendig trainiert werden.
Ein untrainiertes Hirn kann auch nicht abstrahieren wie Du es meinst.
Der Witz am nN ist doch daß es Dinge klassifizieren kann die so nicht explizit in den Trainingsdaten waren.
Also ein NN das Gesichter erkennt erkennt auch neue Gesichter als Gesicht.
Und auch noch andere Dinge, unter Umständen, die nur gesichtsähnlich sind.
Weil intern eine Abstraktion des Gelernten in Form von Gewichten der "Neuronen" vorliegt.
 
Kunst wird zunehmend etwas irrelevantes.

Wofür sind wir Menschen überhaupt noch gut ?

Es begeistert mich was Menschen tun ... nicht Maschinen.

Egal in welchem Bereich ...
 
KI wird vom Menschen erschaffen.
Ein untrainiertes Hirn kann auch nicht abstrahieren wie Du es meinst.
Der Witz am nN ist doch daß es Dinge klassifizieren kann die so nicht explizit in den Trainingsdaten waren.
Also ein NN das Gesichter erkennt erkennt auch neue Gesichter als Gesicht.
Und auch noch andere Dinge, unter Umständen, die nur gesichtsähnlich sind.
Weil intern eine Abstraktion des Gelernten in Form von Gewichten der "Neuronen" vorliegt.
Intern entstehen Regeln, es befähigt dem NN diese Regeln nur für den Prozess des trainierten Gebietes anzuwenden. Abstraktion würde bedeuten, wenn es ohne weiteres Training das glernte auf ein völlig anderem Gebiet anwenden könnte. Schau dir bitte das Video von Professor Dr. Wolfgang Wahlster an, der erklärt das viel besser als ich es könnte.

Mehr will ich dazu jetzt auch nicht mehr schreiben, wir drehen uns hier im Kreis.
 
Zuletzt bearbeitet von einem Moderator:
Gut Seele ist schwer zu definieren.
Aber die (kreative) Nutzung des Gehirnes würde ich uns Menschen auch abstreiten.
Einige wenige Denker Nutzen, wenn überhaupt, vielleicht 1 % des Gehirns. Wir nehmen ca. 1% der Umwelt wahr. Wie kann man da etwas vom Menschen erwarten? Und dieser beurteilt dann.
 
1% sind aber sehr optimistisch.

Die Haupteinschränkung sind weniger unser Gehirn, sondern mehr unsere Sinne.
 
Weit unter 1%. Wollte aber :Like's: und deshalb habe ich verschönigt.
Ich denke die Sinne nehmen nahezu 100% Wahr als auch dass Gehirn unter Volllast laufen kann.
Die intern im Gehirn verbaute Filterbank lässt nur ein Bruchteil durch. Selbstschutz.
Verrückte haben evt. eine falsch konfigurierte oder selbständig an ihrer Filterbank gedreht.
Nur ein Gedanke.
 
KI wird vom Menschen erschaffen.

Intern entstehen Regeln, es befähigt dem NN diese Regeln nur für den Prozess des trainierten Gebietes anzuwenden. Abstraktion würde bedeuten, wenn es ohne weiteres Training das glernte auf ein völlig anderem Gebiet anwenden könnte. Schau dir bitte das Video von Professor Dr. Wolfgang Wahlster an, der erklärt das viel besser als ich es könnte.

Mehr will ich dazu jetzt auch nicht mehr schreiben, wir drehen uns hier im Kreis.

Ich verstehe was Du meinst, mir geht es jetzt auch nicht ums Recht haben sondern ums gegenseitige Verständnis.
Der Begriff für das was du meinst wäre teilweise eher Extrapolation, meiner Meinung nach, nicht immer Abstraktion.
Der Begriff ist halt breit aufgestelt und es hilft nicht, den eh problematischen Abstraktionsbegriff der Philosophie mit einzubeziehen.
Das "Konzept" das ein ANN von etwas hat, ist durchaus bereits eine Abstraktion im schlichten Wortsinn.

Wie auch immer, wer sagt daß ein neuronales Netz das nicht kann? Deins kanne es ja! ergo ist es möglich.
Deines kann es aber auch nur nach ausgiebigem Training das bereits im Muterleib anfängt.
Der Grund warum ANNs das so nicht können liegt, neben anderen Gründen daran daß sie vergleichsweise klein sind
um etliche Größenordnungen kleiner, und nicht darauf spezialisiert, ein weitere Meta-Modell zu modellieren.
Das hat sicher auch mit der Netztopoligie zu tun die eben heute nur für ein Einzelproblem, eine einzelne Mustererkennung, ausgelegt ist.

Aber was ist wenn ich die Topologie und die Größe dramatisch ändere?
Wenn ich ein Netz habe das Kategorien wie Raum und Zeit verarbeiten kann, ein Netz das ein beliebiges Metamodell
eines Objekt modellieren kann?

Kennen Hunde Abstraktionen wie Du sie meinst? Das lässt sich mWn im Moment nicht beantworten.

Der Einwand hat auch nichts damit zu tun, ob ANNs in der Lage sind mentale Zustände abzubilden die Schmerz bedeuten, zB.

Im Übrigen sollte man den Mensch auch nicht überschätzen denn es gibt vieles daß nur schwer oder nur von wenigen
oder so gut wie gar nicht gedacht werden kann von Menschen.
zB eine 11 Dimensionale Raumzeit. Dafür ist das NN des Menschen nicht ausgelegt. Er kann eher Modelle bilden die 3dimensional sind
zB weil der Sinnesapparat 3dimensonal ist, und visuell kann man sich fast nur vorstellen was man auch sehen kann.
Ultraviolett kann man sich schlecht vorstellen.
 
Zuletzt bearbeitet von einem Moderator:
Übrigens, in den 80er Jahren haben die "Experten" zT ausgeschlossen daß ANNs zu dem in der Lage sind
wozu sie heute in der Lage sind.
U.a. hieß es ANNs wären nicht Turing-complete, und man hat sich auch nicht die Rechenkraft vorstellen können
die heute zur Verfügung steht - Supercomputer die nur wenigen zur Verfügung standen hätten kaum ausgereicht.

Man hat viel auf Lisp gesetzt und auf Expertensysteme, auf regelbasiertes.
Go galt als ein Spiel daß ein Computer nicht erfolgreich gegen einen Meister spielen kann.

An so Spielerein wie Image und Style Transfers war überhaupt nicht zu denken, die lagen außerhalb der Vorstellungskraft,
auch wenn sie verhältnismässig simpel sind.

Erst als man gelernt hat daß man relativ einfach DSP in NNs ausführen kann, und das in Layern verschaltet hat kam es zu den
Erfolgen, die einerseits noch lange nicht ausgereizt sind und anderseits auch keineswegs das Ende der Fahnenstange bedeuten.
 
Das Wort "Seele" habe ich nur geschrieben da es ja um künstliche Musik geht und das $Mensch von besselter Musik spricht. Seele steht für mich in Bereich der Musik in Zusammenhang mit Emotionen und so, welche ich uns auch abstreite.
Ich glaube weder an Seele im Menschen noch das wir (sonderlich) intelligent wären. Das widerspricht der unmittelbaren anzutreffender Umwelt/Realität. Oder aber die Seele und die Intelligenz ist so wie sie vorherrscht/anzutreffen_ist in einem Prozess der Entwicklung hin zur ~Vollkommenheit (auch blödes Wort), dann wäre es aber ein ziemlicher dünnflüssiger ~Stuhlgang.
 
Zuletzt bearbeitet:


News

Zurück
Oben