Everything A.I.

Die Theorie Neuronaler Netze und so Themen wie Backpropagation sind nicht neu. Das war bei uns an der Uni in den 80/90ern schon Thema in Seminaren und somit schon weit vorher bekannt. In aktuellen Berichten habe ich da nichts neues erkennen können, ausser, dass es heute genug Rums in den Rechnern hat und dass eben nicht nur die Unis davon wissen. Die grossen wie IBM und sonst wer, versuchen das nun zu monetarisieren. Die Ergebnisse sind teilweise recht beeindruckend. Am Ende ist es aber nur eine andere Art der Regression oder Fehlerminimierung. Artificial - ja. Intelligence - nein.

Siehe auch https://de.wikipedia.org/wiki/Hype-Zyklus

Uber hat nun auch ein paar Probleme:
https://www.tagesanzeiger.ch/wirtsc...-mit-selbstfahrendem-Uber-Auto/story/12197856
 
Liest man die Bibel der KI in den 80ern, Gödel, Escher, Bach kommen ANNs da praktisch nicht vor.
Irgend jemand hatte scheinbar nachgewiesen daß NNs bzw das Perceptron nicht Turing complete sind
deswegen galt das als Sackgasse.

Ich denke (nicht sicher) daß Signalverarbeitung (also Dinge wie Korrelation, Filterung, Edge Detection usw) in neuronalen
Netzen - der Perception Layer in der Grafik oben - relativ neu sind und daß das der eigentliche Durchbruch war.
Die Netze und Ansätze die ich aus den 90ern kenne hatten solche Layer jedenfalls nicht.
 
So wie ich das verstehe, muss man dem Netz die Daten in einer adequaten Form präsentieren. Das könnte es wohl auch lernen, ist aber nicht effizient.
Wie das Vorkauen geht ist am Beispiel Übersetzung hier erläutert:

https://www.welove.ai/de/blog/post/maschinelle-uebersetzung-mit-tiefen-neuronalen-netzen-teil-1.html
https://www.welove.ai/de/blog/post/maschinelle-uebersetzung-mit-tiefen-neuronalen-netzen-teil-2.html

Hier noch das Fazit:
Kann man diese Systeme nun als intelligent bezeichnen? Nur wenige Menschen besitzen die Fähigkeiten, Dutzende Sprachen ineinander zu übersetzen. Dennoch: trotz ihrer beeindruckenden Leistungen sind neuronale Netze im Grunde lediglich statistische Lernverfahren, die Korrelationen in den Daten aufdecken können. Das macht sie naturgegeben sehr datenhungrig. Sie müssen mit Millionen von Datenpunkten trainiert werden, damit sie eine zufriedenstellende Qualität erreichen. Menschen können gelernte Konzepte auf neue Probleme übertragen und mit Hilfe von Logik Problemlösungen schließen – selbst wenn es nur wenige Hinweise gibt. Ein gutes Beispiel ist die Entschlüsselung der ägyptischen Hieroglyphen. Erst mit dem Fund des Steins von Rosetta gab es 1799 endlich eine Verbindung zu bekannten Sprachen. Aus einem Text, der in Demotisch, Griechisch und in Hieroglyphen auf den Stein graviert war, konnten Wissenschaftler die Bedeutung der ägyptischen Zeichen ableiten. Hierzu musste lang bestehendes Wissen integriert und interpretiert, abstruse Umwege gegangen und miteinander kreativ getüftelt werden. Dies sind alles Leistungen, die in der KI noch am Horizont liegen. Die Entschlüsselung der Hieroglyphen dauerte fast ein Vierteljahrhundert – mal sehen, wie lange die KI noch braucht, um uns das nachzumachen.
 
Daß man die Daten für mache Aufgaben aufbereiten muss ist klar, hat aber imho wenig zu bedeuten.
Die Daten die im Kopf ankommen sind ja auch alle schon speziell aufbereitet.
Nicht mal die Daten die vom Sehnerv kommen sind "rohe Pixel" sondern aufbereitete Daten.

Und gleich Intelligenzleistungen zu fordern die 99.99% der Bevölkerung nicht leisten halte ich für übertrieben...
Zumal ein Mensch 100 Milllarden Neuronen im Kopf hat.

Überhaupt ist die Frage ob das ein erstrebenswertes Ziel ist oder Masstab sein soll eine Maschine zu bauen
die vollständig einen Menschen imitiert? Turing Test hin oder her.
AI könnte auch ganz anders erscheinen als ein Mensch.
 
Liest man die Bibel der KI in den 80ern, Gödel, Escher, Bach kommen ANNs da praktisch nicht vor.
Irgend jemand hatte scheinbar nachgewiesen daß NNs bzw das Perceptron nicht Turing complete sind
deswegen galt das als Sackgasse.
Die "irgend jemand" waren Marvin Minsky und Seymour Papert in ihrem 1969er Buch Perceptrons. Ihr Argument war, ein einzelnes Neuron könne nur lineare Funktionen darstellen. Was zweifellos richtig ist. Heutzutage ist klar, daß geschichtete neuronale Netze jede beliebige Funktionen darstellen können.


Letztlich läuft es im "Neuron" auf Schwellenwerte und Gewichtungen hinaus.
Yep.

Nicht nur im Neuron läuft es darauf hinaus. Dazu gibt es Analogien aus anderen Bereichen der Biologie. Ich bitte ich um Geduld, bis ich Beispiele nachreiche - es ist spät.
 
Für mich geht es eher um andere Fragen als die nach Mathematischen Hintergründen oder wie welche Pixel interpretiert werden.
KI unreguliert eingesetzt bedeutet langläufig den totalen Verlust des Vertrauens in die eigene Wahrnehmung.
Ist das was ich dort in den News sehe wirklich passiert? Ist die Lösung die präsentiert wird aus einer nicht manipulierten Fragestellung entstanden? Ist das Musikstück wirklich von Bach komponiert worden? Ist das Foto der Familie verändert worden?
Alles Dinge die wir in einigen Jahren nicht mehr durch unsere eigene Wahrnehmung mit Sicherheit beantworten können.
Wem oder was werden wir dann vertrauen? Einer KI die das alles für uns überwacht und uns sagt was wahr ist?
Die Menschen können sich ja nicht einmal jetzt zu einer Regulierung oder dem Verbot von Waffen, die duch KI gesteuert werden, durchringen.

Trauriges Beispiel von Heute, Autonomes Uber Auto fährt Frau tot. Wer bekommt die Schuld? Wie viele Kollateralschäden sind eigentlich zulässig? Wer lässt diese zu? Einem Fahrer der jemanden tot fährt wird der Führerschein entzogen. Die KI darf weiter fahren?

Eigentlich ist das wie bei der Atomkraft, wenn uns der Müll verstrahlt, dann machen wir uns auf die Suche nach einem Endlager.
 
Zuletzt bearbeitet:
Was die KI schon für Resultate zeigt in Bereich Kunst (Musik/Malen/Kochen/Medizin/...) ist - meiner Meinung nach - schon beeindruckend. Das übertrifft teilweise schon den #Mensch.
Auch ist der #Mensch nicht ganz so lernfähig bzw. wenn dann wesentlich langsamer (was sich evt. evolutionstechnisch bewährt hat: #Langsamkeit), KI und so ist ja eher exponentiell und hat, wie ich finde, uns #Menschen schon überholt.

Auch kann AI/KI/.../Robter/.. und der #Mensch verschmelzen, was ist dann was?

Man sollte AI/KI/.../Robter/... gleichsetzen mit #Menschen und für diese auch Gesetzesregelungen schaffen da, schon heute, sie uns wichtige Entscheidungen abnehmen.

Wer ist dann haftbar?
Der Programmierer, der Arzt der das Implantat ~verlegt hat oder die - selbständig lenende = Eigenleben - z.B. KI?
 
Ich denke viele verwechseln KI mit menschlicher Intelligenz gepaart mit seinen ganzen Veranlagungen, Evolution, Erfahrungen, Bedürfnissen und Gefühlen. Das was technisch mit KI umgesetzt wird, ist nur die Intelligenz und davon auch nur wenig. Das ist nur ein kleines Puzzelteil zum Nachbau eines künstlichen Gehirns und daher auch nur ganz entfernt zu vergleichen.
 
Intelligenz an sich ist für mich nicht klar.
Mensch = Intelligent? Ist z.B. eigener Lebensraum zerstören Intelligent?
Evolution, Erfahrungen, Bedürfnissen und Gefühlen
Werden sie das auch bekommen/erlernen. Eine Frage der Zeit IMHO.

Wie sollten die KI sonst Musik machen können?
Was sie jetzt schon kann übertrifft z.B. mich bzw. einige der User hier um Welten.
 
KI kann nur Musik machen erlernen indem WIR vorgeben was schön ist und was nicht. Allein könnte die KI eben nicht wirklich viel lernen und auch nie wirklich was tolles dazulernen ohne den Menschen der die KI füttert. KI ist ja immer mache/erkenne was neues was so ähnlich ist wie...
 
Noch nicht, ~ja.
Aber "sie" lernt exponentiell und wird irgendwann den Punkt überschreiten.
 
Ach, wenn ich mir ständig einen Kopf machen würde was alles eventuell passieren könnte...na dann wäre ich wohl weit weniger entspannt gegenüber der Zukunft. Ich halte mich an dem was ist und was ich so selbst erlebt habe. Alles prophylaktisch zu verurteilen halte ich für Zeitverschwendung.
 
pha, die Einstellung habe ich ja gefressen.
"Hey guck mal ne Atombombe. Cool, wirf mal. Boa krass. Ähmmm was machen wir jetzt eigentlich damit?"

Es geht doch nicht um verurteilen, es geht darum, sich mal VORHER Gedanken zu machen über das Danach.
 
KI kann nur Musik machen erlernen indem WIR vorgeben was schön ist und was nicht. Allein könnte die KI eben nicht wirklich viel lernen und auch nie wirklich was tolles dazulernen ohne den Menschen der die KI füttert. KI ist ja immer mache/erkenne was neues was so ähnlich ist wie...

Das scheint ja eh nur so zu funktionieren, auch mit Bildern. Ein Neurowissenschaftler könnte das sicher gut anhand von einem Neugeborenen erklären, nur wissen wir ja auch nicht genau ob das was wir dann über Lernen herausgefunden haben auch wirklich so stimmt. Also wie stellt ein Hirn die Verknüpfungen her um grundlegene Dinge zu erkennen, die Benennung und Bedeutung wird uns ja auch erst beigebracht. Einiges soll wohl schon in einem Instinkt vorhanden sein, nur wie kann das technisch umgesetzt werden? Ist das sowas wie ein Bootloader in einem Chip?
 
Das wäre sowas wie ein vorverdrahtetes oder vorgelerntes neuronales Netz.
Man muss bedenken daß das menschliche Gehirn 100 000 fach größer ist als die größten neuronalen Netzwerke
und daß das Lernen schon vor der Geburt anfängt.

Interessant wäre das Gehirn von Vögeln zu untersuchen das ist nämlich kleiner und leistet anscheinend mehr in kleinerer Größe.
Das ist irgendwie anders organisiert.
 
pha, die Einstellung habe ich ja gefressen.
"Hey guck mal ne Atombombe. Cool, wirf mal. Boa krass. Ähmmm was machen wir jetzt eigentlich damit?"

Es geht doch nicht um verurteilen, es geht darum, sich mal VORHER Gedanken zu machen über das Danach.
Doch hier wird die KI verurteilt, bevor es überhaupt einen Grund gibt.
Du vergleichst eine Atombombe mit KI? Es gibt sicher Sachen über die man sich vorher Gedanken machen sollte. Eine Atombombe kann man wohl schlecht für was anderes einsetzen als zur Zerstörung. Es gibt leider diejenigen, die in alles und jedem eine Gefahr sehen. Die jede technische Entwicklung gegenüber eine ablehnende Haltung haben. Die, die erstmal grundsätzlich pessimistisch sind. Die, die denken früher war alles besser...war es nicht! Die, die keinen Glauben in die heutige Jugend haben und so weiter und so fort. Ich bin stolz auf meine Kinder, die soo eine geile Einstellung haben und vieles besser meistern als ich zu meiner Zeit.

Man wir leben hier in einer wunderbaren Zeit in Deutschland. Sehr vieles hat sich auf der Welt verbessert, auch wenn so einiges weit davon entfernt ist perfekt zu sein. Wer hat euch bloß den Optimismus für die Zukunft genommen? Die Presse, der Stammtisch?

Sorry, wenn ich hier auch mal etwas härtere Töne an den Tag lege, aber die berühmte German Angst ist manchmal einfach nicht auszuhalten und das obwohl ich selbst Deutscher bin.

Mensch Leute, wenn ihr nicht mal optimistisch in die Zukunft blicken könnt, wie wollt ihr sie denn schön gestalten?
 
Naja, wenn man nicht skeptisch auf die Gegenwart blickt kann man auch keine schöne Zukunft gestalten.
 
Mensch Leute, wenn ihr nicht mal optimistisch in die Zukunft blicken könnt, wie wollt ihr sie denn schön gestalten?

Ha ha, wenn wir uns kennen würden, würden wir Beide wahrscheinlich Hand in Hand die Optimisten dieser Welt anführen.
Du hast ja völlig Recht, aber missverstehe mich bitte nicht. Meine Skepsis gilt nicht einer KI, oder Welten die nie ein Mensch zuvor gesehen hat.
Sondern Was Menschen daraus machen.
Zu hinterfragen, was eben eine KI zB. für die Zukunft bedeutet, dürfen wir uns von niemanden abnehmen lassen.
 
Nein, natürlich nicht. Und der Meinung bin ich ja auch - Der Mensch ist die Gefahr, nicht die Technologie - Klar denkt man in alle Richtungen. Ich habe das glaube ich auch zu krass umschrieben.
 
Mir fällt gerade was lustiges ein, was ich mal auf heise gelesen habe. Die Methoden, die derzeit für der Erforschung der Gehirns benutzt werden, wurden an einer 6502 CPU getestet, so wie sie auch im C64 eingesetzt wurde(gut da ist es eine 6510, hat aber nur was mit dem Memorymapping zu tun). Man wollte also, ohne zu wissen wie die CPU funktioniert, dessen Funktionsweise raus bekommen. Es ist den Forschern nicht gelungen zu ergründen wie die CPU funktioniert. Ich denke bis das menschliche Gehirn wirklich vollständig entschlüsselt und verstanden ist wird noch einige Zeit ins Land gehen. Dass dann noch nachzubauen, ist noch mal ein ganz anderer Schuh. Ich glaube, dann würde ich der Sache auch skeptisch gegenüberstehen. Aber bei der KI, die jetzt so durch die Technik geistert, brauch man sich wirklich keine Sorgen machen. Die Gefahr ist hier wieder "nur" der Mensch und nicht die KI.
 
Also das würde ich mit Skepsis betrachten, weil es nicht ganz stimmt.

Zu den Methoden gehören Untersuchungen auf Zellebene, bildgebende Verfahren, und anderes.
Dh es müsste dann erlaubt sein den Chip aufzupolieren und die Struktur mit nem Elektronenmikroskop untersuchen.
Wenn man das macht kann man ihn aber reverse engineeren.

Es ist ja sogar schon möglich, mit Hilfe von machine learning und bildgebenden Verfahren zu zeigen was ein Probant
im MRT oder wo immer gerade sieht.
Wenn ichs finde poste ich mal das Video dazu.
 
Mir fällt gerade was lustiges ein, was ich mal auf heise gelesen habe. Die Methoden, die derzeit für der Erforschung der Gehirns benutzt werden, wurden an einer 6502 CPU getestet, so wie sie auch im C64 eingesetzt wurde(gut da ist es eine 6510, hat aber nur was mit dem Memorymapping zu tun). Man wollte also, ohne zu wissen wie die CPU funktioniert, dessen Funktionsweise raus bekommen. Es ist den Forschern nicht gelungen zu ergründen wie die CPU funktioniert. Ich denke bis das menschliche Gehirn wirklich vollständig entschlüsselt und verstanden ist wird noch einige Zeit ins Land gehen. Dass dann noch nachzubauen, ist noch mal ein ganz anderer Schuh. Ich glaube, dann würde ich der Sache auch skeptisch gegenüberstehen. Aber bei der KI, die jetzt so durch die Technik geistert, brauch man sich wirklich keine Sorgen machen. Die Gefahr ist hier wieder "nur" der Mensch und nicht die KI.
Man muss wohl nicht sofort in Panik verfallen, aber es kann nicht schaden die Skepsis von Hawking bis Musk ernst zu nehmen. Musk fordert bezüglich AI ja sogar Regulierung, das zuvor hier gepostete Video mit ihm ist interessant.
 
Wieso sollte ich die Meinung von Musk und Hawkings ernst nehmen? Bloß weil es Promis sind und weil solche Statements schön viele Klicks bei den Tech-Magazinen generieren? Mit Angst verdienen Medien schon immer gutes Geld. Ich bilde mir gern meine eigene Meinung.

Warum Musk und Hawkings was von KI verstehen sollen ist mir auch ein Rätsel. Die kommen nicht mal aus der Richtung noch haben die groß was an Software entwickelt.

Ich glaube auch, dass sich so einige Leute gerne auf die Seite der Revoluzzer stellen, die bei jeder Gelegenheit "1984", "Terminator" und "Windows böse" Schilder hoch halten und dafür gebauchpinselt werden.
 
Zuletzt bearbeitet von einem Moderator:


News

Zurück
Oben