Neuromorphic Computing

Jetzt nur noch 100.000 solcher CHips zusammengeschaltet und man könnte ein Gehirn simulieren..

Ich vermute aber sowas ginge schon mit wesentlich weniger wenn mans intelligent macht.

"Lustig" wirds eh schon wenn da jemand GPT-3 da drauf laufen lässt und in Alltagsgegenstände einbaut.

Ich hätte ja nicht gedacht daß ich solche KI Fortschriite erlebe wie wir sie zZ haben bzw sich am Horizont abteichnen.
 
Genau. Einer der Texte zum Loihi nannte die Kakerlake als Vergleich der 'Rechenleistung' der aktuellen Generation (vorher: Taufliegenhirn).

Bleibt noch sehr lange spannend, das mit der universellen AI, schätze ich.

Cee.
 
Inzwischen werden tausende Texte täglich mit Hilfe von K.I. geschrieben.

Und es kam doch noch einmal zu einem Gegner.
Der Theoretiker der Universität Regensburg, Mathias Junge, hat sich in einem Blog die Frage gestellt,
wie lange das dauerhafte Reduzieren von Texten und Bilder durch die K.I. geht.

Zwar sei die Einführung von K.I. in Deutschland bisher nicht möglich, da sie nicht zu dem Standard benötigt werde.

In einem vermeintlichen Schutzstreit zwischen Junge und Martin Hillebrand sind die Computer erst vier Monate alt.
Zwar weiß Junge, dass K.I. seine Einstellung selbst verändert und so für neue Funktionen benötigt.

Hillebrand widerspricht -

Die "Bild"-Zeitung schrieb am Donnerstag, Junge habe vor Kurzem an einer Veranstaltung der Grünen eine Art Geschichtsvergleich zwischen dem 17. und 19. Jahrhundert aufgehoben.

Ein anderer Theoretiker, Rainer Schmitt von der Universität Freiburg,
äußerte sich bereits am 20. Juni zu den Fragen von Junge und bezeichnete ihn als eine "reduktionistische Idee".

Im Mittelpunkt der Reduzierung steht das digitalisierte Lesen.
Und: "Reduktion ist kein Selbstzweck." Man müsse sich da nicht nur "zu denken", sondern "zu öffentlich zu diskutieren".
Das habe Junge angekündigt.

Rainer Schmitt: Das ist kein Selbstzweck.

Die Kritik über Junge gibt es bereits in einigen Universitäten.
Er habe sich bei einer Veranstaltung der Grünen ausgesprochen, sagt Professor Heiner Rindt von der Hochschule Nordwestschweiz.
"Man darf in der Kultur der Gegenwart keine Reduktion bezeichnen", sagt Rindt.
Denn "das verkündet, dass man das Wissen aus der Zeit vor allem wieder verdrängen will."
 
Ich meinte eigentlich etwas anderes: von der Rechenleistung steht dem zwar noch einges entgegen.

Das hesst aber eben nicht daß es nicht möglich wäre, oder nicht schon in den nächsten Jahrzehnten zu
Resultaten kommen kann die philosphische und moralische Herausforderungen sein werden.
 
Vielleicht verlinkst Du mal die Originale, denn Dein Text ist grammatisch wirr und komplett unverständlich; nicht einmal die genannten Personen findet Google...

Crash im Sprachmodul!?

Cee

PS: Diese Kritik betrifft den Text, nicht Dich als Person.
 
Sorry, war ein überflüssiger Scherz von mir - der Text wurde von KI geschriebebn, GPT-2.

Von mir ist nur der erste Satz, der Rest wurde daraus vervollständigt.

Weil das Modell eigentlich englisch ist ist es auch etwas seltsam von der Grammtik her.

Die Leute gibt es wohl nicht - die hat sich das Modell "ausgedacht".

Ich hab gesehen daß es inzwischen auch ne Reihe von Apps mit GPT-3 gibt, hab aber keine freie Onlineversion gefunden.
 
Was ich mich bei diesen Sprachmodellen frage ist, die haben ja 100te Millionen Parameter - vieviel vorgefertige Struktur ist da hängengeblieben?
Englisch hat etwa 170 000 "gebräuchliche" Wörter heisst es.
Wenn man das für Grammatik verzehnfacht ist man bei 2 Millionen - der Rest muss also Sinnzusammenhang sein und ähnliches.
 


News

Zurück
Oben