Everything A.I.

Ein Abgleich KI vs Code - und von der Schwierigkeit MacOs auf Menschenhardware laufen zu lassen und wie viele Kätzchen von Schrödinger tot sind oder doch weiter miauen und wie Intelligent "Go!" eigentlich ist und was man sonst noch über KI wissen will Folge 42 vom 10.9.2018 <-- ganz hören, dann kommentieren!

Zellulare Automaten, Game of Life als Basis über "Gleiter" bis hin zu Quantencomputer, KI, Denkweisen und Ideen.

Was erlaube - Linkliste kopieren:

Buchtipps
Videotipps
Linkliste


 
Ein Abgleich KI vs Code - und von der Schwierigkeit MacOs auf Menschenhardware laufen zu lassen und wie viele Kätzchen von Schrödinger tot sind oder doch weiter miauen und wie Intelligent "Go!" eigentlich ist und was man sonst noch über KI wissen will Folge 42 vom 10.9.2018 <-- ganz hören, dann kommentieren!
Was ist das denn für ein Stück Musik zu Beginn?
Und "The Three-Body Problem" ist wirklich lesenswert.
 
Das fand ich spannend:

https://blog.openai.com/better-language-models/

https://www.theguardian.com/technol...musk-backed-ai-writes-convincing-news-fiction


View: https://www.youtube.com/watch?time_continue=2&v=XMJ8VxgUzTc

Entwickler der gemeinnützigen Organisation OpenAI haben einen Textgenerator erstellt, der sehr überzeugende Texte schreiben kann. Das Besondere ist, dass die Software sich deren Inhalt einfach ausdenkt. So habe sie etwa zum eigentlich unsinnigen Thema "Recycling ist schlecht für die Umwelt" einen "sehr kompetenten, sehr gut begründeten Aufsatz" geschrieben, sagt OpenAI-Entwickler und Bereichsleiter David Luan dem US-Magazin The Verge. "Das war etwas, womit man im College-Eignungstest US-SAT eine gute Punktzahl hätte erreichen können", ergänzt er.

Der Algorithmus wird GPT-2 (PDF) genannt und spezialisiert sich auf Sprachmodellierung. Er schätzt dabei ein, welche Wörter auf gegebene Wörter folgen könnten und setzt einen Text zusammen. Dadurch kann die Software etwa Statistiken, Zitate und Geschichten erfinden, nachdem ihr eine Überschrift oder ein paar erste Absätze eines Textes gegeben werden.

https://www.golem.de/news/openai-ki...gimli-legolas-und-dem-brexit-1902-139425.html
 
Die "irgend jemand" waren Marvin Minsky und Seymour Papert in ihrem 1969er Buch Perceptrons. Ihr Argument war, ein einzelnes Neuron könne nur lineare Funktionen darstellen. Was zweifellos richtig ist. Heutzutage ist klar, daß geschichtete neuronale Netze jede beliebige Funktionen darstellen können.
Naja, das ist auch schon seit 1989 bekannt, als der Aufsatz "Multilayer feedforward networks are universal approximators" von Hornik et al publiziert wurde.

Das Buch "Parallel Distributed Processing" von Rumelhart und McClelland (1986) hatte damals einen wahren NN-Hype ausgelöst.

Bis in die 1990er hinein gab es aber auch noch starke Vertreter der "symbolischen" KI (Stichwort Expertensysteme, automatisches Theorembeweisen, Prolog/Fifth Generation Computer Systems).

Sowohl Neuronale Netze, als auch fast die gesamte symbolische KI, wurden ab Ende der 1990er erst einmal vom Erfolg der statistischen Verfahren weggefegt.

Diese beinhalten z.B. Statistical Language Models (wie in einem der Vorgänger-Posts schon genannt), statistisches Parsing (insbesondere Statistical Dependency Parsing), dazu benötigte Hilfsmethoden wie Hidden-Markov-Models (HMMs) und Conditional Random Fields (CRFs), und nicht zuletzt statistisches Topic-Modeling (wie z.B. Latent Dirichlet Allocation/LDA).

Zudem gab es in dieser Zeit starke Fortschritte im Maschinellen Lernen und in der algorithmischen Lerntheorie.

Das Problem ist nämlich nicht nur "jede beliebige Funktion darstellen zu können", sondern es besteht auch darin, aus einer beschränkten Datengrundlage ein optimales Lernergebnis zu erzielen und dabei keine Annahmen zu treffen, die aus den Daten nicht gerechtfertigt sind (Stichworte Minimum Description Length, Maximum Entropy Principle, Maximum-Margin Classification).

Und wenn man vieldimensionale Daten hat, wird jede Datengrundlage schnell unzureichend.

Mit den Support-Vector Machines (SVM) wurde ein sehr erfolgreiches Lernverfahren entwickelt, das eine stabile Maximum-Margin Classification erzielt. Damit ist dieses Verfahren aus theoretischer Sicht ein "besserer" Lerner als herkömmliche mehrschichtige Neuronale Netze.

Auch wurden z.B. clevere Meta-Lernverfahren (wie Boosting) entwickelt.

Inzwischen gibt es natürlich wieder einen Hype der künstlichen neuronalen Netze unter dem Buzzword "Deep Learning".

Worauf ich hinaus will:

Auch die KI ist starken Moden unterworfen (das ist OK und im Wissenschaftsbetrieb ganz normal).

Und auch wenn das heute manchmal nicht so erscheint: KI ist mehr als Machine Learning und dieses umfasst wesentlich mehr als Deep Learning und künstliche neuronale Netze.

Multilayer-Perceptrons basieren auf einem mathematischen Modell, das zwar durch neuronale Gegebenheiten inspiriert ist, aber nur sehr "grob".
Eine besondere Ehrfurcht gegenüber diesem Lernverfahren im Vergleich zu anderen ist nicht angebracht.

Nimmt man einfach mal eine Machine-Learning Toolbox zur Hand, die viele Lernverfahren zur Auswahl anbietet, wie das gute alte (frei verfügbare) Weka oder auch RapidMiner, und wendet diese auf ein reales Problem an, so stellt man schnell fest, dass Multilayer-Perceptrons nicht unbedingt bessere Ergebnisse liefern als die vielen anderen verfügbaren überwachten Lernverfahren.
Oft genug ist das Gegenteil der Fall.

Aber auch die aus theoretischer Sicht überlegenen SVMs sind in der Praxis (je nach Art des Problems) nicht unbedingt besser als andere Lerner.

Insgesamt hat das Maschinelle Lernen schon seit Jahren einen Reifegrad erreicht, bei dem es mich wundert, dass es nicht einfach überall eingesetzt wird.

Nach mehr als 20 Jahren in der KI-Forschung arbeite ich jetzt in einer mittelständischen Software-Firma und beobachte dort, dass viele Dinge "von Hand" durch Programmierung gelöst werden, bei denen man sich die Mühe heutzutage echt nicht mehr machen müsste.

Auch im Bereich Audio-Verarbeitung und Musik-Produktion gibt es noch sehr viel brachliegendes Potenzial.
Ich denke da besonders an Anwendungen wie XLN Audio XO. Warum gibt es nicht viel mehr derartige Werkzeuge?
Das Organisieren von Samples oder von Sounds schreit doch geradezu nach dem Einsatz maschineller Lernverfahren.

Vor allem wird die Kontrolle über das kreative Schaffen hier nicht abgegeben. Insofern sollten sich viele mit dieser Art von Tools anfreunden können.

Ebenso sinnvoll finde ich intelligente EQs, die z.B. störende Resonanzen in mikrofoniertem Audiomaterial erkennen und beseitigen. Nicht jeder hat das Ohr eines erfahrenen Mixing Engineers. M.E. kann es daher nicht schaden, beim EQen auch die Vorschläge eines solchen Tools auszuprobieren.

Problematischer finde ich es, musikalische Kernkompetenzen der Maschine zu übertragen. Warum überhaupt noch Komposition, Arrangement, Stimmführung, Harmonielehre... lernen, wenn ein cleveres Helferlein diese lästigen Jobs übernehmen kann?

Für mich wäre das nichts, da ich Freude an diesen Details habe. Auch verwende ich noch nicht mal Presets, weil sich da bei mir immer ein Gefühl der Entfremdung einstellt - nicht das Gefühl, etwas eigenes geschaffen zu haben.

Aber wenn man schnelle Erfolge haben will, mag das anders aussehen.

Und ich bin mir sicher, dass es in Zukunft kaum einen Aspekt des musikalischen Schaffens geben wird, für den nicht ein smarter Helfer verfügbar wäre.

Turing
 
Zuletzt bearbeitet:
Problematischer finde ich es, musikalische Kernkompetenzen der Maschine zu übertragen. Warum überhaupt noch Komposition, Arrangement, Stimmführung, Harmonielehre... lernen, wenn ein cleveres Helferlein diese lästigen Jobs übernehmen kann?

Für mich wäre das nichts, da ich Freude an diesen Details habe. Auch verwende ich noch nicht mal Presets, weil sich da bei mir immer ein Gefühl der Entfremdung einstellt - nicht das Gefühl, etwas eigenes geschaffen zu haben.
Für mich wäre es recht interessant meine eigene Musik als Trainingsdaten zu verwenden.
Natürlich ist fraglich ob man da dann was eigenes schafft, selbst wenn man nachher noch viel Einfluss auf das Ergebnis nehmen könnte.
Ich seh das aber eher als "Kreativitätsverstärker".

Die Frage ist auch, wie sieht das in 10, 20 Jahren aus?
Wie wird die Welt sein wenn Kinder mit solchen Tools aufgewachsen sind?
Wenn man zum Tablett sagt: "mal mir ein Bild von einem Pferd" - und das Tablett macht das dann.

Das muss nicht unbeingt heißen daß Talente wertlos werden, aber Talente werden eine andere Rolle spielen als heute, denke ich.
Aber welche?
 
Wählen Sie alle Bilder mit Insekten ohne Zebrastreifen aber mit Ampeln und Bussen aus.

Wählen Sie auch die neuen Bilder aus.

Wählen Sie auch die neuen Bilder aus.

Wählen Sie auch die neuen Bilder aus.

Sie haben in Bild 417 leider ein rosa Pixel übersehen. Sie dürfen daher nie wieder von dieser Webseite downloaden.
 
Zuletzt bearbeitet:
Für mich wäre es recht interessant meine eigene Musik als Trainingsdaten zu verwenden.
Natürlich ist fraglich ob man da dann was eigenes schafft, selbst wenn man nachher noch viel Einfluss auf das Ergebnis nehmen könnte.

was ich dabei nie kapieren werde ist, wo da überhaupt einen nennenswerter unterschied zum füttern einer markov menge höherer order sein soll.

wenn ein mensch eine melodie improvisiert, ist das ergebnis ja auch vom wetter oder der stärke der rückenschmerzen abhängig.

aber ein zu fütterndes computerprogramm kann doch eigentlich gar kein anderes muster erkennen als die verteilungswahrscheinlichkeit der futtersorten.
 
faszinierend an dem Vortrag ist daß man ihm überhaupt nicht anmerkt daß er schon 12 Jahre alt ist.
Dh die ganzen populären und faszinierenden Beispiele von oben gab es damals noch gar nicht.
Seine Aussagen bleiben trotzdem richtig.

Neulich haben Forscher gezeigt daß sich durch spezielle Muster, auf T-Shorts gedruckt,
die neurale Bildverarbeitung von autonomen Autos so stören lässt daß sie praktosch ausfällt.
Das hätte ihn sicher fasziniert.

 
Gedankenlesen mittels Machine Learning und EEG
offenbar kann Machine Learning einen Zusammenhang zwischen EEG und gesehenem Bild herstellen
 


Ein paar Beispiele:

Man benötigt eine dicke GPU und CUDA, um das auszuführen:
 
Blixa Bargeld und Alexander Hacke waren damals schon seit zwei Jahren Mitglied in der Band, als Bargeld im Oktober 2014 sein Konzert in der Grugahalle Hamburg zum letzten Mal seit 2011 absolvierte. Diesen Monat hatte die Band ihre Konzertreihe im Club Der Visionäre eingestellt. Der lange geplante Spatenstich fand im Rahmen einer Gala-Party in Hamburg statt und war laut Bargeld "sehr positiv zur Last gelegt". "Es war ein komplettes Ding. Weil es gut war, die Fans und die ich habe, weil es eine Möglichkeit war, meinen Politikum vorzulegen",
generated with GPT-2 https://app.inferkit.com/demo
 
So, MS Word wird jetzt AI Textvervollständgung bekommen


Damit jedem klar ist was das heist lass ich mal den ersten Satz des Artkels von AI vervollständigen (per GPT-2, Url https://app.inferkit.com/demo)

Microsoft is planning to add text predictions to Word in March. The new feature will let you use Word as an alternative to Google Docs and other services. Microsoft Word web versions for Mac and Windows will support predictive text beginning in March, enabling a quick access feature that lets you select parts of the text and then have Microsoft Word know what you want. Predictive text is a useful tool for word processing, but when used with Google Docs, the search engine company’s document collaboration service, it leads to overuse of the system. There are concerns that users

Man vergleiche den Text mit dem Artikel, es klingt komplett glaubhaft und stimmig.

Und die Leute werden ihr Zeug damit schreiben und zwar genau solches Zeug.
 
Das Buch "Parallel Distributed Processing" von Rumelhart und McClelland (1986) hatte damals einen wahren NN-Hype ausgelöst.
Einer der entscheidenden Schritte war das sicherlich das Back-Propagation-Konzept von Rumelhart, Hinton und Williams 1986.
Problem: "Lacks of data and powerful hardware, cannot train deep network -> Second AI Winter" (Dr. Haojin Yang, HPI, 2018)

Das wirklich interessante an diesen ganzen Deep Learning Sachen ist die Mathematik dahinter. Die vor gut 100 Jahren vorgestellten theoretischen Konzepte entstammen fast alle aus dem wissenschaftlichen Umfeld Berlins, was seinerzeit das wissenschaftliche Zentrum der Welt war. Viele Vordenker waren Juden. Damals war noch garnicht abzusehen, wozu die ganzen mathematischen Konzepte führen. Und auch im Grundstudium hab ich mich gefragt, was ich eigentlich mit einer Jacobi- oder Hessematrix anfangen soll. Auch von den Dozenten konnte das keiner sinnvoll beantworten. Steigt man dann in die Geschichte der neuronalen Netze ein, schließt sich der Kreis.

Bestes BSP: Jacobi, Jude und geboren in meiner Heimatstadt Potsdam
 
Zuletzt bearbeitet:


Kleiner Spass am Rande: Der Anreisser oben auto-ergänzt durch https://app.inferkit.com/demo, orginal in Deutsch:

Außerdem sind die Krimitchnur bei Psy-Ops und bei Cyberangriffen umgesetzt worden. Wie untersucht man solche Delikte? Hervorgegangen war ein Wissenschaftlerstreit zwischen den unterschiedlichsten Fachbehörden des Vereinigten Königreichs (UK), so dass nach unterschiedlicher Rechnung das Forscherteam einige Kompromisse zur Verfügung stellen musste, um die Akzeptanz der Behandlung bei einzelnen zuständigen Behörden zu erhöhen. Der Team um Kevin Horan von der University of Nottingham (UK) und

 


News

Zurück
Oben