Everything A.I.

AI ist noch immer irgendwie eine bessere Datenbank oder Big Data, ich glaube erst an echte KI, wenn das wirklich mehr als nur schlau verknüpft ist. Ich finde den Begriff leicht irreführend, man muss nur mal Siri was fragen, um zu sehen, dass wir noch sehr weit von "I" weg sind, Künstlich ist es aber immerhin schon.

Ich interessiere mich dafür seit ich meinen ersten Rechner hatte - wollte ja auch wissen, wie sowas geht.
Aber als IT Hansel bin ich da vermutlich skeptischer. Wenn ein OS erstmals schlau wird, dann sage ich mal - okay - cool. Aber dieses ineinander greifen das alles super läuft, das wäre mal ein Ding, was wir gebrauchen könnten.

Ich sehe in KI kein böses Ding, aber ich glaube, dass Buzzwords wie KI, AI, Machine Learning und so viele Leute ohne IT Kenntnisse eher verwirbeln und an Elektronenhirn übernimmt Erde denken, dabei kann das Zeug halt eher mechanische Dinge besser wie Go spielen oder Quiz Fragen lösen.

Sprechen und formulieren, verstehen - inhaltlich mehrere Sätze Zusammenbiegen, das wäre mal toll und D und ENG Bandnamen verstehen und so - Bilder in der Cloud sortieren- da sind wir noch nicht wirklich auf dem Level.

Trotzdem ist das cool, was es schon gibt. Aber bitte auch bezüglich FB und Co - nicht nur Angst haben, auch mal wissen, was da wirklich läuft und was noch lange nicht geht. Da ist kein Gehirn und das wird noch lange nicht so sein.
 
Zuletzt bearbeitet:
AI ist noch immer irgendwie eine bessere Datenbank oder Big Data, ich glaube erst an echte KI, wenn das wirklich mehr als nur schlau verknüpft ist..

Das hast Du schon mal geschrieben aber was ich hier poste es sind neuronale Netze - Nachfolger des Perzeptrons -
- das ist schon was anderes.
Big Data gehört heute zwar dazu, für die Trainingsdaten.
Da werden dann mal eben 10.000 Bilder analysiert. Oder 100 Drehbücher.
Aber das wird nicht in Datenbanken abgelegt, sondern es wird ein neuronales Netz trainiert
das sich nach dem Input ausrichtet und adaptiv tatsächlich lernt.
Das Netz kann danach ganz ohne jede Datenbank Dinge erkennen.

Das Netz funktioniert in den meisten Aspekten wie biologische Nervennetze.
Da gab es riesen Fortschritte in den letzten 10 Jahren.


Kuck Dir mal das an zB https://deepart.io/ - mit Datenbanken und Big Data oder alten Bildverarbeitunsgalgorithmen geht sowas nicht.
Das ist komplexe neuronale Mustererkennung und -verarbeitung.
Das Netzt "sieht" die Strukturen im Ausgangsbild und "träumt" die Struktur in das Zielbild.
Und zwar ganz ähnlich wie ein biologischer Sehapparat das verarbeitet.

Das ist keinerlei Datenbank dahinter und das hat mit der alten KI und sogenannten "Expertensystemen" ja nichts zu tun.

Bei so was wie Siri mag das anders sein, aber das ist ja im Prinzip nur eine Suchmaschine mit Spracheingabe.
Wobei auch da denke ich neuronale Netze für Teilaufgaben im Spiel sind.

1486620188499.jpg


Jeder dieser Knoten ist einfach nur eine simulierte Nervenzellenähnliche Struktur,
die je nach internem Zustand (Gewicht, Schwellenwert etc) und Inputlevel an die benachbarten Knoten "feuert"
oder nicht.
In dem Netz sind keine Daten abgelegt, und das Netz ist *wesentlich* kleiner als die Datenbank
an Dingen mit der es trainiert wurde.
Und es kann Dinge/Bilder erkennen die nicht in der Dtanebank waren - kuck Dir das Quickdraw DIng an zB.
Das ist ja der Witz daran.

Im ersten Layer werden Strukturen wie Kanten, Flächen, Ecken usw erkannt.
Was im zweiten passiert kann man mit Worten schon nicht mehr umschreiben.

Es weiß auch letztlich keiner warum und wie genau ein trainiertes Netz dann funktioniert, was es genau
intern mit welchen Knotenpunkten eigentlich macht.
 
Das ist das gefährliche daran, Zitat:
"Wir werden diese Lösungen womöglich nicht mehr verstehen, auch wenn sie funktionieren."

aus:
http://www.spiegel.de/wissenschaft/...ucht-keine-lehrmeister-kolumne-a-1175130.html

Zitat: "Und selbst den Schöpfern der künstlichen Intelligenz ist nicht mehr klar, weshalb genau die Maschine welchen Lösungsweg gewählt hat."

aus:
http://www.spiegel.de/netzwelt/web/sascha-lobo-ueber-kuenstliche-intelligenz-a-1139901.html

Das eine ist, Problem Erkennung und erarbeitete Lösung werden Privatisiert. Das Andere, ein Großteil der Menschheit wird das Lernen verlernen.
Und da der Weg zur Lösung nicht nach zu vollziehen sein wird, kann man Die Lösung auch nicht mehr in Frage stellen. Eine neue Religion.
 
Die Analogie zu Nervenzellen ist schön eingängig, aber im Prinzip sind das "nur" Funktionsgleichungen mit sehr vielen Variablen - und keine Geheimwissenschaft. Die Mathematik dahinter ist sooo kompliziert nicht. Das Verfahren zur Optimierung der Parameter ist ja an sich nicht neu, neu sind aber die Rechenpower für die multidimensionalen Matrizenrechnungen und die Datenmasse, welche der Optimierung zugrunde liegen.
Insofern gehört Big Data nicht nur dazu, sondern das ist tatsächlich der Gag daran. Ob man das nun "Intelligenz" nennen soll? Sicher diskutabel.
 
Das stimmt, die Mathematik kann sogar verblüffend simpel sein, je nach dem von welcher Warte man drauf schaut.
Letztlich läuft es im "Neuron" auf Schwellenwerte und Gewichtungen hinaus.

Ob man es Intelligenz nennen möchte oder nicht, es fehlt halt ein anderer passender Begriff dafür.
Künstlicher Instinkt passt ja auch nicht. Künstliche Dummheit.

Und soweit man weiß ist die mögliche Intelligenzleistung solcher Systeme nach oben offen.
Also daß so Dinge wie Selbstwahrnehmung in entsprechedn komplexen Modellen möglich sein kann ist zumindest denkbar
und es gibt keinen bekannten Grund warum dem nicht so sein könnte.

Und intelligent ist einfach auch Beschreibung der Leistung, wenn es eine Aufgabe ist die "Intelligenz" erfordert hat bisher.
Bilderkennung zum Beispiel, Sprach- und Handschrifterkennung, ect, ect.
Oder Diagnosen stellen, was ja ein Studium vorausgesetzt hat bisher.
 
[...]

Zitat:
"Wir werden diese Lösungen womöglich nicht mehr verstehen, auch wenn sie funktionieren."

[...]

Zitat: "Und selbst den Schöpfern der künstlichen Intelligenz ist nicht mehr klar, weshalb genau die Maschine welchen Lösungsweg gewählt hat."

[...]

Das sehe ich auch als großes Problem. Schon jetzt wissen wir z.B. nicht mehr, warum eine bestimmte AI einer Personen einen Kredit zuteilt, einer anderen aber nicht...

Daher setzt das Silicon Valley vermehrt auf den Ansatz "XAI" (= Explainable Artificial Intelligence).
 
Angeblich ist es ja schon so, dass die Programmierer nicht mehr durchblicken wie Programme zur Gesichtserkennung zu ihren Ergebnissen kommen, da die sich angeblich selbst modifizieren.


Ansehen: https://youtu.be/CvvI6F_W0tA

Ab Minute 5:00, wobei Carrol eigentlich Astrophysiker ist, also keine Ahnung wie qualifiziert seine Aussage diesbezüglich ist.
 
Hab nur ne Minute reingehört, was er da sagte ist schon richtig, es ist problematisch wenn Infrastruktur
von Technik abhängt die man nicht zur Gänze durchschaut.

Solche Probleme gibt es allerdings auch ohne neuronale Netze, zB beim Highspeed Handel gab
es das Problem daß die Algorithmen sich gegenseitig beeinflusst haben und dann aufgeschaukelt so daß es zum Crash kam.
 
Ich möchte mit meiner offenbar langweiligen weil schonmal gesagten Aussage nur mitteilen, dass vieles ein wenig "umfangreicher" gedeutet wird, gerade von denen die eher wenig Technikverständnis haben. Siri ist keine KI, sondern nur einfache Sätze die genau so gesprochen werden müssen, Machine Learning und Big Data sind aus der Menge der Daten sozusagen "schlau", da aus vielen Daten eine Art von Erkenntnis gewonnen werden kann. Beim Thema Kriminalitätsvorsage oder sogar Pre-Vorsage, um Leute einzulochen die vermutlich kriminell werden ist es ebenso - dazu gibt es auch einige Studien und am Ende kann man sich das sogar selbst denken - die bisherigen Verhaltensweisen und Muster werden abgeglichen und das was passt, passt. Das ist deshalb durchaus treffsicher, kann aber sehr schnell auch rassistisch oder vorurteilsgeladen sein. Und ja, die KIs sind noch ein wenig weiter, es gibt da verscheidene Ansätze, und einige davon erscheinen ziemlich cool, dennoch kann eine KI für medizinische Probleme zB oder ein Diskettengericht ebenfalls nicht immer das, was man meint was es kann.

Die Gefahrensache hat damit zu tun, dass aus dem was man dem System gibt auch unerwartete Lösungen und Verbindungen kommen können, die eben anders wirken. Du kannst oder könntest eben auch eine Reihe sehr interessante Forschungen über Musik machen oder über Gear, aber auch über Sprache und zB alles was hier je gepostet wurde einwerfen und schauen was raus kommt. Wäre da auch hochinteressiert. Und die Sachen die nicht auf ML oder Big Data Analysen basieren sind dann schon anders aufgebaut. Ich möchte mich da nicht zum Experten aufspielen, der bin ich nicht. Ein sehr spannendes Thema. Aber es sind raffinierte Statistiken, gute aufbereitet und schon etwas mehr, aber es ist kein Wesen und hat auch wenig davon. Nur, damit das einmal gesagt wurde in dem Thema sage ich das.
 
Nachdem ich aber genug "negatives" Zeug gepostet habe,
ich finde es total faszinierend, ich hab mir meinen Computer eigentlich gekauft, wegen KI. Mit 11.

Ich bin total gespannt, ob man nicht als Menschheit etwas heraus finden kann, was quasi durch solche Untersuchungen machbar ist, es gab in den 80ern so Witze über Rechner die die Zukunft voraus sagen, Politikern Hilfestellung geben sollen wie man was tun sollte und vieles mehr.

Aber was wirklich geht und möglich ist, darüber würde ich eher philosophisch reden, auch technisch, und das ist hochspannend.
Wie man sieht, tue ich das zwar mit IT Hintergrund, aber - Mathe Noob.

Wichtig ist nur - suchst du eher eine Sammlung mit interessanten KI Aktionen oder eine Diskussion und Philosophie? Will dir hier ja nicht ins Essen quatschen.
Aber bin extremst interessiert. Das mit dem Gehirn und Simulation ist aber vorsichtig zu sehen. Der späte Hawking hat gern gewarnt, ich hingegen bin da eher positiv vorgeladen.

Das mal so als Gefühlsregung und Statement, wenn nicht erwünscht, bitte sagen. Würde dann das wieder löschen, wenns nicht passt.
 
Ich finde das alles sehr bedenklich. Wenn ich mir anschaue, wie Google Fotos meine Bilder nach irgendwelchen dargestellten Gegenständen durchsuchen kann, dann fallen mir da ganz viele extrem fiese militärische Anwendungen dafür ein.
 
Zuletzt bearbeitet:
@Moogulator : sollte zuerst ne Sammlung werden aber Diskussion darüber find ich auch ok, gehört ja auch zusammen irgendwie.

Nur Links ist langweilig.
 
Ah, danke. Dann würde ich bei Google dagegenhalten - ich finde diese Bildersuche unfassbar hilfreich - stell dir vor du hast 40000 Bilder und suchst einen SH5. Synths erkennt er, manchmal Roland, aber SH5 noch nicht. Früher war ich immer der, den man fragte - was ist das für einer - jetzt kann das ggf. Google und kann mir alle gelben Moogs raussuchen: keiner! Tadaaa! Aber ich würde mich für meine Recherche freuen, sowas zu können.

Das gilt auch für komplexere Datenvergleiche.
Und ja, die Schattenseiten sind jene, dass die Bösen das für Unsinn verwenden könnten. Mit Photoshop kann man NPD Plakate machen aber auch unfassbar coole Musik-Events anzetteln. Was tun wir jetzt?
 
Ich vermute eh daß es am Bild liegt daß der SH 5 nicht als Synth erkannt wird, vielleicht mal ein anderes Photo ausprobieren.
Er hat ja die typischen Merkmale die ein NN erkennen könnte, Keyboard und Knöpfe.
 
Synth schon, Roland auch mal, aber - als Keyboard oder Synth werden Sachen mit Klaviatur eher erkannt als ohne, dann sind sie Schalttafel.
Das ist so die Grenze, ist noch zu nerdig, so detailreich zu prüfen.
 


News

Zurück
Oben