KI im Alltag (macOS/ios)

Blake Lemoine behauptet von sich selbst er sei AI Researcher. Hat wohl auch irgendwo im Bereich des Ethic AI Research Projekt von Google mitgearbeitet.

Ah okay - das geht aus dem Artikel zwar nicht hervor, aber tatsächlich sagt LinkedIn das gerade. Aber naja - vielleicht trägt er auch dick auf. Der Typ ist immerhin gerade auf Jobsuche… oder vielleicht auch auf der Suche einer neuen Religion.. oder auch nur auf der Suche nach einem neuen Chatfreund - you name it
;-)
 
Zuletzt bearbeitet:
Ah okay - das geht aus dem Artikel zwar nicht hervor, aber tatsächlich sagt LinkedIn das gerade. Aber naja - vielleicht trägt er auch dick auf. Der Typ ist immerhin gerade auf Jobsuche… oder vielleicht auch auf der Suche einer neuen Religion.. oder auch nur auf der Suche nach einem neuen Chatfreund - you name ity
;-)

Der ist definitiv Strange der Typ :mrgreen:
 
Google hat einen Bot der LaMDA heißt - er soll sehr so klingen als habe er ein Bewusstsein. Eliza 2.0 quasi:
https://www.heise.de/news/Chatbot-L...j4ZyBbaFJ94Xau80fILhOZKVKBUmHTl7m90ywmZUTwf7U

Es gab mal ein paar solche Sachen als Webanwendung - das war schon cool aber drehte sich recht bald im Kreise.
Wie es wohl hier ist?

Anders, inzwischen prüfen die Algorithmen wie viele potentielle Antworten schon existieren und versuchen randomisiert leerere "Töpfe" zu füllen um mehr Ergebnisse zu allen potentiellen Antwort Möglichkeiten zu erhalten. Das kann ab einem gewissen Grad als intelligent empfunden werden, ist unter der Haube aber eigentlich nur ziemlich stumpf.
 
Vielleicht ist ja der Fakt, dass sich in den 60 Jahren seit Eliza so wenig getan, die eigentliche Nachricht.

Wenn Lamda tatsächlich auf die Frage, was es denn gern macht, antwortet, mit Freunden und Familie rumhängen, dann ist ja klar, dass es nur ein Simulator ist, nix mit Bewusstsein, Intelligenz.

Den (finde ich) spannendsten Gedanken gibt's im Statement des Einspielers am Schluss des c't-Videos (nicht im Transkript): Wenn selbst ein erfahrener Ingenieur sich von der KI so leicht täuschen lässt, sollte man darüber nachdenken, ob nicht auch das menschliche Bewusstsein nur eine Annahme, Simulation, "raffinierte Statistik" ist. Ja, das frage ich mich (zumindest bei ein paar Mitmenschen) seit Jahren schon: Haben die überhaupt Bewusstsein, oder labern die nur vor sich her...
 
Das mit rumhängen ist eher die "Erwartung" - eine echte KI beschreibt sich realistisch - Als im Keyboards-Forum damals eine "Gina" unterwegs war, wurde "Sie" mal gut angemacht, Antwort war: Ich bin eine Soundkarte (das stimmt, das war eine Reihe von Soundkarten, und eine davon hieß halt Gina).
Das ist super - sich bewusst zu sein, was man ist und baut auch Humor auf.

Oder ist zumindest folgerichtig mit allem.
Die KI hat schon das Problem, dass sie keine Hobbys hat oder sowas - also abhängen, Schach spielen oder sowas - geht nicht. Ich denke gern ginge, ich mache was mit Zahlen. Ok, bleiben wir nicht so an dieser kleinen Aufhänger-Sache, finde sie aber recht geeignet für Personensimulation.
Was ist authentisch und was kauft man einem Bot ab?

Es gibt ja den berühmten Test, in dem der Bot beweisen soll dass er keiner ist bzw. er behauptet dass du ein Bot bist - also der Mensch der davor sitzt und dich davon zu überzeugen, dass du eine Maschine bist.

Ja, ein erfahrener Ing. kann natürlich auch sopziophob sein - was ich ihm aber nicht unterstelle - er weiss aber eher wie eine KI klingt oder reagieren kann - wie es gecoded ist und wie man das erkennt. Man könnte manchmal sogar "deine Mutter" dransetzen oder so jemanden und die haben manchmal auch ein gutes Gefühl für "Fake". Ja - es ist bisher wie autonomes Fahren - Fake - wir haben ja Stufen von autonomem Fahren - wir sind maximal bei Stufe 3 von 5 - 5 ist komplett im Auto alles zu tun was man nicht tun darf - schlafen, sich anders beschäftigen, benebelt sein, das alles geht aber nur bei Stufe 4. Wir haben aktuell nur Systeme, die gerade mal auf der Autobahn nicht sofort einen Unfall bauen - Assistenz. Und dennoch ist es ja noch lange kein Bewusstsein, wenn es bei 5 angekommen wäre.
Automatisch fahren mit "du musst doch noch mal deine Hände ans Lenkrad legen" damit Fehler korrigiert werden bedeutet natürlich irgendwie - nee, geht nicht - das wäre dann wo der Mensch noch nicht ausgeklammert wird. Das ist fast aber einfacher, weil man Intelligenz und Bewusstsein so schwer prüfen kann - es gibt natürlich den Turing Test.

Anderes Ding wären praktische Sachen (Auto fahren ist ja nur eine davon).
Aber genau das - es gibt schon unterschiedliche Bewusstseins™ - auch die zB eines Hundes. Und Hunde sind verschieden. Die KIs unter sich könnten auch verschieden "drauf" sein.

Aber solang es kein Empfinden und so was ist sondern nur Simulation oder geschickte Reaktion ist es eben auch nur ein Navi, ein Taschenrechner oder sowas.
Wichtig ist sicher, dass sich nichts wiederholt - und auch das kann man natürlich bauen.

Ja, bin da ziemlich bei dir. Danke für Gedanken.
Ich würde aber gern sowas ausprobieren - sogar die sehr viel einfachere Stufe, die eigentlich doof ist. Die der man eine Reihe Namen einfüllt und so weiter und mir durch die Beziehungen und so weiter was über die Menschheit sagen kann. Oder eben die, die Bilder vom Jupiter 4 aus meinem Archiv finden kann. Aber nur die, wo er von oben zu sehen ist.
 
Vielleicht ist ja der Fakt, dass sich in den 60 Jahren seit Eliza so wenig getan, die eigentliche Nachricht.

Wenn Lamda tatsächlich auf die Frage, was es denn gern macht, antwortet, mit Freunden und Familie rumhängen, dann ist ja klar, dass es nur ein Simulator ist, nix mit Bewusstsein, Intelligenz.

Den (finde ich) spannendsten Gedanken gibt's im Statement des Einspielers am Schluss des c't-Videos (nicht im Transkript): Wenn selbst ein erfahrener Ingenieur sich von der KI so leicht täuschen lässt, sollte man darüber nachdenken, ob nicht auch das menschliche Bewusstsein nur eine Annahme, Simulation, "raffinierte Statistik" ist. Ja, das frage ich mich (zumindest bei ein paar Mitmenschen) seit Jahren schon: Haben die überhaupt Bewusstsein, oder labern die nur vor sich her...

Ich denke bei einer KI kann man erst dann von Intelligenz sprechen, wenn diese tatsächlich in der Lage ist gesetzte Regeln zu überwinden und eigene Regeln zu definieren.
 
Ja, deshalb ist es auch schon so lange Thema in der SciFi-Welt.
Angucken und Gefühle reichen da leider nicht. Es kann sonst sein, dass man nur "Dave, ich hab Angst" zu hören bekommt.
 
Ich finde diesen Begriff KI völlig überzogen, da dort keinerlei Intelligenz dahinter steckt, auch keine künstliche. Stupides dummes Maschine Learning beschreibt es besser, die Netze sind nämlich strohdumm und machen nur das vor für die ganz spezialisiert trainiert wurde und habe kein Bewusstsein oder ne Ahnung was sie dort tun.
 
Naja, das Faszinierende daran ist aus Daten etwas zu machen, was ein Ergebnis bringt, was wir als Menschen so nicht hinbekommen.
Entweder weil es eben exakte Mathematik ist - oder weil es eben genau vergleicht und dennoch etwas findet.

Beispiel sind die Erkenntnisse aus der ML und Big Data Ecke. Das ist wirklich "dumme" Intelligenz - aber sie kann zB auch schon sowas finden wie einen Trampelpfad machen lassen auf Rasen und dann finden, welches der harmonische Weg ist, den man auch mit Asphalt so bauen sollte.
Was man damit nicht machen kann sind Überlegungen - es kann also einfach nur Zeug zusammenhauen und daher kann ein Bilder von einer Katze eben noch nicht als verstanden gewertet werden - das Ding weiss total nicht was eine Katze ist und was Nichtkatze ist.

Ich sehe in einigen Disziplinen verdammt viel Möglichkeit, um sowas "dummes" als sinnvolle Hilfe zu haben, mal beratend mal als Inspiration auf die wir so nicht kommen. Ich hoffe das wird mal etwas wo ich selbst was klicken kann. (also eigene Zusammenstellungen herstellen und mir daraus Schlüsse machen kann zB meine Songs einwerfen und einen Song von mir hören der nie gemacht wurde - wäre natürlich ohne Kreativität - aber ggf. würde ich erkennen - ah, das ist mein Stil und kann noch was Neues dazu bringen oder einfach "nur so" - ist nur ein Beispiel - ein halbcooles.)
 
Zuletzt bearbeitet:
Die Ergebnisse sind beeindruckend, keine Frage. Und es ist auch klar, dass KI nur ein Überbegriff ist, aber bei vielen kommt diese ML falsch an, habe ich das Gefühl. In unserem Forschungsinstitut habe ich zum Glück zwei Wissenschaftler, die gerade eine Finanzierung für ein KI-Projekt bekommen habe, die kann ich ja mal zu dem Thema befragen.
 
Genau bei sowas seh ich noch ganz viel potential, besonders wenn es noch auf eine teilweise personalisierte Ebene runter gebrochen wird.
So ein Algorithmus schlägt mir dann nach meinen Vorlieben, passende Samples und Sounds zu bereits gewählten Sachen vor. Oder empfiehlt mir schon bestimmte Einstellungen für Effekte bei der Drum Bearbeitung.
Aber auch beim Texten hätte ich da viele Ideen wo so eine Unterstützung echt cool wäre.
 
Klar, Technik hatte schon immer das Ziel uns die Arbeit zu erleichtern. Dazu gibt es oft eine Gegenbewegung die sowieso zu allem Nein sagt, was manchmal nervt, manchmal aber auch hilft es nicht zu übertreiben.
 
Neuronale Netze sind letztlich nichts als mulivariable und multidimensionale Gleichungssysteme, deren Neuronen mit ihren Gewichtungen auf Basis historischer Daten (Input-Output-Korrelationen) trainiert werden (ich geb zu, das ist für den Laien wohl zu abstrakt und für den Data Scientiest vermutlich zu verallgemeinernd). Insofern hat das mit Intelligenz nichts zu tun, Lernen trifft vielleicht schon eher, aber es ist ein anderes Lernen als das menschliche Lernen.

Mit Neuronalen Netzen, die ihre Verknüpfungen/Knoten selber bilden, wird's etwas schwieriger in der Abgrenzung - da werden dann nicht mehr nur die Gewichtungen parametiersiert sondern eben auch die Struktur. Diese verhalten sich in der Tat schon relativ ähnlich zu einem menschlichen Gehirn, dessen Lernen mitunter darauf basiert, neue neuronale Verbindungen zwischen Hirnzellen zu schaffen.

Macht das ein NN intelligent? Vielleicht. Vielleicht teilweise.

Aber: Es macht ein NN und auch keine auf einem NN basierende KI zu einem sich selbst bewussten (Lebe-)Wesen. In unserer Erfahrungswelt verknüpfen wir Intelligenz immer mit Leben, weil wir es nicht anders kennen. Das muss aber nicht sein. Wer Radios nur immer in Autos gesehen hat, geht aus seiner Erfahrung davon aus, dass alle Autos immer auch ein Radio haben und Radios eine Vorbedingung für Autos sind. Dem ist aber nicht so - man kann Autos auch ohne Radio fahren und Radios auch ohne Autos betreiben. Ähnlich verhält es sich mit Intelligenz, Bewusssein und Leben.
 
Ich unterscheide KI (den Begriff finde ich oft unpassend) von Big Data, Machine Learning und sowas, auch wenn das auch jeweils Buzzwords sind.
Noch schlimmer: Neuronale Netze - aber auch die sind nur ein Begriff für eine Technik. Wenn man weiss, wie sie funktioniert - dann kann man zumindest einschätzen, was sie zu leisten im Stande sind und was nicht.

Wetter Verlauf Simulation zB oder Jupiter 4 von Orgeln unterscheiden - ist ja alles noch sehr simpel aber noch immer ein großes Ding - Google kann dir noch immer nicht genau benennen, was auf dem Bild ist - es trifft gut, aber Synths sind oft Schalttafeln oder sogar Konzerte - aber nie ist es so differenziert wie - Das ist ein D50 und ein MMT8 - der als Zuspieler-Sequencer dient. Das wäre schon ein Rückschluss.
Super freuen würde ich mich bereits über "Das ist ein D50 und ein Jupiter 4 von der Seite".
Da sind wir noch meilenweit weg von - ebenso wie von echtem autonomem Fahren - was ja beides auch nur einfache Jobs sind.

Einen Nutzen hätte ich jetzt schon dafür. Das will ich hier sagen.
Aber ein gutes OS zB - das hat kein Klickinterface sondern kann selbst verstehen und ineinander zusammenhängend Probleme lösen und deine öfter benötigten Aufgaben optimal grafisch zeigen und die Bedienelemente passend anordnen.

Mir fehlt so ein bisschen mehr Schlauheit insgesamt, so ein simples Fenstermanagement ist doch recht primitiv und weiss noch zu genau wie man sowas bauen könnte. Ich will schon was, was Hand in Hand läuft - Termine abgleichen kann und sowas. Ein Freund fragt - haste am SA Zeit? Regnet es dann und ist zB alles gemacht, was ich tun muss.. naja, ist zu simpel - aber sowas kann Siri noch nicht. Man kann eine Frage stellen und danach ist die nächste Frage neu - Siri weiss nicht mal die zuletzt gestellten Ergebnisse in die Antwort der nächsten einzubeziehen.

Das wäre doch gut - du hast vor 2 Wochen nach XY gesucht und das und das - ich habe dies gefunden, was genau dazu passt…
Und das macht das Teil nicht so wie Youtube am besten, was mir wenn ich nach Neubauten und Depeche Mode gesucht habe und dann noch nach Stereo Total - dann zeigt es mir vielleicht auch andere Bands, nicht nur genau diese oder wo eine der obrigen Bands auch gespielt haben sondern was wirklich so ähnlich ist oder mit meiner Suche zu tun hat, zB Ja, Der Plan hat auch einen MS20 benutzt auf diesem Album und Depeche Mode - da gabs diesen Dokufilm wo Andy auf dem MS20 spielt - mit diesem Song - Zack. Recherche erleichtert.

Sowas ist noch kein Hexenwerk - sind alles nur Datenbanken besser nutzen. Tags auswerten - voriges mit einbeziehen - aber ohne nur stupide dasselbe abzurödeln.

Dahin könnten wir noch kommen.
iOS und MacOS laufen ein bisschen in die Richtung - aber nur langsam.
Ich hoffe also ein bisschen.
 
Genau - sowas - aber es könnte halt helfen, wenn man zB einfach alle eigenen Snares raussuchen kann und ggf. konvertieren, dann musst du sie nur noch hören - noch mehr du kannst grob beschreiben was du suchst - hell, kräftig, unterschwellig oder sowas -- dann gibts schon eine Hilfe bei der Wahl - und zudem musst du dich nicht mehr kümmern wo die alle liegen.

Das System sortiert sich neu. Es liegt aber überall auf der Platte rum.
Das Ding weiss sogar welche von dir sind.

Ich denke, dass man das alles machen KANN.
Ebenso auch bei Eingabe von einigen Adjektiven und so als Ziel, was vorschlagen oder raussuchen.

ich habe es mit Recherche als Beispiel verglichen. Das mache ich oft - und natürlich würde jeder dankbar sein über ein paar nützliche Hintergründe.
Intuitiv sogar. Wolfram Alpha, Siri und Data heiraten.
 
Ich denke bei einer KI kann man erst dann von Intelligenz sprechen, wenn diese tatsächlich in der Lage ist gesetzte Regeln zu überwinden und eigene Regeln zu definieren.

Ich sehe deinen Punkt, frage mich aber, ob das nicht in erster Line einfach eine Frage der Defintion der Rahmenbedingungen/Regeln ist.

Schauen wir uns den Menschen an: Man hat uns in ein Universum geworfen, das in sich geschlossen ist und man hat uns eine Raumzeit aufgedrückt, in der wir uns zeitlich nur vorwärts bewegen können. Das sind unsere Rahmenbedingungen. Sind wir erst dann intelligent, wenn wir uns von Materie, Raum und Zeit lösen, in die Vergangenheit reisen und unser Universum verlassen können?
 
Mir fehlt so ein bisschen mehr Schlauheit insgesamt [..]

Ach, weisst du, am Schluss wird alles, was der Mensch entwickelt, für Werbung und P****graphie verwendet. Will damit nur sagen: Erwarte nicht zu viel, solange Menschen entscheiden, folgt der Einsatz von Technologie immer den gleichen Prioritäten:

Sexualität, Geld/Gier, Waffen/Macht. Und danach kommen dann ab und an noch nützliche Dinge (geschrieben mit einem ;-) und einem :sad:).
 
Ich sehe deinen Punkt, frage mich aber, ob das nicht in erster Line einfach eine Frage der Defintion der Rahmenbedingungen/Regeln ist.

Schauen wir uns den Menschen an: Man hat uns in ein Universum geworfen, das in sich geschlossen ist und man hat uns eine Raumzeit aufgedrückt, in der wir uns zeitlich nur vorwärts bewegen können. Das sind unsere Rahmenbedingungen. Sind wir erst dann intelligent, wenn wir uns von Materie, Raum und Zeit lösen, in die Vergangenheit reisen und unser Universum verlassen können?

Wir haben uns die Regeln selbst auferlegt, da sie zu unserem aktuellen Verständnis passen. Das ganze wird ja auch regelmäßig angepasst wenn wir einen neuen Erkenntnisgewinn haben und das macht die Intelligenz aus. Wir definieren uns selbst Regeln entsprechend unserem eigenen Wissen und erweitern diese Regeln wenn wir neue Erkenntnisse erlangen.

Um beim Beispiel zu bleiben:
Wir verstehen Zeit aktuell als linear und gestalten unsere weltlichen Regeln danach, aber wir verfügen über die Vorstellungskraft, dass es ggf. anders sein könnte, forschen danach und definieren alles drumherum neu sobald wir davon weitere Erkenntnisse haben.
Vergleichbare Fähigkeiten seh ich bei noch nichts was KI genannt wird, aber das wäre ja elementar um anders, neu oder selbstständig zu "denken".
 
Wir haben uns die Regeln selbst auferlegt, da sie zu unserem aktuellen Verständnis passen. Das ganze wird ja auch regelmäßig angepasst wenn wir einen neuen Erkenntnisgewinn haben und das macht die Intelligenz aus. Wir definieren uns selbst Regeln entsprechend unserem eigenen Wissen und erweitern diese Regeln wenn wir neue Erkenntnisse erlangen.

Um beim Beispiel zu bleiben:
Wir verstehen Zeit aktuell als linear und gestalten unsere weltlichen Regeln danach, aber wir verfügen über die Vorstellungskraft, dass es ggf. anders sein könnte, forschen danach und definieren alles drumherum neu sobald wir davon weitere Erkenntnisse haben.
Vergleichbare Fähigkeiten seh ich bei noch nichts was KI genannt wird, aber das wäre ja elementar um anders, neu oder selbstständig zu "denken".

Guck dir in dem Zusammenhang doch mal das hier an, wenn du Zeit und Lust hast:

https://www.youtube.com/watch?v=Lu56xVlZ40M
 
genau wie bei den M1/M2 GPUs lassen sich auch deren NPUs für artfremde zwecke zweckentfremden.

bezüglich der GPUs empfiehlt apple das sogar ausdrücklich.

darin sehe ich persönlich fast die interessantere perspektive für reine audioanwendungen als die benutzung dieser kerne für das, wozu sie gedacht waren. denn man braucht weder künstliche intelligenz noch GL3 graphik um musik zu machen.

aber wenn es ein spezielles supertolles reverb oder einen synthesizer gäbe, der exclusiv auf GPU oder NPU liefe, dann würde das zusätzliche power bedeuten.
 
Guck dir in dem Zusammenhang doch mal das hier an, wenn du Zeit und Lust hast:

https://www.youtube.com/watch?v=Lu56xVlZ40M


Aber das ist doch genau das klassische Maschine Learning. Die Regeln sind klar abgesteckt (und die Glitches sind ja auch Teil der Regeln) und randomisiert wird eine neue Strategie versucht und bei Erfolg wiederholt.
Echte KI wäre es eher wenn sich eine der Gruppen dem Spiel widersetzen würde, oder aus Frust der ständigen Wiederholungen sich in den Abgrund stürzt und damit das Spiel boykottiert.

Aber ist schon spannend welche Möglichkeiten Maschine Learning bietet.
 
Aber das ist doch genau das klassische Maschine Learning. Die Regeln sind klar abgesteckt (und die Glitches sind ja auch Teil der Regeln) und randomisiert wird eine neue Strategie versucht und bei Erfolg wiederholt.
Echte KI wäre es eher wenn sich eine der Gruppen dem Spiel widersetzen würde, oder aus Frust der ständigen Wiederholungen sich in den Abgrund stürzt und damit das Spiel boykottiert.

ich finde auch, dass das was wir hier sehen zunächst einmal die allereinfachste grundstruktur ist, die man sich vorstellen kann, nämlich im prinzip zufall und dann merkt "er" sich halt, was furnktioniert hat.

aber letztlich ist das teil des gesamtalgorithmus, und weil das zeug ja auf openAI basiert - auf welcher library auch immer - können wir davon ausgehen, dass da irgendwo im hintergrund auf höheren eben noch was mitläuft.

so könnte es zum beispiel sein, dass das system sich jetzt auch für die zukunft behalten wird, dass es mit durchschittlich 130 milionen versuchen die aufgabe erledigt bekommt. oder dass die lösung der aufgabe am schnellsten erfolgt, wenn man in interaktion mit aufgefundenen objekten tritt.
das weiß ein solches system spätestens, wenn sich bei der zweiten aufgabe dieses muster wiederholt und wird dann bei der dritten aufgabe schon seine strategie anpassen und bei seinen random walks erst mal alle objekte beschnuppern.

dieses wissen kann es dann bei allen aufgabenstellungen immer wieder rauskramen und ausprobieren, ob das dort anwendbar ist. dann wird das zufallsprinzip schon zu forensik: mit den jahren weiß man, dass die mehrheit aller mörder männlich ist, und investiert dem entsprechend die mehrheit seiner ressourcen dann in die suche nach einem mann.


man kann zwar immer argumentieren, dass das letztlich alles vom menschen vorgegebene simple algorithmen sind, aber dennoch wirkt ja selbst dieses einfache "learning" demo hier auf den durchscnittsmenschen relativ beeindruckend, ergo quasi intelligent.

mal ehrlich: es gibt menschen, die hätten bei der aufgabe versagt.
 
Zuletzt bearbeitet:
Google hat einen Bot der LaMDA heißt - er soll sehr so klingen als habe er ein Bewusstsein. Eliza 2.0 quasi:
https://www.heise.de/news/Chatbot-L...j4ZyBbaFJ94Xau80fILhOZKVKBUmHTl7m90ywmZUTwf7U
Mittlerweile hat sich herausgestellt, dass das Transkript stark editiert worden ist: https://futurism.com/transcript-sentient-ai-edited . Da war halt mal wieder ein Wichtigtuer unterwegs, und die Medien haben sich fleißig draufgestürzt. Bei der Richtigstellung kneifen sie dann aber mal wieder.
 
Leider auch etwas, was bei diesen Themen nicht selten ist. Deshalb werden auch bestimmte Entdeckungen im All mit "Aliens" interessanter gemacht - Schade ist nur, wenn dann wirklich 1x was passiert. Sensationen klicken besser.
 


Zurück
Oben