Du kannst ja nicht wissen, ob die Pflanze absichtsvoll "handelt". Vielleicht reagieren die Insekten auf die Stresspheromone der Pflanze, da sie ihnen den Aufenthaltsort ihrer Beute verraten. Dass diese Pflanzen einen Selektionsvorteil haben, da sie so von Fraßfeinden befreit werden, ist dann eine Sache von Ursache und Wirkung.Die Pflanze hat zB physischen Stress durch Fraß, und sondert Pheromone ab die Insekten anlocken die den Fraßfeind wiederum attackieren.
ja das lässt sich nicht trennen in einen Akteur und Aktiviertem. uswVielleicht reagieren die Insekten auf die Stresspheromone der Pflanze, da sie ihnen den Aufenthaltsort ihrer Beute verraten. Dass diese Pflanzen einen Selektionsvorteil haben, da sie so von Fraßfeinden befreit werden, ist dann eine Sache von Ursache und Wirkung.
Die nächste Generation KI-Lernbots wird mit einem erhöhten Anteil von KI-generierten Texten gefüttert sein. Rechnet selber hoch wohin das führt.
Daher find ich die Überlegungen zur Kennzeichnungspflicht für KI erstellte Werke, gar nicht mal so verkehrt, auch wenn sich dies natürlich nur schwer bzw gar nicht in der Praxis umsetzen lässt.ChatGPT-Texte zu posten ist halt wie Inzest: Die nächste Generation KI-Lernbots wird mit einem erhöhten Anteil von KI-generierten Texten gefüttert sein. Rechnet selber hoch wohin das führt.
Weiss auch gar nicht was Du @Cee meinst ehrlich gesagt.
Beide Zitate sind eine Verballhornung meiner Aussagen und entspringen in dieser Form deiner Phantasie.Da dann mit Allgemeinplätzen ('Fehler passieren nunmal") oder offensichtlichem Unfug ('der Kraft' sei halt Genitiv) herzukommen, nervt nur, das ist Gelaber.
Vorsicht an alle - was alles so als KI oder ML läuft ist halt nicht immer das was maximal denkbar ist.meines Wissens, und ich denke das ist eben auch was @schnuffke2 zu vermitteln sucht,
haben diese Art von Sprachmodellen mit expliziter Grammatik gar nicht so viel zu tun.
Genau so wie die advancten Go Programme von heute eben gar keine Regeln für Go abgespeichert haben.
Auch ein Musikprogramm, um ein bisschen zum Thema zurückzukommen, muss keine Tonarten oder Takte kennen.
Es reichen die Beziehungen zwischen vorangegangenen und folgenden Noten.
Diese ganzen Bildsynthesen kennen auch keine Theorie zur Bildkomposition und berechnen keine vorprogrammierten goldenen Schnitte, die lernen sie aber aus dem Trainingsnaterial.
Wenn das keine goldenen Schnitte sondern nur Schachbrettmuster hat kommen da auch keine raus.
Oben hatte @Moogulator ein Programm verlinkt dass mit Stable Diffusion Musik machen soll, also mit einer Bildsynthese Engine.
Die weiss zB gar nix von Musik. Die analysiert und synthetisiert 2D Arrays.
Kanten, Flächen, Verläufe, Linien, das ist was im ersten Layer da analysiert wird zB, und auch was synthetisiert wird.
Hört sich nur "zufällig" wie Musik an weils halt mit Spektrogrammen und nicht Picasso gefüttert wurde.
aber keine KI.
Prolog oder besser die Programmierung von Expertensystemen ist eindeutig dem Gebiet "Künstliche Intelligenz" zuzuordnen, auch wenn das zur Zeit vllt. nicht en vogue ist.Prolog gehört eher zu "old school" und genau zu dem Zweck - denke openAI ist auch eher sowas.
In den Genitiv gesetzt, heißt es "der Kraft". Es gibt also viele Textstellen in der weiten Textlandschaft, an denen die beiden Wörter "der" und "Kraft" zusammenstehen und beim Training vom NN auch zusammen verarbeitet werden. Wann es "die Kraft" und wann "der Kraft" heißt, muss von Fall zu Fall (hier sogar wörtlich gemeint) entschieden werden. Dabei kann es - wie hier geschehen - zu Fehlern kommen.
Hast Du Chat GPT mal ausprobiert?Hab mir jetzt nur die ersten zwei Minuten vom zweiten Video angeschaut
Ich fass es für Dich ganz grob zusammen:
hier wird AI mit AI in einen Toof geworfen.
Und zwar AI zur Steuerung von autonomen Robotern mit AI von Chatbots.
Weil beides zusammenwächst.
Die Bedrohung wird nicht darin gesehen dass die AI Bewusstsein hätte.
Das wird auch gar nicht behauptet.
Sondern darin dass sie unberechenbar und autonom ist, und mit ( potentiellen ) Waffen ausgestattet.
Die Bewusstseinsfrage (die sich so gar nicht entscheiden lässt, siehe die Diskussionen über Bewusstsein anderer Lebewesen) spielt dafür genau gar keine Rolle.
Hat eine Hornisse Bewusstsein, oder ein Hai? Abgesehen davon dass das auch eine Begriffsdefinitionsfrage ist, spielt das bei der Gefahr nur eine untergeordnete Rolle.
Und eine AI kann auch OHNE Bewusstsein zu dem Schluss kommen dass es sinnvoll ist zu töten oder zu lügen. So wie die OpenAI AI das oben im Video unerwarteter Weise macht.
Es gibt ernsthafte Untersuchungen zu dem Thema die zu eben dem Schluss kommen
dass eine AI das tun wird, wenn Anreize dazu da sind, und Anreize dazu können immer da sein, nur nicht immer offensichtlich.
Hast Du Chat GPT mal ausprobiert?
Also mir erscheint da Why Machines Will Never Rule the World: Artificial Intelligence without Fear deutlich fundierter.Wenn AI so programmiert wurde, dass sie auf Belohnungen reagiert (das Prinzip des lernens) dann wird sie unweigerlich den Programmierer = Mensch töten.
Dazu gab es erste Untersuchungen und Warnungen:
https://www.forschung-und-wissen.de/nachrichten/technik/kuenstliche-intelligenz-wird-den-menschen-ausloeschen-13376678
interessant dass du das glaubst, da fragt man sich wozu überhauot NNs.Einen Bot so zu programmieren, dass er die Asimov’schen Gesetze einhält, indem ein gegenteiliges Ergebnis eines Neuronales Netz ignoriert wird, ist ja wohl das allerkleinste Problem bei der Entwicklung des Bots.
und ich kann Leute die in Serie Strohmannargumente aufbauen nicht nur nicht ernst nehmen, die plonke ich wenn das anhält. Sry.Wer das nicht versteht und dann aus dem GPT-Nachplappern von Sci-Fi irgendwelche Horrorszenarien entwickelt, den kann ich einfach nicht ernst nehmen,
Wenn AI so programmiert wurde, dass sie auf Belohnungen reagiert (das Prinzip des lernens) dann wird sie unweigerlich den Programmierer = Mensch töten.
Dazu gab es erste Untersuchungen und Warnungen:
https://www.forschung-und-wissen.de/nachrichten/technik/kuenstliche-intelligenz-wird-den-menschen-ausloeschen-13376678
Mmm, wenn Du so kommst: Vom programmieren hast Du nicht wirklich Ahnung oder? Wo soll das Problem daran liegen, dass ein System überprüft ob das NN auf einen Menschen schiessen will, und dies unterbindet, weil es eine höhere Priorität hat? Aber klar, Dinge nicht verstehen (wollen?) und dann einfach behaupten, es wäre ein Strohmann Argument. Super Diskussionsstil.interessant dass du das glaubst, da fragt man sich wozu überhauot NNs.
Ich wüsste zB nicht wie man einen Bot regelbasiert so programmieren könnte dass der Strohmann im nächsten Satz erkannt wird.
Oder auch nur das Trolley Problem.
Ich denke du bist da etwas fundamentalem auf der Spur.^^
Wenn Du mit plonken die ursprüngliche Bedeutung meinst dann bitte ich doch sehr darum, dass Du mich plonkst, zumindest wenn Du ernsthaft meinst, das wäre ein angemessener Stil.und ich kann Leute die in Serie Strohmannargumente aufbauen nicht nur nicht ernst nehmen, die plonke ich wenn das anhält. Sry.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.