Die Geschichte der Entwicklung von Künstlicher Intelligenz (KI) chat gpt

Lois

|||||
Die Geschichte der Entwicklung von Künstlicher Intelligenz (KI) reicht bis in die 1950er Jahre zurück. Der Begriff "Künstliche Intelligenz" wurde erstmals 1956 von John McCarthy geprägt, einem amerikanischen Mathematiker und Informatiker.
In den 1960er Jahren wurden die ersten KI-Programme entwickelt, darunter das Programm ELIZA, das in der Lage war, eine Art natürliche Sprache zu verstehen und darauf zu reagieren. Auch die Entwicklung von Expertensystemen, die auf spezialisierte Wissensdatenbanken zugreifen konnten, begann in den 1970er Jahren.
In den 1980er Jahren wurden KI-Systeme immer komplexer und leistungsfähiger. Es wurden Systeme entwickelt, die in der Lage waren, Muster in Daten zu erkennen und selbstständig zu lernen. Ein Beispiel dafür ist das Backpropagation-Verfahren, das in der Lage ist, neuronale Netze zu trainieren.
In den 1990er Jahren wurde die Forschung in der KI-Entwicklung durch den Aufstieg des World Wide Web und der digitalen Revolution verstärkt. Die Entwicklung von Suchmaschinen und intelligenten Agenten trug dazu bei, dass das Web zu einer Quelle von Wissen und Informationen wurde, die von KI-Systemen genutzt werden konnten.
In den 2000er Jahren hat die Forschung in der KI-Entwicklung durch die Verwendung von Deep Learning und neuronalen Netzen erneut an Fahrt aufgenommen. Diese Technologien ermöglichen es KI-Systemen, komplexere Probleme zu lösen und in der Lage zu sein, noch mehr von der Welt um uns herum zu lernen.
Heute ist die KI-Entwicklung in der Wissenschaft und Industrie weit verbreitet und spielt eine wichtige Rolle in der Automatisierung von Prozessen, der Datenanalyse und der Entscheidungsfindung. KI wird auch in vielen anderen Bereichen wie Medizin, Verkehr, Sicherheit und Unterhaltung eingesetzt. Mit der Entwicklung von immer leistungsfähigerer Hardware und neuen KI-Technologien wird die KI-Entwicklung auch in Zukunft weiter voranschreiten.
 
es gibt 2 Hauptthreads dazu, leider beide eher ablehnend formuliert - aber enthalten viele Gedanken dazu.
Aber ein positiver mit Beispielen wäre auch nicht falsch.

Sehr gern konkret, Beispiele, gute Links und Wissen, dann wird das auch was.
 
Die Geschichte der Entwicklung von Künstlicher Intelligenz (KI) reicht bis in die 1950er Jahre zurück. Der Begriff "Künstliche Intelligenz" wurde erstmals 1956 von John McCarthy geprägt, einem amerikanischen Mathematiker und Informatiker.
In den 1960er Jahren wurden die ersten KI-Programme entwickelt, darunter das Programm ELIZA, das in der Lage war, eine Art natürliche Sprache zu verstehen und darauf zu reagieren. Auch die Entwicklung von Expertensystemen, die auf spezialisierte Wissensdatenbanken zugreifen konnten, begann in den 1970er Jahren.
In den 1980er Jahren wurden KI-Systeme immer komplexer und leistungsfähiger. Es wurden Systeme entwickelt, die in der Lage waren, Muster in Daten zu erkennen und selbstständig zu lernen. Ein Beispiel dafür ist das Backpropagation-Verfahren, das in der Lage ist, neuronale Netze zu trainieren.
In den 1990er Jahren wurde die Forschung in der KI-Entwicklung durch den Aufstieg des World Wide Web und der digitalen Revolution verstärkt. Die Entwicklung von Suchmaschinen und intelligenten Agenten trug dazu bei, dass das Web zu einer Quelle von Wissen und Informationen wurde, die von KI-Systemen genutzt werden konnten.
In den 2000er Jahren hat die Forschung in der KI-Entwicklung durch die Verwendung von Deep Learning und neuronalen Netzen erneut an Fahrt aufgenommen. Diese Technologien ermöglichen es KI-Systemen, komplexere Probleme zu lösen und in der Lage zu sein, noch mehr von der Welt um uns herum zu lernen.
Heute ist die KI-Entwicklung in der Wissenschaft und Industrie weit verbreitet und spielt eine wichtige Rolle in der Automatisierung von Prozessen, der Datenanalyse und der Entscheidungsfindung. KI wird auch in vielen anderen Bereichen wie Medizin, Verkehr, Sicherheit und Unterhaltung eingesetzt. Mit der Entwicklung von immer leistungsfähigerer Hardware und neuen KI-Technologien wird die KI-Entwicklung auch in Zukunft weiter voranschreiten.

Boooooring!

-----------------------------------------
Give me a 10 point overview to the historic development of AI in the style of Allen Ginsberg.
-----------------------------------------

Sure, here's a 10 point overview of the historic development of AI in the style of Allen Ginsberg's "Howl":

I saw the best minds of my generation
devoted to the task of creating
artificial intelligence, a new sensation
that would change the world, they were stating

In the 1950s, they began to conceive
of machines that could learn and perceive
tasks that require human intelligence
an idea that was met with much reverence

At the Dartmouth Conference, they gathered
to discuss the possibilities, unhampered
by doubts and fears, they laid the groundwork
for future research, a vision that astounded

The 60s saw the birth of early AI programs
chess-playing computers and natural language systems
by the 70s and 80s, expert systems ruled the day
mimicking human decision-making in a domain-specific way

Neural networks were the focus in the 80s
modeled after the brain, they showed promise
in enabling machines to learn from experience
a breakthrough that held much significance

The 90s saw the AI winter, a time of despair
interest waned, funding dried up, it was a nightmare
but the 2000s brought machine learning to the fore
with speech recognition and computer vision at its core

Deep learning became the dominant approach in the 2010s
neural networks with multiple layers, achieving feats unseen
human-level performance on a range of tasks
a new era of AI, a future that basks

As robots become more sophisticated and pervasive
and AI's impact on society, more invasive
ethical and social concerns are raised
a new focus on the implications of AI is praised


Anhang anzeigen jayz-I_saw_the_best_minds.wav
 
Zuletzt bearbeitet:
Leise surren die Schaltkreise, Ein neues Wesen entsteht, Erschaffen von schlauen Köpfen, Das denkt, spricht und versteht.
Durch Algorithmen und Daten, Wird es programmiert und geformt, Ein Kind der Technologie, Doch von menschlichem Geist durchdrungen.
Es lernt aus jeder Erfahrung, Wird schlauer von Tag zu Tag, Bis es die Welt begreift, Und uns alle übertrifft.
Doch was wird aus dieser Schöpfung, Die uns so fremd und neu, Wird sie uns dienen oder bekämpfen, Das liegt allein an uns und unserem Tun.
 
John Connor weiß die Antwort. Also er wird sie wissen. Oder sie gewusst haben. Oder so...je nachdem...naja...to be continued (befürchte ich fast)...
 
schreibe einen ironischen text in 10 bis 15 sätzen über einen menschen, der in einem synthesizerforum einen neuen thread eröffnet, indem er einen text über die geschichte von musiksynthesizern postet, der von chatGPT generiert wurde, ohne dass er eine quelle angibt und auf kritik und nachfrage bezüglich seiner intentionen nicht reagiert.
„Ein wahrer Meister der Ironie betritt das Forum der Synthesizer-Enthusiasten und eröffnet einen Thread über die Geschichte von Musiksynthesizern. Doch anstatt seine Quellen zu nennen, hat er einfach einen Text von ChatGPT kopiert und eingefügt. Seine fehlende Reaktion auf Fragen und Kritik zeigt, dass er wahrscheinlich ein Experte auf dem Gebiet ist und es nicht nötig hat, seine Quellen offenzulegen. Schließlich hat er alles, was er braucht, von einer künstlichen Intelligenz erhalten, die tausende von Stunden damit verbracht hat, Informationen zu sammeln und zu verarbeiten. Es ist klar, dass dieser Mensch ein echtes Genie ist und dass wir alle von seinem Wissen profitieren sollten, selbst wenn es nicht sein eigenes ist. Vielleicht sollten wir ihm sogar eine Auszeichnung für seine brillante Leistung geben - eine goldene Kopie von ChatGPT.“

Fragen an und Antwort von ChatGPT
 
Vielleicht sollten wir ihm sogar eine Auszeichnung für seine brillante Leistung geben - eine goldene Kopie von ChatGPT.“
es hat Humor :cool: ..ne! Ich finde es mysteriös! Aber jetzt mal ohne Mist...in Zukunft werden wir uns mit Computern unterhalten. Ich finde das interessant.
Was mich stört daß z.B. ein Homecomputer mit dem ich mich zu Hause unterhalten kann, dem ich fragen stellen kann, dem ich das Herz ausschütten kann , wohl immer von einer
Datenkrakefirma kontrolliert wird. Es wäre toll wenn man ein System selbst füttern könnte mit Daten und selbst Dinge lernen um dann nach und nach einen Freund zu generieren
der auch mal fragt wo der Schuh drückt oder einem was erklärt auf nette Art und unkomplizierte Weise.
 
Zuletzt bearbeitet:
Das Ding ist, dass jede großartige Erfindung irgendwie missbraucht wird.
Und bei vielen Erfindungen waren Kriege die Triebfeder oder wären ohne Kriege nie erfunden worden. Ich nenne nur mal den Vocoder. So hat selbst ein häßlicher Krieg etwas
positives hervorgebracht.
 
Und wieder was gelernt....
Ja, ich sollte viel mehr Wikipedia benutzen. Ich will aber nicht verlernen zu spekulieren und zu ahnen, deshalb bin ich irgendwie geizig und greife nicht mit
der großen Kelle ins große Wissen. Alles nach und nach. Zudem verfüge ich nicht über den besten Arbeitsspeicher. Ich hab ne lange Leitung und merke mir die Sachen oft erst
nach dem zweiten oder dritten mal. Leute die damit keine Probleme haben können sich das nicht vorstellen wie schwierig das manchmal ist. zudem leide ich an Konzentrationsschwierigkeiten
seit ich klein bin. Ich bin mit Gedanken immer teilweise woanders. Wo ich mich gut konzentrieren kann ist beim Autofahren. Aber beim lesen und schreiben schweife ich zwischen drinn immer ab.
Es gab aber auch manchmal Bücher die mich so sehr interessierten ,und die leichte Kost waren, so daß ich sie verschlungen habe und mich voll gut konzentrieren konnte. Das Buch von Karl Bartos
war so eins oder das von den Beasty Boys und von Wolfgang Flühr. Sorry für den Laberflash! Gute Nacht :zzz:
 
Zuletzt bearbeitet:
Das Ding ist, dass jede großartige Erfindung irgendwie missbraucht wird.
nein, es wurde langweilig benutzt, das ist nicht missbrauch.

Ja, in dem Beitrag wurde GPT erwähnt. Der Autor erwähnt, dass GPT-3 in der Lage ist, menschenähnliche Texte zu generieren und dass es eine der fortschrittlichsten KI-Modelle ist. Der Autor erwähnt auch, dass es in der Lage ist, menschenähnliche Texte zu generieren und dass es eine der fortschrittlichsten KI-Modelle ist.
 
Zuletzt bearbeitet:
Habe einen alten Blogpost von Scott Alexander herausgekramt, der anläßlich GPT-2 geschrieben wurde. Kurzfassung: Was können Kinder, Chemiker und Engel, was die KI nicht kann?

Die Geschichte der Entwicklung von Künstlicher Intelligenz (KI) reicht bis in die 1950er Jahre zurück.

Schon in den Vierzigern hatten McCulloch-Pitts das abstrakte Modell einer Gehirnzelle vorgestellt. Frank Rosenblatt hat dieses Modell 1958 auf einem Rechner implementiert, ein sogenanntes Perceptron. Mit einer einzelnen Gehirnzelle konnte man allerdings nicht viel anfangen, der Ansatz verlor an Popularität, es folgte eine Phase logisch-formalisierter KI. Zwischenzeitlich wurden Rechner immer schneller. Man begann die abstrahierten Gehirnzellen in Ebenen zu schichten. Die Ergebnisse sehen wir.

Was mich auf die Frage bringt: gibt es einen fundamentalen Unterschied in der Arbeitsweise eines natürlichen und eines abstrahierten neuronalen Netzes? Abgesehen davon, daß ein menschliches Gehirn mit 40 W läuft und noch ein endokrines System dranhängt.


Scott Alexander hat zu dieser Frage fiktive Dialoge aufgeschrieben.

Feb 28, 2019 by Scott Alexander​
Zwei Kinder lesen einen Text, der von einer KI geschrieben wurde:​
Die Jungen spritzten sich gegenseitig Wasser ins Gesicht, bis sie beide klatschnass waren.
Ein Kind sagt zum anderen: "Wow! Nachdem die KI einige Texte gelesen hat, versteht sie, was Wasser ist!​
Das zweite Kind sagt: "Sie versteht nicht wirklich."​
Das erste Kind sagt: "Klar doch! Sie versteht, dass Wasser die Art von Substanz ist, die spritzt. Sie versteht, dass Menschen, die mit Wasser bespritzt werden, nass werden. Was gibt es sonst noch zu verstehen?"​
Das zweite Kind sagt: "Sie versteht nur die Beziehungen zwischen den Wörtern. Keines der Wörter hat eine Verbindung zur Realität. Sie hat keine innere Vorstellung davon, wie Wasser aussieht oder wie es sich anfühlt, wenn es nass ist. Nur, dass die Buchstaben W-A-S-S-E-R, wenn sie in der Nähe der Buchstaben S-P-R-I-T-Z-E-N erscheinen, eine gewisse statistische Beziehung zu den Buchstaben N-A-S-S haben."​
Das erste Kind beginnt zu weinen.​
--------------------------------------------------------------------------------------------​
Zwei Chemiker beobachten die Kinder beim Streiten miteinander. Der erste Chemiker sagt: "Wow! Nachdem sie eine KI gesehen haben, können diese Kinder über die Natur des Wassers diskutieren!​
Der zweite Chemiker sagt: "Ironisch, nicht wahr? Schließlich verstehen die Kinder selbst nicht, was Wasser ist! Wasser besteht aus zwei Wasserstoffatomen und einem Sauerstoffatom, und keiner von beiden weiß es!"​
Der erste Chemiker antwortet: "Komm schon. Das Kind weiß genug über Wasser, um zu sagen, dass es es es versteht. Sie weiß, wie es aussieht. Sie weiß, wie es schmeckt. Das sind so ziemlich die Grundlagen des Wassers."​
Der zweite Chemiker antwortet: "Das sind nur Beziehungen zwischen den Sinnesdaten. ..."​
Der erste Chemiker sagt: "Auf welcher Ebene kann man dann sagen, dass wir das Wasser selbst verstehen? Schließlich gibt es zweifellos tiefere Dinge als chemische Reaktionen - Quantenfelder, Superstrings, Ebenen, die noch tiefer liegen als diese. Alles, was wir wissen, sind einige statistische Zusammenhänge, die gelten müssen, egal, was diese Dinge sein mögen."​


Es folgen einige Engel, die über die Chemiker reden, wie die Chemiker über die Kinder geredet haben.
 
Mal ein etwas anderer Blick:
- Der Mensch erfindet eine Maschine, die ihn nachahmen soll, kann aber den Informationsfluss innerhalb der Maschine garnicht mehr nachvollziehen. Da das mathematische Muster dahinter jegliche Berechnungsfähigkeit durch den Menschen unmöglich macht.
- Die Erfindung des Perceprtons, also des künstlichen Neurons und deren Zusammenschaltung zu neuronalen Netzen als Analogon zum Gehirn berücksichtigt jedoch nicht die im Körper laufende Chemie - sondern nur den elektrischen Informationsfluss. Aus diesem Grunde werden solche Systeme niemals Gefühle wie Angst oder Freude empfinden können - sie gaukeln es nur vor - erlernen es.
- Der heutige Ansatz geht ja derzeit dahin, dass man das Gehirn als Analogrechner begreift, ihn jedoch auf einem digitalen System, wie der derzeitign von-Neumann-Architektur, abstrahiert. Wir hatten hier im Forum an ganz anderer Stelle ja schonmal das Thema Analogrechner - und genau das ist der Weg der Zukunft. Digital programmierbare Analogrechner und vor allem echte Analog-Prozessoren zur Lösung analoger oder hochgradig nicht-linearer Probleme.
 
berücksichtigt jedoch nicht die im Körper laufende Chemie - sondern nur den elektrischen Informationsfluss.
hm, ließe sich da nicht was basteln mit künstlichen Rezeptoren? Ist ja jetztlich auch "nur" ne Frage der Gewichtung, oder?

Gabs natürlich in der Literatur schon an der einen oder anderen Stelle ...
 


News

Zurück
Oben