Neu

Macs sind erstaunlich gut für KI - Lokale KI!

Das Video zeigt sehr schnelle KI Engines gegen allerdings auch sehr dicke Macs - nämlich Ultra und mit viel Speicher - weil genau das braucht KI ja, ich selbst hatte das auch mit meinem Max M1 probiert, der ja 64GB hat - damit geht schon was - aber hier noch mal etwas mehr, mit dem Ultra und absolut gut auch noch auf dem M4 bei niedrigem Verbrauch - besser als NVIDIA und PC Gerätschaften.

Apple ist nicht für KI bekannt, aber bei der Power und Performance wegen der M1 unified RAMs richtig weit vorn:

 
  • Daumen hoch
M.i.a.u.: oli
Keine Ahnung. Ich habe halt das Standard-ChatGPT-Abo. Und das läuft superschnell auf allen meinen Macs.
 
Zuletzt bearbeitet:
Das wird extern in einer Cloud gerechnet, in die gerade sämtliche schnelle RAM Chips investiert werden und deshalb ist das auch gerade unfassbar im Preis gestiegen. Wohl dem, der dieses Jahr keinen neuen Rechner braucht. Für die zahlst du das Geld. Die Firmen haben also ein Cloud-Konzept mit Abo. Man KÖNNTE auch auf Rechner setzen, die lokalen Engines sind natürlich schon schwächer als die besten neuen. Das muss man fairerweise sagen, siehe Video.

Hier geht es um lokale Ausführung der KI - das ist also komplett anders, weil man dafür viel RAM und Rechenpower braucht, es geht hier ja auch um In-RAM-Database und LLMs, die da recht große Speicher benötigen. Auf einem kleinen Macbook Air mit 16GB zB kommt man damit leider nicht weit. Noch weniger auf dem PC, weil da brauchst du schnelle RAM-starke NVIDIA oder andere Komponenten.
 
Zuletzt bearbeitet:
Lokale KI ist leider immer noch langsam egal welche Konfiguration, aber beweist das es kein NVIDIA braucht und kein Monopol seitens NVIDIA gibt so sehr sich das Trump auch wünscht.

Freut mich am meisten.
 
Da ich in puncto KI-Technik in etwa den Wissensstand eines Fünfjährigen habe: Wenn man eigene Hardware für eine eigene KI verwendet, von wo bekommt sie dann ihre Daten? Ich glaube nicht, dass sie aus dem Datenfluss in unserem heimischen WLAN allzu kluge Dinge lernen kann :schwachz:. Oder geht es da nur ums Rechnen?
 
... Oder geht es da nur ums Rechnen?
Im Prinzip geht beides. Du kannst ein neuronales Netz extern trainieren (lassen) und das trainierte Netz auf deinen Rechner importieren und damit zB Vorhersagen etc. berechnen. Du kannst aber grundsätzlich auch den zuweilen langwierigen Trainingsprozess komplett lokal machen, das Problem mit dem Zugang zu ausreichend vielen guten Datenpunkten hast du schon richtig erkannt. Unter dem Suchprompt "Open Data" oder auf der Website Kaggle wird man hier durchaus fündig.
 
Zuletzt bearbeitet:
  • hilfreich
M.i.a.u.: klangsulfat
Ein Fall unter vielen, durchschnittlich über alle Anwendungen sieht das schon wieder anders aus. Aber schön, dass es besser wird.
 
  • #10
Da ich in puncto KI-Technik in etwa den Wissensstand eines Fünfjährigen habe: Wenn man eigene Hardware für eine eigene KI verwendet, von wo bekommt sie dann ihre Daten? Ich glaube nicht, dass sie aus dem Datenfluss in unserem heimischen WLAN allzu kluge Dinge lernen kann :schwachz:. Oder geht es da nur ums Rechnen?
Das funktioniert so: Du installierst erst eine Software, mit der du ein Modell ausführen kannst. Also zB Ollama. Gibt aber auch andere. Diese Software ist nicht groß und kostet nix.

Und dann lädst du mit der Sotware ein Modell herunter. Auch das kostet nix. Davon gibts unzählige. Meist werden welche von den Platzhirschen genutzt. Also OpenAI, ... Diese Modelle sind meist zwischen 3 und 200 GB groß. Je größer, desto besser können die Texte formulieren und desto "intelligenter" sind die. Aber je mehr RAM bei dir im Rechner (v.a. auf der Grafikkarte) brauchen die. Und je größer das Modell, desto mehr Zeit brauchen sie um zu antworten.

Diese Modelle werden meist als offene Modelle bezeichnet.

Die Nutzung passiert dann völlig bei dir auf dem Rechner. Du kannst also dein Internet abschalten und es trotzdem nutzen.

Dh auch, der Datenschutz ist super! Du kannst mit personenbezogenen Daten arbeiten und nichts davon verlässt deinen Rechner. Du kannst zB irgendwelche sehr persönlichen Briefe zusammenfassen lassen oder was auch immer.

Bei den sonst meist genutzten Anwendungen wie ChatGPT gibst du alles, was du da eingibts aus der Hand. Irgendwann wissen die Anbieter so im Grunde fast alles über dich. Je nachdem, was du fragts.

Nachteil der offenen (=lokal genutzten) Modelle ist, dass sie viel Hardware bei dir zu Hause erfordern, und nicht ganz so leistungsfähig sind.

Aber es ist super, das mal auszuprobieren. Man versteht dadurch viel besser, wie Chatbots funktionieren, was ein Modell ist etc.
 
Zuletzt bearbeitet:

News

Zurück
Oben