Neu

Macs sind erstaunlich gut für KI - Lokale KI!

Das Video zeigt sehr schnelle KI Engines gegen allerdings auch sehr dicke Macs - nämlich Ultra und mit viel Speicher - weil genau das braucht KI ja, ich selbst hatte das auch mit meinem Max M1 probiert, der ja 64GB hat - damit geht schon was - aber hier noch mal etwas mehr, mit dem Ultra und absolut gut auch noch auf dem M4 bei niedrigem Verbrauch - besser als NVIDIA und PC Gerätschaften.

Apple ist nicht für KI bekannt, aber bei der Power und Performance wegen der M1 unified RAMs richtig weit vorn:

 
  • Daumen hoch
M.i.a.u.: oli
Keine Ahnung. Ich habe halt das Standard-ChatGBT-Abo. Und das läuft superschnell auf allen meinen Macs.
 
Das wird extern in einer Cloud gerechnet, in die gerade sämtliche schnelle RAM Chips investiert werden und deshalb ist das auch gerade unfassbar im Preis gestiegen. Wohl dem, der dieses Jahr keinen neuen Rechner braucht. Für die zahlst du das Geld. Die Firmen haben also ein Cloud-Konzept mit Abo. Man KÖNNTE auch auf Rechner setzen, die lokalen Engines sind natürlich schon schwächer als die besten neuen. Das muss man fairerweise sagen, siehe Video.

Hier geht es um lokale Ausführung der KI - das ist also komplett anders, weil man dafür viel RAM und Rechenpower braucht, es geht hier ja auch um In-RAM-Database und LLMs, die da recht große Speicher benötigen. Auf einem kleinen Macbook Air mit 16GB zB kommt man damit leider nicht weit. Noch weniger auf dem PC, weil da brauchst du schnelle RAM-starke NVIDIA oder andere Komponenten.
 
Zuletzt bearbeitet:
Lokale KI ist leider immer noch langsam egal welche Konfiguration, aber beweist das es kein NVIDIA braucht und kein Monopol seitens NVIDIA gibt so sehr sich das Trump auch wünscht.

Freut mich am meisten.
 

Neue Beiträge

News

Zurück
Oben