Apple Mac mini M1 - Der Preis-Leistungs-Sieger am Desktop Markt?

Eine 250 GB SSD verkraftet etwa 190 GB Schreiben pro Tag für etwa ein Jahr. Wenn man aber bedenkt, dass wahrscheinlich weit über 120 GB einer solchen 256 GB bereits dauerhaft belegt sind, dann kann das Wear Leveling kaum noch was machen und man ist bei irgendwas zwischen 50-100 GB. Ein PowerUser mit unserem Preis-Leistungs-Sieger zwapt wahrscheinlich schon so 50 GB pro Tag ohne Probleme (es gibt ja sogar Berichte, dass mit Adobe Lightroom oder Premiere der 8 GB mini bis zu 500 GB swapt, bei Gaming sogar noch mehr). Das bedeutet, dass er so in 2-3 Jahren schon mit ein paar weniger GB auskommen muss. Sicherlich ist das Ding noch nicht kaputt, aber wenn man nach 5 Jahren nur noch 120 GB hat, dann ist das Ding quasi Elektroschrott. Soviel zur Wertstabilität. TLC verkraftet auch deutlich weniger als SLC oder MLC, ist nur deutlich billiger zu produzieren. Generell ist ja die Empfehlung mind. 1/3 oder mehr auf der Systemplatte frei zu haben, damit nicht immer die selben Zellen belastet werden. Prinzipiell ist das wahrscheinlich kein Problem, weil die meisten Leute mit diesem Mac Mini eben nur Office machen und da hält das es wahrscheinlich ewig. Dann greift aber auch das Preis-Leistungsverhältnis nicht mehr, denn für Office reicht auch ein 300 Euro PC.

Eine typische Client SSD wäre die Samsung 970 EVO, TLC 3DNAND, mit vom Hersteller garantierten 150 TBW. Apple verlötet ähnlichen Speicher in seinen Computern.


Wohlegemerkt, die 150 TBW sind das was Samsung garantiert, nicht das was die SSD aushält. Viele Tests (u.a. der c‘t) haben mittlerweile den Beweis erbracht, dass SSDs ein vielfaches der garantierten Schreibleistung vertragen. Du hattes ja 190 GB x 365 ~ 67 TB als Haltbarkeitsgrenze angenommen. Hier wäre meine Frage, auf welche Daten du dich hier berufst?

Die Sache mit der festen Belegung von Speicherplatz mit „kalten“ Daten ist bei modernen Controllern nichts mehr, was einem effektiven Wear Leveling entgegensteht, da diese in Idle-Phasen Daten im Hintergrund umkopieren.
 
Eine typische Client SSD wäre die Samsung 970 EVO, TLC 3DNAND, mit vom Hersteller garantierten 150 TBW. Apple verlötet ähnlichen Speicher in seinen Computern.


Wohlegemerkt, die 150 TBW sind das was Samsung garantiert, nicht das was die SSD aushält. Viele Tests (u.a. der c‘t) haben mittlerweile den Beweis erbracht, dass SSDs ein vielfaches der garantierten Schreibleistung vertragen. Du hattes ja 190 GB x 365 ~ 67 TB als Haltbarkeitsgrenze angenommen. Hier wäre meine Frage, auf welche Daten du dich hier berufst?

Die Sache mit der festen Belegung von Speicherplatz mit „kalten“ Daten ist bei modernen Controllern nichts mehr, was einem effektiven Wear Leveling entgegensteht, da diese in Idle-Phasen Daten im Hintergrund umkopieren.

Ok, aber wenn wir wirklich 500 GB Swaps haben, dann wird das auch ein Problem, wenn alles optimal läuft. Vielleicht auch nicht. Lassen wir uns überraschen. Angeblich wurde ja auch falsche SMART-Werte angezeigt, was ab irgendeinem Update im April behoben wurde, aber anscheinend darf jetzt kein Dritthersteller mehr an die SSD Daten. Problem gefixt.
 
Wo nehmt ihr diesen Daten her?

Das krieg ich nichtmal hin, wenn ichalles komplett neu installiere
 
Wo nehmt ihr diesen Daten her?

Das krieg ich nichtmal hin, wenn ichalles komplett neu installiere

Du meinst die 500 GB? Habe ich mal irgendwo gelesen. Wobei das schon nach sehr viel klingt. Wenn die SSD aber gezielt wie RAM genutzt wird, da ja der CPU und die Grafikkarte die 8 GB teilen müssen und wenn dann ein 4k Video geschnitten wird und du immer die gerade relevanten Sachen von der SSD in den RAM vorlädst und andere Daten auf die SSD schreibst, dann geht das wahrscheinlich sehr schnell. Angeblich gab es auch Probleme mit Rosetta und der Speicherverwaltung der übersetzen Prg. Ob das stimmt und ob das gefixt ist, ist irgendwie nicht wirklich klar.
 
Was ihr das Thema hier mit einem sinnlosen und überall schon tausendfach durchgekauten Müll zuballert, ohne Worte 😂
 
Hier wird das günstige MacBook Air M1 (Einsteiger/Basisversion) mit einem, der aktuell durchaus schnellsten Intel-powerded PC-Notebooks vergleichen, welches mast 3x so teuer und dem entspr. top ausgestattet ist.
Vergleicht mal selbst und achtet auf Preis/Leistung der beiden Geräte:

Der Test ist vom 10.09.2021


https://youtu.be/8OLzkefOCHs
 
Zuletzt bearbeitet:
Der M1 für den Desktop ist ein "Abfallprodukt" der durch die iPads und iPhones motivierten Weiterentwicklung. Da diese Maschinen mittlerweile so brutal leistungsfähig geworden sind, ist nun die Schwelle zum "Gut genug für normale Desktop-Anwendungen" gerissen. Und weil sie darauf so stolz sind, haben sie ausnahmsweise mal die Geldgier im Zaum gehalten – außerdem wollen sie ja so viele Leute auf die neue Architektur bringen, wie möglich.

Die spannende Frage, die sich mir und vielen "Power-Usern" aus Entwickler-, Audio- und Video- und Forschung-bereichen stellt, ist die der Skalierbarkeit. Was passiert, sobald ordentlich viel RAM (>= 64GB) [dann halt wieder extern, denn das passt nicht auf's Die) angebunden werden soll, was passiert, wenn wir über 12 Cores hinausgehen, etc. etc.

Daher gönne ich Apple den Achtungserfolg mit ihrem M1, bin aber noch etwas skeptisch ob der Frage, wann und wie der nächste Mac Pro aussieht.

Ich denke die Antwort ist mittlerweile eingetroffen 😉
 
Ich denke die Antwort ist mittlerweile eingetroffen 😉
Noch nicht ganz. In der Tat haben sie es gewagt/geschafft, 64GB Hauptspeicher auf die Platine zu packen, das ist schon mal beeindruckend und lässt hoffen. Allerdings: Der gegenwärtige MacPro kann mit 1TB Hauptspeicher konfiguriert. Das sehe ich noch nicht auf einer Platine, da sind dann doch wieder andere Strategien gefragt.
 
In welchen Situationen würde man 1TB an RAM benötigen? In meinem iMac sind nach wie vor 16GB verbaut und ich komme damit bestens zurecht.
Und bitte auch an dieser Stelle nicht vergessen, dass der M1 anders mit RAM umgeht, als ein x86.
 
In welchen Situationen würde man 1TB an RAM benötigen? In meinem iMac sind nach wie vor 16GB verbaut und ich komme damit bestens zurecht.

für multichannel formatiges audio oder für unkomprimierten film ist das nicht viel.

das muss zwar normalerweise nicht unbedingt alles in den speicher, ist aber schon toll wenn es klappt, denn dann musst du das mit dem lesen von der platte erst gar nicht in dein programm einbauen.

generell kann man eigentlich für sampling instruments oder video nie genug haben.

in die größten der IBM power9 workstations gehen inzwischen 64 TB RAM rein, das ist dann das 4000-fache von dem was du da hast.^^

mit solchen maschinen macht man z.b. SAP, oder auch mal webshosting und email server gleichzeitig, da ist das super wenn du alles im speicher hast. wobei das noch DDR4 ist, der dich grade mal 120,000 euro aufpreis kostet. (also ein viel besseres preis-leistungsverhältnis als bei apple oder HP, um beim thema zu bleiben, haha)

1635102243438.png 1635102268227.png
 
generell kann man eigentlich für sampling instruments oder video nie genug haben.
...spielt bei den heutigen SSD bzw. NVMe speeds auch keinne rolle mehr ob die samples im RAM oder auf der SSD/NVMe liegen...
für Sampler braucht man soviel RAM nicht wirklich... für Web- und Mailserver auch nicht, bei Hypervisoren und Datenbankservern macht das schon eher Sinn...
 
...spielt bei den heutigen SSD bzw. NVMe speeds auch keinne rolle mehr ob die samples im RAM oder auf der SSD/NVMe liegen...
für Sampler braucht man soviel RAM nicht wirklich... für Web- und Mailserver auch nicht, bei Hypervisoren und Datenbankservern macht das schon eher Sinn...
Genau so isses.
 
für Sampler braucht man soviel RAM nicht wirklich

das kommt immer darauf an, was man damit machen will.


RAM ist kaum teurer und hält das zehntausendfache an "schreibvorgängen" aus... schneller ist es sowieso... DDR4 ist round about 8 mal so schnell wie NVMe.

und ssds sind, wie gesagt, eine umständlichere art des zugriffs, weil du ja quasi zwei jobs erledigst, den du auch mit einem erledigen könntest - und ansonsten das lesen und schreiben auf den beginn und das ende deiner session verlegen kannst.

ich kopiere sehr viel zeug zwischen buffern hin und her, schon alleine weil das ganze geraffel mit pfaden, namen, zugriffsrechten usw. wegfällt.

mein 3D wavetable synth braucht 1.1 gb RAM, den habe ich ursprünglich auf einem rechner gebaut, wo das betriebssystem nur 1.5 benutzen konnte, das war dann nicht mehr so lustig. in meinem alten server habe nur 12, das ist auch schon recht eng für solche sachen, ich könnte bequem 64 gebrauchen. und da reden wir noch nicht über video.

dass OSX sowieso vieles im hauptspeicher behält, wenn es einmal gelesen wurde, hat ja auch seine guten gründe. un dbeim M1 kommt hinzu, dass das hauptspeicher für alle möglichen anderen jobs permamenent zur verfügung stehen muss. bzw. kann, denn das ist ein echter vorteil.


vor nicht allzulanger zeit haben hersteller von sampling instruments noch ganz stolz "direct from disk" als bahnbrechende neuheit angekündigt - heute brauchst du das nicht mehr, weil auch ein 100 gb instrument einfach in den hauptspeicher passt. :)

ich warte eigentlich nur noch drauf, dass nichtflüchtiger hauptspeicher bezahlbar wird, dann sind das eine und das andere eh das gleiche.
 
Zuletzt bearbeitet:


Zurück
Oben