Übernimmt Apple die Weltherrschaft in Sachen SOC Design?

So schlimm ist das mit den Strom Preisen noch gar nicht, es dauert einige Jahre bis sich ein sparsamer PC oder ein neues TV amortisiert hat, bei 50W mehr bezahlst du selbst bei 8 Stunden Laufzeit pro Tag und 32 cent pro KWH ca. €47 pro Jahr mehr.
Das mag stimmen wenns 50W mehr sind, aber wieviel W verbraucht denn so ein Ryzen/i Desktop setup? Ich vermute so ein standard Medion wird mindestens mit 350W ausgeliefert, die zieht er natürlich nicht voll und permanent und meistens haut man sich ja noch ne graka rein die ohne gaming trotzdem zieht.
Also ist das eher so 15 vs. 150-450W und ok, ich gebe zu das dies bei Vielen evtl. nicht umbedingt so viel Geld einspart, aber manche würde es den Preis den sie über die Jahre für Strom und Aufrüstung ausgeben gerechnet auf die Lebensdauer eines Macs den Mac relativ erschwinglich machen. Bei mir ist das zumindest so.
Mein Büro Windows PC mit einem Pentium Sockel 1055 zieht bestimmt seine 150W und kommt ganz schön ins trudeln bei einfachen Sachen, der einzige Benefit den ich davon habe ist ein eigenständiges Windows System und benutzen tu ich den im Prinzip nur weil ich die meisten Komponenten noch hatte und die auf dem Gebrauchtmarkt auch nix mehr hergeben.
 
Naja also ein Mac ist kein Handy und Ableton läuft drauf und sogar Windows oder Linux.
Ausserdem geht es hier darum das Apple die ARM 64 Architektur nach vorne bringt von dem Windows und Linux ebenso profitiert, die X86 Architektur ist praktisch am Ende.

Es geht hier also nicht darum das Apple böse ist, sondern die ARM 64 Architektur die Weltherrschaft der X86 ablöst. So einen ARM 64 wird es wohl bald auch von AMD geben und den kann man dann in seine Dose reinbaun. Apple hat halt vorerst die Nase vorn, weil schlau.


https://youtu.be/TrEjbtZ6Prs


Das Betriebssystem ist den Leuten völlig egal, Hauptsache die alte Software läuft. Vor 30 Jahren hieß es schon Risc ist viel schneller und löst x86 ab. Man erinnere sich nur an die ganzen Unix Kisten. Geblieben ist davon nicht viel. Gibt es keine Fusion der Anwendungen vom iOS wird der Achtungserfolg des M1 so schnell verpuffen, wie er gekommen ist. Der übliche Apple-User wird zuschlagen, das wars.
 
Ich vermute so ein standard Medion wird mindestens mit 350W ausgeliefert, die zieht er natürlich nicht voll und permanent und meistens haut man sich ja noch ne graka rein die ohne gaming trotzdem zieht.
Mein DELL (Plugin) PC von 2018 hat ein 460W Netzteil, selbst wenn ich unter Energieoptionen alles auf Maximum setze sind das gemessen (wenn ich nicht gerade Zocke) irgendwas zwischen 60-70W, ist was die Grafikkarte betrifft noch erweiterbar - aktuell ist das nur ein 1050TI. Mal sehen was ich mir hole wenn sich die Preise wieder normalisieren.
Ansonsten dürften das im Desktop Betrieb vielleicht 10-15W bei aktuellen Gaming Grafikkarten sein, bei meiner 1050Ti sollen es sogar nur 6W sein.
Die Alternative für M1 Besitzer die aktuelle Spiele zocken wollen wäre wohl 'ne Konsole, die brauchen aktuell afair mehr oder weniger ständig um die 200W - PS4 Pro/Xbox One X nur um die 125W.
 
Mein DELL (Plugin) PC von 2018 hat ein 460W Netzteil, selbst wenn ich unter Energieoptionen alles auf Maximum setze sind das gemessen (wenn ich nicht gerade Zocke) irgendwas zwischen 60-70W, ist was die Grafikkarte betrifft noch erweiterbar - aktuell ist das nur ein 1050TI. Mal sehen was ich mir hole wenn sich die Preise wieder normalisieren.
Ansonsten dürften das im Desktop Betrieb vielleicht 10-15W bei aktuellen Gaming Grafikkarten sein, bei meiner 1050Ti sollen es sogar nur 6W sein.
Die Alternative für M1 Besitzer die aktuelle Spiele zocken wollen wäre wohl 'ne Konsole, die brauchen aktuell afair mehr oder weniger ständig um die 200W - PS4 Pro/Xbox One X nur um die 125W.
- 60-70 Watt? In Idle-Mode (also wenn nix läuft), oder wann?
- CPU ?
- Anzahl Karten und Drives ?
- die 1050 Ti ist eine normale oder OC ?

Messe den Rechner mal mit einem Stromverbrauchsmesser im laufenden Betrieb durch - einmal idle und einmal im normalen Softwarebetrieb und schau dir mal an, was an Watt der Rechner aus der Steckdose so zieht.
Ein 500 Watt Netzteil reicht i.d.m. Fällen vollkommen aus - es sei denn, man belastet entspr. die CPU + GPU und hat noch weiteres Zubehör (auch am USB) im Betrieb, was mehr benötigt. Hinzu kommt noch der Hinweis, dass ein Netzteil niemals das am Output leistet, was reinkommt (Effizienz). Die hochwertigen Netzteile verfügen über eine effektive Effizienz von ca. 90% (je nach Auslastung mal etwas weniger, mal etwas mehr).

Ein x86-PC mit einer 1050 Ti und (z.B.) einer i5 CPU von 2018 und einigen/verbauten PCIe-Karten + Laufwerken kommt im Idle auf ca. 70-100 Watt. Wird die Leistung (CPU+GPU) beansprucht steigt der Hunger auf locker +350 Watt.
Das passiert dir mit dem M1 nicht.

Gem. dem, was ich im Netz finde, läuft die 1050 Ti im Leerlauf mit ca. 10-47W und im max. mit ca. 75W (nur über PCIe) oder 105W (mit zusätzl. Stromanschluss). Die Angaben schwanken aber extrem, daher sollte man die eigene Karte selbst mal durchmessen - so weißt man genaueres.
Eine i5-3470, 3.2GHz kommt durch aus alleine auf 77W (im idle vol auf ca. 20W).
 
Zuletzt bearbeitet:
Du machst mir Angst. Mein 400 Watt Netzteil versorgt einen Ryzen 3600 (max. 65 Watt) und eine 1050Ti mit (max. 75 Watt). Also etwa 140 Watt max. Sollte das in Wirklichkeit 300 Watt sein + mein ganzes USB Zeug und SSDs, dann bewege ich mich schon in gefährlichen Terain.
 
- 60-70 Watt? In Idle-Mode (also wenn nix läuft), oder wann?
Desktop aber das macht bei den von mir auf Audio Anwendungen optimierten Energieoptionen kein Unterschied, wenn ich nicht gerade zocke und die Grafikkarte belaste. Geht afair unter 60W wenn ich ihn auf Energiesparen stelle, das macht bei Audio Anwendungen imho wenig Sinn.

i7-8700 mit 16GB RAM

Marian PCI Express Audio und eben die 1050TI/4GB RAM

1x SSD, 1x HD, DVD Laufwerk

Gem. dem, was ich im Netz finde, läuft die 1050 Ti im Leerlauf mit ca. 10-47W und im max. mit ca. 75W (nur über PCIe) oder 105W (mit zusätzl. Stromanschluss).

 
Du machst mir Angst. Mein 400 Watt Netzteil versorgt einen Ryzen 3600 (max. 65 Watt) und eine 1050Ti mit (max. 75 Watt). Also etwa 140 Watt max. Sollte das in Wirklichkeit 300 Watt sein + mein ganzes USB Zeug und SSDs, dann bewege ich mich schon in gefährlichen Terain.
Wie gesagt .. am besten den eigenen Rechner selbst durchmessen. Entspr. Messgerät kostet ca. € 15,-
 
Das Betriebssystem ist den Leuten völlig egal, Hauptsache die alte Software läuft. Vor 30 Jahren hieß es schon Risc ist viel schneller und löst x86 ab. Man erinnere sich nur an die ganzen Unix Kisten. Geblieben ist davon nicht viel. Gibt es keine Fusion der Anwendungen vom iOS wird der Achtungserfolg des M1 so schnell verpuffen, wie er gekommen ist. Der übliche Apple-User wird zuschlagen, das wars.
Die "Fusion" von IOS hängt vom App Entwickler ab der dir gestatten kann die App auf einem M1 mit Mac OS auszuführen, technisch ist es längst intergriert.
Zb. Moog Model 15.
 
Wie anfangs befürchtet und später tatsächlich erfolgt, werden (zumindest viele) Softwareentwickler ihre Applikationen getrennt für iOS/iPad-OS und macOS anbieten. Die Entwicklung einer iOS/iPadOS-Applikation ist um Vielfaches simpler, als innerhalb eines OS, wie macOS oder Windows (inkl. der Hardwareumgebung dort). Es liegt nicht am Programm-Code, sondern an der im Vergleich zu einer geschlossenen Umgebung eines iPads oder iPhones viel umfangreicheren ß-Testphase inkl. Anpassungen, Bugfixes, etc., was ca. 50% des ges. Entwicklungsaufwandes ausmacht.

Um die Software für macOS ggü. der mobilen Variante hinzu attraktiver zu machen (weil sie aufgrund des o.g. Mehraufwands auch teurer ausfällt), wird diese leicht anders gestaltet.

Wer also meint, mit einem Software-Synth für € 20,- aus der iPad-Welt die Anschaffungskosten eines vielleicht € 150,- teuren, baugleichen PlugIns zu umgehen, wird sich wundern, dass dies in den meisten Fällen so nicht klappen wird.
 
Zuletzt bearbeitet:
Wie anfangs befürchtet und später tatsächlich erfolgt, werden (zumindest viele) Softwareentwickler ihre Applikationen getrennt für iOS/iPad-OS und macOS anbieten. Die Entwicklung einer iOS/iPadOS-Applikation ist um Vielfaches simpler, als innerhalb eines OS, wie macOS oder Windows (inkl. der Hardwareumgebung dort). Es liegt nicht am Programm-Code, sondern an der im Vergleich zu einer geschlossenen Umgebung eines iPads oder iPhones viel umfangreicheren ß-Testphase inkl. Anpassungen, Bugfixes, etc., was ca. 50% des ges. Entwicklungsaufwandes ausmacht.

Um die Software für macOS ggü. der mobilen Variante hinzu attraktiver zu machen (weil sie aufgrund des o.g. Mehraufwands auch teurer ausfällt), wird diese leicht anders gestaltet.

Wer also meint, mit einem Software-Synth für € 20,- aus der iPad-Welt die Anschaffungskosten eines vielleicht € 150,- teuren, baugleichen PlugIns zu umgehen, wird sich wundern, dass dies in den meisten Fällen so nicht klappen wird.

Das habe ich nicht so richtig verstanden. Ist die Sound-Qualität schelchter? Selbst wenn man für die MacOS Versionen extra zahlen muss, weil noch mal extra etwas Entwicklung reingesteckt wird, wäre das Software Angebot deutlich besser als für MacOs üblich. Aber vielleicht ist das iPad sowieso die Zukunft und MacOS ist ein Auslaufmodel.
 
Zuletzt bearbeitet:
Das habe ich nicht so richtig verstanden. Ist die Sound-Qualität schelchter? Selbst wenn man für die MacOS Versionen extra zahlen muss, weil noch mal extra etwas Entwicklung reingesteckt wird, wäre das Software Angebot deutlich besser als für MacOs üblich.
Es geht nicht um Sound-Qualität, sondern um den Entwicklungsaufwand der Software für die jew. Hardware/OS-Umgebung.
Deshalb kostet die Tools für macOS oder Windows gut 10x soviel im Vergleich zur einer iPadOS-Version.
 
Es geht nicht um Sound-Qualität, sondern um den Entwicklungsaufwand der Software für die jew. Hardware/OS-Umgebung.
Deshalb kostet die Tools für macOS oder Windows gut 10x soviel im Vergleich zur einer iPadOS-Version.

Wie leicht wäre es z.B. für NI ihre Software für Arm umzuschreiben? In der Maschine (und auch MPC) werkelt ja ein Intel, obwohl ein Arm eigentlich für diesen Einsatz viel besser geeignet ist. Ich glaube da rauchen in den entsprechenden Firmen gerade die Köpfe, auf welchen Zug man aufspringen soll und ob parralele Entwicklung nicht zu teuer ist.
 
Wie leicht wäre es z.B. für NI ihre Software für Arm umzuschreiben? In der Maschine (und auch MPC) werkelt ja ein Intel, obwohl ein Arm eigentlich für diesen Einsatz viel besser geeignet ist. Ich glaube da rauchen in den entsprechenden Firmen gerade die Köpfe, auf welchen Zug man aufspringen soll und ob parralele Entwicklung nicht zu teuer ist.
x86 (CISC) sowie der Apple Silicon (der auf RISC basiert) sind zwei völlig unterschiedliche CPU-Designs. Apple hat mit Rosetta2 eine "Emu-Brücke" geschaffen, die einiges (längst nicht alles) bei der ersten Ausführung übersetzt und als RISC später startet.
Wie aufwendig es ist die eigene Software von CISC auf RISC umzuschreiben, hängt von der jeweiligen Software ab (pauschalisieren bez. des Arbeitsaufwandes kann man das nicht).

Hier noch mal kurz bez. des Themas: iOS/iPadOS-Apps auf macOS und warum die macOS oder Win PlugIns (auch stand-alone) viel teurer sind, wie ich w.o. bereits schrieb:
Rolf (der Softwareentwicklung von div. u.a. Waldorf-Produkten) hat das sehr gut zusammengefasst:


https://youtu.be/u3oNtd2eTLA?t=3104
 
In dem letzten von mir verlinkten Video sind ziemlich viele Infos

Intel = wird vorrausichtlich 2022 einen ARM rausbringen
Nvidia, Microsoft, Qualcomm sind sowieso schon im rennen

Aber das wichtigste ist das Windows 11 ARM 64 unterstützt und ebenso eine Emulation von X86 (wie Rosetta 2) mitbringt.
Ausserdem kann man sowieso Windows X86 auf den M1 packen und installieren was man will braucht man aber Parallels.

Thema iPad ist momentan eher enttäuschend, das Gerät verspricht mehr als man damit am ende macht und IOS 15 soll nicht viel besser werden. Nichtsdestotrotz bekommt man kein professionelleres Tablet bzgl. Softwareunterstüzung momentan.
 
Zuletzt bearbeitet:
x86 (CISC) sowie der Apple Silicon (der auf RISC basiert) sind zwei völlig unterschiedliche CPU-Designs.
Sollte man meinen, war auch von einigen Jahrzehnten noch so, aber eigentlich werkelt in den Intel CPUs seit dem Pentium Pro ein RISC Prozessor.

 
Ich ignorier das und sehe diese Punkte als nicht sonderlich relevant an ;-)
Die Software wird bereits angepasst und der M1X steht unmittelbar vor der Tür...
 
Auch kann man auf den tollen M1 Laptops weder Virtualbox noch VMWare zurVirtualisierung nutzen dank Rosetta2 und beide Firmen scheinen derzeit keine Ambitionen zu zeigen native ARM64 Versionen ihrer Software rauszubringen.
Ist für einen Musiker sicher irrelevant, für mich als ITler nicht.
 
  • hilfreich
M.i.a.u.: BLK
x86 (CISC) sowie der Apple Silicon (der auf RISC basiert) sind zwei völlig unterschiedliche CPU-Designs. Apple hat mit Rosetta2 eine "Emu-Brücke" geschaffen, die einiges (längst nicht alles) bei der ersten Ausführung übersetzt und als RISC später startet.
Wie aufwendig es ist die eigene Software von CISC auf RISC umzuschreiben, hängt von der jeweiligen Software ab (pauschalisieren bez. des Arbeitsaufwandes kann man das nicht).

Hier noch mal kurz bez. des Themas: iOS/iPadOS-Apps auf macOS und warum die macOS oder Win PlugIns (auch stand-alone) viel teurer sind, wie ich w.o. bereits schrieb:
Rolf (der Softwareentwicklung von div. u.a. Waldorf-Produkten) hat das sehr gut zusammengefasst:


https://youtu.be/u3oNtd2eTLA?t=3104


Rolf kann ich doch nicht ernst nehmen mit seinem AKG-Kopfhörer. Will er mir doch glatt ein schlechtes Gewissen machen, dass ich Nave auf dem iPad gekauft habe ;-). Im Moment ist es so, dass das iPad noch ein Spielzeug ist und da sind Preise jenseits von 20 Euro einfach too much. Beim iOS gibt es ja inzwischen auch schon zahlreiche Standards, die man bedienen könnte. Wenn ich hier mal mein Lieblingsvergleich heranziehe, kann ich mit einer MPC One eben wirklich richtig Musik machen, mit Cubasis ist das noch ein Krampf. Dann kaufe ich Nave...aber bekomme immer nur eine Instanz in Cubasis. Super. Spielerei für die Tonne. Hätte ich dafür 50 Euro ausgegeben, dann wäre ich richtig sauer. Aber 50 Euro für ein natives Nave auf M1-MacOS würde ich schon zahlen und das dürfte ja jetzt nicht mehr so schwer zu portieren sein, wenn es schon in iOS läuft.
 
- M1 ist eine Einstiegs-CPU im Sinne eines SoC
- M1 unterstützt von Haus aus zwei Bildschirme - mit entspr. Zusatzhardware sind bis zu 6 möglich -> ( schau hier )
- M1 gibt es nicht nur mit 13" Monitoren, sondern auch als Mac Mini sowie 24" iMac (weitere werden in wenigen Wochen folgen)
- 16GB RAM gilt nur für den Einstig-SoC = M1. Es werden zukünftig 32GB und mehr möglich sein
- Rosetta2 emuliert nicht in Echtzeit, sondern übersetzt einmal beim Ausführen und legt eine übersetzte Applikation bereit, die dann genutzt wird
- iPad ist kein Spielzeug (wer das so meint, hat offenbar nicht ganz verstanden, was man damit machen kann)
- iPad läuft schon lange nicht mehr mit iOS (sondern iPadOS)
- iPad lässt sich als Computer, Controller und mehr sehr wohl vollkommen professionell im Studio als auch Live auf der Bühne einsetzen (Musikproduktion, Liveauftritte, etc.)

außerdem..
Rolf Wöhrmann hat nicht "nur" diverse iOS/iPadOS-Synthesizer (wie u.a. den Nave oder NLog Pro) programmiert, sondern war auch an der OS-Entwicklung des Waldorf Quantum beteiligt.
Als Softwareentwickler (VST, AU, RTAS, iOS/iPadOS, etc...) ist ihm der Unterschied und Aufwand der Entwicklung bekannt - bis hin zu Veröffentlichungsreife.

abschliessend..
Niemand ist gezwungen Apple's SoC zu kaufen und zu nutzen. Jedem steht frei sich für das System zu entscheiden, das einem am besten zusagt.
 
Zuletzt bearbeitet:
Sollte man meinen, war auch von einigen Jahrzehnten noch so, aber eigentlich werkelt in den Intel CPUs seit dem Pentium Pro ein RISC Prozessor.

Ich hab das nur überflogen und bin auch kein Experte. So wie ich das verstanden habe geht es da eher darum das der eigentliche Design Unterschied im ISA Bus liegt, der praktisch die Übersetzung Langer Befehlzeilen ("Non" Reduced Instruction Set Computer) wieder zu kurzen Befehlszeilen (RISC) - kodiert. Und da liegt eben ein Bottleneck. Insofern ist es dann doch nicht so Falsch, sagt auch ein Intel Designer in den Kommentaren.

Spoiler:
G. Netwerker
4 June, 2021

As a veteran or survivor of the CISC-RISC wars, I find this article interesting but not useful. For reference, I was the lead software architect on the Intel i960, Intel's first "RISC" processor, born from the ashes of the i432. Shortly after appeared Intel's i860, a VLIW-cum-RISC processor that never really went anywhere (the i960 is still used in a few embedded applications). Many of the later x86 architects at Intel went through one or the other of those experiences. However, the point I want to make is that ISA surely no longer matters. The software running on these processors contains a rounded 0% of hand-written machine code, and a rounded 100% of compiled or interpreted high-level language code. Indeed, in many cases one probably has Python code running through C# or other code running on top of an ISA-converter, running through an OS and ... on and on. Much of the code that runs has several layers above the nominal "language" choice as well -- UI/UX layers and more.
A tweak in the Python stack (or whatever) is likely to have a 10x greater impact than a micro-architecture tweak in the average case -- in a normal desktop computing environment, at least.
We may see a divergence between cloud-computing architectures designed and deployed by AWS, Microsoft, and Google and other purposes/uses, perhaps analogously to the CPU/GPU bifurcation we've seen. But I'm almost certain that no one but extreme (oh, that's the name of this blog) nerds will care about either the ISA or the micro-architecture. It didn't matter in the late 1990s and it doesn't matter now. Steven McGeady, former Intel Vice-President
 
Sollte man meinen, war auch von einigen Jahrzehnten noch so, aber eigentlich werkelt in den Intel CPUs seit dem Pentium Pro ein RISC Prozessor.

Ich hab das nur überflogen und bin auch kein Experte. So wie ich das verstanden habe geht es da eher darum das der eigentliche Design Unterschied im ISA Bus liegt, der praktisch die Übersetzung Langer Befehlzeilen ("Non" Reduced Instruction Set Computer) wieder zu kurzen Befehlszeilen (RISC) - kodiert. Und da liegt eben ein Bottleneck. Insofern ist es dann doch nicht so Falsch, sagt auch ein Intel Designer in den Kommentaren.

Spoiler:
G. Netwerker
4 June, 2021

As a veteran or survivor of the CISC-RISC wars, I find this article interesting but not useful. For reference, I was the lead software architect on the Intel i960, Intel's first "RISC" processor, born from the ashes of the i432. Shortly after appeared Intel's i860, a VLIW-cum-RISC processor that never really went anywhere (the i960 is still used in a few embedded applications). Many of the later x86 architects at Intel went through one or the other of those experiences. However, the point I want to make is that ISA surely no longer matters. The software running on these processors contains a rounded 0% of hand-written machine code, and a rounded 100% of compiled or interpreted high-level language code. Indeed, in many cases one probably has Python code running through C# or other code running on top of an ISA-converter, running through an OS and ... on and on. Much of the code that runs has several layers above the nominal "language" choice as well -- UI/UX layers and more.
A tweak in the Python stack (or whatever) is likely to have a 10x greater impact than a micro-architecture tweak in the average case -- in a normal desktop computing environment, at least.
We may see a divergence between cloud-computing architectures designed and deployed by AWS, Microsoft, and Google and other purposes/uses, perhaps analogously to the CPU/GPU bifurcation we've seen. But I'm almost certain that no one but extreme (oh, that's the name of this blog) nerds will care about either the ISA or the micro-architecture. It didn't matter in the late 1990s and it doesn't matter now. Steven McGeady, former Intel Vice-President
 
Na dann könnte Herr Kemper quasi so nebenbei sein DSP-Code des Virus (PoCo und TDM) auf x86 portieren und zum Verkauf anbieten (würde sicherlich Absatz finden).
Seiner Aussage nach wird das so nicht (oder gar nie) passieren.
 
Blah... von Hause aus leider nur 1fach.
Ein Mac Mini M1 kann also nur einen Monitor ansteuern, ja ?
Und ein MacBook Air / Pro M1 nur das verbaute 13" sowie ein iMac 24" M1 ebenfalls nur den verbauten Display bedienen kann, ja ?
Das wäre alles "1fach"

Dein Glaskugel muss schon ganz schön gross sein. Prozessgenerationen wechseln ca. alle 6-8 Monate.
Wir werden sehen, wieviel RAM ein M1X und ein M2 wird adressieren können.
Ich gehe davon aus, dass die neuen Rechner nach der September Keynote gesondert im Oktober 2021 präsentiert werden. Durch Verdopplung oder gar Vervierfachung des M1-Designs als M1X oder M2 werden 32 bis 64 GB an RAM adressierbar sein.
 
Zuletzt bearbeitet:
Insofern ist es dann doch nicht so Falsch, sagt auch ein Intel Designer in den Kommentaren.

Keine Ahnung wie du den Kommentar verstehst (???) Er schreibt sinngemäß, dass es in der aktuellen Software Entwicklung keinen großen Unterschied mehr macht, weil die Software eh so viele Schichten durchläuft, die über der eigentlich Maschinensprache liegen und es praktisch keine handgeschrieben Maschinensprache mehr gibt. Er bedenkt dass Unterschiede an anderer Stelle sehr viel größeren Einluß auf die Ausführungzeiten haben, z.B. eine Veränderung des Phython Stacks (oder was auch immer)
 
Keine Ahnung wie du den Kommentar verstehst (???) Er schreibt sinngemäß, dass es in der aktuellen Software Entwicklung keinen großen Unterschied mehr macht, weil die Software eh so viele Schichten durchläuft, die über der eigentlich Maschinensprache liegen und es praktisch keine handgeschrieben Maschinensprache mehr gibt. Er bedenkt dass Unterschiede an anderer Stelle sehr viel größeren Einluß auf die Ausführungzeiten haben, z.B. eine Veränderung des Phython Stacks (oder was auch immer)
Er bezieht die schnellere Ausführung auf den RISC. Stichwort Direkteinspritzung.
Und darum geht es eben, um schnellere Verarbeitung von Befehlen und es macht natürlich Sinn ob da Ebenen übergangen werden, das ist nämlich der Grund warum ein M1 Leistungsfähiger ist - aufgrund Effiziens.
 
Doch, ich tue das !
Ignorier das gerne wieder und stell's als "nicht sonderlich relevant" hin. 😂


Apple's M1 ist eben nicht so toll, wie's vorgeträumt wird:

• Der M1 läuft auf ARM, ist damit minderwertiger und wird in Desktopumgebungen im Moment gar nicht unterstützt.

• Es gibt dafür nur wenige angepasste Apps, alles wird somit Emuliert (!) und genau darum verlierst man die Performance, den tollen "Hitzevorteil" usw.

• Ist nur in Macs verfügbar und nur in 13" Modellen. Das ist grundsätzlich(!) ein Mangel an Optionen. Für manche ist das perfekt, aber denk mal an kaputte Ports/Null Reparierbarkeit.
Das ist schlechtes Design, dass da zum tragen kommt bei diesen Kleingeräten.

• M1 ist Verschwendung.
8-Cores - 4P, 4E. Der hat weniger Leitung als 6-Core Designs wie der Ryzen 5 5600U od. i7–11750H (Multi-Core). Dadurch alleine gibt's Mehrkosten in der Fabrikation.

• M1 hatte bis zuletzt heftige I/O Probleme: mit Dual Thunderbolt 4 auf einem einzelnen geteilten Controller, noch nicht einmal dieser einzelne Controller bekommt die volle Bandbreite ab/hin.

• Der M1 ist nur fähig ein einzelnes Display laufen zu lassen, verglichen mit den möglichen 4 am "Dual" Thunderbold Laptop. Was das wohl für Mehrdisplay-Arbeitsplätze bedeutet...

• Limitierte Aufrüstbarkeit & Boot Optionen !
Kennen wir ja von den Macs, aber der M1 kann leider nur max. 16GB RAM. 🥳
Den Workaround = "1MB M1 >> 2TB RAM" kannste vergessen, damit killen die Leute ihre SSDs um mit riesen PageFiles den kleinen Arbeitsspeicher zu kompensieren.

• M1 ist überteuert:
Ein i7–1165G7 kann gleichauf mit dem M1 performen und sogar der kleinere Ryzen 5 5600U, mit ähnlichem Stromhunger. Die sind aber alle viel günstiger (700$ Envy od. ZenBook)
Mit 1000$ für den billigsten M1 bezahlt man einfach mehr, ohne mehr zu bekommen und
5600U Laptops haben gerade die Fabriken in sehr grossen Stückzahlen verlassen.

Ich verstehe aber, dass sich manche Leute dieses "US-Lebensgefühl" von Apple, CakaCola & Co. unbedingt zulegen wollen, weil sie jahrelang hinter'm Mond leben mussten.

95% davon ist einfach nicht richtig. Als Besitzer zweier M1 Macs (Mini und MacBook Pro) kann ich dir sagen, das du in vielen Punkten extrem daneben liegst, mit deinen Annahmen.
 
- M1 ist eine Einstiegs-CPU im Sinne eines SoC
- M1 unterstützt von Haus aus zwei Bildschirme - mit entspr. Zusatzhardware sind bis zu 6 möglich -> ( schau hier )
- M1 gibt es nicht nur mit 13" Monitoren, sondern auch als Mac Mini sowie 24" iMac (weitere werden in wenigen Wochen folgen)
- 16GB RAM gilt nur für den Einstig-SoC = M1. Es werden zukünftig 32GB und mehr möglich sein
- Rosetta2 emuliert nicht in Echtzeit, sondern übersetzt einmal beim Ausführen und legt eine übersetzte Applikation bereit, die dann genutzt wird
- iPad ist kein Spielzeug (wer das so meint, hat offenbar nicht ganz verstanden, was man damit machen kann)
- iPad läuft schon lange nicht mehr mit iOS (sondern iPadOS)
- iPad lässt sich als Computer, Controller und mehr sehr wohl vollkommen professionell im Studio als auch Live auf der Bühne einsetzen (Musikproduktion, Liveauftritte, etc.)

außerdem..
Rolf Wöhrmann hat nicht "nur" diverse iOS/iPadOS-Synthesizer (wie u.a. den Nave oder NLog Pro) programmiert, sondern war auch an der OS-Entwicklung des Waldorf Quantum beteiligt.
Als Softwareentwickler (VST, AU, RTAS, iOS/iPadOS, etc...) ist ihm der Unterschied und Aufwand der Entwicklung bekannt - bis hin zu Veröffentlichungsreife.

abschliessend..
Niemand ist gezwungen Apple's SoC zu kaufen und zu nutzen. Jedem steht frei sich für das System zu entscheiden, das einem am besten zusagt.

Das mit Rolf war doch nur ein Scherz. Natürlich kann er das sehr gut einschätzen. Egal wie teuer die Entwicklung war, auf dem iPad verkauft man keine Apps für den PC/Mac-Preis. Das liegt eben daran, dass das iPad für viele kein Ersatz für den PC/Mac ist, sondern eher mal um im Bett was zu klimpern oder ähnliches. Das iPadOS kann man für alles mögliche einsetzen. Ich bin ein großer iPad-Fan, aber es gibt immer noch zahlreiche Einschränkungen. Aber ich hoffe wirklich, dass das iPad die Zukunft ist, denn ich finds cool, cooler als ein Mac ;-).
Wenn die M1x jetzt mit 32 oder 64 GB kommen, dann bleibt immer noch die Frage des Preises. Wenn ich mir davon ein Kleinwagen kaufen kann, dann wird das nichts mit den Verkaufszahlen, dann bleibt es ein exklusiv Objekt für eine exklusive Kundschaft.
 
Hinsichtlich Musikproduktion, Studio, etc..:
Ich sehe das iPad immer noch als ein Zusatzwerkzeug zum Hauptkomputer. Wenn man das iPad gezielt einsetzt und in die Studioumgebung entspr. einbindet, dann kann es eine wunderbare Erweiterung sein - egal ab als Klangerzeuger, Multi-FX, Controller oder als eine Kombination aus all dem.

Sobald man aber versucht ein iPad (oder gar ein Smartphone) als den einen, einzigen, zentralen Rechner zu betrachten, auf dem alles zusammen wie auf dem sonst. Computer, laufen soll, dann wird das nix. Dafür ist das iPad aber auch nicht da. Und ein Mobiltelefon schon mal gar nicht.

Zu den Preisen:
Gemessen an dem, was wir derzeit sehen (M1 Geräte) könnte man davon ausgehen, dass die Nachfolger +/- ähnlich preislich gestaltet werden (Grundausstattung). Gleichzeitig wissen wir aber auch, dass Zusatzoptionen (mehr RAM, mehr SSD, mehr CPU/GPU-Cores, etc..) sich Apple sehr teuer bezahlen lässt. Daher denke ich auch, dass die Optionen für mehr RAM und mehr Cores verfügbar sein werden, jedoch zu vergleichbar hohen Preisen (wie bisher auch). Ich bin mir auch ziemlich sicher, dass es zukünftig nicht mehr nur die eine CPU (wie derzeit die M1 mit 7 oder wahlweise 8 GPU-Cores) geben wird, sondern dass man die bereits besagten Optionen mit Aufpreis haben wird - bis hin zu 32 GPU-Cores (Spekulation).
 
Zuletzt bearbeitet:


Neueste Beiträge

Zurück
Oben