Wie realistisch ist es, einen Rechner zu bauen, der ca. 20 Jahre hält? (hat sich erledigt)

Kann man mit dem Rechner ohne Hardware Beschleuniger DVD schauen? Ich glaube nicht. Hatte damals eine extra Zusatzkarte dafür eingebaut, lang ist es her.

Denke schon, die verbaute Radeon 7000 sollte den Prozessor entsprechend entlasten.
 
Bei uns in den Serverräumen drehen so manche alte Kisten noch ihre Runden. 20 jährig ist da aber keiner. Das sind dann SUN Server oder auch HP-UX Kisten.
Ich habe mir den Spass gemacht und mal genauer nachgesehen, der älteste Server ist nun ein HP 9000/800/L2000-44 von ca. 2000. Das ist der letzte von einer Reihe alter Server im Bereich Vintage Computing für Vintage SDH-Equipment. Das ist nun alles weg, der Server wird auch bald ersetzt. Dann geht es weiter mit Sun Fire V210 und V240 von 2005. Diese Server sind Bereich Vintage Computing für Vintage DSL-Equipment. Das wird uns noch eine Weile erhalten bleiben. Dort etwas zu ändern ist wohl möglich, aber da neue Version mit neuen Interfaces kommen, XML/Webservices statt Corba beispielsweise, müsste man weiter oben im Stack die SW anpassen und das geht dann so richtig ins Geld. Mal sehen...

Aber mit ca. 13 Jahren sind die Server ja noch richtig jung :mrgreen:
 
Das Problem ist, dass die Entwicklung nicht linear verläuft.
https://www.computerbase.de/2017-11/cpu-aufruesten-benchmarks-test/2/
siehe i7 Benchmarks.

Natürlich sind neue CPUs schneller, aber der Wechselrythmus ist deutlich größer geworden.
Rein theoretisch sollte ein richtig potenter PC auch in 20 Jahren noch diverse Fähigkeiten besitzen. Trotzdem komplett unrealistisch,
da sich doch alle 5-10 Jahre die Leistung schon deutlich steigert.

Ein Q6600 von meiner Frau war vor knapp 10 Jahren ein Brett. bei den meisten Spielen zu langsam, da wenig Single Kernpower.
Über die Jahre hinweg wurde das Teil immer besser. Windows 10, Office16 und Co laufen damit noch....
Aber wir sind gerade in einer Umbruchphase hin zu Mehrkern CPU. 12 Kerner für 400 Euro, 16 Kerner für 700 Euro.
Selbst die neuen kleinen Intels sind schon alle Quadcores. Der Shrink geht irgendwann nicht viel kleiner. Dann bleibt nur noch effektiv mehrere Kerne zu platzieren.
Die Entwicklung geht also imho dahin, dass sich Software auf mehrere Kerne optimiert. Ähnlich wie beim 2 Kerner zum 4 Kerner damals.
Der Q6600 kam als 4 Kerner mit unter 3 Ghz auf den Markt(easy auf 3Ghz zu übertakten), gute 4 Kerner waren teilweise 1Ghz schneller.
Was ist heute besser? ein 3Ghz 4 Kerner oder ein 4Ghz 2 Kerner? ;-)

Andererseits kenne ich PC Anlagen bei denen noch 486er in Betrieb sind. Alte Steuerungsanlagen in Landwirtschaftlichen Betrieben z.b.
Rein technisch gesehen macht das bei guter Hardware keine Probleme, also die geht natürlich mal kaputt, ist aber doch eher unwahrscheinlich.


1. Regel: gutes Netzteil (kein bequiet! ^^)
Nicht überdimensioniert, aber mit guten Schutzschaltungen von einem Namhaften Hersteller.
Das NT muss sehr weite Bereiche abdecken und ist das Herz des Ganzen. Bei fast jedem Fertig PC ist da Schrott verbaut.
Mein letztes NT habe ich aus Gewissensgründen vor 2 Jahren aus meinem Produktivsystem ausgebaut, da war es 7 Jahre alt.
Inzwischen läuft es im 10 Jahr bei einem Freund im Daddelrechner.....

2. Regel: gutes Mainboard
Ich achte meist als erstes auf die verbauten Kondensatoren und der Kühlung des Boards.
Billige 85Grad Kondis sterben gerne mal nach 4-5 Jahren.
Szenario man kauft ein Board als Restposten beim Händler, vielleicht für die vorhergehende Sockelgeneration.
Board liegt schon 2 Jahre beim Händler bzw. im Großlager, dann geht das in 2-3 Jahren wahrscheinlich über den Jordan.
Solche Boards werden gerne auch mal in Massen gekauft und dann in billigen Discounter PCs geschraubt.
105 Grad oder besser halten einige Jahre länger ;-)

3. Regel gute Kühlung
Wasserkühlung sollte man sich aus dem Kopf schlagen.
Gute Luftkühlung. Ich mag Noctua. Die großen CPU Brummer bringen die CPU bei Idle auf Raumtemperatur.
Am besten mehrere Gehäuselüfter installieren, umso mehr Lüfter es sind, umso niedriger muss die Drehzahl sein.
600-700 Umdrehungen sind nahezu unhörbar und reicht am ende für eine Effektive Kühlung.
Letztendlich bringt die niedrige Temperatur die längere Lebensdauer.

4. gute Festplatte
SSD only.
Mir ist noch keine wirklich gestorben.
Die Samsung 850 Pro ist nach 9 Petabyte gestorben!
Bei 40GB am Tag wären das über 600 Jahre
https://www.heise.de/newsticker/mel...-beendet-Exitus-bei-9-1-Petabyte-3755009.html
 
Das Problem ist nicht die Hardware, sondern die Betriebssysteme und andere Software die immer mehr Rechenleistung brauchen.
 
So lange die Teile Offline laufen sollte das aber keine Probleme geben.
Eine Office 2000 funktioniert heute auch noch. Sicher gibt es neue Features bei aktuellen Versionen. So lange der Rechner aber offline betrieben wird,
spricht nichts gegen alte Software.

Microsoft selbst gibt auf Professional Produkte 10 Jahre Garantie auf Aktualisierungen. Teilweise wird das dann nochmal um 1-2 Jahre erweitert.
Windows XP kam Beispielsweise 2001 raus und wurde 2014 eingestellt.
Windows 7 wird jetzt 2020 auslaufen....

Geht man auf eine Linux Variante über kann man diese fast Ewigkeiten weiter nutzen.
 
Das Problem ist nicht die Hardware, sondern die Betriebssysteme und andere Software die immer mehr Rechenleistung brauchen.
Das Betriebssystem selbst ist häufig nicht mal das Problem, eher die klickibunti Benutzeroberfläche mit durchsichtigen Fenstern und zahllosen Animationen, die sich zum Glück unter Windows ausschalten lassen, das fühlt sich dann an als würde der PC in Gel laufen. Software wird weniger Resourcen schonend (weil aufwendig) programmiert, wenn aktuelle Rechner entsprechend ausgestattet sind. Gerade bei aktuellen Softsynths sehe ich angesichts der verheizten Leistung oft den Mehrwert an Klang und Funktion nicht.

Was ist heute besser? ein 3Ghz 4 Kerner oder ein 4Ghz 2 Kerner? ;-)
Bei mir stellt sich im Moment eher die Frage (als Ausweich PC, wenns hier mal wieder zu laut wird, damit der Aktuelle mit i5-5200U den alten Internet PC ersetzen kann) ob ein fast identischer 4 Kern Prozessor mit 8 Threads besser ist als einer mit 4 :denk: bzw. ob sich der Aufpreis lohnt.
 
Wenn man heute Aufrüstet bzw. was neues kauft, dann auf jeden Fall mit mehreren Kernen. So viele wie gehen.
Da ich ab und zu mal spiele bin ich z.b. auf einen 6 Kerner gegangen und habe den auf 5Ghz geprügelt.
Würde ich nicht spielen und nur in Programmen arbeiten würde ich auf einen aktuellen AMD Mehrkerner setzen.

Die geforderte Leistung vom Betriebssystem wird eigentlich eher weniger.
Windows 10 kann auch ganz gut noch mit 2-4GB Ram um, solange man nicht zu viel erwartet.
Windows Vista wollte für ruckelfreies Arbeiten mindestens 4-8GB haben.
Windows 7 war unter 4 GB auch eher gemächlich...

Kommt aber auch auf jeden Individuell an.
Der eine schaut gerne auf seinem 4K Monitor die aktuellen Netflix Serien und hat nebenbei Lightroom offen, der nächste nutzt höchstens den Browser für Emailabruf und nutzt ab und zu mal Office.
Auch Office ist da differenziert zu betrachten. Word, Excel läuft in Maßen noch auf fast jedem Rechner.
Will man dann in Visio mal nen Grundriss zeichnen geht auch nen aktueller 4 Kerner gerne mal in die Knie.
 
Windows Vista wollte für ruckelfreies Arbeiten mindestens 4-8GB haben.
Windows 7 war unter 4 GB auch eher gemächlich...
Kann ich so nicht bestätigen, Windows Vista mit 2GB hatte mein alter kompakter Internet PC (bis 2013), der lief an sich recht flüssig, nur HD Youtube Videos konnte der nicht abspielen, was an der integrierten GPU lag. Auch bei dem hab' ich das Desktop auf Windows 98 Niveau reduziert.
 
Kann ich so nicht bestätigen, Windows Vista mit 2GB hatte mein alter kompakter Internet PC (bis 2013), der lief an sich recht flüssig, nur HD Youtube Videos konnte der nicht abspielen, was an der integrierten GPU lag. Auch bei dem hab' ich das Desktop auf Windows 98 Niveau reduziert.


Vom Prinzip ist aber Vista erst richtig aufgeblüht mit mehr Arbeitsspeicher.
Es hatte diesen Algorythmus bereits drin, dass so ziemlich alles was man häufig nutzt gerne im Arbeitsspeicher vorgehalten wird.
Dat hat aber erst funktioniert mit genügend Arbeitsspeicher.
Da zu dem Zeitpunkt die meisten Rechner 1-2 GB eingebaut hatten, gab es so viel Kritik an der Performance zu Beginn.
Per Default war die Option eingeschaltet und ließ sich natürlich beenden, haben die meisten mit wenig Speicher aber nicht gemacht....
 
Es hatte diesen Algorythmus bereits drin, dass so ziemlich alles was man häufig nutzt gerne im Arbeitsspeicher vorgehalten wird.
Daran hat sich bei den neuen Windows Versionen nix geändert, es werden immer noch häufig genutzte Programme bei Systemstart vorgeladen, ich kann mich aber dunkel daran erinnern (ohne das ergoogled zu haben) dass sich das bei wenig Speicher von alleine deaktiviert, auch bei Vista und Windows 7 (vielleicht erst mit 'nem Update???). Meine Mutter hatte einen Windows 7/32 Bit Tablet mit single Core Atom Prozessor 1GB RAM, damit konnte sie PDFs lesen, surfen und skypen.
 
Zuletzt bearbeitet:
Jain, bei aktuellen Versionen ist die Mechanik etwas verfeinert worden.
Bei Windows 10 gibt es ja auch auch offiziel von MS angebotene Tablets und Surface Geräte die teilweise 2-4GB Ram haben.
Bei Vista musste man diesen Prefetch Dienst noch manuell beenden bzw. deaktivieren.
Da SSDs noch nicht so verbreitet waren, war dies imho aber ein toller Dienst der einem PC richtig Beine machen konnte mit 8G Ram, oder eben komplett ausbremsen mit nur 1-2GB.
 
Das ist auch schon die Frage und halt bei täglichen Gebrauch.

Ich will halt spätestens nächstes Jahr, nach meinem Umzug, wieder anfangen Musik zu machen und da ich ja schon lange mit Rechnern Musik machen, würde ich mir gerne einen zusammenbauen, der sehr lange hält - also so von den verwendeten Komponenten her.

Im Schnitt habe ich einen Rechner (Hauptrechner) so ca. 5-7 Jahre in Verwendung. Dann baue ich mir meist einen neuen zusammen, weil zu langsam für irgendwas (mache mit einem Rechner eigentlich alles was so anfällt und nehme dann meist den alten als Dateiserver, eigentlich nur für Backups.

Von den Kosten für so einen Rechner habe ich erst mal keine Ahnung, deshalb auch die Frage der Realisierbarkeit. Oder ist so ein unterfangen unrealistisch, weil das sehr teuer werden kann? Ich finde es halt super nervig, mir alle Paar Jahre eine neue Kiste zusammen zu bauen. Klar, wenn jetzt irgendwelche heftig leistungsfressende Plug-Ins dazu kommen, dann würde das wohl nichts werden, aber danach sieht es bei mir eigentlich nicht aus und ich kann mir gut vorstellen, dass ich die nächsten 20 Jahr mit dem was ich schon habe gut auskommen zum Musik machen.

So unrealistisch ist deine Vorstellung glaub auch nicht (5-7 Jahre). Ich denke das Problem fängt heutzutage schon beim Zeitdruck an den z.B. Programmierer ausgesetzt sind. Die haben keine Entwicklungszeit für die Optimierung der Programme und somit werden die Programme viel zu groß von den Dateigrößen her. Möchte mal gerne wissen wieviel Prozent bei einem Programm mit 1000 MB noch runter optimiert werden kann. Und deswegen brauchen viele dann schnellere Rechner weil die Programme dann zuviel RAM-Speicher fressen. Ich habe hier z.B. Nero 10 in einer zig Jahre alten Installation auf dem PC und diese Version hat schon 680 MB. Ich kann mich noch an Nero 6 erinnern, die hatte gerade mal 60 MB oder so was, weil die nicht versucht haben zig weitere Funktionen mit in das Brennprogramm zu bringen, die eigentlich für das eigentliche Brennen nicht gebraucht werden, wie Cover Designer und Media Hub usw. und fast jeder installiert die dann alle einfach mit (also bei fast Verdoppelung der Versionsnummern eine Verzehnfachung des Speicherbedarfs) Und genauso machen viele Softwarehersteller ihre Programme, viele Funktionen wo das Programm eigentlich zig Programme auf einmal beinhaltet und dabei wegen den hohen GB Zahlen bei aktuellen PCs kaum noch auf Optimierung meiner Ansicht nach wert gelegt wird und deswegen so ein Desktop PC (usw.) nicht so lange genutzt wird wie er eigentlich genutzt werden könnte.

Hinzu kommt auf den 32 Bit Kisten wurde noch nicht so viel Wert auf die Optik gelegt wie heute bzw ging nicht besser, wo heute alles in HD Qualität sein muss, was auch viel Speicher frisst. Wenn so ein All-in-One Klick Tool nicht aussehen müsste wie die Steuerungsconsole von einem Raumschiff, dann würden die PCs wahrscheinlich viel länger mit weniger Speicher auskommen.

WinXP z.B. habe ich mal auf 400 oder 500 MB runtergebracht mit winlite und WinXP hat standartmäßig glaub mehrere GB mit allen Updates. Daran kann man schon sehen wieviel man rausschmeißen kann, wenn man im Extremtest mal alles rausschmeißt was man eigentlich sehr selten bzw. fast nie nutzt. Danach funktioniert aber auch nur noch das nötigste..
 
Zuletzt bearbeitet:


Neueste Beiträge

News

Zurück
Oben