Antworten

Achtung: In diesem Thema wurde seit 120 Tagen nichts mehr geschrieben.
Sollten Sie Ihrer Antwort nicht sicher sein, starten Sie ein neues Thema.
Name:
E-Mail:
Betreff:
Re: Macht Übertakten von CPUs überhaupt noch Sinn? 
Symbol:
Verifizierung:
Geben Sie die Buchstaben aus dem Bild ein
Buchstaben anhören / Neues Bild laden

Geben Sie die Buchstaben aus dem Bild ein:
Was 4+2 ist, dass weiß ein jeder Bot. Was wir wirklich wollen: Buchstabiere die Anzahl an Zahnrädern, die in unserem Logo zu sehen sind.:

Shortcuts: mit Alt+S Beitrag schreiben oder Alt+P für Vorschau


Zusammenfassung

Autor: Dennis
« am: 07. Oktober 2011, 20:07:25 »

Ich übertakte immer noch gern, einfach weil es geht :D

1. Mein Rechner i5 760 2,8 @ 3,8
2. Bei Mama zu Hause, AMD64 X² 4200+ @ 2500
3. Freundin E6400 @ 3200

Sinnfrei ist es wahrscheinlich schon, weil ich seit langem die Power nicht mehr brauche. Games ziehen alles aus der Grafikkarte und ich render schon lange keine DVDs mehr neu, wo sich jetzt die Rechenpower lohnen würde.

Eigentlich müsste ich das mal wieder machen, nur um mal zu gucken wie lange das noch dauern würde.
Autor: garfield36
« am: 28. August 2011, 00:45:44 »

...wenn ich im Luxx sehe, wie einigen sich 10 SandyBridges holen, nur um eine zu finden, die mit noch etwas weniger Spannung die 4,5 - 5 GHz macht, dann wundert man sich schon.

In Hardwareluxx wurde mal ein Artikel veröffentlicht, in dem ein Rechner für ca. € 10.000.- zusammengestellt wurde. Man baute dort ZWEI gleiche Wasserpumpen ein, obwohl die zweite nicht benötigt wurde und eigentlich funktionslos war. Sie wurde halt eingebaut, weil das Modell gar so schön war. Das sagt wohl alles.

Persönlich halte ich vom Übertakten wenig. Ich habe mir einen i5-2500K zugelegt, obwohl es das Modell ohne K auch getan hätte. Dies habe ich aber deswegen getan, weil der Aufpreis sehr niedrig war, der Wiederverkaufswert
aber nach meiner Einschätzung nennenswert höher ist.
Autor: Philipp
« am: 20. August 2011, 12:40:32 »

@Drohne:
Was machst du eigentlich für Berechnungen und kann das dazugehörige Programm viele Kerne effizient auslasten? Ich als Mechatroniker brauche meist Matlab in der von der Hochschule erhältlichen 32-Bit-Version. Bei meiner letzten Hausarbeit gingen die Simulationszeiten dann doch etwas in die Höhe. Mir ist dabei aufgefallen, dass Matlab nur einen Kern auslasten kann. Hier würde sich mehr Takt sicher gut machen  ;)
Autor: Robert
« am: 20. August 2011, 10:33:28 »

Naja,ich wage zubezweifeln, dass die alle so ausschauen. Aber wenn ich im Luxx sehe, wie einigen sich 10 SandyBridges holen, nur um eine zu finden, die mit noch etwas weniger Spannung die 4,5 - 5 GHz macht, dann wundert man sichschon.

Aber jedem Tierchen sein Plesierchen. Die NO2-Übertakter sind ja doch sehr stark in der Minderheit.

Wenn du den 3GHZ Quad durch einen i5 mit 4,5 GHz (mit Luftkühlung bei einigen Exemplaren noch machbar) ersetzt hast du 50% mehr Takt und pro Takt ist die Architektur auch nochmal 30-40% schneller. Die Gesamtleistung verdoppelt sich also mal eben. (1,5*1,4=2,1). Eine Halbierung der Rechenzeiten wär schon schick, nich wahr? ;)

Leider scheint es so, dass die aktuell ausgelieferten CPUs nicht mehr ganz so effizient in den hohen Taktbereichen sind, man also etwas mehr Strom verbraucht als mit den ersten Exemplaren.
Autor: Drohne
« am: 20. August 2011, 09:13:03 »

Übertakten war für mich eigentlich selten ein Thema. Mein erster Post-AMIGA Rechner war ein Acorn Archimedes mit einer VL86C010 CPU, später umgerüstet auf eine VL86C020. Die CPU hatte 8 MHz, sie "20iger" dann 20 MHz. Für die, die diese CPU nicht kennen: heute, 20 Jahre danach, heißt sie noch immer ARM, ist ein RISC Chip und hat die damalige i386 und i486 Welt mit ihren 25 MHz einfach stehenlassen - und das in einem Maße, daß man es erst hat sehen müssen, bevor man glauben konnte, wie schnell ...
Auch meine zweite Architektur, eine DECstation mit einer mit 33 MHz getakteten MIPS R3010 RISC CPU, gab keinen Anlaß zur Übertaktung. Die aufkommenden "Pestilenzium" waren zwar im Ganzzahlrechnen etwas flotter, aber in puncto Fließkommaarithmetik ... dann werkelte ich hauptsächlich mit Alpah AXP Maschinen, auch hier keine Ambitionen, den Takt höher zu setzen. man wollte ja auch eine mehrere 10k DM teure wissenschaftliche Investition nicht unnötig killen, oder? Mit der erfolgreichen Wintelschen Zerstörung des RISC Lagers und die Streuung dümmlicher Gegenargumente zugunsten des x86-Mülls kamen dann aber auch die ersten x86 Kisten als Workstationersatz und die ersten Übertaktversuche in meinem Umfeld wurden auf AMD Prozessoren gemacht. Aus der Not heraus, denn man konnte mit etwas mehr Takt doch die langen Rechenzeiten der Modelle etwas verkürzen. Mein erster eigener x86-Kasten war dann ein Athlon64, den ich in drei seiner 5 Jahre Lebenszeit mit seinem nominellen Takt von 2,2 GHz fuhr, aber in Ermangelung der passenden, mich befriedigenden Architektur mußte die Kiste dann weitere zwei Jahre mit 2,4 GHz rennen, was im Sommer eher kontraproduktiv war. Dennoch, die Rechenleistung steigerte sich um einige Prozentpunkte und insgesamt konnten Rechenzeiten von mehreren Stunden um einen signifikanten Bruchteil einer Stunde gesenkt werden - das ist bei Testläufen mit vielen negativen Versuchen sehr wertvoll!
Mein Laborrechner ist ein Intel Q6600, den es mit nominell 2,4 GHz und einem FSB mit, ich glaube 266 MHz gab. Zur Zeit rennt diese CPU auf 3 GHz und der FSB ist auf 333 MHz angehoben. Der Geschwindigkeitsvorteil macht sich bei diesem Methusalem schon bei kleineren, nur eine Stunde dauernden Rechnungen bemerkbar. Nun war ja der Q6600 ein sehr gutmütiges Stück Silizium und bedenken, das "Eisen" zu überfordern, hatte ich eigentlich keine, denn die Temperaturen halten sich selbst jetzt im Sommer bei Zimmertemperaturen von zeitweilig 38 Grad C so, daß der Noctua Kühler den Prozessor noch ausreichend kühlen kann und ich arbeiten darf.

Ich stehe dem OC-Gehabe sehr kritisch gegenüber, auch wenn ich es selber betreibe (die Hemmschwelle mit dem Staatseigentum war niedriger als mit meinem privaten 3GHz schnellen E8400 muß ich gestehen ...). Der Gewinn spürbar. Aber der Hersteller wird sich doch etwas dabei gedacht haben, die Taktraten nicht höher auszulegen, als die CPU auf den Markt kam.
Die Techniken, die jetzt Verwendung finden, machen das Übertakten ja nun offiziell zum technischen Standard und ich denke, daß die Endkunden über Jahre hinweg unfreiwillig durch die Suggestion des "Hypes" Versuchskaninchen gespielt haben. Solange man dieses in meinen Augen nicht ganz saubere Spiel der Prozessorhersteller mitmacht, ist das eines jeden eigene Sache. Ich selbst spiele selten, der Rechner ist zum Rechnen da und es gibt nun mal logische Problemstellungen, die sich nur mit viel Aufwand oder gar nicht parallelisieren lassen. Wer selber entwickelt oder entwickeln muß und sich nicht scheut, C, C++ oder Fortran anzufassen, wird wissen, wovon ich spreche. Wie eingangs vom Fadenstarter geschrieben wurde, heute haben wir es mit zuweilen bis zu 10 Kernen, also echte prozessoren auf einem Träger zu tun, früher waren es ja maximal zwei. Zwei auf voller last rennende Prozessoren fallen bzw. fielen bei durchweg nicht paralleler Software/Nutzung eher nicht auf, aber wenn es nun 9 sind, die Energie verbruzzeln und dabei nichts tun, dann ist das schon eine andere Sache. Nun kommt ja das sogenannte Powergating ins Spiel, das Prozessoren abschalten kann. Da die Gesamtwärmeenergie aber pro Gesamtchip berechnet und abgeführt werden muß, ergibt sich ja nun eine diametrale Interessenslage. Deshalb kann ich das derzeit von Intel und AMD praktizierte OC einzelner Baugruppen nachvollziehen und finde es sogar produktiv, solange ich die 24/7 Eigenschaften in puncto Zuverlässigkeit und Stabilität und vor allem Alterung meiner Maschine nicht gefährde.
Das OC mit Spezialkühleinrichtungen hingegen finde ich ist dümmlicher "Sport" und stelle es auf die gleiche Stufe, wie aus sportlichen Gründen Tiere totzuschießen. Eine Energieverschwndung sondergleichen, zudem die versauten Resourcen. Und das alles nur zum Spielen? Da sitzt dann ein übergewichtiges oder spindeldünnes, blasses, fetthaariges Bürschchen Stundenlang vor seiner Glotzkiste und schmureglt Energie aus der Steckdose, die einer Kochplatte alle Ehre machen würde? Sozial, motorisch und geistig einseitig degeneriert ... nein, Danke ;-)
Autor: BisMarck
« am: 30. Juni 2011, 18:46:48 »

Sicher nicht, unser erster PC war ein 386 DX 40, wenn ich mich recht entsinne (war noch Grundschüler) kostete der damals über 3500 DM. Bei einer Inflation von ca. 2.5% wären das umgerechnet ca. 5700 DM also knapp 3000 € heute. Und das nur damit ich Lemmings und Commander Keen zocken konnte. ;)
Autor: Peter
« am: 30. Juni 2011, 18:13:52 »

Nun, aber ich denke auch, dass CPU und / oder Grafikkartenleistung inzwischen wirklich absolut erschwinglich ist. Das war meiner Meinung nach eben nicht immer so :)
Autor: BisMarck
« am: 30. Juni 2011, 17:16:25 »

Hauptpunkt was UNS alle hier angeht ist wohl die reziproke Entwicklung von Prozessorpreisen zu unserem Einkommen, oder weniger nerdig: Wir verdienen alle viel mehr (oder überhaupt erst) und die Dinger sind viel billiger. Wir kaufen uns einfach was wir brauchen, keine Not zu tunen.
Autor: liam2004
« am: 30. Juni 2011, 03:06:09 »

Mein i7 920 läuft auch bei 3,675 MHz, aber bei 1,152V, also undervoltet.

Mehr Leistung bei weniger Verbrauch ist ganz nett.

Meine 570 GLH läuft im Normalmodus und profitiert, denke ich, auch von der Mehrleistung der CPU.
Autor: Rick
« am: 14. Juni 2011, 11:28:53 »

Uebertakten dient doch hauptsaechlich dazu, billige Chips auf die Leistung von teuren Chips zu bringen.
Das hat Intel allerdings ja komplett ausgeschaltet, mit der globalen Taktquelle, und bei AMD bringt es nicht soviel, weil alle AMD Chips "billig" sind und sich nur schwer (hoher Stromverbrauch) in Intel-Leistungssphaeren uebertakten lassen.
Zuletzt war uebertakten mit dem Core i7 920 interessant....
Hinzu kommt, dass Intel die kleinen Chips zusaetzlich noch im Funktionsumfang beschneidet, und ihnen kein AES/Quicksync/Turbo gibt, so dass selbst wenn es moeglich waere, uebertakten relativ uninteressant bleibt.
Das gab's damals zwar auch schon mit den Bulimie-Caches fuer die Semprons und Celerons, aber ist seit der dritten Core generation bei Intel besonders schlimm geworden...
Autor: BisMarck
« am: 10. Juni 2011, 18:04:28 »

Hö Byron? Die neuen Cores und auch die alten (siehe meinen i5 750 2.67 Ghz @3.8 - 4 Ghz) kannst Du ziemlich gut übertakten. Deutlich besser jedenfalls als all die Athlons / Durons die ich davor hatte (Duron 750 nicht über 800 Mhz, Duron 1200 packt keine 1300Mhz, Athlon XP 2000+ will maximal 1800 Mhz, X2 3800+ immerhin von 2 Ghz auf 2.4 Ghz, X2 6000+ von 3000 auf gerade mal 3200 Mhz).

Und was die Motivation angeht: Das war damals als Teenager einfach Spielerei, andere tunen halt Ihr Moped. Ich habe mit einem Freund im Keller gestanden und mit der Stichsäge mein Gehäuse für den Radiator der WaKü zurechtgesägt und mir aus Sigg-Aluflaschen Ausgleichbehälter gebastelt. Die Pumpe schwingungsfrei an Gummibändern im eigenhändig mit Teerpappe (puh gestank) ausgekleidetem Gehäuse aufgehängt.  Klare Geldverschwendung aus heutiger Sicht, aber hey, wir hatten unseren Spaß. :)
Autor: Byron
« am: 10. Juni 2011, 13:42:17 »

Man muss auch die Relationen im Auge behalten. Das angeführte Beispiel zeigt es sehr gut. Da waren Steigerungen von 50% drin und zwar komplett, denn wie schon gesagt wurde waren die CPUs einfacher aufgebaut und es gab nicht zehn verschiedene Flaschenhälse. Übertaktet wurde per Multi und FSB. Damit hatte man die beiden entscheidenden Parameter "aufgebohrt". Heute ist doch der Takt allein nur noch ein Puzzelteil des Gesamten. Zudem ist die Selektierung des Herstellers sehr gut, da findet man kaum noch günstige Modelle, die man gnadenlos hochzüchten kann.

Gruß

P.S: Für mich persönlich hat Übertakten nie eine Rolle gespielt. Bei der CPU sowieso nicht und bei der Grafikkarte wurde kurz getestet und dann nicht weiter beachtet. Das war damals bei ner FX5900.
Autor: BisMarck
« am: 10. Juni 2011, 11:40:42 »

Immer dann, wenn ich quantenmechanische Rechensoftware zu Hause benutze, drehe ich die Baseclock von 133 auf 170 Mhz (Core i5 750). Das macht sich durchaus bemerkbar. Mehr Leistung? Her damit!

Für alles andere wird nicht übertaktet, dafür ist mir die kwH zu teuer.
Autor: Robert
« am: 10. Juni 2011, 09:09:36 »

Und die wird dann teilweise weiter gnadenlos hochgeprügelt (2500K, 2600K). Klar, für die meisten Spiele reicht normale Hardware "dank" der stagnierenden veralteten Konsolentechnik und der Portierungen der Hersteller aus. Ich überlege seit geraumer Zeit meinen Core2 durch einen 2500 oder 2600er zu ersetzen und dann die Taktschraube anzudrehen. Eigentlich nur für Sachen wie FSX, dieverse Flugsimulatuionen wie Black Shark (also keine Action-Shooter wie HAWX)  und Arma1/2, also Programme wo man die Landschaftsdarstellung richtig weit aufdrehen möchte, was dann ordentlich Leistung zieht.
Bei Bulldozer gab es jetzt ja schon Gerüchte mit den Taktraten und dann wurde der auch noch verschoben, das passt mir gar nicht. ^^

Beim übertakten würd ich aber halt darauf achten, dass das automatische Runtertakten im idle weiter greift.
Autor: Tigershark
« am: 10. Juni 2011, 08:22:55 »

Bei schlecht parallelisierten Anwendungen macht ein Turbo Mode wie ihn Intel und AMD derzeit in ihre Prozessoren implementieren durchaus Sinn. So können die Anwendungen von einem starken Core profitieren, während die anderen Cores im Stromsparmodus sind.

Ansonsten macht das Undervolten für mich eher Sinn als das Übertakten: weniger Energieverbrauch bei gleicher Leistung -> weniger wärme -> langsamerer Lüfter -> PC deutlich leiser.

Die meisten CPUs liefern doch schon von Grund auf genug Leistung für die meisten Anwendungen. Und anspruchsvolle Dinge wie Video en- und decoding werden immer mehr auf die GPU ausgelagert. Und selbst mittelklasse Grafikkarten liefern für den normalen Anwender da mehr als genug Leistung.
Von denjenigen die die Mehrleistung wirklich brauchen, werden sich die meisten schon im Vorraus ne Performanceklasse oder zwei höher orientieren.