Diskussion:Intel-NetBurst-Mikroarchitektur

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 4 Jahren von 2003:CB:A724:DB01:D073:B39E:45D7:108F in Abschnitt Gründe für die Einführung
Zur Navigation springen Zur Suche springen

War die Architektur nicht von vornherein eine Idee der Marketingabteilung, um die Gigahertz-Käufer zu umwerben? Innovativ war es doch von Anfang an nicht, mit einigen Ausnahmen evtl., und von Anfang an dem Pentium III unterlegen.

Das wäre eine schöne Verschwörungstheorie, aber Ingenieure arbeiten anders. Wenn eine neue Mikroarchitektur erfunden werden soll, wird geschaut, was die Forschung denn gerade so hergibt. Als NetBurst erfunden wurde, waren gerade überlange Pipelines in Mode. Natürlich hätte man es auch anders machen können. Man hat immer die Wahl zwischen vielen Wegen. Man muss sich aber leider für genau einen entscheiden. NetBurst sah zweifelsohne auf dem Papier gut aus. Wer hätte ahnen sollen, dass man bei 4 GHz übelst vor die Wand läuft? Sie haben damals wirklich geglaubt, die Wärmeprobleme in den Griff zu kriegen und 10 GHz zu schaffen. Das war kein Scherz der Marketingabteilung, sondern inspirierte Meinung von am Projekt maßgeblich beteiligten "Architekten". --Echoray 18:40, 8. Sep 2006 (CEST)
Nur weil einer ein Ingenieur ist bedeute das nicht automatisch, dass er keinerlei Ahnung von Marketing hat. Vielleicht gab es einfach die Vorgabe, auf Prozessortakt und nicht auf Leistung zu optimieren genau deshalb, weil es eben allgemein bekannt war, dass der Takt das Hauptverkaufsargument war. --MrBurns 03:09, 3. Apr. 2010 (CEST)Beantworten
Ich meine Netburst war vom Konzept her sogar überaus innovativ. Einen derart radikalen Ansatz hat damals keine anderer Hersteller gewagt. Aber nicht immer zahlen sich Innovationen aus! Das Problem lag vielmehr darin, dass beim Architekturentwurf von Netburst, Energieeinsparungen durch zukünftige Strukturverkleinerungen vorausgesetzt wurden, die sich - anders als aus früheren Erfahrung - nicht bewahrheiteten.
Intel hat bewusst zugunsten hoher Taktraten einen niedrigen IPC (Instruction per Cycle) in Kauf genommen, um Leistung zu gewinnen. Da man beim Takt mehr Geschwindigkeit gewonnen hat, als man beim IPC verlohr, ging das Konzept auch zunächst auf. Gegenüber PIII war der IPC bei NetBurst ca. 30% (Northwood Kern) – 50% (geplanter Endausbau mit 10GHz Takt und ca. 50 stufiger Pipeline) schlechter. Aber beim Takt hatte man geplant 1000% Performance zu gewinnen. Im Endeffekt wäre man dort etwa bei 500% Leistungsgewinn gegenüber PIII gelandet, wenn es funktioniert hätte. Das wäre pro Kern eine Leistungsklasse im Bereich von Nehalem (Core i-Serie) gewesen! Bis zum Northwood Kern hat das recht gut funktioniert. Beim Prescott schrink von 130Nm auf 90Nm stellte man jedoch verdutzt fest, das die Verlustleistung pro Transistor nicht in dem Maß abnahm, wie man es von vorherigen Strukturverkleinerungen gewohnt war. Damit konnte die notwendige Steigerung der Transistorzahl (Faktor 2 gegenüber Northwood) bei der Verlängerung der Pipeline nicht mehr kompensiert werden und der Prescott verbrauchte bereits bei gleichem Takt auf 90Nm Struktur mehr Strom als der Northwood auf 130 Nm Struktur. Es entstand das unerwartete Hitzeproblem, das die weiter geplante Taktsteigerung verhinderte und das Konzept zum scheitern brachte. Halt dumm gelaufen ...--193.24.32.54 17:17, 5. Apr. 2011 (CEST)Beantworten
Das Konzept hat auch am Anfang rein technisch betrachtet nie wirklich gut funktioniert: die ersten Willamette-P4s (Release: 11/2000) mit 1,4 und 1,5 GHz waren in den meisten echten Anwendungen nicht schneller als die schnellsten P3s, jedoch deutlich teurer (dazu kamen noch die teureren Mainboards und der teure RDRAM). Noch dazu war die Ausbeute bei diesen Taktraten gering, weshalb Intel noch zusätzlich nachträglich eine noch langsamer getaktete Version mit 1,3 GHz hergestellt hat. Erst ein halbes Jahr nach dem ersten P4 (04/2001) konnte die Taktfrequenz wieder gesteigert und endlich der P3 überflügelt werden, jedoch wurden der P4 bereits wenige Monate später (10/2001) von AMD durch die Einführung des Athlon XP (der sich architektonisch nicht stark vom Athlon unterschied und daher eine herkömmliche Pipelinelänge hatte und daher eher dem P3 als dem P4 ähnelte und daher auch mehr IPC hatte) überholt. Das Problem der teuren Boards und Speicherriegel wurde überhaupt erst mit dem Northwood (01/2002) behoben, der auch sonst eine größere Verbesserung zum Willamette war, aber trotzdem hatte AMD Performancemäßig meist (und Preis/leistungsmäßig wohl immer) zwischen der Einführung des P4 und der des Core 2 die Nase vorne, auch schon lange bevor Intel die Taktfrequenzsteigerungen verlangsamen musste (was ab ca. 3 GHz der Fall war). Marketingtechnisch hat das Konzept von NetBurst aber wohl anfangs Erfolg gehabt, da es etwas gedauert hat, bis sicher herumgesprochen hat, dass der mehr MHz = mehr Performance nur ein Mythos ist. --MrBurns (Diskussion) 21:53, 9. Jan. 2015 (CET)Beantworten

Rapid Execution Engine

[Quelltext bearbeiten]

Die Aussagen sind so nicht vollständig. Bei den ersten Kernen Willamettte und Northwood, war die Rapid Execution Engine dadurch realisiert, dass der Takt der ALU gegenüber dem Prozessortakt verdoppelt wurde. Beim 3,4 GHz Northwood liefen die ALUs also mit 6,8 GHz! D.h. eine ALU konnte pro Prozessortakt 2 Operationen ausführen. Erst mit dem Wechsel auf Prescott wurde das Design so geändert, wie im Artikel beschrieben: Die ALUs liefen wieder mit normalem Prozessortakt und wurden dafür in der Anzahl verdoppelt. --193.24.32.54 17:28, 5. Apr. 2011 (CEST)Beantworten

Gründe für die Einführung

[Quelltext bearbeiten]

Man sollte im Artikel erläutern warum man diese Architektur eingeführt hat und was man sich dadurch erhofft hat. --37.209.89.37 17:44, 16. Nov. 2016 (CET)Beantworten

Zielsetzung war die Architektur der PII/PIII zu verschlanken um sie fit zu machen für hohe Taktfrequenzen. Die frühen Taktfrequenzen von 1,4 bis 2.6 GHz sollten nur der Anfang sein - bereits 2003 sprach Intel davon, dass in wenigen Jahren wohl die 10 GHz Marke fallen könnte. Die Probleme begannen als man sich den 3.0 GHz näherte und überschritt. Die Verlustleistungen stiegen überproportional an und es zeichnete sich eine natürliche Megahertzgrenze ungefähr bei 4.0 GHz ab. Das ist man heute drüber, aber nicht wirklich weit - einige Modelle schaffen um die 5.0 GHz - keine wirkliche Steigerung für rund 15 Jahre. Mit der aus dem Pentium M abgeleiteten Core Microarchitektur suchte man dann die Lösung in der Breite - als Leistungssteigerung über die Anzahl der Cores. Der Leistungsprung von Netburst auf Core in gemessen MIPS je MHz und Core mit Faktor 1,9 war in der Geschichte von Intel nur einmal höher: Vom 80386 auf den 80486 mit Faktor 2,7. 2003:CB:A724:DB01:D073:B39E:45D7:108F 22:55, 19. Nov. 2019 (CET)Beantworten