Geforce GTX 380 - High-End-Performance mit GT212 oder erst mit GT300 GPU?

PCGH_Carsten

Ex-Redakteur
Geforce GTX380 - der neue High-End-Chip aus dem Hause Nvidia?*
Je nach Release-Schedule könnte er auf Basis des GT212 oder GT300 kommen - beide sollen ja bereits in der vielversprechenden 40nm-Technologie kommen und besonders letzterer den Fokus auf hohe Performance pro Watt legen.

Nachdem GT212 ja mit 384 Shader-ALUs, einem 4:1 ALU/TEX-Verhältnis und einem 256-Bit-GDDR5-Interface durch das Internet geistert, könnte GT300 erstmals seit dem G80 wieder eine komplett neue Architektur für DirectX 11 sein.

Angesichts der riesigen Fortschritte, die AMD inzwischen bei der Verdichtung ihrer Shader-Einheiten gemacht hat, muss Nvidia demnächst mal wieder eine Innovation bringen, will man nicht Gefahr laufen, wieder die zweite Geige spielen zu müssen. Dazu reicht es mMn auf lange Sicht nicht, einfach nur ein paar Shader-ALUs an die recht großen TPCs zu klatschen, auch wenn dies eine recht "günstige" Lösung vom R&D-Aufwand darstellen dürfte.

Was also meint ihr zum GTX 380?

*Ausgehend von Nvidias "8er-Fimmel" (seit der Geforce 4 bezeichnet die "8" die Spitzenmodelle einer jeden neue Serie) gehe ich mal von diesem Namen aus.


[update 24.03.2008]
Auf der Siggraph 2008 präsentierte Jon Olick einen interessanten Ausblick auf die Zukunft der Raster-Grafikkarten, auf den ich im Zuge der Recherchen für einen Artikels für die kommende Ausgabe 05/2009 stieß.

Unter anderem zeigte er dabei folgendes Diagramm, welches sich auch auf den GT 300 beziehen könnte.
attachment.php


Nahegelegt wird dort eine Verteilung zentraler Funktionen wie zum Beispiel des Dreieckssetups in mehr oder weniger autarke Teile der GPU.[/update]​
 
Zuletzt bearbeitet:
Ich hoffe, dass sie sich mal etwas mehr Zeit lassen, denn imo machen die alles viel zu schnell und pushen sich gegenseitig mit Ati hoch:( Wenn der GT300 eine neue Architektur bieten würde, wäre ich auch bereit meine 8800GTX in Rente schicken;)
 
Naja, die genauen GTX380-Specs kennt – mal abgesehen von der Taktfrequenz – derzeit wohl nur Nvidia. Wie hoch sie die Takte prügeln können, entscheidet der Reifegrad des 40nm-Prozesses bei TSMC und sie können sich, im Gegensatz zum grundlegenden Design der Funktionseinheiten, noch bis kurz vor knapp ändern.

Ich denke auch, dass GT212 noch die gewohnte TPC bietet (mit aufgebohrtem ALU-TEX) und GT300 auf der GTX380 dann eine neue Richtung einschlägt. Möglicherweise wandern Teile der ROP-Funktionalität bereits in die Shader.
 
Moinsen,

wann soll den ca. das Release Datum des GT300 sein...??

Soll das in diesem Jahr noch sein, obwohl sie jetzt erst den GT200b mit 55NM Releast haben...:what:
 
Ich denke auch, dass die GTX380 nach Plan gegen Herbst rauskommen wird.
Dann natuerlich auch mit GT300er-Chip, ansonsten wuerde das NVidia's Produktpalette komplett durcheinander bringen. (Wenn es denn noch verrueckter geht, als es schon ist.)
 
ich hoffe, dass sich die beiden Hersteller gegenseitig pushen, denn dann bekommen wir die meiste Leistung für unser Geld !! je eher DX11 kommt, desto eher werden Features davon acuh aufgenommen
ich würde gerne aufrüsten, warte damit aber bis zu den ersten dx11 karten, muss mich also noch etwas mit meiner HD2900xt gedulden ;(

lg Klemens
 
Ich denke mal auch, Ende diesen Jahres oder ganz am Anfang 2010, da Windows 7 ja auch in dem Dreh erscheint und DX11 unterstützt.

Die Daten hören sich auf jeden Fall interessant an. :D

Gibt es eigentlich schon Spiele-Ankündigungen mit DirectX 11 oder wäre das noch zu früh zu sagen?
 
Nein, ein explizit für DirectX 11 angekündigtes Spiel gibt es zurzeit ebensowenig wie einen konkreten Launch-Termin für die Geforce GTX380, GT300 oder GT212 - auch wenn 40nm und vielleicht 2 Mrd. Transistoren nicht unwahrscheinlich für den High-End-Chip klingen.
 
Da muss man erwähnen das es ja noch nichtmal jetzt ein DX10 only Spiel gibt.

Vondaher kann es einige Zeit dauern bis DX11 in Spielen kommen.

MfG DanielX
 
ich sag nichts außer was wird der graka beschleuniger den kosten? ich schätze ca. 400€ wenn nicht sogar mehr!
die neue archetekture und der GDDR5 speicher werden die graka schön teuerer machen^^

zudem überspringt nvidia GDRR4 speicher :)

aber was man sich so schön denken kann ist das die Graka sehr gute Feature mit sich bringt!
mit der neuen archetektur werden die takte aufjedenfall sehr niedrig ausfallen, aber dafür ein hohes OC potenzial^^ =)
und sehr sparmsam werden die ja auch wegen der 40nm herstellung.


dennoch bin ich ein ati/amd fan! aber naja man kauft schlieslich das besser wenns ungefähr gleichviel kostet :)
 
Zuletzt bearbeitet:
Ich bin auf die GTX 380 auch sehr gespannt, hoffentlich legt Nvidia dann auch wieder etwas mehr Wert auf die Nerven der Kunden und versucht wieder so eine leise Kühllösung wie bei der 8800GTS/GTX zu integrieren. Dieser schräg gestellte Föhn auf der GTX280 ist nun wirklich nicht nötig und hat mich vom Kauf einer GTX280 abgehalten.
 
@Cox du kaufst eine Karte nicht weil dir ein Feature des Kühlers als Bug erscheint? seltsam o.O

naja.. wenn GT300 die GTX380 wird is das sicher interessant.. den Schritt von GDDR3 auf GDDR5 halte ich für sehr berechtigt da GDDR4 kaum mehrleistung bringt aber wesentlich mehr kostet als GDDR3 (oder hab ich da was falsch in erinnerung??)

G212 wird sicher nur eine stärkere form des G200 sein .. aber der G300 müsste eig ein ganz neuer Chip sein.

naja mal schauen was draus wird bin jetzt erstmal mit meiner GTX260 verheiratet
 
hoffentlich kommem die noch dieses Jahr,dann steig ich um:)
Aber bitte nicht wieder dieses namens wirr warr
 
Wo habe ich denn bitte etwas von Bug geschrieben? :what:

Wäre der Kühler der GTX280 nicht angewinkelt wäre die Karte höchstwahrscheinlich etwas leiser.

nirgendwo.. aber durch deine aussage stellst du dieses (im sli fall) feature durch die blume als bug dar.

und leiser dedns dadurch net werden wenns "grade" wären ausserdem sinds eh schon leise genug.. wie leise denn noch? :ugly:
 
Was veranlasst dich zu dieser Annahme?

Die Physikalischen Gesetze ;)

Dadurch dass der Lüfter schräg gestellt ist und ebenso schräg die Luft auf die Kühlplatte der GTX280 bläst entsteht ein viel stärkere und lauteres Rauschen als wenn der Lüfter horizontal angeordnet wäre wie bei der 8800GTX/GTS oder HD4870.

Oder wie willst du dir sonst erklären dass eine GTX260/280 mit ca 600 Upm im IDLE lauter ist als eine HD4870 die im IDLE sogar mit 1000Upm dreht. Hätte man z.B. der GTX280 den Lüfter der 8800GTX verpasst, dann wäre die GTX280 sicherlich viel leiser als jetzt geworden, ich behaupte mal sogar dass sie im IDLE unter 1 Sone laut gewesen wäre.


nirgendwo.. aber durch deine aussage stellst du dieses (im sli fall) feature durch die blume als bug dar.

Sicherlich, verdrehst du allen Leuten das Wort im Mond und behauptest immer etwas was sich nicht gesagt haben? Übrigens hätte man dieses Problem auch besser lösen können, aber das liegt nun einmal daran dass die Leute in Amerika keinen Wert auf leise Kühlung legen was auch der Grund für die lauten Lüfter der X1900-Serie von ATI war wie mir mal beim Support von AMD erzählt wurde, die HD3870 soll ja dann wieder leise gewesen sein, wegen des Feedbacks der europäischen Kunden. Dazu kann ich jedoch nichts sagen da ich zu dem Zeitpunkt eine 8800GTX hatte.

und leiser dedns dadurch net werden wenns "grade" wären ausserdem sinds eh schon leise genug.. wie leise denn noch? :ugly:

Hast du überhaupt schon einmal eine GTX280 in Aktion erlebt? Wohl eher nicht, denn dann hättest du diesen von Unwissenheit strotzenden Spruch sicherlich nicht gebracht.
 
Zuletzt bearbeitet:
Zurück