Geforce GTX 380 - High-End-Performance mit GT212 oder erst mit GT300 GPU?

Nein, ein explizit für DirectX 11 angekündigtes Spiel gibt es zurzeit ebensowenig wie einen konkreten Launch-Termin für die Geforce GTX380, GT300 oder GT212 - auch wenn 40nm und vielleicht 2 Mrd. Transistoren nicht unwahrscheinlich für den High-End-Chip klingen.


Für ein DX 11 Game brauchen die Programmierer auch erstmal eine DX11 Grafik Karte.

Sonst wüssten die nicht wo hin die Programmieren müssten.
 
Wie die Karte aufgebaut ist, muss man höchstens für spezifische Optimierungen wissen - und auch das teilen Nvidia und ATI den unterstützten Entwicklern so früh wie möglich mit, notfalls wird dann auf komplett via CPU emulierten Karten gearbeitet. (bzw. im Zeitalter der Konsolenportierungen ist das eh jedem egal)

Also technisch wäre es kein Problem, zum Kartenstart auch Spiele zu liefern, die die neuen Funktionen zumindest teilweise nutzen (für eine komplett drauf aufbauende Enginge bräuchte man natürlich sehr viel Vorlaufzeit) - aber es macht halt einfach keinen Sinn:
Auch mit noch so viel Unterstützung ist diese Art der Entwicklung besonders zeitaufwendig und selbst normaler Entwicklungsaufwand wäre rausgeschmissenes Geld, da es Monate bis Jahre dauert, bis ein nenneswerter Anteil der Spielkäufer entsprechende Karten hat und von dem zusätzlichen Aufwand profitiert.
 
Wieso halten die eigentlich immernoch an der veralterten Rasterisierung fest. Für mich gibt es keine Zukunft mehr für Rastergrafikkarten ...
Wann bauen die endlich Grafikkarten die auf Raytracing optimiert sind. Die sollen langsam mal aufwachen. Programmierer würden sich ne menge Arbeit sparen hochkomplizierte Schattenalgos entwerfen zu müssen. Ebenso würden komplizierte Lichtberechnungen wegfallen. Standartmäßig werden ja nur wenige Hardwarelichter ermöglicht, zumindest war das ja in der Generation der DX 9 Grakas so. Um den Rest muss sich der Programmierer selber Gedanken machen und irgendwie 'künstliches' Licht erschaffen. Zudem wäre da noch der interessante Effekt, dass durch BSP-Trees usw. ab einer bestimmten Grenze der Rechenaufwand für mehr Dreiecke logarithmisch wird und dadurch locker mehrere Millionen Polygone dargestellt werden könnten ohne Leistungseinbußen, was theoretisch unglaublich detallierte Modelle ermöglicht und Bumpmapping überflüssig machen würde. Zumindest ist seit der 8000er Generation mit CUDA jetzt schon Echtzeitratyracing möglich und das ohne großartig optimierte Hardware. Sollte also mit der kommenden Generation diese Leistung sich verdreifachen sehe ich keinen Grund mehr Raytracing auf CUDA-Basis nicht einzuführen. Ich habe da z.B. eine CUDA Demo auf einer Nvidiaseite gefunden die auf meiner 9600GT Raytracing mit 60-75 FPS ermöglicht.
Ich kann nur hoffen das in den nächsten 2 Jahren irgendein Entwicklerstudio (vllt Crytek!?) auf die Idee kommt und z.B. Crysis 3 mit ultrarealistischer Licht- und Schattendarstellung fast ohne Leistungseinbußen ausstattet.
Rasterizer Buuhh -> Raytracer Juhu!
 
GTX 380...hmmmm (please launch),denke die kommt mit GT300 chip.
die wird bestimmt der hammer,sollte ati aber schneller sein,dann kauf ich die!
mir egal ob nvidia oder ati...hauptsache power und bitte keine heizplatte mehr,
wenn ich da an meine beiden ati 4870 denke....oh gott
 
Also derzeit halte ich von dem ganzen DX11
schranz überhaupt nichts,

Es kann natürlich sein das die neue 3xx reihe von NV
seine vorteile bietet,
aber ich für meinen teil werd mir das erst in aller ruhe
ansehen bevor ich schon jetzt daran denke mir so ne karte zu holen

Auf die erste generation dieser karten werde ich eh verzichten
denn bis es genung games gibt die DX11 unterstützen
sind die ersten karten doch schon wieder alt und
taugen dann sicher nichst mehr

Bin auf jedenfall schon gespannt..


Greetz
 
Also derzeit halte ich von dem ganzen DX11
schranz überhaupt nichts,

Es kann natürlich sein das die neue 3xx reihe von NV
seine vorteile bietet,
aber ich für meinen teil werd mir das erst in aller ruhe
ansehen bevor ich schon jetzt daran denke mir so ne karte zu holen

Auf die erste generation dieser karten werde ich eh verzichten
denn bis es genung games gibt die DX11 unterstützen
sind die ersten karten doch schon wieder alt und
taugen dann sicher nichst mehr

Bin auf jedenfall schon gespannt..


Greetz


Wobei, die 1. dx 10 karten in dx10 auch sehr schlecht skaliert haben, und hd4870+co genug power haben....

würde abwarten was kommt, evt. wirds sich gar nicht wirklich rentieren, dass upgrade....naja abwarten was passiert.....hoffentlich sind diesmal die standart kühler wenigstens effizienter und leiser:)
 
Wieso halten die eigentlich immernoch an der veralterten Rasterisierung fest. Für mich gibt es keine Zukunft mehr für Rastergrafikkarten ...
Weil Raytracing einfach nicht so toll ist, wie du es gerne hättest?!

3DCenter Forum - Einzelnen Beitrag anzeigen - "Raytracing in Spielen" von Daniel Pohl
PC Perspective - John Carmack on id Tech 6, Ray Tracing, Consoles, Physics and more
3DCenter Forum - Einzelnen Beitrag anzeigen - "Raytracing in Spielen" von Daniel Pohl
3DCenter Forum - Einzelnen Beitrag anzeigen - "Raytracing in Spielen" von Daniel Pohl
3DCenter Forum - Einzelnen Beitrag anzeigen - "Raytracing in Spielen" von Daniel Pohl (aber jemand, der mit RT gearbeitet hat, naja, lassen wir das...)
Wann bauen die endlich Grafikkarten die auf Raytracing optimiert sind.
Gibts schon längst, nur ist Raytracing einfach Müll, sonst hätt mans längst genutzt.

Die sollen langsam mal aufwachen.
Vielleicht sind sie das?
Und vielleicht wissen die schon, was sie tun??

Warum wachst du nicht auf und schaust dir mal den Sack voll Nachteile an, die das ach so tolle Raytracing so mitbringt.

Ach, übrigens: schon der Entwickler fand seine 'Erfindung' doof, da zu viel Rechenleistung benötigt wird.

Programmierer würden sich ne menge Arbeit sparen hochkomplizierte Schattenalgos entwerfen zu müssen.
Siehe Links, aber John Carmack hat ja keine Ahnung, du weißts besser, right??

Ebenso würden komplizierte Lichtberechnungen wegfallen.
Genau, dafür hätte man 'nen Sack voll Probleme, wie z.B. die Geschichte mit dynamischen Content, siehe die Links, die ich gepostet hab.

Rasterizer Buuhh -> Raytracer Juhu!
Ich sehe es genauso, es wäre eine super Veränderung für uns und auch für die Industrie. Aber darauf können wir sicher noch etwas länger warten. Schade eigentlich!
Ich nicht, weil Raytracing einfach nur gehypter Unsinn ist.

Rasterizing ist um ein vielfaches effizienter, deswegen nutzt man das ja auch und nicht das super tolle Raytracing.
 
Rasterizing ist effizienter, sobald man vergleichsweise wenig Informationen für vergleichsweise viele Pixel hat. Hat man viele Informationen für vergleichsweise wenig Pixel (was ohne SSAA heute zunehmend der Fall ist), kann Raytraycing durchaus die sinnvollere Alternative sein:
Berechnungen pro Fläche abzuarbeiten macht nur Sinn, wenn diese Fläche mehrere Pixel definiert. Wird ein Pixel dagegen gar von mehreren Flächen bestimmt (z.B. bei einer Reflexion), kann sich die Rechenlast bei einem Rasterizer deutlich erhöhen.

Trotzdem wirds noch n Weilchen dauern, bis man diese prinzipiellen Vorteile des Verfahrens auch in ein ähnlich hoch optimierte Kombination aus Hard- und Software umgesetzt hat. Gegebenenfalls sogar ein sehr langes Weilchen, denn Standards in der PC-Industrie sind extrem schwer einzuführen - und bereits jetzt entwickeln die unterschiedliche Raytraycing Gruppen in unterschiedliche Richtungen, was eine gemeinsame Hardwareoptimerung unmöglich macht. (Voxel vs. Polygon z.B.)
 
Nein, kann es nicht, schau dir doch mal die Links an, die ich gepostet hab!

Das ich immer alles hier quoten muss, find ich nicht toll, hier mal ausm 3DCenter Forum:

ausm 3DCenter FOrum schrieb:
Das wurde hier schon unendlich oft diskutiert. Z.B. kannst du wenn du Raytracing verwendest Vertex- und Geometry-Shader grad mal vergessen. Das Konzept funktioniert da einfach nicht. Dynamische Geometrie ist allgemein ein großes Problem, auch wenn es inzwischen relativ gute In-Flight-Sortierungsalgorithmen gibt.

Außerdem ist Raytracing nur deutlich effizienter wenn du wirklich extrem viele Polygone zeichnen willst. Also deutlich mehr als Pixel auf dem Bildschirm. Das darfst du aber nicht, sonst flimmert dir es das Hirn raus. Das heißt man braucht eh wieder LOD und Rasterisierung ist wieder effizienter.

D3D11 bringt dann evtl. noch programmierbare Render-Frontends die nach Bedingungen Drawcalls rendern können, dann ist auch das Occlusion-Culling-Problem endgültig vom Tisch bei Rasterisierung.

Nur für die Bling-Bling-100%-Reflexionen und harte Schatten brauchen wir ganz sicher kein Raytracing. Sobald man dann diffuse Reflexionen und Softshadows machen will sind die Hacks mit Rasterisierung wieder billiger.

Raytracing sollte man sicher nicht aus den Augen verlieren. Aber ich wäre sehr erstaunt wenn es Rasterisierung verdrängt. Das wird sehr viel eher nebenherlaufen und man wird je nach Gebiet das Beste aus den beiden Welten einsetzen. Raytracing ist NICHT der heilige Gral des Realtime-Renderings. Es löst die Probleme die wir momentan haben auch nicht - was vor allem vollständige indirekte Echtzeit-Beleuchtung ist.

Mich regt diese Stimmungsmache seitens Intel usw. derzeit mächtig auf. Es ist nicht so als würde Raytracing die lilabunte Traumwelt jedes Grafikprogrammiers sein.

Nur mal zur Info: "Transformers" (Der Film, 2007) wurde zum größten Teil mit einem Rasteralgorithmus gerendert - auch wenn man den nicht mit dem Vergleichen kann was GPUs momentan machen. Und das Zeug was sie raytracen mussten weil sie Spiegelreflexionen haben wollten hat ewig gedauert. Vor "Cars" hat Pixar/ILM überhaupt kein Raytracing verwendet.

Mit einem Monte Carlo Path Tracer würds wohl nicht so flimmern. Allerdings reicht da wohl die Leistung noch lange nicht. Dafür ist der wohl einfacher zu parallelisieren.
Nicht wirklich. Du musst ja immer noch dieselbe Geometrie mit Deinen Rays intersecten. Ausserdem musst Du, um Die Varianz, aka Noise zu halbieren viermal soviele Rays losschiessen. Da gibts auch Tricks, aber Monte Carlo macht das ganze Problem erstmal um 8 bis 10 Größenordnungen größer. Wenn dann noch Participating Media (Wolken, Käse,Wachs, ...) hinzukommen wird die Hässlichkeit gleich nochmal so groß. Da kann man mit einem Rasterizer deutlich mehr tricksen.

Du siehst, Raytracing ist einfach nicht so toll, wie uns eingeprügelt wird, es hat einfach viel zu viele Nachteile, gerade was die Effizienz betrifft.
Aber wohl auch was die Optik betrifft.

Schau dir einfach mal den Thread an!
Oder such mal im 3DCenter Forum nach Raytracing.
 
Abgesehen davon, dass ich hier genug Foren zu lesen hab:
Wie dir sicherlich aufgefallen ist, bestätigt das erste Post meine Argumente sogar :rollen:
 
Wo bestätigt es das deine Argumente?!

Ich sehe da eher, das davon gesprochen wird, das Raytracing ineffizient ist und keine Probleme löst - nur neue schafft.
Schau dir auch mal einige andere Postings in dem Thread an, besonders ScottManDeath, Coda, Demirug und andere.
 
Er, erster Absatz: heutige Shader lassens ich für Raytraycing nicht nutzen.
Ich:
"Trotzdem wirds noch n Weilchen dauern, bis man diese prinzipiellen Vorteile des Verfahrens auch in ein ähnlich hoch optimierte Kombination aus Hard- und Software umgesetzt hat."=heutige Hardware ist nicht für Raytraycing optimiert.

Er, zweiter Absatz:
Raytraycing ist deutlich effizienter, wenn man extrem viele Polygone zeichnen will.
Ich:
"Hat man viele Informationen für vergleichsweise wenig Pixel, kann Raytraycing durchaus die sinnvollere Alternative sein" - im Falle einer Polygon-basierten Engine könnten diese Informationen aus einem hohen Polygoncount bestehen.

Er, Rest: Gelaber über aktuelle (Nicht-)Implementierungsverfahren, gar kein Bezug zu meinen Ausführungen über theoretisches Potential und zukünftige Entwicklung.


P.S.:
Wenn du hier ne Diskussion führen willst, wäre es nett, wenn du einfach direkt argumentierst. Ich hab weder Lust, mit Leuten in weiteren Foren zu quatschen (sonst würde ich das da machen), noch vor jeder meiner Antworten dir erstmal die Aussagen zu erklären, auf die ich reagiere.
 
Die Taktraten und andere Details wurden über die neuen kommenden Nvidia Karten veröffentlicht.

Mit Hilfe der Silizium-Proben der NV70/G300/GT300 Chips hat uns Nvidia einige Informationen zu diesen Karten, und gab uns eine Vorstellung von der Taktfrequenz der Nvidia GeForce GTX 380.

Die Probe-Boards kommen mit einem GPU-Takt. Die angebliche Silizium GT300 A1 Chip Taktrate beträgt 0,7 GHz, mit 512 Cores und arbeiten auf 1,6 GHz.

Der GDDR5-Speicher wurde erhöht auf 1,1 GHz oder 4, QDR 4 GT / s (Milliarden Transfers pro Sekunde), dass ein Endergebnis der Bandbreite des Massenspeichergerät von 281,6 GB / s bedeutet.

Nach den Informationen laut nVidia soll die GTX380 zunächst 1:1 auf das Verhältnis der GeForce GTX280 als Basis für den Vergleich dienen.

Wann der 2,4 Millarden Transistoren schwere G300 alias Geforce GTX 380 das Licht der Welt erblicken wird, kann noch nicht genau gesagt werden. Auf der Nvidia-internen Roadmap ist er allerdings weiter für das letzte Quartal dieses Jahres vorgemerkt.
 
Zurück