• Hallo Gast,

    du hast Fragen zum PCGH-Abo oder zur Bestellung eines (Sonder)hefts von PC Games Hardware? Dann wirf einen Blick auf unser PCGH Abo-FAQ mit Antworten zu den wichtigsten Fragen. Hilfreich bei der Suche nach dem nächstgelegenen Händler, bei dem die aktuelle PC Games Hardware ausliegt, ist die Website Mykiosk. Gib dort deine Postleitzahl und PC Games Hardware (Magazin/DVD/Spezial/Sonderheft) in die Suchfelder ein und dir werden die Verkaufsstellen in deiner Nähe aufgezeigt. Wenn du PCGH digital (über App, Tablet, Smartphone oder im Webbrowser) lesen willst, haben wir eine entsprechende Anleitung für dich zusammengestellt.

Offenes Ohr - welche Themen wünscht ihr euch für die nächste PCGH-Ausgabe?

Also genau das, was AMD als Spec vorgibt? Mehr soll auch nicht laufen. :ka:

Das weiß ich und das weißt Du. Aber vermittle das mal einem Influencer-geschädigten Kunden.

So sehen die Gespräche regelmäßig aus.

"Da geht max nur DDR5-3600."

"Du meinst DDR4-3600.

"Nein, ich meine DDR5-3600!" *Verweise auf offizielle Herstellerangaben*

Wäre halt sehr geil, wenn da intensiver vom Experten eingetaucht und die Realität sowie ggf Möglichkeiten aufzeigt werden, die ich wiederum evtl. fürs Tuning nutzen kann.

Mein letztes Erlebnis war ein Asrock Z690 Taichi mit einem 12900KS (der bekannt sein sollte. ,;)), das erstmal DDR5-2000 (!) von sich aus nach Aktivierung des XMP eingestellt hat. Vermutlich nen Bug, aber DDR5-5200 war das sicher nicht, auch wenn mir das BIOS was anderes sagen wollte. CPU-Z und Benchmarks haben die Wahrheit gezeigt. Manuell DDR5-3600 eingestellt und wunderbar. 3800 bootete er schon nicht mehr.
 
das könnte sein das du ddr5 3600 ausliest aber real ddr5 7200 ist
Double data random access
cpu z und co lesen den tatsächlichen takt und der ist halbiert.
Im uefi wird auch oft ddr die theoretische freq angegeben also ddr 5 4800 bei jedec norm sogar ddr5 3866
 
Ich hätte gerne Produkttests über 7900XTX und RTX4090 und zwar solche die mehr aus Daten und weniger aus Produktfotos bestehen.
Finde ich auch!

Von meiner Seite gerne auch 7900XTX gegen 4070TI, die Preisregionen sind schon sehr nah an einander aber fast keiner testet genau diese Karten gegeneinander.
Besonders in Punkto Raytracing scheinen beide Karten ja direkte Konkurrenten zu sein.
Als Beispiel: MSI Gaming X Supreme 4070TI vs 7900XTX Sapphire Radeon Nitro +
 
Hallo
Da jetzt beide Hersteller, CPUs mit igpu anbieten, könnt ihr vielleicht mal einen Test bringen über die igpus in Verbindung mit einer dgpu. Da Mittlerweile das Energiesparen und die Effizienz deutlich in den Vordergrund gerutscht ist. Wo der Monitor an der Igpu angeschlossen ist und die dgpu per passthrough ihr gerendertes Bild auf den Monitor zaubert? Was sich so an Energie sparen lässt. Besonders auf Hinblick des Desktop Verbrauches und schnellen Monitoren. Was bei AMD etwas schlechter ist als bei Nvidia. Und ob es da Probleme beim zocken geben kann.

Bei meinem 7900x3d konnte ich so 10watt einsparen im Desktop betrieb mit meiner 5700xt. Oder ASPM was bei Intel gpus empfohlen wird um Strom im Desktop Betrieb zu sparen. Hatte bei meinem System weitere 9watt eingespart. Gemessen an der Steckdose.
Und was es für Nachteile gibt. Die Enstellung ist bei allen Mainboards die ich bisher in den Fingern hatte deaktiviert gewesen.

2-3monitor betrieb .

Und ob es bei der igpu auch Tuning Möglichkeiten gibt für ein sauberes handling im Alltags Desktop betrieb. Ich hatte bei der AMD igpu festgestellt das es sich deutlich angenehmer anfühlt wenn sie mit 800Mhz läuft als mit 600Mhz.

Auch den Verbrauch durch schnellen RAM vs Langsamerer RAM (Seeetspot) auf Verbrauch vs Leistung.
 
Zuletzt bearbeitet:
Da momentan der Schwerpunkt des Marketings von Grafikkarten seitens des Marktführers stark auf Upscaling/"KI"-Bildanpassungen und Framegeneration gelegt wird und die anderen Hersteller auch gezwungenermaßen auf der Welle mit schwimmen müssen, würde mich mal interessieren, wie gut die modernen Chipgenerationen(TU/A/Ada, Vega/RDNA und Alchemist) das eigentliche Handwerkszeug noch beherrschen. Die ganzen bearbeiteten Bilder haben oft nur noch wenig mit dem Original zu tun und wirken vor allem durch Schärfefilter in der direkten Gegenüberstellung teilweise schon surreal und spätestens da nicht mehr vergleichbar zwischen den Herstellern.

  • Wie gut ist die Bildqualität des Rohmaterials also wirklich noch bezüglich der Bildqualität? z.B. Texturfilterung/ Antialiasing/ Alpha-Blending etc. (Streaming durch mangelnden Grafikspeicher muss man natürlich vorab ausschließen können)
  • Wie hoch die Farbtreue bei sonst gleichen Umgebungsbedingungen? In Hogwarts Legacy z.B. berichten Leute von "entsättigten" Farben nach Herstellerwechsel.
  • Ist nach der DX11 Ära und der exzessiven Nutzung von Treiberanpassungen die Situation besser oder schlechter geworden(oder gibt es u.U. gar keine Unterschiede)?

Gerade in der Vergangenheit wurde da von allen Herstellern gerne mal treibermäßig die Abkürzung genommen und unvollständig gerendert, oder bestimmte Funktionen funktionieren gar nicht und die Leistung verhält sich dementsprechend atypisch.

Der letzte echte Bildqualitätsvergleich an den ich mich erinnern kann war der zwischen Titan Xp und Titan V, weil sich das dort aufgrund der Artefakte der Voltakarte zu Release quasi aufgedrängt hat.
 
Wo ziehst du bei Computergrafik die Ganze was original, real, etc. ist?
Ich bezog mich auf den Vergleich zwischen unbearbeitetem Bild(ohne DLSS/FSR etc.) im Gegensatz zu DLSS/FSR "on": Da wird teilweise AO so stark nachgeschärft, dass Ecken wie mit dem Edding gezogen wirken, statt nur wie im Original leichte Eigenverschattung zu simulieren, Ghosting und Rim-Lightingartige Artefakte an kontraststarken Stellen und dünne Drähte in der Distanz, die zu armdicken Trassen werden oder ganz verschwinden. Das lässt sich aber leicht selber überprüfen, wenn auch DLSS durch den "kuratierten" Ansatz und evtl. ein gewisses Maß an QS da besser wegkommt.
Normales VSR/DSR Holzhammer-Upscaling(oder einfach nur ein größerer Monitor) zählen in dem Zusammenhang nicht als surreal, da das ja in der Regel das Spiel so anzeigen sollte, wie vom Entwickler ursprünglich beabsichtigt.
Ich denke das lässt sich so besser festnageln.

Klingt für mich nach Scherereien mit HDR.
Das kann gut sein, da ich das nicht überprüfen kann.

Generell habe ich aber selber schon grafische Unterschiede bei gleichen Settings gesehen(z.B. bei NVidia flimmernde Texturkanten auf großen flächigen Texturen in Wow und auch starkes Moiré.)
 
Wie sieht es denn mit den Intel-CPUs N100, N200 und i3-N300 mit den Gracemont-Kernen aus? Derzeit kommen ja die ersten Boards mit verlöteter CPU. ASRock hat schon eins im Handel. Ein paar Barebones und ein Laptop (glaube Acer) gibt es auch schon.
Wenn ich alles richtig verstanden habe, sollte ein N100 in etwa der Leistungsklasse eines i5-4570 entsprechen und das bei nur 6W. Für eine kleine Office-Kiste oder selbstgebautes NAS wäre das eine schöne stromsparenden aber leistungsstarke Sache. Werdet ihr euch auch mal so ein Board ansehen und ggf. testen?
 
interessant wäre das aber soc systeme mit schon verbauten ram und cpu sind ne Nische
Zumal keiner der sku einen alternativen extern gpu Anschluss möglich ist nur usb3
kein thunderbolt oder usb4
Daher nehme ich an das man etwa skylake cpu Leistung bekommt mit der igpu die sehr schwach ist.
Wenn soc dann amd x300 ab 150€ aber da ist keine cpu verbaut 5600g und 4600g sollte man nutzen kühler maxed 45mm und kein ram verbaut kommen also nochmal 160€ dazu
65w tbp limitierung
Das sollet aber deutlich schneller sein als der n300 n200 n100
ich habe selber den ceasanne als laptop (45w tbp limit) der entspricht dem r5 5600g
 
Zuletzt bearbeitet:
Wie @MDJ geschrieben hat: Alder Lake N gibt es auch auf Boards mit normalen DIMMs und PCI-E und halt einer TDP, die gerade mal der Hälfte aktueller mobile-AMDs entspricht. (Oder der eines AM4-I/O-Hubs, wenn man keinen X300 Desk-Mini möchte.)

Klar, PCI-E 3.0 ×2 ist jetzt nicht gerade RTX-4090-optimal, aber dafür sind solche Systeme ja auch nicht gedacht. Der eine E-Kern-Cluster taktet niedriger als die in einem 12900K und bei dessen Vorstellung hat Intel seinerzeit Vergleiche zu Skylake-Dual-Cores gezogen. Das Ding hat also vermutlich eher die CPU-Leistung eines i3-6000, ggf. eines mobile-i3. Ich habe mit @PCGH_Dave auch schon mal über Tests von solchen Bottom-End-CPUs gesprochen und wir sind zu dem Schluss gekommen, dass ein Testparcours-Durchlauf da wohl nicht das richtige ist und man entweder einen Retro-Vergleich gegen alte High-End-CPUs oder aber ein Praxisspecial nach dem Motto "was läuft darauf noch gut spielbar?" machen müsste. Aber das ist beides relativ aufwendig im Vergleich zum gedruckten Inhalt, weil man ohne Vergleichswerte, ohne erprobte Software-Umgebung, etc. startet. Vielleicht kann Raff das übernehmen. Der untertaktet doch eh immer als erstes die CPU, weil er in 42k im GPU-Limit hängt.^^
 
Danke für das Feedback, @PCGH_Torsten =)
Gut, für Spiele wäre das nun wirklich nicht so der Hit, das sollte einem klar sein :D
War auch eher in Bezug auf ein energieeffizientes und dennoch schnelles Office-System gemeint. Wie exzessiv man da ein Test macht ist die Frage. Vielleicht reicht da schon eine halbe oder ganze Seite :ugly:
 
Zuletzt bearbeitet:
ich habe keine pcie Anschluss gesehen bei n200 n100 soc
ja es gibt nen m2 pcie4 slot mit maximal x2
Da aber oft nur ein sata Anschluss vorhanden wäre diese Anbindung mit ner dgpu extern Gehäuse sehr speziell wegen dem adapter
 
Einen ASUS Z690/Z790 UEFI / BIOS - Guide....

Ich habe zwar (glaub) das Meiste verstanden...trotzdem ist Asus gar nicht so schwach vertreten...
 
Abseits der CPU-spezifischen OC-Optionen gibt es kaum Unterschied zwischen einem Z790- und einem AMD-UEFI. Da weichen Z790-Modelle untereinander teils stärker voneinander ab, da zum Beispiel PCI-E- oder Zusatzcontroller-Optionen eben eher eine Frage der verbauten Ausstattung denn der verwendeten Plattform ist. Aber auch beispeilsweise DDR5 funktioniert hüben wie drüben genauso. Man kann also durchaus den kürzlich erschienen Asus-Guide auf Basis eines AM5-Beispiels zu Rate ziehen:
 
Zurück