Nvidia bringt Geforce 6 Grafikkarten (PCGH Retro, 14. April)

Oh ha, die 6000er Reihe war die erste Highend Grafikkarte nach meiner 5200... dazu kommt das ich damals eine BFG 6800 Ultra von meinen Cousin geschenkt bekommen habe O.o
 
Karte ,Spiele, Preis lang ersehnt nach der missglückten Geforce 5 er reihe war die Radeon 9800 pro Platzhirsch es gab reichlich veröffentlichungen der Studios, Tops und Flops,für jeden etwas dabei meine 7600gs (refresh) geriet dann bei Crysis rasch ins Schwächeln, aber für 120 euro gutes P/L .
 
Von einer Geforce 4MX aus dem Aldi-PC auf eine 6600GT umgestiegen. Da ging was. Später dann ein Zalman VF700Cu drauf und damit war das Ding auch dann flüsterleise. Der Referenzkühler war ungeregelt und ziemlich laut, für heutige Verhältnisse aber auch extrem lächerlich: Ein paar grobe Kühlrippen und ein 40mm-Lüfter.
 
Ich würd eine 6800 Ultra PCIe im Singleslot design brauchen für einen Casemod. Is schwer zu finden, wird wohl ein haufen Arbeit werden da was zurecht zu basteln...
 
Oh ja, damals hatte ich mein erstes SLI System mit zwei Asus Extreme N6600GT/TOP Limited Edition, welches ich erstmal um gute 10% übertaktet habe.
Damals musste ich mich glatt von dem Verkäufer anmachen lassen, weil der meinte dass nur verrückte sich zwei Karten für je 180EUR holen würden, bräuchte niemand jemals. Na und als ich dann das A8N32-SLI Deluxe Wi-Fi un den Athlon 3500+ (Winchester) noch dazu nahm und ihn auch sofort übertaktete, hat er mich komplett für verrückt erklärt.
Gespielt wurden erstmal Doom 3, TES4 Oblivion und natürlich CoD:UO samt treiberseitiger Schmankerl.:ugly: :nicken:
 
Ach ja, die guten alten Zeiten mit der 6000er Reihe, als man noch mit etwas Glück über Rivatuner deaktivierte Pixelshader aktiveren konnte und so aus deutlich günstigeren Modellen ein ordentliches Leistungsplus rausholen konnte. :)

Hab mir damals 2005 eine Geforce 6800 LE gekauft gehabt und hatte dann das Glück sie durch aktiveren deaktivierter Pixelshader auf 6800 GT Niveau anheben zu können.
Allerdings blieb die 6800 LE auch nicht besonders lang im Rechner, bin nach etwas mehr als einem halben Jahr für TES IV: Oblivon dann zum Release der ATI X1900XT auf selbige gewechselt, weil sich einfach abzeichnete das die 1900er Reihe von ATI grandios wird und es kam dann ja auch so, Nvidia hatte zwar zeitweilig mit der 6000er Reihe die moderneren Funktionen, es mit ihrer vermurksten CineFX Architektur aber nicht geschaft ATI ab der x800er Reihe leistungstechnisch wirklich schlagen zu können und mit der X1900er Reihe war ATI sowohl in Sachen Funktionen, als auch der Leistung deutlich vor Nvidia, daran änderte auch die 7000er Reihe nichts.
 
Zuletzt bearbeitet:
Oh ja als Oblivion raus kam war ich hin und weg. Hat mich durch die Atmosphäre total gefesselt.

Habe auch meine BFG 6800 Ultra geliebt. Diese durfte dann NfS Most Wanted bearbeiten.
 
Oh ja als Oblivion raus kam war ich hin und weg. Hat mich durch die Atmosphäre total gefesselt.

Habe auch meine BFG 6800 Ultra geliebt. Diese durfte dann NfS Most Wanted bearbeiten.

Leider sah Oblivion auf der 6000er / 7000er Serie nur sichtbar schlechter aus als bei der Konkurenz. Zu der Zeit hat Nvidia selbst auch bei der Anisotropen Filterung geschummelt (was man einige Generationen später ja dann auch ATI / AMD vorgeworfen hatte) um die CineFX Architektur leistungstechnisch überhaupt etwas besser aussehen zu lassen (näher an der Konkurenz) und nur bei ATI konnte man damals Oblivion mit HDR & AA zugleich genießen, bei Nvidia gingen Kantenglätung leider nur solange Bloom genutzt wurde und HDR gab es entsprechend nur solange das AA ausgeschaltet war, also entweder atmospherische Beleuchtung mit Treppen, oder minderwertigere Beleuchtung aber dafür ohne Treppenkanten.

Ach das waren noch Zeiten, damals war es bei den Grafikkarten wenigstens noch wirklich regelmäßig spanend, heute ist doch eigentlich nur noch spannend welchen Mondpreisrekord Nvidia mit der nächsten Generation von Grafikkarten wohl durchbrechen wird. :D
 
Zuletzt bearbeitet:
Mit AA und AF war Oblivion ab einer gewissen Auflösungsstufe ohne ein CF-Gespann unspielbar.
Das holte aber auch verdammt viel aus den damaligen Grafikkarten raus, echtes HDR-Rendering hatte damals nur eine kleine Handvoll Spiele und überhaupt war Oblivion das erste, welches dies mit dynamischen Tone-Mapping kombinierte.

Dafür waren die GeForce 6er zu schwach, obwohl sie ja ihrerzeit Shader 3.0 Support hatten, die direkte Konkurrenz in Form der Radeon X800er konnten das nicht.
 
Dafür waren die GeForce 6er zu schwach, obwohl sie ja ihrerzeit Shader 3.0 Support hatten, die direkte Konkurrenz in Form der Radeon X800er konnten das nicht.

Nvidia hatte damals halt auch kaum eine groß andere Wahl, schon mit der ATI 9000er Serie war ATI für Nvidia rein aus Sicht der Leistung kaum zu schlagen, da die CineFX Architektur, die man mit FX5000er Serie (der gute alte Föhn, wer kennt ihn noch?) eingeführt hatte, sich leider ehr als hitzköpfiger Leistungskrüppel rausstellte.
Also hat man mit der 6000er Serie dann das gemacht was ATI / AMD ab der HD3000er Reihe gemacht hat, auf die moderneren Funktionen gesetzt, frei dem Moto, wenn man schon leistungstechnisch nicht die Krone behaupten kann dann doch wohl zumindest bei den moderneren Funktionen.

Hat sich damals auch für Nvidia auch durchaus ausgezahlt, die 6000er Serie hat sich gar nicht mal so schlecht verkauft, obwohl, wie du ja schon bemerkt hast, die Leistung für die Funktionen ab etwa 1280x1024er Auflösung eigentlich ehr zu schwach wurde und es bis dahin eigentlich auch nur vergleichsweise wenige Titel gab die überhaupt auf diese Features setzten. Viele glaubten halt damals auch durch die moderneren Funktionen auf der sichereren Seite bei kommenden Titeln zu sein (naja war nicht wirklich so, mangels Leistung der Karten).


ATI zog in Sachen Funktionen (Shader Model 3.0 & volle DX 9.0 Unterstützung) erst 2 Generationen später mit der X1800er Reihe gleich, dominierte allerdings bis dahin in Sachen Leistung mit der 9000er Serie und X800er Reihe konstant deutlich die Benchmarks. Nützte aber auch bei den Verkaufszahlen ehr nur bedingt etwas, da viele wegen der fehlenden Unterstützung von Shader Model 3.0 und DX9 nicht zugegriffen haben.
 
Die 6000er haben ja mit SLi auch Multi-GPU wiederbelebt - ATi reagierte darauf erst später mit einer umständlichen Lösung mit Master und Slave-Karte (so ein Gespann mit externem, fummeligen Loopkabel arbeitet heute noch in meiner alten Spiele-Kiste:ugly:).
So viel schlechter dürften sich die Radeon X800er aber gar nicht verkauft haben, denn so viele Shader 3.0-Spiele gab's damals nicht; Far Cry bekam das mit Patch, unterstützte gleichzeitig aber auch ATis spezielles Shader Model 2.0b. Nativ war so weit ich noch weiß Splinter Cell 3 das erste Shader 3.0-Spiel, kurz darauf kam noch Earth 2160 dazu. Bis das Angebot an SM3.0-Spielen aber größer wurde, hatte ATi schon die X1000er auf den Markt gebracht.

Die CineFX-Architektur war ja nicht grundsätzlich schlecht, bereits die FX-Reihe besaß Features, welche die Radeon 9000er nicht hatten, z.B. einen winkelunabhängigen anisotropen Filter - den führte ATi erst mit der X1000er ein. Das Problem war aber neben dem anfangs viel zu schmalen Speicherinterface der Umstand, dass die "Rankine"-Karten nativ keine FP24-Berechnungen durchführen konnten. Nvidia hatte sich damals mit Microsoft überworfen, DX9 hatten die daraufhin teils in Zusammenarbeit mit ATi entworfen, dessen Radeon 9000-Karten FP24-Recheneinheiten ab Werk zur Verfügung stellte.

Mit "Curie" hatte man das ausgemerzt und noch obendrein Shader 3.0, SLi und spezielles TAA hinzugefügt. Zwei Grundprobleme aber blieben: Zum einen die wesentlich geringere Shader-Leistung, welche insbesondere den GeForce 7ern in späteren DX9-Spielen geradezu das Genick brach.
Zum anderen das ineffektive TMU-Design, welche asymetrisch zu ihren Pixel-Shadern angeordnet waren - das führte zu teils massiven Verzögerungen bei Texturzugriffen. Da brachte auch die GeForce-exklusive Option, Vertex-Shader unabhängig von den Pixel-Shadern ansprechen zu können, recht wenig.

Mit der 6000 hat Nvidia aber noch die im Verhältnis zu ihrem Releasezeitpunkt mit beste Iteration des CineFX abgeliefert; trotz niedrigerer Taktraten und langsameren Speicher hatte man dank SLi doch zwischenzeitig die Leistungskrone inne und von der Bildqualität her konnten die X800er nicht ganz mithalten.
 
von der Bildqualität her konnten die X800er nicht ganz mithalten.

Ich habe noch heute ne 6600Gt und auch ne Radeon X 700 Pro und X800 zu Testzwecken und ich sehe das anders. Für mich ist die Bildqualität der ATI Karten merklich besser als die 6600Serie von Nvidia. Für mich sehen vor allem die Texturen schärfer aus und auch das Anti Aliasing ist schöner. Die 6600GT hat aber wegen der Unterstützung von Shader 3.0 den Vorteil gehabt das die Spiele der nächsten Generation dann merklich besser aussahen, jedoch ist die Framerate dann sehr stark eingebrochen... sprich die Karte ist dafür zu schwach. Aber dennoch bin ich sehr fasziniert wie gut die 6600 GT sich geschlagen hat und war ca. 20-30 Prozent schneller als eine X 700 Pro die ja auch eine Mainstreamkarte war im Schnitt was schon sehr beachtlich ist da der Preisunterschied nur 20-30€ war. Die X 700 XT die niemals erschienen ist konnte die 6600Gt nicht ganz das Wasser reichen die war auch nur 10-20 Prozent schneller als die Pro Variante also noch trotzdem langsamer als die 6600GT. Erst mit der Radeon X 800 konnte durch die Preissenkung dann mit der 6600GT konkurrieren und ihr dann Paroli bieten und war in fast allen Titeln schneller und bei eingeschalteten AA sogar schneller als eine 6800 (non GT). Noch interessanter wurde es dann als die X 800 GT rauskam das war dann der neue Preis Leistungs Hit im Herbst 2005. Das waren noch Zeiten wo Grafikkarten nicht überteuert waren jetzt kommt das aber.... man musste alle 2 Jahre eine neue Grafikkarte kaufen heute halten die Karten viel länger von daher ist der generell höhere Preis gerechtfertigt (außer wegen Miner) und jetzt wegen dem Chipmagel ist es ohnehin eine Katastrope...
 
Ich hatte direkt zum release zwei Asus Extreme EN6600GT/TD/128M PCI-E mit ca. 20 Prozent OC. Die haben richtig Spaß gemacht.
Abgelöst wurden sie von zwei ASUS EAX1950PRO/HTDP/256M. Das waren noch Zeiten...
 
also entweder atmospherische Beleuchtung mit Treppen, oder minderwertigere Beleuchtung aber dafür ohne Treppenkanten.

HDR bei Oblivion als "amtosphärische Beleuchtung" zu nennen halte ich für gewagt. lol
Es hatte alles einfach nur einen strahlenden Weichzeichner drüber gebügelt. Mti echtem HDR hatte das ja auch nichts zu tun.
 
HDR bei Oblivion als "amtosphärische Beleuchtung" zu nennen halte ich für gewagt. lol
Es hatte alles einfach nur einen strahlenden Weichzeichner drüber gebügelt. Mti echtem HDR hatte das ja auch nichts zu tun.
Was definierst du als "echtes" HDR?
Das damals neuartige HDR, welches viele Grafikkarten zum Fühstück verspeist hatte, ist so genanntes High Dynamic Range Rendering - daher auch das eigentlich richtigere Kürzel HDRR.
Nur das Oblivion das ganze mit Tone Mapping kombinierte - kein anderes Spiel hatte eine so aufwändige Beleuchtungstechnik vorzuweisen. Von "Fake-HDRR" kann hier auch keine Rede sein, Oblivion unterstützte wie damals Far Cry mit 1.32er Patch, Splinter Cell 3 oder AoE3 HDRR mit FP16-Genauigkeit, wohingegen z.B. HL2 dies "nur" auf ein FP24-Renderziel ausführen konnte.
 
ATI zog in Sachen Funktionen (Shader Model 3.0 & volle DX 9.0 Unterstützung) erst 2 Generationen später mit der X1800er Reihe gleich, dominierte allerdings bis dahin in Sachen Leistung mit der 9000er Serie und X800er Reihe konstant deutlich die Benchmarks. Nützte aber auch bei den Verkaufszahlen ehr nur bedingt etwas, da viele wegen der fehlenden Unterstützung von Shader Model 3.0 und DX9 nicht zugegriffen haben.
Soweit ich mich erinnere waren das noch die besten Zeiten von ATI was Marktanteile betrifft, denn kaum jemand kann Features die noch nicht genützt werden abschätzen, aber die Länge eines FPS Balkens und die Preise waren damals noch in Ordnung

 
Soweit ich mich erinnere waren das noch die besten Zeiten von ATI was Marktanteile betrifft, denn kaum jemand kann Features die noch nicht genützt werden abschätzen, aber die Länge eines FPS Balkens und die Preise waren damals noch in Ordnung

Ich meine mit die beste Zeit von ATI war, neben der 9000er und X800er Reihe, mit Release der X1900er und X1950er Karten (2006, was man auch in deiner Grafik sieht, wo sie beim Anteil fast gleichauf mit Nvidia lagen).

Sie hatten da die unangefochtene Leistungs- und die Feature-Krone inne und die X1900XT 512MB VRAM war damals auch aus P/L-Sicht wirklich eine verdammt gute Karte, mit sehr ausgereiften Treiber (anders als bei Nividia damals, die zu der Zeit diverse Probleme mit ihren Treibern hatten und für etwas mehr Leistung, für ihre Karten, bei der Qualität des AF rumgeschummelt haben).
 
Zuletzt bearbeitet:
Zurück