Wie die meisten Webseiten nutzen wir Cookies. Nähere Informationen dazu, wie wir mit diesen Cookies umgehen, können Sie in unseren Datenschutzbestimmungen lesen.   Einverstanden
 
 

3D Forum > 9800GT oder 5670? Bluray?

9800GT oder 5670? Bluray?

23.08.2010 09:10
 
poronoMo. 23 Aug. 2010, 09:10 Uhr
Hallo Leute,

ich habe vor, meinen alten Rechner ins Wohnzimmer zu stellen um damit Blu-Rays zu schauen und ggf. mal eine rund C&C3 auf dem Fernseher zu zocken. Dafär benötige ich eine neue Grafikkarte, da meine alte weder einen HDMI-Ausgang hat (was nicht so schlimm wäre, da man das adaptieren kann) noch HDCP-Fähig ist - ich also keine BLurays schauen kann.

Meine Frage nun: Welche der beiden unten aufgelisteten karten würdet ihr dafür nehmen?

[bNvidia]9800GT
http://www.alternate.de/html/product/Grafikkarte/Gainward/GF9800GT_Green/136990/?tn=HARDWARE&l1=Grafikkarten&l2=PCIe-Karten+NVIDIA&l3=GeForce+9

oder

ATI HD5670
http://www.alternate.de/html/product/Grafikkarte/Sapphire/HD5670_DP/146305/?tn=HARDWARE&l1=Grafikkarten&l2=PCIe-Karten+ATI&l3=Radeon+HD5000


Ich habe mir ein paar Benchmarks angeschaut, und da schneidet die 9800GT wesentlich besser ab, obwohl die wesentlich älter ist. (z.B. : http://www.computerbase.de/artikel/grafikkarten/2010/test_ati_radeon_hd_5670/7 )

Was meint ihr?

porono
 
LeratosMo. 23 Aug. 2010, 10:39 Uhr
Kannste bisschen zu dein System was schreiben?.
Weil es hilft dir nix die beste Grafikkarte und Bluray Player wenns System dazu nicht ausgelegt ist. (habs selbst bei ein Kumpel erlebt der pc hat das Hd nicht mit gemacht war nicht Leistungsstark genug hat mehr gestockt als sonst was)^^
 
poronoMo. 23 Aug. 2010, 11:11 Uhr
Klar :-)

Der betreffende Rechner hat einen AMD X2 5200+ (2 x 2,61 GHz) und 4GB Ram.

Das BR-Laufwerk habe ich noch in einem anderen Rechner und die Grafikkarte würde ich dann kaufen.

Ich brauche ihn nicht mehr und wollte ihn dafür halt ins Wohnzimmer stellen, um damit n bissl zu spiele und Filme zu schauen :-)

Mein ihr, das reicht von der Leistung her?
 
RiddickMo. 23 Aug. 2010, 12:34 Uhr
Moin!

Zur wiedergabe hochauflösender Medien ist die 9800GT bestens geeignet, es würde sogar eine 9600GT reichen, wichtig ist das mindestens ein dualcore Prozessor und mindestens 2GB RAM im rechner steckt.

Bei den 9600er GT´s sind meistens hdmi anschlüsse inkl. hdcp vorhanden, wenns noch ein tip sein darf, als software player empfehlev ich power dvd, die kann noch mit am besten normale dvd´s auch 1080p hochrechnen mit optimaler qualität.

sogar ein dualcore atom cpu mit einigermaßem guten chipsatz bekommt bluray hin smile

ob das system mit bluray funktioniert kannst am besten mit 1080p mkv videos testen, die anforderung der bluray´s sind nicht viel grösser.

mfg rico
 
LeratosMo. 23 Aug. 2010, 12:36 Uhr
Also müsste reichen, und zur deiner Frage habe ich guten bericht im inet gefunden.
In vielen Benchmarks liegt die HD5670 gleich auf mit der GeForce 9800 und über der GeForce 9600 GT, lediglich bei hohen Auflösungen bricht die Performance der ATI-Karte ein. Durchweg kann sie allerdings durch ihre niedrige Leistungsaufnahme überzeugen, die Karte kommt ohne extra Stromversorgung aus. Beim Idle-Verbrauch ist nur die GeForce GT 240 4 Watt sparsamer. Unter Last verbraucht sie zwar mehr als die HD 4670, bietet dafür aber auch eine deutlich höhere Leistung.

quelle : http://www.greencomputingportal.de/index.php/green-it-news/ati-radeon-hd-5670-konkurrenz-zur-geforce-9800-gt/

Also ich bin nvidia Fan seit ich die erste hatte von den ^^ also daher Geforce, aber für Bluray reicht auch die Ati also nehmen sich ja nicht viel ^^
 
poronoDi. 24 Aug. 2010, 07:24 Uhr
Danke euch. Also dann gehe ich davon aus, dass ich die 9800GT nehmen werde. Kostet ja das gleiche, ist günstig und scheint alles zu haben, was ich brauche.

Ihr meint also, dass der X2 5200+ also für Blurays ausreicht?
 
LeratosDi. 24 Aug. 2010, 08:56 Uhr
Also habe in mein Lappy ein Bluray laufwerk und der hat nur 2,3ghz x 2 und da habe ich auch keine probleme und nurso am rande 2,6ghz x2 =| 5.2 ghz ^^ (2,6 ghz x 2 ist leistungsfähiger als 1 x 5.2 ghz)
 
poronoDi. 24 Aug. 2010, 18:23 Uhr
Danke für deine Antwort.

und nurso am rande 2,6ghz x2 =| 5.2 ghz ^^ (2,6 ghz x 2 ist leistungsfähiger als 1 x 5.2 ghz)


Also da würde ich weder das eine noch das andere unterschreiben ;-)
 
LeratosDi. 24 Aug. 2010, 18:27 Uhr
ein Prozessor egal welcher kann immer nur 1 sache zu gleichen zeit die Herz zahl gibt an wie ort er eben pro sec den prozess.
und duo core kann eben 2 sachen zu selben Zeit also in einmoment doppelt usw. durfte wir 2 h referat von mein Inf Lehrer anhören dadurch bin ich geprägt sry ^^""
 
Dementor3DDi. 24 Aug. 2010, 19:29 Uhr
Gewöhn dir mal bitte an Deutsch zu schreiben. Versteht doch keiner dein Gestammel.
Ja, ein Core eines Prozessors kann nur einen Thread gleichzeitig verarbeiten (HyperThreading mal aussen vor gelassen).
Daher fühlen sich 2x1ghz schneller als 1x2ghz an. Ein Virenscanner, Flashplayer etc. lastet das System nicht vollständig aus und man kann nebenbei noch bequem andere Dinge erledigen.
Von der reinen Rechenleistung liegen beide aber gleich auf (wenn man mal von identischer Prozessorarchitektur ausgeht).
In Benchmarks wird der Single-Core aber vorne liegen, da keine Anwendung 100% linear auf mehrern CPU-Kernen skaliert. Alleine die Verwaltung eines Jobs der mit mehreren Threads läuft kostet wieder Rechenleistung. Viele Anwendungen können nichtmal mehr als einen Kern nutzen. Umsonst macht sich Intel auch nicht die Mühe Turbo-Boost zu entwickeln.

Der Trend geht trotzdem Richtung Multi-Core, da an reinen Ghz irgendwann Ende ist. Da ist es einfacher noch einen zweiten, dritten, vierten, ... Core mit auf die Die zu packen. Nebenbei kann man ein System so auch noch stromspaarender gestalten, indem sich unbenutzte Cores runtertakten können. Ein gutes Beispiel ist hierfür der neue Snapdragon-Prozessor.

Soviel dazu.

Was deine BlueRays angeht:
Kauf dir eine der beiden Karten, ist ansich Latte. Ich würde mir persönlich ne nVidia kaufen und dann auch eine etwas dickere (260er oder so) um CUDA-Fähig zu sein und somit einen netten Renderslave zu haben.
 
 

 


 
 
© 3D-Ring - deutsche 3D Software Community, Archiv 2001 - 2006