Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

Den lille nVidia Fermi tråden: GTX 470/480/580 etc. Fermi for f...


Nizzen

Anbefalte innlegg

kommer vel ikke i butikkene før mai-juni i beste fall. Produsentene liker å ta seg god tid, og Nvidia taper jo ikke så mye på å vente. De har jo fortsatt 580 som sikkert selger godt enda.

Kun fanboys kjøpeer GTX 580 når 7970 og 7950 er der ute.

Jeg kan komme med en håndfull legitime grunner:

  • De som vil kjøre SLI med et eksisterende GTX 580
  • De som bruker Windows XP, GNU/Linux eller BSD
  • De som driver med modellering, Maya, Blender osv.
  • Profesjonell bruk, Autocad etc.
  • De som bruker Premiere eller annen Adobe-programvare som bruker CUDA
  • Annen bruk av CUDA, gjerne arbeidsplasser, skole osv.
  • Utviklere som bruker OpenGL
  • osv.

Kjøp et brukt GTX 580 for SLI.

Finnes drivere for HD 7970 på Windows XP og du sitter ikke igjen med 1GB RAM igjen, Linux og BSD er dog riktig

De som trenger CUDA på et profesjonelt nivå kjøper vel inn profesjonelle modeller?

Skolemessig er det vel oftest snakk om dedikerte arbeidsstasjoner på skolen eller krav om laptop med integrert Nvidia-grafikk?

 

Ellers gyldige argumenter, men ikke særlig gode for akkurat GTX 580.

Lenke til kommentar
Videoannonse
Annonse

kommer vel ikke i butikkene før mai-juni i beste fall. Produsentene liker å ta seg god tid, og Nvidia taper jo ikke så mye på å vente. De har jo fortsatt 580 som sikkert selger godt enda.

Kortene basert på de første 28nm brikkene er allerede i full masseproduksjon.

"Hard launch" er planlagt i månedskiftet mars/april. Endelig data for oppheving av NDA er enda ikke bestemt.

 

kommer vel ikke i butikkene før mai-juni i beste fall. Produsentene liker å ta seg god tid, og Nvidia taper jo ikke så mye på å vente. De har jo fortsatt 580 som sikkert selger godt enda.

Kun fanboys kjøpeer GTX 580 når 7970 og 7950 er der ute.

Er vel heller kun fanboys som kommer med slike tullete utsagn? Dette burde du holde deg for god til!

Lenke til kommentar

De som trenger CUDA på et profesjonelt nivå kjøper vel inn profesjonelle modeller?

Skolemessig er det vel oftest snakk om dedikerte arbeidsstasjoner på skolen eller krav om laptop med integrert Nvidia-grafikk?

Spørs hva bruksområdet er...

Såfremt applikasjonene du skal utvikle/kjøre ikke trenger dual-prescition (noe få applikasjoner gjør) eller du ikke skal kjøre "mission critical" applikasjoner som trenger ECC minne så klarer du deg helt greit med et GeForce kort.

 

90% av kortene vi har på jobber er GeForce, har bare et par Tesla/Quadro/engineering sample kort.

Lenke til kommentar
De som trenger CUDA på et profesjonelt nivå kjøper vel inn profesjonelle modeller?

F@H brukere og andre som er med i "distributed computing" nettverk som nytter CUDA er ikke nødvendigvis "profesjonelle" og har i flere år benyttet vanlige skjermkort fremfor quadro ol. pga. pris.

Endret av Theo343
Lenke til kommentar

De som trenger CUDA på et profesjonelt nivå kjøper vel inn profesjonelle modeller?

Skolemessig er det vel oftest snakk om dedikerte arbeidsstasjoner på skolen eller krav om laptop med integrert Nvidia-grafikk?

Spørs hva bruksområdet er...

Såfremt applikasjonene du skal utvikle/kjøre ikke trenger dual-prescition (noe få applikasjoner gjør) eller du ikke skal kjøre "mission critical" applikasjoner som trenger ECC minne så klarer du deg helt greit med et GeForce kort.

 

90% av kortene vi har på jobber er GeForce, har bare et par Tesla/Quadro/engineering sample kort.

Hvor lenge er det siden dere kjøpte inn toppkort som GTX 580?

Totalt har GTX 580 <15% ekstra ytelse over et 570 i spill, teoretisk maksimal forskjell i CUDA er 512/480 * 772/732 = 12.5%

Med mindre man ser på noe som skal foregå i real-time der ekstra ytelse alltid trengs, kan jeg ikke forestille meg at et GTX 570 eller 560 Ti 2GB ville gjort en helt fin jobb nå og ville gitt ekstra rom til å kjøpe noen nye Kepler-kort om noen måneder.

 

De som trenger CUDA på et profesjonelt nivå kjøper vel inn profesjonelle modeller?

F@H brukere og andre som er med i "distributed computing" nettverk som nytter CUDA er ikke nødvendigvis "profesjonelle" og har i flere år benyttet vanlige skjermkort fremfor quadro ol. pga. pris.

GTX 580 er ikke et kort du kjøper for f@h, du betaler et enormt premium for 6.67% flere SPUer.

GTX 460 er et kort man kjøpte for f@h.

Dette er likevel ikke tida der du kjøper masse f@h-kort, enten har man hatt en farm med GTX 460 gående i 15-18 måneder eller så bør man helt enkelt vente på nyere kort med lavere strømforbruk og bedre ytelse/watt.

 

Det finnes også flere BOINC-prosjekter der AMDs GPUer får betydelig bedre ytelse enn Nvidias GPUer.

 

Poenget er uansett at selve GTX 580 til 3500+ kr er ikke verdt kjøpet når HD 7970 og 7950 er ute. Om du trenger CUDA er det lurere å kjøpe et GTX 570 og vente på neste generasjon.

For å klarere: om du trenger ytelsen til et GTX 580 har du allerede hatt det i over et år.

Endret av arni90
Lenke til kommentar

Det er interesant at du er ekspert på hvilke kort man bør kjøpe for F@H, har du drevet med det lenge? Dette varierer faktisk fra prosjekt til prosjekt. 560 kortene er gode på enkelt prosjekt, 550 var meget gode kjøp for noen prosjekter og 580 kortene var klart best på andre prosjekter etc. Har drevet med F@H for CUDA siden det ble tilgjengelig og sluttet rett rundt mitt første 580 kort (lansering).

 

Jeg er enig i at man i utgangspunktet ikke kjøper toppkortene til folding ol. men en del i miljøet har faktisk gjort det. Heller ikke uenig i at man bør avvente å se hva Kepler bringer på banen i denne sammenheng da man vet at compute er et satsningsområde for begge parter nå.

Endret av Theo343
Lenke til kommentar

De som trenger CUDA på et profesjonelt nivå kjøper vel inn profesjonelle modeller?

Skolemessig er det vel oftest snakk om dedikerte arbeidsstasjoner på skolen eller krav om laptop med integrert Nvidia-grafikk?

Spørs hva bruksområdet er...

Såfremt applikasjonene du skal utvikle/kjøre ikke trenger dual-prescition (noe få applikasjoner gjør) eller du ikke skal kjøre "mission critical" applikasjoner som trenger ECC minne så klarer du deg helt greit med et GeForce kort.

 

90% av kortene vi har på jobber er GeForce, har bare et par Tesla/Quadro/engineering sample kort.

Hvor lenge er det siden dere kjøpte inn toppkort som GTX 580?

Totalt har GTX 580 <15% ekstra ytelse over et 570 i spill, teoretisk maksimal forskjell i CUDA er 512/480 * 772/732 = 12.5%

Med mindre man ser på noe som skal foregå i real-time der ekstra ytelse alltid trengs, kan jeg ikke forestille meg at et GTX 570 eller 560 Ti 2GB ville gjort en helt fin jobb nå og ville gitt ekstra rom til å kjøpe noen nye Kepler-kort om noen måneder.

Veldig lenge siden.

I og med at vi driver med forskning, og ikke har kort i produksjon så pleier vi å få kort fra Nvidia/AMD.

Lenke til kommentar

Det er interesant at du er ekspert på hvilke kort man bør kjøpe for F@H, har du drevet med det lenge? Dette varierer faktisk fra prosjekt til prosjekt. 560 kortene er gode på enkelt prosjekt, 550 var meget gode kjøp for noen prosjekter og 580 kortene er best på andre prosjekter etc. Har drevet med F@H for CUDA siden det ble tilgjengelig og sluttet rett rundt midt første 580 kort.

Sist jeg sjekka det opp var det om å gjøre å få flest mulig SPUs til lavest mulig pris, GTX 460 med 336 SPUs til 1200 kr var dermed et røverkjøp. Hadde ikke inntrykk av at dette hadde endret seg?

 

Er det snakk om noen nye større work units eller endringer i PPD-utregningene (lavere poengverdi per WU og betydelig mer bonus?) som gjør at et GTX 580s 2x ytelsesfordel over GTX 460 gir en økning som forsvarer nesten 3x pris?

Lenke til kommentar

Jeg hadde selv 2x460 til folding i en periode og husker fint at det i et tidsvindu var et godt kjøp for F@H, og jo dette endret seg hele tiden. Det var heller ikke alltid bare flest mulig SPUs til lavest pris som var en faktor. Jeg anbefaler dog at man evt. tar den diskusjonen videre i HW sin F@H tråd. https://www.diskusjon.no/index.php?showtopic=254688. Der har vi gjennom tiden diskutert ihjel og gjennomtestet hvert eneste GeForce kort som har CUDA støtte, for formålet.

Endret av Theo343
Lenke til kommentar

Det er interesant at du er ekspert på hvilke kort man bør kjøpe for F@H, har du drevet med det lenge? Dette varierer faktisk fra prosjekt til prosjekt. 560 kortene er gode på enkelt prosjekt, 550 var meget gode kjøp for noen prosjekter og 580 kortene er best på andre prosjekter etc. Har drevet med F@H for CUDA siden det ble tilgjengelig og sluttet rett rundt midt første 580 kort.

Sist jeg sjekka det opp var det om å gjøre å få flest mulig SPUs til lavest mulig pris, GTX 460 med 336 SPUs til 1200 kr var dermed et røverkjøp. Hadde ikke inntrykk av at dette hadde endret seg?

 

Er det snakk om noen nye større work units eller endringer i PPD-utregningene (lavere poengverdi per WU og betydelig mer bonus?) som gjør at et GTX 580s 2x ytelsesfordel over GTX 460 gir en økning som forsvarer nesten 3x pris?

GTX 460 med singleslot kjøler er genialt. Fylle det opp på Supercomputerkortet med 7 pci-express... Rock on! :new_woot:

 

 

 

Lenke til kommentar

kommer vel ikke i butikkene før mai-juni i beste fall. Produsentene liker å ta seg god tid, og Nvidia taper jo ikke så mye på å vente. De har jo fortsatt 580 som sikkert selger godt enda.

Kun fanboys kjøpeer GTX 580 når 7970 og 7950 er der ute.

Jeg kan komme med en håndfull legitime grunner:

  • De som vil kjøre SLI med et eksisterende GTX 580
  • De som bruker Windows XP, GNU/Linux eller BSD
  • De som driver med modellering, Maya, Blender osv.
  • Profesjonell bruk, Autocad etc.
  • De som bruker Premiere eller annen Adobe-programvare som bruker CUDA
  • Annen bruk av CUDA, gjerne arbeidsplasser, skole osv.
  • Utviklere som bruker OpenGL
  • osv.

Kjøp et brukt GTX 580 for SLI.

Finnes drivere for HD 7970 på Windows XP og du sitter ikke igjen med 1GB RAM igjen, Linux og BSD er dog riktig

De som trenger CUDA på et profesjonelt nivå kjøper vel inn profesjonelle modeller?

Skolemessig er det vel oftest snakk om dedikerte arbeidsstasjoner på skolen eller krav om laptop med integrert Nvidia-grafikk?

 

Ellers gyldige argumenter, men ikke særlig gode for akkurat GTX 580.

Sist jeg sjekket skulle offisiell støtte for HD 7900-serien for XP komme tidligst i slutten av mars, OpenCL-støtte stod aldri skulle komme.

 

Minnestørrelse på skjermkort har ingen verdens sammenheng med tilgjengelig minne i operativsystemet. Tilgjengelig minne i et 32-bits operativsystem er 4GB minus adresserom til I/O, dette er avhengig av BIOS-konfigurasjon, i verstefall kan unødvendig mye være reservert.

 

Største argument for Quadro er god DP-ytelse, det er ikke alle som trenger dette.

  • Liker 1
Lenke til kommentar

Påstått PCB av GK104:

 

kepler.jpg

 

Hvis dette er reelt så lover det bra med tanke på effektforbruk, men store deler av tegningen mangler som svekker troverdigheten.

Uansett, 2xDVI, 1xHDMI og 1xDP som vises der?Legg også merke til SLI-kontaktene der.Jeg har ikke målt størrelsen, men den ser ut til å være et sted mellom GTX 560 Ti og GTX 580.

Endret av efikkan
Lenke til kommentar

Hvis det ikke kommer NV highend produkter i butikkene før i Juni så blir jeg smått skuffet. Ikke uvanlig at det er forskyvninger blant disse to men denne gangen hadde jeg vel håp om å få foretatt et valg før mai som allerede er 3 måneder senere enn AMD.

 

På den annen side, drøyer det lenger enn mai så kan jeg utsette hele PC oppgraderingen til høsten og spare penger der. Den 3 år gamle riggen tåler sikkert noen måneder ekstra.

Endret av Theo343
Lenke til kommentar

Hvis jeg ikke tenker helt feil betyr det TDP på maks 225W, HD 7970 har 8+6-pin og TDP på 250W. At PCB har designet plass for mer betyr ikke at referansedesignet vil bruke det.

HD 7970 har ingen oppgitt TDP, den har en Powertune-limit på 250W som er en absolutt grense for hvor høyt strømforbruket kan gå. Nvidia pleier vanligvis å merke TDP etter hva kortet typisk bruker, men det kan hende de har lagt noe som ligner på AMDs Powertune.

Lenke til kommentar

Hvis jeg ikke tenker helt feil betyr det TDP på maks 225W, HD 7970 har 8+6-pin og TDP på 250W. At PCB har designet plass for mer betyr ikke at referansedesignet vil bruke det.

HD 7970 har ingen oppgitt TDP, den har en Powertune-limit på 250W som er en absolutt grense for hvor høyt strømforbruket kan gå. Nvidia pleier vanligvis å merke TDP etter hva kortet typisk bruker, men det kan hende de har lagt noe som ligner på AMDs Powertune.

Poenget mitt står, hvis bildene er ekte så er maksimalt effektforbruk til dette kortet lavere enn HD 7970.
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...