Gå til innhold

Her er Titan - Nvidias heftigste skjermkort


Anbefalte innlegg

7.609,- for Titan vs. 7.495,- for GeForce 690 (komplett.no)"FPS-verdiene på denne maskinen(3xTitan) er opp til dobbelt så høye som med GeForce GTX 690 i Quad-SLI"Quad-SLI.. er det da 2x690 pga de har 2 kjerner eller er Quad-SLI; 4 fysiske kort?Det jeg da lurer på er hva som kommer best ut om man kjøper _et_ Titan kort eller _et_ 690 kort!! ?

 

Det er nok 690 faktisk.

Lenke til kommentar
Videoannonse
Annonse

Den største forskjellen for meg, var da jeg prøvde 60Hz igjen i BF3, det var helt uspillbart for meg faktisk.

 

Dog må jeg si jeg merket stor forskjell i Source motoren første gangen jeg prøvde 120Hz.

 

Men for all del, det er ikke sikkert alle er like følsomme på dette, jeg er veldig sær på ujevnt og hakkete bilde, og merker stor forskjell.

Endret av FiveInline
Lenke til kommentar

 

Men jeg kan love deg at 4 titan fullstendig knuser 2 ares på alle vis da et 7970ghz ikke er i samme klasse som et titan. Ares 2 er genialt men fortsatt ikke i nærheten på ytelse individuelt. Man får det man betaler for

 

Du er litt bombastisk med tanke på at vi ikke har sett noen reelle tester enda, vent i det minste til det er gjort en del tester og man kan fastslå styrkene og eventuelt svakheter ved kortet.

 

Det er soleklart at det kommer ikke til å bli produsert så mange av disse kortene, jeg forventer at dette nesten blir en papirlansering eller svært "limited" edition, er man heldig så snakker vi om kanskje 50.000 kort på verdensbasis (men godt mulig jeg tar feil) , blir spennende å se ved lansering.

  • Liker 1
Lenke til kommentar

Har selv en 120 hz skjerm, altså 3d.

Men hadde ikke noe wow følelse når jeg took den i bruk første gang.

Men nå har ikke jeg tenkt/tested dette.

Alt 120hz sier er at det kan levere nytt bilde hvert 8,33ms. Farger og innsynsvinkel er som regel crappy pga av det forhistoriske TN panelet. ISA tider på IPS er for høy til å gjøre det til gaming skjermen uten at det må påføres store mengder overdrive som igjen ofte ødelegger bilde. OLED er mulig redningen.

Lenke til kommentar

Til alle som sier at 690 er et bedre kjøp svare er feil!!!

1. Titan er ikke 2 kjernet altså det kjører ikke sli, så problemene som med følger sli er borte!

2. Titan har 384 Bus bredde, 690 har 512 totalt. Altså 256 på vær kjerne som er mindere en Titan. Etter nylig tester jeg har gjort, mener jeg at 256 bus bredde ikke er tilstrekkelig for 4gb vram. Under full vram load med bus på 256 vil du oppdage at du får rare lags selv om FPS er stabil og høy! Dette er fordi 256 bus ikke er rask nok til og håndere 4gb vram.

Altså 690 vil skape lags når vramen blir full brukt.

3.Titan har ikke bare høyere bus men også 6gb som den raskere busen vil kunne håndtere bra.

* Men titan er ikke for alle, og svært få trenger 6gb vram. I mitt tilfelle vil jeg ha det for skyrim.

Har tatt det beste fra 60 4k texture pakker og laget en ultimate mix med det beste fra vær pakke. Så med mitt 4gb 680 kort maxes vramen selv med low til medium setting.

Eyefinity X6 skjermer, 3D, og modded skyrim. Tror nok vi må vente noen år før vi før GPU'er til og kjøre dette :p Hadde vell brukt en 20 GB vram om det fikk lov.

Lenke til kommentar

Selv om GPU Boost "2.0" er mindre idiotisk enn forgjengeren så endrer ikke det på det faktum at det bidrar ingenting til å forbedre spillopplevelsen med kortet. La meg overdrive for å illustrere problemet: relativt stabil fps på rundt 40 vil gi en bedre opplevelse enn noe som varierer veldig mellom f.eks. 42 og 50 fps, selv om dette er høyere gjennomsnittsverdi. Nå er ikke bildeflyten helt jevn i utgangspunktet, men boost vil bare gjøre det verre. Øyet legger lett merke til ujevnheter i bildeflyt, og høyere varians i bildeflyt er utvilsomt negativt, selv om det skulle heve minimums-fps mikroskopisk. GPU boost er utelukkende en funksjon til å mislede kunder til å tro at kortet har høyere ytelse en det reelt har siden det gir høyere gjennomsnittsmålinger og dermed overdriver ytelseforskjellen mot tidligere produkter.

Lenke til kommentar

Du er litt bombastisk med tanke på at vi ikke har sett noen reelle tester enda, vent i det minste til det er gjort en del tester og man kan fastslå styrkene og eventuelt svakheter ved kortet.

 

Det er soleklart at det kommer ikke til å bli produsert så mange av disse kortene, jeg forventer at dette nesten blir en papirlansering eller svært "limited" edition, er man heldig så snakker vi om kanskje 50.000 kort på verdensbasis (men godt mulig jeg tar feil) , blir spennende å se ved lansering.

 

Det var nevnt 10.000 kort. Om dette er rykte eller reelt aner jeg ikke.

 

http://www.brightsideofnews.com/news/2013/2/19/gtx-titan-vs-hd-7970-ghz-edition-preview-gallery.aspx

Her før du test til torsdag. Titan 3 way sli bør gruse 7970 3 way sli ganske hard skal det stå til rette for pris lappen.

 

Btw, noen som har sett kortet i en norsk nettbutikk enda med pris?

Lenke til kommentar

"Pay the same $1,000 for a GeForce GTX 690 if you only want one dual-slot card and your case accommodates the long board. It remains the fastest graphics solution we’ve ever tested, so there's no real reason not to favor it over Titan." -Tomshardware

 

Vurderer litt å bytte ut mitt gtx 680 med titan, men er vel bare tull siden jeg uansett får bedre ytelse i 1080 med ett gtx 680 til. Eller?

Endret av qweac
Lenke til kommentar

Selv om GPU Boost "2.0" er mindre idiotisk enn forgjengeren så endrer ikke det på det faktum at det bidrar ingenting til å forbedre spillopplevelsen med kortet. La meg overdrive for å illustrere problemet: relativt stabil fps på rundt 40 vil gi en bedre opplevelse enn noe som varierer veldig mellom f.eks. 42 og 50 fps, selv om dette er høyere gjennomsnittsverdi. Nå er ikke bildeflyten helt jevn i utgangspunktet, men boost vil bare gjøre det verre. Øyet legger lett merke til ujevnheter i bildeflyt, og høyere varians i bildeflyt er utvilsomt negativt, selv om det skulle heve minimums-fps mikroskopisk. GPU boost er utelukkende en funksjon til å mislede kunder til å tro at kortet har høyere ytelse en det reelt har siden det gir høyere gjennomsnittsmålinger og dermed overdriver ytelseforskjellen mot tidligere produkter.

 

Du er nok helt klart inne på noe der!

Lenke til kommentar

"Pay the same $1,000 for a GeForce GTX 690 if you only want one dual-slot card and your case accommodates the long board. It remains the fastest graphics solution we've ever tested, so there's no real reason not to favor it over Titan." -Tomshardware

 

Vurderer litt å bytte ut mitt gtx 680 med titan, men er vel bare tull siden jeg uansett får bedre ytelse i 1080 med ett gtx 680 til. Eller?

 

Les det jeg skrev overfor så har jeg forklart det der.

Ja 680 Sli gir bedre ytelse.

Men det jeg er usikker på er om sli eliminerer bus bredde problemet som jeg nevnte ovenfor.

Skal finne ut av det nå.

Endret av Aleksander.dev
Lenke til kommentar

Fordampningskammer...

Hadde vært interessant å testet kortet opp ned for å se om det er noen forskjell. Om det er noe væske der så påvirkes jo den av gravitasjon som alt annet. Da samler væsken seg i "taket" ovenfor brikken som skal kjøles og ikke i "gulvet" som er rett over brikken.

 

Den er laget for å stå den veien den står. Men hadde fortsatt vært interessant å sett om det var noen forskjell (En grad eller to, tviler på den helt store forskjellen. Er jo laget for å stå alle mulige veier. Men alle monner drar.). Er tross alt mulig de har ingått et kompromiss i designen, pga at hovedkortene og standardtowers er bygget som de er, det legger jo litt bånd på utformingen av skjermkort.

 

2nk544p.png

 

Har for enkelhetens og latskapens skyld ikke tatt med rør og radiatorer som eventuellt dampen går gjennom før den kondenseres tilbake til væske (Faseforandring = suger opp mye energi fra omgivelsene der forandringen skjer, så burde være damp og væske involvert her.).

Endret av BlueShroom
Lenke til kommentar

7.609,- for Titan vs. 7.495,- for GeForce 690 (komplett.no)"FPS-verdiene på denne maskinen(3xTitan) er opp til dobbelt så høye som med GeForce GTX 690 i Quad-SLI"Quad-SLI.. er det da 2x690 pga de har 2 kjerner eller er Quad-SLI; 4 fysiske kort?Det jeg da lurer på er hva som kommer best ut om man kjøper _et_ Titan kort eller _et_ 690 kort!! ?

 

Quad-SLI vil jeg vel tro vil si 4 kort..

Lenke til kommentar

Aleksander.dev skrev :

Har nettopp testet dette med oppløsning 5760x1080 så må til for at FarCry3 skal bruke opptil 4gb. Når 3-4gb vram tas i bruk lagger spille som og gpuen sender ut fps i bølger.

Dette er ikke pga av lav fps, har stabil fps på 60.

Velkommen til Alternate Frame Rendering og microstutter.

 

Dette var ikke med SLI.

Endret av Aleksander.dev
Lenke til kommentar

Det var nevnt 10.000 kort. Om dette er rykte eller reelt aner jeg ikke.

 

http://www.brightsid...ew-gallery.aspx

Her før du test til torsdag. Titan 3 way sli bør gruse 7970 3 way sli ganske hard skal det stå til rette for pris lappen.

 

Btw, noen som har sett kortet i en norsk nettbutikk enda med pris?

 

Ryktet om 10.000 eksemplarer er avkreftet av Nvidia.

 

"– Ryktene om at vi bare skal produsere 10 000 eksemplarer stemmer ikke. Vi produserte 18 000 stykker til superdatamaskinen Titan, og er vel i stand til å lage stort sett så mange som vi har lyst til, fortalte Weinand." hw.no

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...