Gå til innhold
🎄🎅❄️God Jul og Godt Nyttår fra alle oss i Diskusjon.no ×

Nvidia GTX Titan


Nizzen

Anbefalte innlegg

Finn en ting som IKKE passer inn i det bildet der? :p

 

No offence, men Titan ble som en ensom blomst i full blomstring mens resten er som et uttørket rosekratt. :p

IDE-kabel, gusjegult HK og en sliten PSU som ikke ser ut til å ha nok 12V-kabler engang, og ellers rimelig trasig innmat **DP**

 

what?? 775 er da en knall socket.

Lenke til kommentar
Videoannonse
Annonse

Takk malvado du ser ut til og ha litt mer peiling en jeg har.

Har ikke sagt at problemet ikke er der men er det et problem vært kraften du mister ved og kjøpe titan mot 690 for det er faktisk en god del. Det er ikke bare snakk om et par fps.

 

Jeg får kortet mitt i morgen og kommer til og kjøre masse benchtester inc bruk av vram.

Alt i oppløsning 5760x1080

Far cry 3, crysis 3, skyrim, dirt 3 etc. Prøver også og kjøre alt i 3d med 5760x1080 som jeg håper dette korte kommer til og naile.

Om ikke så har jeg bestillt enda et til som kommer senere.

 

 

Som jeg har sagt dette kortet er ikke et beist på ren fps og kan ikke forventes og yte på samme nivå som 690 670 sli og 7970 cfx

 

Nå har det seg slik at 60 fps med crossfire/sli ikke er det samme som 60 fps med en kjerne.

  • Liker 1
Lenke til kommentar

Hehe, morsom kurositet. lol.

Ingen bombe dog, at de har selve strømsensoren like ved inngangen til kortet, og dermed vil følgelig alle komponenter, også vifta, spise litt av TDP-begrensningene.

 

Det bør selvsagt ikke være slik, for vifta trenger ikke bli belastet fra den begrensede strømmen fra MOSFET'ene, da den går fint på 12 Volt, og dermedi ikke gir et bidrag i sånn måte.

 

Derimot er det jo korrekt om kortet faktisk skal oppgi en verdi i TDP, som da også se og bør inkludere hva det faktiske forbruket på kortet, inkludert vifta trekker. Dette kan være viktig for de som beregner strømtrekk etc, og at alle kort faktisk oppgir reelt maks forbruk. De har dermed sitt på det tørre, men de bør også kompenserer for det i programvare!

Det faktum at de IKKE gjør det, betyr jo bare at Nvidia har vært alt for sparsommelig på strøm-fronten. De få prosentene du taper er jo ikke stort (bør jo ikke være mer enn MAKS 2-3 %) heller.

 

 

Det positive derimot, er jo at det er lett å gjøre noe med. :)

Endret av Andrull
Lenke til kommentar

Det positive derimot, er jo at det er lett å gjøre noe med. :)

Hvis det er en PWM-vifte som kjører på 12V bør det være en smal sak å koble +12V og Jord mot en Molex-kontakt ja, men det er likevel rart. Det er derimot helt klart urovekkende at Nvidia velger å gjøre det slik, de kan virkelig ikke ha overdimensjonert noe særlig om 265W er grensa.

Lenke til kommentar

Hvis det er en PWM-vifte som kjører på 12V bør det være en smal sak å koble +12V og Jord mot en Molex-kontakt ja, men det er likevel rart. Det er derimot helt klart urovekkende at Nvidia velger å gjøre det slik, de kan virkelig ikke ha overdimensjonert noe særlig om 265W er grensa.

 

Nvidia går mere og mere mot mac sin strategi. Fett out of the box, men ikke prøv å fikle med det selv.

Er jo dårlig av dem at ett kort som titan, med den prislappen ikke har flere muligheter ang overklokking enn det der.

  • Liker 1
Lenke til kommentar

Nvidia går mere og mere mot mac sin strategi. Fett out of the box, men ikke prøv å fikle med det selv.

Er jo dårlig av dem at ett kort som titan, med den prislappen ikke har flere muligheter ang overklokking enn det der.

Er ikke dette mer motsatt vei?

 

Nvidia er bekymret for at strømforbruket blir for høyt, så de muliggjør kun det lille ekstra på de som ikke tar i bruk viftekjølingen som følger med kortet.

 

Du trenger vel ikke gå like langt som kingpin, men du må jo allikevell lodde litt for å få deaktivert sperren i kontrolleren for MOSFETene. :p

Selvsagt så er det begrenset hvor mye du bør presse de stakkars MOSFET'ene ten ekstern strømkilde.

 

Men at jeg hadde forventet litt kraftigere MOSFET/flere phaser er dog sant når man betaler 7500kr. Men det er jo ikke akkurat noe nytt som har kommet frem i lyset.

Endret av Andrull
Lenke til kommentar

Er ikke dette mer motsatt vei?

 

Nvidia er bekymret for at strømforbruket blir for høyt, så de muliggjør kun det lille ekstra på de som ikke tar i bruk viftekjølingen som følger med kortet.

 

Du trenger vel ikke gå like langt som kingpin, men du må jo allikevell lodde litt for å få deaktivert sperren i kontrolleren for MOSFETene. :p

Selvsagt så er det begrenset hvor mye du bør presse de stakkars MOSFET'ene ten ekstern strømkilde.

 

Men at jeg hadde forventet litt kraftigere MOSFET/flere phaser er dog sant når man betaler 7500kr. Men det er jo ikke akkurat noe nytt som har kommet frem i lyset.

 

De sa jo selv at de sikter seg inn på de menneskene som bestiller ferdigbygde premium pcer.

Det er jo menneskene som har for mye penger og for lite kunnskap/tid til å gjøre det selv.

 

Hadde de bare latt asus og de andre lage sine egne utgaver hadde det jo ikke vært ett problem, men siden ingen kan forbedre pcb'en så er det ganske døvt gjort mot folk som oss.

 

Strømforbrukhysteriet på high end skjermkort har jeg aldri skjønt meg på.

 

Hysteriet er at man ikke får utnyttet kortet skikkelig rett ut av boksen, at man ikke kan få det til å trekke feks 300+w.

 

Problemet er at det ikke bruker nok strøm!

Lenke til kommentar

Strømforbrukhysteriet på high end skjermkort har jeg aldri skjønt meg på.

I grunn ikke.

 

 

De sa jo selv at de sikter seg inn på de menneskene som bestiller ferdigbygde premium pcer.

Det er jo menneskene som har for mye penger og for lite kunnskap/tid til å gjøre det selv.

 

Hadde de bare latt asus og de andre lage sine egne utgaver hadde det jo ikke vært ett problem, men siden ingen kan forbedre pcb'en så er det ganske døvt gjort mot folk som oss.

 

 

 

Hysteriet er at man ikke får utnyttet kortet skikkelig rett ut av boksen, at man ikke kan få det til å trekke feks 300+w.

 

Problemet er at det ikke bruker nok strøm!

Ja det er nå litt trist at det skal være slik. Det sikter seg inn mot råe ferdigløsninger som legger seg mellom proff-markedet og entusiaster. En skulle nesten tro dette var et lite hull som egentlig ikke trengte å fylles men...

 

Hadde de satt på litt flere eller større MOSFETs så kunne det fikset opp i ting, men de fant vel ut at de tjente mindre på det da...

Litt skuffende, men de største entusiastene lar seg dog ikke stoppe. Så dermed faller nok den gjennomsnittlige overklokker ut dessverre. :(

 

Hadde de brkt kraftigere MOSfets for eksempel eller flere phaser så kunne de nok fått ut mer av kortet selv, men

Lenke til kommentar

Hadde de bare latt asus og de andre lage sine egne utgaver hadde det jo ikke vært ett problem, men siden ingen kan forbedre pcb'en så er det ganske døvt gjort mot folk som oss.

 

Aldri si aldri.

 

http://www.technationnews.com/2013/02/27/msi-set-to-unveil-geforce-gtx-titan-lightning-edition-graphics-card-at-cebit-2013/

 

Se også her: 900x900px-LL-989315df_Titan8.jpeg

 

 

Plass til noen flere phaser der...

 

Absolutt ikke noe som er bekreftet enda, og tviler sterkt på at Nvidia lar de slippe et slikt kort mtp at de tidligere sa at TItan pcb'en ikke skal tukles med og at kjøleren skal være identisk fra OEM til OEM, men lov og håpe

  • Liker 1
Lenke til kommentar

Aldri si aldri.

 

http://www.technatio...-at-cebit-2013/

 

Absolutt ikke noe som er bekreftet enda, og tviler sterkt på at Nvidia lar de slippe et slikt kort mtp at de tidligere sa at TItan pcb'en ikke skal tukles med og at kjøleren skal

SPennende. Jeg har fortsatt troa! :p

Men har ikke slikt skjedd før da? At Nvidia har nektet produsenter å fikle med kortene, uten at det har blitt holdt... Mener det var en liten sak om det for ikke alt for lenge siden egentlig...

Lenke til kommentar

SPennende. Jeg har fortsatt troa! :p

Men har ikke slikt skjedd før da? At Nvidia har nektet produsenter å fikle med kortene, uten at det har blitt holdt... Mener det var en liten sak om det for ikke alt for lenge siden egentlig...

 

http://www.hardware.no/artikler/nvidia-letter-kravene-for-gtx-titan-skjermkortene/117372

 

De letter litt på kravene sine, så en start ihvertfall, selv om det enda bare er snakk om frekvensen og ikke fysisk endring av PCB'en

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...