**dp** Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 Finn en ting som IKKE passer inn i det bildet der? No offence, men Titan ble som en ensom blomst i full blomstring mens resten er som et uttørket rosekratt. IDE-kabel, gusjegult HK og en sliten PSU som ikke ser ut til å ha nok 12V-kabler engang, og ellers rimelig trasig innmat **DP** what?? 775 er da en knall socket. Lenke til kommentar
Andrull Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 what?? 775 er da en knall socket. Ja du har så rett. Ingen flaskehals å finne der nei! Spør du meg så ser det egentlig trasig ut selv til sokkel 775. Mer klassisk sokkel 478 utseende spør du meg. Lenke til kommentar
Taake89 Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 Takk malvado du ser ut til og ha litt mer peiling en jeg har. Har ikke sagt at problemet ikke er der men er det et problem vært kraften du mister ved og kjøpe titan mot 690 for det er faktisk en god del. Det er ikke bare snakk om et par fps. Jeg får kortet mitt i morgen og kommer til og kjøre masse benchtester inc bruk av vram. Alt i oppløsning 5760x1080 Far cry 3, crysis 3, skyrim, dirt 3 etc. Prøver også og kjøre alt i 3d med 5760x1080 som jeg håper dette korte kommer til og naile. Om ikke så har jeg bestillt enda et til som kommer senere. Som jeg har sagt dette kortet er ikke et beist på ren fps og kan ikke forventes og yte på samme nivå som 690 670 sli og 7970 cfx Nå har det seg slik at 60 fps med crossfire/sli ikke er det samme som 60 fps med en kjerne. 1 Lenke til kommentar
N o r e n g Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 Syns denne posten var litt morsom, om enn litt tragisk: The fan's power comes off of total TDP. I lowered fan down to 60% from 100% setting (which actually is limited to 85%), and that has allowed the card to go from mid 90's % power usage to low 100's. What The Fuck ? 1 Lenke til kommentar
Taake89 Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 Syns denne posten var litt morsom, om enn litt tragisk: What The Fuck ? Wow... Virker ikke akkurat som ett kort til 7.5k det der.. Entusiast my ass. Lenke til kommentar
Nizzen Skrevet 28. februar 2013 Forfatter Del Skrevet 28. februar 2013 Syns denne posten var litt morsom, om enn litt tragisk: What The Fuck ? Jaja , skal ha vann uansett Lenke til kommentar
Andrull Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 (endret) Hehe, morsom kurositet. lol. Ingen bombe dog, at de har selve strømsensoren like ved inngangen til kortet, og dermed vil følgelig alle komponenter, også vifta, spise litt av TDP-begrensningene. Det bør selvsagt ikke være slik, for vifta trenger ikke bli belastet fra den begrensede strømmen fra MOSFET'ene, da den går fint på 12 Volt, og dermedi ikke gir et bidrag i sånn måte. Derimot er det jo korrekt om kortet faktisk skal oppgi en verdi i TDP, som da også se og bør inkludere hva det faktiske forbruket på kortet, inkludert vifta trekker. Dette kan være viktig for de som beregner strømtrekk etc, og at alle kort faktisk oppgir reelt maks forbruk. De har dermed sitt på det tørre, men de bør også kompenserer for det i programvare! Det faktum at de IKKE gjør det, betyr jo bare at Nvidia har vært alt for sparsommelig på strøm-fronten. De få prosentene du taper er jo ikke stort (bør jo ikke være mer enn MAKS 2-3 %) heller. Det positive derimot, er jo at det er lett å gjøre noe med. Endret 28. februar 2013 av Andrull Lenke til kommentar
N o r e n g Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 Det positive derimot, er jo at det er lett å gjøre noe med. Hvis det er en PWM-vifte som kjører på 12V bør det være en smal sak å koble +12V og Jord mot en Molex-kontakt ja, men det er likevel rart. Det er derimot helt klart urovekkende at Nvidia velger å gjøre det slik, de kan virkelig ikke ha overdimensjonert noe særlig om 265W er grensa. Lenke til kommentar
Taake89 Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 Hvis det er en PWM-vifte som kjører på 12V bør det være en smal sak å koble +12V og Jord mot en Molex-kontakt ja, men det er likevel rart. Det er derimot helt klart urovekkende at Nvidia velger å gjøre det slik, de kan virkelig ikke ha overdimensjonert noe særlig om 265W er grensa. Nvidia går mere og mere mot mac sin strategi. Fett out of the box, men ikke prøv å fikle med det selv. Er jo dårlig av dem at ett kort som titan, med den prislappen ikke har flere muligheter ang overklokking enn det der. 1 Lenke til kommentar
Nizzen Skrevet 28. februar 2013 Forfatter Del Skrevet 28. februar 2013 mulighetene ER der. Men da blir det frankenstein ala kingpin Spørsmålet er bare om man vil nok. Lenke til kommentar
Andrull Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 (endret) Nvidia går mere og mere mot mac sin strategi. Fett out of the box, men ikke prøv å fikle med det selv. Er jo dårlig av dem at ett kort som titan, med den prislappen ikke har flere muligheter ang overklokking enn det der. Er ikke dette mer motsatt vei? Nvidia er bekymret for at strømforbruket blir for høyt, så de muliggjør kun det lille ekstra på de som ikke tar i bruk viftekjølingen som følger med kortet. Du trenger vel ikke gå like langt som kingpin, men du må jo allikevell lodde litt for å få deaktivert sperren i kontrolleren for MOSFETene. Selvsagt så er det begrenset hvor mye du bør presse de stakkars MOSFET'ene ten ekstern strømkilde. Men at jeg hadde forventet litt kraftigere MOSFET/flere phaser er dog sant når man betaler 7500kr. Men det er jo ikke akkurat noe nytt som har kommet frem i lyset. Endret 28. februar 2013 av Andrull Lenke til kommentar
Simkin Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 Strømforbrukhysteriet på high end skjermkort har jeg aldri skjønt meg på. Lenke til kommentar
Taake89 Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 Er ikke dette mer motsatt vei? Nvidia er bekymret for at strømforbruket blir for høyt, så de muliggjør kun det lille ekstra på de som ikke tar i bruk viftekjølingen som følger med kortet. Du trenger vel ikke gå like langt som kingpin, men du må jo allikevell lodde litt for å få deaktivert sperren i kontrolleren for MOSFETene. Selvsagt så er det begrenset hvor mye du bør presse de stakkars MOSFET'ene ten ekstern strømkilde. Men at jeg hadde forventet litt kraftigere MOSFET/flere phaser er dog sant når man betaler 7500kr. Men det er jo ikke akkurat noe nytt som har kommet frem i lyset. De sa jo selv at de sikter seg inn på de menneskene som bestiller ferdigbygde premium pcer. Det er jo menneskene som har for mye penger og for lite kunnskap/tid til å gjøre det selv. Hadde de bare latt asus og de andre lage sine egne utgaver hadde det jo ikke vært ett problem, men siden ingen kan forbedre pcb'en så er det ganske døvt gjort mot folk som oss. Strømforbrukhysteriet på high end skjermkort har jeg aldri skjønt meg på. Hysteriet er at man ikke får utnyttet kortet skikkelig rett ut av boksen, at man ikke kan få det til å trekke feks 300+w. Problemet er at det ikke bruker nok strøm! Lenke til kommentar
Andrull Skrevet 28. februar 2013 Del Skrevet 28. februar 2013 Strømforbrukhysteriet på high end skjermkort har jeg aldri skjønt meg på. I grunn ikke. De sa jo selv at de sikter seg inn på de menneskene som bestiller ferdigbygde premium pcer. Det er jo menneskene som har for mye penger og for lite kunnskap/tid til å gjøre det selv. Hadde de bare latt asus og de andre lage sine egne utgaver hadde det jo ikke vært ett problem, men siden ingen kan forbedre pcb'en så er det ganske døvt gjort mot folk som oss. Hysteriet er at man ikke får utnyttet kortet skikkelig rett ut av boksen, at man ikke kan få det til å trekke feks 300+w. Problemet er at det ikke bruker nok strøm! Ja det er nå litt trist at det skal være slik. Det sikter seg inn mot råe ferdigløsninger som legger seg mellom proff-markedet og entusiaster. En skulle nesten tro dette var et lite hull som egentlig ikke trengte å fylles men... Hadde de satt på litt flere eller større MOSFETs så kunne det fikset opp i ting, men de fant vel ut at de tjente mindre på det da... Litt skuffende, men de største entusiastene lar seg dog ikke stoppe. Så dermed faller nok den gjennomsnittlige overklokker ut dessverre. Hadde de brkt kraftigere MOSfets for eksempel eller flere phaser så kunne de nok fått ut mer av kortet selv, men Lenke til kommentar
EggMan88 Skrevet 1. mars 2013 Del Skrevet 1. mars 2013 Hadde de bare latt asus og de andre lage sine egne utgaver hadde det jo ikke vært ett problem, men siden ingen kan forbedre pcb'en så er det ganske døvt gjort mot folk som oss. Aldri si aldri. http://www.technationnews.com/2013/02/27/msi-set-to-unveil-geforce-gtx-titan-lightning-edition-graphics-card-at-cebit-2013/ Se også her: Plass til noen flere phaser der... Absolutt ikke noe som er bekreftet enda, og tviler sterkt på at Nvidia lar de slippe et slikt kort mtp at de tidligere sa at TItan pcb'en ikke skal tukles med og at kjøleren skal være identisk fra OEM til OEM, men lov og håpe 1 Lenke til kommentar
Aleksander.dev Skrevet 1. mars 2013 Del Skrevet 1. mars 2013 Da var Gigabyte Titan installert :D Skal kjøre en del tester i 5760x1080 og poste resultatene etter på Lenke til kommentar
kalleklovn12 Skrevet 1. mars 2013 Del Skrevet 1. mars 2013 Da var Gigabyte Titan installert :D Skal kjøre en del tester i 5760x1080 og poste resultatene etter på Ja, det må du gjøre! Venter i spenning! Lenke til kommentar
Aleksander.dev Skrevet 1. mars 2013 Del Skrevet 1. mars 2013 Er mest spendt på vram bruken i skyrim Lenke til kommentar
Andrull Skrevet 1. mars 2013 Del Skrevet 1. mars 2013 Aldri si aldri. http://www.technatio...-at-cebit-2013/ Absolutt ikke noe som er bekreftet enda, og tviler sterkt på at Nvidia lar de slippe et slikt kort mtp at de tidligere sa at TItan pcb'en ikke skal tukles med og at kjøleren skal SPennende. Jeg har fortsatt troa! Men har ikke slikt skjedd før da? At Nvidia har nektet produsenter å fikle med kortene, uten at det har blitt holdt... Mener det var en liten sak om det for ikke alt for lenge siden egentlig... Lenke til kommentar
EggMan88 Skrevet 1. mars 2013 Del Skrevet 1. mars 2013 SPennende. Jeg har fortsatt troa! Men har ikke slikt skjedd før da? At Nvidia har nektet produsenter å fikle med kortene, uten at det har blitt holdt... Mener det var en liten sak om det for ikke alt for lenge siden egentlig... http://www.hardware.no/artikler/nvidia-letter-kravene-for-gtx-titan-skjermkortene/117372 De letter litt på kravene sine, så en start ihvertfall, selv om det enda bare er snakk om frekvensen og ikke fysisk endring av PCB'en Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå