Gå til innhold

GeForce Gtx 10**/Titan og Pascal tråden


Anbefalte innlegg

Jeg forstår jo at det handler om hvor mye strøm du kan sende til kortet (duh :p ), men gitt at en 8-pin er 150W eller noe, virker det rimelig ekstremt å ha overklokkingspotensiale som dobler strømforbruket utenom de man får fra PCI-e. 

En 8-pin er spesifisert for 150W ifølge ATX-spesifikasjonen, det betyr ikke at en PSU maksimalt kan levere 150W på tilkoblingen. Spesifikasjonen har ingenting med hvor mye strøm og effekt som kan gå gjennom kabelen før det tar fyr.

 

Å påstå at det går maksimalt 150W gjennom en 8-pin PCIe-tilkobling er tilsvarende å påstå at bildekk merket med hastighetsklasse L kan maksimalt rulle i 120km/t, det er ikke noe problem å overstige spesifikasjonene under bruk.

Videre har de aller fleste 8-pin PCIe-kabler medfølgende strømforsyninger mer enn tykke nok kabler for å overføre 250W uten noe betydelig varmetap.

Endret av N o r e n g
Lenke til kommentar
Videoannonse
Annonse

 

Jeg forstår jo at det handler om hvor mye strøm du kan sende til kortet (duh :p ), men gitt at en 8-pin er 150W eller noe, virker det rimelig ekstremt å ha overklokkingspotensiale som dobler strømforbruket utenom de man får fra PCI-e. 

En 8-pin er spesifisert for 150W ifølge ATX-spesifikasjonen, det betyr ikke at en PSU maksimalt kan levere 150W på tilkoblingen.

Å påstå at det går maksimalt 150W gjennom en 8-pin PCIe-tilkobling er tilsvarende å påstå at bildekk merket med hastighetsklasse L kan maksimalt rulle i 120km/t, det er ikke noe problem å overstige spesifikasjonene under bruk.

Videre har de aller fleste 8-pin PCIe-kabler medfølgende strømforsyninger mer enn tykke nok kabler for å overføre 250W uten noe betydelig varmetap.

 

Nvidia kortet kan ha en HW-limit på plass på kortet også. Sier ikke at det er tilfelle, limiten ligger sikkert i BIOS, men det kan jo hende :)

I såfall må man frem med loddebolten :p

Lenke til kommentar

 

 

Jeg forstår jo at det handler om hvor mye strøm du kan sende til kortet (duh :p ), men gitt at en 8-pin er 150W eller noe, virker det rimelig ekstremt å ha overklokkingspotensiale som dobler strømforbruket utenom de man får fra PCI-e.

En 8-pin er spesifisert for 150W ifølge ATX-spesifikasjonen, det betyr ikke at en PSU maksimalt kan levere 150W på tilkoblingen.

Å påstå at det går maksimalt 150W gjennom en 8-pin PCIe-tilkobling er tilsvarende å påstå at bildekk merket med hastighetsklasse L kan maksimalt rulle i 120km/t, det er ikke noe problem å overstige spesifikasjonene under bruk.

Videre har de aller fleste 8-pin PCIe-kabler medfølgende strømforsyninger mer enn tykke nok kabler for å overføre 250W uten noe betydelig varmetap.

 

Nvidia kortet kan ha en HW-limit på plass på kortet også. Sier ikke at det er tilfelle, limiten ligger sikkert i BIOS, men det kan jo hende :)

I såfall må man frem med loddebolten :p

 

Nvidia har hatt volt- og amperemeter montert på alle high-end-kortene sine tilbake til høsten 2010 da GTX 580 kom ut.

https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/3.html

 

In order to stay within the 300 W power limit, NVIDIA has added a power draw limitation system to their card. When either Furmark or OCCT are detected running by the driver, three Texas Instruments INA219 sensors measure the inrush current and voltage on all 12 V lines (PCI-E slot, 6-pin, 8-pin) to calculate power. As soon as the power draw exceeds a predefined limit, the card will automatically clock down and restore clocks as soon as the overcurrent situation has gone away.[/size]

GPU Boost som kom med GTX 680 kom som en utvikling av dette systemet de la inn i GTX 580

Endret av N o r e n g
Lenke til kommentar

 

 

 

Jeg forstår jo at det handler om hvor mye strøm du kan sende til kortet (duh :p ), men gitt at en 8-pin er 150W eller noe, virker det rimelig ekstremt å ha overklokkingspotensiale som dobler strømforbruket utenom de man får fra PCI-e.

En 8-pin er spesifisert for 150W ifølge ATX-spesifikasjonen, det betyr ikke at en PSU maksimalt kan levere 150W på tilkoblingen.

Å påstå at det går maksimalt 150W gjennom en 8-pin PCIe-tilkobling er tilsvarende å påstå at bildekk merket med hastighetsklasse L kan maksimalt rulle i 120km/t, det er ikke noe problem å overstige spesifikasjonene under bruk.

Videre har de aller fleste 8-pin PCIe-kabler medfølgende strømforsyninger mer enn tykke nok kabler for å overføre 250W uten noe betydelig varmetap.

 

Nvidia kortet kan ha en HW-limit på plass på kortet også. Sier ikke at det er tilfelle, limiten ligger sikkert i BIOS, men det kan jo hende :)

I såfall må man frem med loddebolten :p

 

Nvidia har hatt volt- og amperemeter montert på alle high-end-kortene sine tilbake til høsten 2010 da GTX 580 kom ut.

https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/3.html

 

In order to stay within the 300 W power limit, NVIDIA has added a power draw limitation system to their card. When either Furmark or OCCT are detected running by the driver, three Texas Instruments INA219 sensors measure the inrush current and voltage on all 12 V lines (PCI-E slot, 6-pin, 8-pin) to calculate power. As soon as the power draw exceeds a predefined limit, the card will automatically clock down and restore clocks as soon as the overcurrent situation has gone away.[/size]

GPU Boost som kom med GTX 680 kom som en utvikling av dette systemet de la inn i GTX 580

 

 

Men Evga har redda dagen med Classified :D

Var vel oppe i 550w+ eller.no per 780ti classified på vann.  :green:

 

1700w load fra veggen med 3930k og 2x 780ti classy :p

Lenke til kommentar

 

EVGA kan skylde på seg selv når de ikke gir slik info til EKWB.

Vet du noe mer? Har de sovet i timen når blokkene skulle utvikles eller noe?

 

 

It's cause EVGA changed their classified PCB chokes placement without mentioning this to EKWB.

Lenke til kommentar

 

 

 

 

Jeg forstår jo at det handler om hvor mye strøm du kan sende til kortet (duh :p ), men gitt at en 8-pin er 150W eller noe, virker det rimelig ekstremt å ha overklokkingspotensiale som dobler strømforbruket utenom de man får fra PCI-e.

På reviews så jeg at 1080Fe trakk opptil 278W på Max load. Så hvis det du sier om at 1x8pin kun overfører 150W, så har Nvidia bæsjet noe så sinnsykt på leggen ^^,

 

 

150W + 75W fra PCIe porten.

 

Uten overclock drar kortet under 200W.

 

300 W høres mer ut som system load.

 

Til sammenlikning, så dro min hovedpc med 5960x OC + 3x Titan X OC ~900w under load. Dette er hele systemet :)

 

Trenger ikkje være rakettforsker for å skjønne at 278W er litt mye for 1080 FE @ stock :p

 

 

Noen spesiell grunn til at du følte skjermkort til GODT over 30 tusen var en god investering :) ?

 

Har du penger til det.. fair enaugh.. men shait det er overkill.

 

Har man lyst har man lov.

 

Dersom man også gamer på 3x 1440p skjermer og vil ha stabile 100+ fps krever det såpass.

Lenke til kommentar

Litt mistenkelig at de sa på pressekonferansen at de ikke hadde "Cherry-picked" den 1080 de viste frem når disse custom korta ikke klarer det samme ?

 

Kommer kanskje ikke som en bombe det da. Håper de smarte hodene på OCN fikser biffen.

Endret av Gralle
Lenke til kommentar

Ingen som har fått kort enda her?
 

Litt mistenkelig at de sa på pressekonferansen at de ikke hadde "Cherry-picked" den 1080 de viste frem når disse custom korta ikke klarer det samme

Kommer kanskje ikke som en bombe det da. Håpeer de smarte hodene på OCN fikser biffen.

De viste ingen spilldemoer, bare en realtime render. Er nok der forskjellen ligger ;)

  • Liker 1
Lenke til kommentar

Det skjer med alle kortene, har vært innom Nvidia Reddit flere ganger om dagen og folk får jo helt panikk. :p

MSI Gaming X har det samme problemet.

 

MSI GeForce GTX 1080 GAMING X 8G review - Overclocking The Graphics Card

 

GTX 1080 HARD LIMIT at 1.25 volts

 

PS: Jeg har ikke noe erfaringer med overklokking, men det er nesten umulig å ikke se disse sakene på reddit. :p

Lenke til kommentar

Asus 4k 144hz  g-sync HYPE !  :dribble:

 

 

Eller 1080p 240hz g-sync 

 

Nå begynner vi å snakke! IPS, 4K, 144Hz og G-Sync. Her er man jo mer eller mindre i mål. Men når jeg skal bytte ut min PG278Q så blir det nok 21:9. Kanskje det er lov å håpe på at disse 21:9 skjermene også skal dukke opp med 4K, IPS, 144Hz og G-Sync.

 

Er det noe jeg håper på nå er at quantum-dot blir mer vanlig på PC-skjermer. IPS er jo det beste alternativet iforhold til bilde og fargekvalitet per i dag, men sortnivået er jo temmelig ræv. Her er jo VA langt bedre og gir bedre kontrast, men har jo en helt forferdelig halo-effekt ved raske bevegelser som gjør de komplett ubrukelig til spilling.

 

IPS med quantum-dot for ekstra kontrast og sortnivå må da være noe de vil satse på fremover. Men AUO som produserer alle disse high frame-rate panelene er vel ikke kjent for å være de mest cutting edge hva gjelder implementering av såpass ny teknologi.

 

 

Dette ble kanskje en smule off-topic  :tease:

Lenke til kommentar

Hvilket bør jeg gå får av ROG STRIX-utgaven til Asus og MSI Armor OC-utgaven?

 

 

Klin umulig å si per nå. Har jo ikke kommet ut noen skikkelig gjennomgående tester av disse custom kortene enda. Har dog kommet noen rundt Strix, men det hjelper jo lite når vi vet nada om MSI kortet.

 

Det vi ser til nå er at selv custom kort, med ekstra VRM og ekstra strømtilførsel overklokker skuffende dårlig. Ser vel ut til at alt man trenger å bry seg om ved valg av kort er hvor god kjøleløsning de kommer med for å unngå throttling, få lavere temperaturer og mindre støy.

 

 

Sånn sett så seiler vel både MSI SeaHawk og EVGA Hydro frem som flotte alternativer da hybridkjølingen burde være bedre enn alle de andre.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...