Gå til innhold

NVIDIA GeForce RTX 30xx tråden


Nizzen
Melding lagt til av Jarmo

Vennligst ikke ta AMD vs. Intel diskusjoner i denne tråden :)

Anbefalte innlegg

Videoannonse
Annonse
BadCat skrev (7 minutter siden):

RTX 3070 har mer fornuftig effektbruk til spill enn de to modellene over. Det er ikke sikkert at det er bare-bare å få kjølt ned et RTX 3090 neste vår og sommer. Det er ikke alle som har egnet kabinett men som likevel kommer til å kjøre på med høyere effektbruk.

Dette har ikke vært et reelt problem på Nvidia siden GPU Boost ble introdusert. Det var ikke noe problem å skalere ned "power target" til 200W på mitt 2080 Ti uten å røre klokkefrekvens-slideren, og det var fortsatt raskere enn et 2080. Hvis du virkelig ønsker å tyne ut maksimal effektivitet av et Nvidia-skjermkort kan du låse det til minimumsspenning med "L" i kurveredigeringen i MSI Afterburner.

BartSimpson skrev (2 minutter siden):

Noen som vet når review embargo løftes den 17? Hvis det ikke er før 15:00 når salg av kort starter så har man jo nesten ikke tid til å sjekke reviews før kort er utsolgt tenker jeg.

På mandag kommer tester av FE, vi får se hvilket klokkeslett disse kommer.

Personlig har jeg allerede bestemt meg for et fabrikkoverklokket Palit eller Gainward pga reference PCB.

  • Liker 2
  • Innsiktsfullt 2
Lenke til kommentar
N o r e n g skrev (3 minutter siden):

Personlig har jeg allerede bestemt meg for et fabrikkoverklokket Palit eller Gainward pga reference PCB.

Tror du det er noe poeng i å kjøpe OC versjonen, altså det er bekreftet at de ER binnet?

Føler at man gjerne betaler ekstra for noe man kan gjøre på 10 skeunder selv i afterburner.

Endret av Kyrre S.
Lenke til kommentar
Kyrre S. skrev (8 minutter siden):

Tror du det er noe poeng i å kjøpe OC versjonen, altså det er bekreftet at de ER binnet?

Føler at man gjerne betaler ekstra for noe man kan gjøre på 10 skeunder selv i afterburner.

Hvis 30/60/10-fordelingen stemmer vil jeg helst unngå å havne i 30-gruppen, derfor en OC-variant.

Selv om det bare er snakk om 30 MHz er det fortsatt en bedre bin.

EDIT: dessuten er det alltids en sjanse for at Nvidia har laget et tullete skille mellom GA102 og GA102A som de gjorde med TU102, slik at de som ikke hadde A fikk en vesentlig dårligere bin og lavere Power Limit.

Endret av N o r e n g
  • Liker 2
Lenke til kommentar
BadCat skrev (28 minutter siden):

Hvis man sitter på et rom av moderat størrelse og spiller blir det veldig varmt når man har kraftig maskin og mange skjermer. Hvor mange skrur på en varmeovn på tusen watt en sommerdag med 25-30 grader ute? 

Så da bør man gå for et gjerrigere skjermkort? Er vel ikke så mange prosent å hente på det om man har et system som trekker 1kw.

Lenke til kommentar

Ca såååååå langt :p

Hva snakker vi om (i veldig korte trekk) av utgift, støyreduksjon og temperatur? For det er jo absolutt noe å tenke på i forhold til å kjøpe et "rimelig" kort, for å legge pengene i ekstern kjøleløsning fremfor å betale premium i god luftkjøling :)

Lenke til kommentar
Sarasin skrev (4 minutter siden):

Hvor vanskelig er det å vannkjøle et referanse-pcb for meg som aldri har rørt vannkjøling? Ville tro at jeg som er allergisk mot støy ville like det ?

[Venter på offtopic-warning ?]

Det vanskligste er vel å få AV orginal-kjøleren, alt ettersom hvor ape dette er gjort. 

Det skal være snakk om en 15 små skruer eller deromkring. Men noen ganger er det limt ... (host, nvidia)

Ellers trenger du en pumpe, en res (kjøp en D5 pumpe/res kombo), en radiator (240 holder lenge til kun GPU), noen nipler, slange og væske (kjøp en klar en, uten farge og dritt).

Bygger du dette med hurtigkoblinger så går det meget raskere neste gang :)

 

Edit: 

Utgift: Høy
Støyreduksjon: Potensielt uendelig hvis du har så stor radiator at du ikke må ha vifter)
Temperatur-reduksjon: Tja ... 30-40 grader

Endret av Kyrre S.
  • Liker 2
Lenke til kommentar
Donkey Kong skrev (28 minutter siden):

Ingen som betviler at Nvidia har levert sterkest toppkort de siste generasjonene. I midt- og lavsegmentet er det imidlertid konkurranse. Siste generasjon var 5700 xt et fullverdig alternativ til 2070/super og 5700 et fullgodt alternativ til 260/super.

Slik har det vært i alle fall siden 970 vs 390 i 2015. Nvidia har hatt toppklassen for seg selv.

Nei, det var det ikke, 5700 og 5700XT var fremdeles et dårlig kjøp, fordi man mister en rekke features, for ikke å snakke om alt tullet med AMD sine drivere. 

Jeg synes det er komisk å forsvare AMD (i tillegg i en nvidiatråd) med «det gir mer fps per krone». Man må da sannerlig se på hele produktet som en pakke, og der kommer AMD dårlig ut. 

La oss ramse opp, ustabile og dårlige drivere, ingen g-sync, ingen skikkelig ray tracing implimentering, mangler dlss, ingen freestyle, ingen cuda kjerner for rendering eller GPU acceleration, du får ikke med gameworks i spill som støtter dette. Listen er lang over funksjoner som man mister ved å gå til AMD, og da blir fort AMD veldig overpriset med tanke på at de priser seg på nivå med nvidia. 

Jeg mener AMD må prise seg godt under nvidia for å kunne ha et likeverdig tilbud. Man kan ikke kun se på fps per krone, man må se på hele produktet.

Med Ampere er det også større fokus på AI funksjoner, mapping og nvidia IO. Nvidia får med andre ord stadig flere nye funksjoner, så spent på hva AMD skal svare med.

  • Liker 1
Lenke til kommentar
Sarasin skrev (3 minutter siden):

Ca såååååå langt :p

Hva snakker vi om (i veldig korte trekk) av utgift, støyreduksjon og temperatur? For det er jo absolutt noe å tenke på i forhold til å kjøpe et "rimelig" kort, for å legge pengene i ekstern kjøleløsning fremfor å betale premium i god luftkjøling :)

Så lenge du er litt fingernem så er det ikke noe problem så lenge du er forsiktig, og leser brukerveiledning nøye (Hvis denne er bra nok da). Har gjort det selv for mange år sidene, og det var ikke noe problem.

Du havner normalt på ett sted mellom 40-60 grader vil jeg tro. Kan da enkelt justere gradene etter hvor lite du vil at viftene skal gå. Det er mulighet for en lagt stillere PC med det.

Men koster mye, og kan like gjerne ta med CPU i samme slengen.

Vet ikke om det med 3080 og 3090 vil tvinge seg frem mer behov å skille GPU og CPU siden disse avgir såpass mye mer varme, at 1 dobbel radioator kanskje har mer enn nok med skjermkortet alene?

  • Liker 2
Lenke til kommentar
7 minutes ago, Kyrre S. said:

Utgift: Høy
Støyreduksjon: Potensielt uendelig hvis du har så stor radiator at du ikke må ha vifter)
Temperatur-reduksjon: Tja ... 30-40 grader

Vil viftene gå kontinuerlig, eller kun ved en gitt GPU-temp? PC står midt i stua, og trenger ikke akkurat ha viftesus til enhver tid :p

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...