Gå til innhold

RYKTE: Har AMD omsider fått has på varmeproblemene sine?


Anbefalte innlegg

Ingen som har postet litt rykte benchmarks enda?

 

duo.png

duo2.png

 

 

 

Hva hadde skjedd med nummerene om man hadde overklokka begge max?

980ti @ 1500-1550mhz

Duo @ 1100mhz ?

 

Kan fortelle at jeg er oppe i ca 115fps i 1080p på Heaven med ett Titan X @ ~1530mhz til sammenlikning.

 

2stk stock Titan X gir ca 130fps i The division med ultrasettings og 1080p til sammenlikning.

Endret av Nizzen
Lenke til kommentar
Videoannonse
Annonse

Ingen som har postet litt rykte benchmarks enda?

 

 

Hva hadde skjedd med nummerene om man hadde overklokka begge max?

980ti @ 1500-1550mhz

Duo @ 1100mhz ?

 

Kan fortelle at jeg er oppe i ca 115fps i 1080p på Heaven med ett Titan X @ ~1530mhz til sammenlikning.

 

2stk stock Titan X gir ca 130fps i The division med ultrasettings og 1080p til sammenlikning.

 

Om du overklokker Titan kraftig og skjermkortet ikke brenner opp så har du vel en TDP på godt over 300Watt vil jeg anta?

Høy varmeutvikling i forhold til 14nm så jeg vil ikke tro at det vil greie å konkurrere på Watt selv om det kanskje kan yte like bra / bedre?

Lenke til kommentar

 

Ingen som har postet litt rykte benchmarks enda?

 

 

Hva hadde skjedd med nummerene om man hadde overklokka begge max?

980ti @ 1500-1550mhz

Duo @ 1100mhz ?

 

Kan fortelle at jeg er oppe i ca 115fps i 1080p på Heaven med ett Titan X @ ~1530mhz til sammenlikning.

 

2stk stock Titan X gir ca 130fps i The division med ultrasettings og 1080p til sammenlikning.

 

Om du overklokker Titan kraftig og skjermkortet ikke brenner opp så har du vel en TDP på godt over 300Watt vil jeg anta?

Høy varmeutvikling i forhold til 14nm så jeg vil ikke tro at det vil greie å konkurrere på Watt selv om det kanskje kan yte like bra / bedre?

 

Man setter knapt opp spenning ved overklokk av Maxwell :) Maxwell brenner ikkje opp selv om man prøver, men det vet du ;)

Det skal sies at det er rimelig imponerende ytelse per watt på DUO.

Endret av Nizzen
Lenke til kommentar

Man setter knapt opp spenning ved overklokk av Maxwell :) Maxwell brenner ikkje opp selv om man prøver, men det vet du ;)

Det skal sies at det er rimelig imponerende ytelse per watt på DUO.

 

 

Da må du nesten få til en overklokk på 25 til 50% om du skal greie å knuse disse tallene og det tror jeg virkelig du ikke får til på et vanilla kort uten å modifisere det til å gi litt mer strøm.

 

Og neida , "brenne opp" var vel litt satt på spissen, men om du virkelig kan overklokke uten problemer 50% over tid uten at kortet tar kvelden så er det et utrolig produkt som Nvidia har.

 

Men økt watt kommer du ikke bort fra og der VIL kortet ikke kunne konkurrere mot 14nm.

Endret av Malvado
Lenke til kommentar

 

Man setter knapt opp spenning ved overklokk av Maxwell :) Maxwell brenner ikkje opp selv om man prøver, men det vet du ;)

Det skal sies at det er rimelig imponerende ytelse per watt på DUO.

 

Da må du nesten få til en overklokk på 25 til 50% om du skal greie å knuse disse tallene og det tror jeg virkelig du ikke får til på et vanilla kort uten å modifisere det til å gi litt mer strøm.

 

Og neida , "brenne opp" var vel litt satt på spissen, men om du virkelig kan overklokke uten problemer 50% over tid uten at kortet tar kvelden så er det et utrolig produkt som Nvidia har.

 

Men økt watt kommer du ikke bort fra og der VIL kortet ikke kunne konkurrere mot 14nm.

Virker som om du ikkje vet hvorfor "alle" vil ha 970 og 980ti. Det er jo pga overklokk på 1500mhz uansett. Helt utrolig faktisk at du ikkje visste dette...

Lenke til kommentar

Å kjøre 980TI på 1500 er null stress.

 

Jeg kjører 1500 på stock spenning, jeg klarer 1575 med spenningøkning. Det er under vann også, så at det skal dø selv på stock spenning er utenkelig for min del. Kortet er dog litt varmt, ca 50¤C under load. 45¤C ved folding

 

Så du sier at du kan overkloke 57.5% stabilt uten problemer over lang tid og dette uten at du må øke spenninger? Da må du virkelig ha et gull kort.

Men uansett så antar jeg at kortet trekker mer strøm , en 57,5% økning i hastighet vil trolig også øke Wattage i en viss grad.

Lenke til kommentar

 

Å kjøre 980TI på 1500 er null stress.

 

Jeg kjører 1500 på stock spenning, jeg klarer 1575 med spenningøkning. Det er under vann også, så at det skal dø selv på stock spenning er utenkelig for min del. Kortet er dog litt varmt, ca 50¤C under load. 45¤C ved folding

Så du sier at du kan overkloke 57.5% stabilt uten problemer over lang tid og dette uten at du må øke spenninger? Da må du virkelig ha et gull kort.

Men uansett så antar jeg at kortet trekker mer strøm , en 57,5% økning i hastighet vil trolig også øke Wattage i en viss grad.

Han skriver 1500mhz på stock spenning, eller hva leser du?
Lenke til kommentar

 

Å kjøre 980TI på 1500 er null stress.

 

Jeg kjører 1500 på stock spenning, jeg klarer 1575 med spenningøkning. Det er under vann også, så at det skal dø selv på stock spenning er utenkelig for min del. Kortet er dog litt varmt, ca 50¤C under load. 45¤C ved folding

 

Så du sier at du kan overkloke 57.5% stabilt uten problemer over lang tid og dette uten at du må øke spenninger? Da må du virkelig ha et gull kort.

Men uansett så antar jeg at kortet trekker mer strøm , en 57,5% økning i hastighet vil trolig også øke Wattage i en viss grad.

 

 

Har kjørt mitt 980ti på 1500Mhz dønn stabilt siden begynnelsen av juni, null stress med vannkjøling

 

EDIT: Mitt kort har forøvrig ræva asic også, rundt 63 minnes jeg.

Endret av Mumriken
Lenke til kommentar

 

 

Å kjøre 980TI på 1500 er null stress.

 

Jeg kjører 1500 på stock spenning, jeg klarer 1575 med spenningøkning. Det er under vann også, så at det skal dø selv på stock spenning er utenkelig for min del. Kortet er dog litt varmt, ca 50¤C under load. 45¤C ved folding

Så du sier at du kan overkloke 57.5% stabilt uten problemer over lang tid og dette uten at du må øke spenninger? Da må du virkelig ha et gull kort.

Men uansett så antar jeg at kortet trekker mer strøm , en 57,5% økning i hastighet vil trolig også øke Wattage i en viss grad.

Han skriver 1500mhz på stock spenning, eller hva leser du?

Prøv å overklokke prosessoren din uten å endre spenningen, temperaturen øker nok litt

Lenke til kommentar

 

Eg må spørre, er 45-50 grader verkeleg "litt varmt"? Eg ville jo tenkt at ein hadde svært mykje å gå på då, har det med at du driver med folding 24/7 å gjere?

 

Jeg ville helst hatt ca 40¤C under load. 50¤C er litt varmt synes jeg.

 

 

Prøv å overklokke prosessoren din uten å endre spenningen, temperaturen øker nok litt

 

Lett, overklokket til 3400 (fra 3000). Fikk en kaldere CPU da jeg fikk senket volten fra 0.960 til 0.880. Fikk også senket andre spenninger. ^^

 

Med å ikke endre spenning derimot.. Tror ikke man merker mye forskjell helt ærlig. Kanskje 2-5¤C. Klarer 3600 på stock spenning så er jo mulig å teste.

 

EDIT: Jeg har en 500 watt TDP bios. Jeg bruker akkurat 250 watt iflg GPU-Z da jeg hopper fra 49.6 til 50% på power consumption.

Endret av Snusmumr1kk1
Lenke til kommentar

Jeg ville helst hatt ca 40¤C under load. 50¤C er litt varmt synes jeg.

Men kva baserer du det på? Eg ville tenkt at så lenge eg kan halde ein stabil temperatur over tid, og kortet fungerer stabilt med den temperaturen, så er det nesten berre tut og køyr.

  • Liker 1
Lenke til kommentar

 

Jeg ville helst hatt ca 40¤C under load. 50¤C er litt varmt synes jeg.

Men kva baserer du det på? Eg ville tenkt at så lenge eg kan halde ein stabil temperatur over tid, og kortet fungerer stabilt med den temperaturen, så er det nesten berre tut og køyr.

 

 

Er enig med Christian Thorkildsen, det er litt varmt.. skjønt luksus problem.

Jeg er også over 50grader nå ved full last og det er 10 grader over normalen hos meg så det er vel påtide å blåse gjennom radder og rense blokker, men det er litt tiltak :p

Lenke til kommentar

 

Jeg ville helst hatt ca 40¤C under load. 50¤C er litt varmt synes jeg.

Men kva baserer du det på? Eg ville tenkt at så lenge eg kan halde ein stabil temperatur over tid, og kortet fungerer stabilt med den temperaturen, så er det nesten berre tut og køyr.

 

Jo kaldere kort jo høyere OC får du.

 

Er ikke spenningen som er nøkkelen på maxwell, det er tempen. ;)

Lenke til kommentar

 

som flere påpeker er NVIDIA's kort bedre en AMD's målt i pref/watt osv....

 

Jeg var NVIDIA fan på xxxx seriene.. (før de gikk over til 3 tall.)

Men så begynte jeg og følge utvikling osv.

 

Nvidia:

G-Sync (låst til eget forbruk)

Quda (låst til eget forbruk)

osv osv.. lista er LANG.. (selv om quda blir åpnet opp litt nå siste stunden)

Stort sett alt krever lisensiering eller er 100% låst

 

AMD:

Freesync (gratis for alle som ønsker)

mantel SDK (Gratis for alle og bruke også mulig for Nvidia og bruke gratis, med noen få linjer i driverene som AMD slapp)

generelt alt AMD utvikler blir sluppet gratis for andre produsenters bruk, (noen få ting krever lisensiering som cpu/gpu arkitekter.)

 

 

så skal man følge utvikling og ønske om konkurranse er det bare AMD som spiller med åpene kort på GPU siden.

Med kun to aktører er dette for forbrukerens del mer teoretisk enn noe annet. Det er i praksis to produsenter som er aktuelle for denne teknologien, og de har valgt hver sin løsning. Kjøper man en Freesync skjerm så er den i praksis løst til AMD osv.

 

Jeg forstår argumentasjonen og fordelene med OS-løsninger, men når man diskuterer om man skal velge den ene eller andre løsningen så er "gratis for alle som ønsker" egentlig ikke mye til argumentasjon.

 

Hadde det vært mer enn to aktuelle produsenter av skjermkort der den/de andre hadde gått for Freesync så ville det vært mer relevant.

 

Jeg er selvfølgelig enig i at det hadde vært best om en skjerm hadde støttet begge produsenter, men enn så lenge er ikke det tilfellet uansett.

 

 

Nvidia valgte å ikke vente på at scalere til monitor skulle komme med støtte for VESAs "adaptive sync" (som det forøvrig var AMD som foreslo skulle innlemmes i DP standarden) og lagde derfor sin egen; G-Sync modulen. Dette ga Nvidia nærmere 1 års forsprang på løsninger med adaptive sync.

 

Spol frem et år, og scalere med støtte for adaptive sync er blitt hyllevare for alle monitor produsenter. AMD har lagd en åpen standard som alle kan benytte om de vil. Inkludert Nvidia. Faktisk gikk en talsperson for Nvidia ut og sa at de kom til å støtte FreeSync. Men det ble raskt dementert av en annen talsperson, og vi kan nok trygt anta at førstnevnte neppe jobber i Nvidia lenger. :p

 

Intel har sagt at deres neste generasjon IGP'er kommer til å ha støtte for adaptive sync. Da er spørsmålet; kommer de til å lage en tredje standard? Kjøpe lisens og HW fra Nvidia? Eller bruke den frie standarden, som ikke bare er klar og utprøvd, men som har mange flere modeller på markedet en G-Sync modellene?

 

For øyeblikket, så låser man seg i praksis til en skjermkort produsent, ja. Men det er 100% Nvidias skyld. Og om du kjøper en FreeSync skjerm, så er det stor sjanse for at den i fremtiden kan arves av en laptop med Intel CPU og nyte FreeSync der også, når man oppgraderer til en ny skjerm.

 

Om G-Sync i det hele tatt skal overleve, må Nvidia enten ta over 100% av skjermkort markedet. Eller de må tilpasse den til hyllevare scalere og gjøre lisensen gratis. Eller de må bevise at G-Sync gir mer verdi. Om de er smarte, så åpner de lisensen. Hvis ikke kommer G-Sync til å dø ut, og dermed bli husket som en Nvidia fiasko (dårlig PR), i stedet for en banebrytende teknologi som de var først ute med å implementere.

 

I rettferdighetens navn skal jeg ta med at Nvidia aldri hadde noe valg om støtte FreeSync. De hadde rett og slett malt seg inn i et hjørne. Om Nvidias skjermkort plutselig kunne brukes med FreeSync skjermer (som bare er en driver oppdatering unna). Så hadde de fått en rimelig stor haug med missfornøyde skjermprodusent kunder. Som ikke hadde blitt kvitt sine lagre med G-Sync skjermer, siden de er dyrere og ikke gir noe mer..

  • Liker 2
Lenke til kommentar

 

 

som flere påpeker er NVIDIA's kort bedre en AMD's målt i pref/watt osv....

 

Jeg var NVIDIA fan på xxxx seriene.. (før de gikk over til 3 tall.)

Men så begynte jeg og følge utvikling osv.

 

Nvidia:

G-Sync (låst til eget forbruk)

Quda (låst til eget forbruk)

osv osv.. lista er LANG.. (selv om quda blir åpnet opp litt nå siste stunden)

Stort sett alt krever lisensiering eller er 100% låst

 

AMD:

Freesync (gratis for alle som ønsker)

mantel SDK (Gratis for alle og bruke også mulig for Nvidia og bruke gratis, med noen få linjer i driverene som AMD slapp)

generelt alt AMD utvikler blir sluppet gratis for andre produsenters bruk, (noen få ting krever lisensiering som cpu/gpu arkitekter.)

 

 

så skal man følge utvikling og ønske om konkurranse er det bare AMD som spiller med åpene kort på GPU siden.

Med kun to aktører er dette for forbrukerens del mer teoretisk enn noe annet. Det er i praksis to produsenter som er aktuelle for denne teknologien, og de har valgt hver sin løsning. Kjøper man en Freesync skjerm så er den i praksis løst til AMD osv.

 

Jeg forstår argumentasjonen og fordelene med OS-løsninger, men når man diskuterer om man skal velge den ene eller andre løsningen så er "gratis for alle som ønsker" egentlig ikke mye til argumentasjon.

 

Hadde det vært mer enn to aktuelle produsenter av skjermkort der den/de andre hadde gått for Freesync så ville det vært mer relevant.

 

Jeg er selvfølgelig enig i at det hadde vært best om en skjerm hadde støttet begge produsenter, men enn så lenge er ikke det tilfellet uansett.

 

 

Nvidia valgte å ikke vente på at scalere til monitor skulle komme med støtte for VESAs "adaptive sync" (som det forøvrig var AMD som foreslo skulle innlemmes i DP standarden) og lagde derfor sin egen; G-Sync modulen. Dette ga Nvidia nærmere 1 års forsprang på løsninger med adaptive sync.

 

Spol frem et år, og scalere med støtte for adaptive sync er blitt hyllevare for alle monitor produsenter. AMD har lagd en åpen standard som alle kan benytte om de vil. Inkludert Nvidia. Faktisk gikk en talsperson for Nvidia ut og sa at de kom til å støtte FreeSync. Men det ble raskt dementert av en annen talsperson, og vi kan nok trygt anta at førstnevnte neppe jobber i Nvidia lenger. :p

 

Intel har sagt at deres neste generasjon IGP'er kommer til å ha støtte for adaptive sync. Da er spørsmålet; kommer de til å lage en tredje standard? Kjøpe lisens og HW fra Nvidia? Eller bruke den frie standarden, som ikke bare er klar og utprøvd, men som har mange flere modeller på markedet en G-Sync modellene?

 

For øyeblikket, så låser man seg i praksis til en skjermkort produsent, ja. Men det er 100% Nvidias skyld. Og om du kjøper en FreeSync skjerm, så er det stor sjanse for at den i fremtiden kan arves av en laptop med Intel CPU og nyte FreeSync der også, når man oppgraderer til en ny skjerm.

 

Om G-Sync i det hele tatt skal overleve, må Nvidia enten ta over 100% av skjermkort markedet. Eller de må tilpasse den til hyllevare scalere og gjøre lisensen gratis. Eller de må bevise at G-Sync gir mer verdi. Om de er smarte, så åpner de lisensen. Hvis ikke kommer G-Sync til å dø ut, og dermed bli husket som en Nvidia fiasko (dårlig PR), i stedet for en banebrytende teknologi som de var først ute med å implementere.

 

I rettferdighetens navn skal jeg ta med at Nvidia aldri hadde noe valg om støtte FreeSync. De hadde rett og slett malt seg inn i et hjørne. Om Nvidias skjermkort plutselig kunne brukes med FreeSync skjermer (som bare er en driver oppdatering unna). Så hadde de fått en rimelig stor haug med missfornøyde skjermprodusent kunder. Som ikke hadde blitt kvitt sine lagre med G-Sync skjermer, siden de er dyrere og ikke gir noe mer..

 

 

Nå ER jo faktisk en del g-syncskjermer bedre enn freesyncskjermene da. Kanskje ikkje alle, men en del. Noen freesyncskjermer er laget billigere også, altså det er ikkje bare g-syncmodulen som er forskjellen.

Endret av Nizzen
Lenke til kommentar

 

 

Man setter knapt opp spenning ved overklokk av Maxwell :) Maxwell brenner ikkje opp selv om man prøver, men det vet du ;)

Det skal sies at det er rimelig imponerende ytelse per watt på DUO.

Da må du nesten få til en overklokk på 25 til 50% om du skal greie å knuse disse tallene og det tror jeg virkelig du ikke får til på et vanilla kort uten å modifisere det til å gi litt mer strøm.

 

Og neida , "brenne opp" var vel litt satt på spissen, men om du virkelig kan overklokke uten problemer 50% over tid uten at kortet tar kvelden så er det et utrolig produkt som Nvidia har.

 

Men økt watt kommer du ikke bort fra og der VIL kortet ikke kunne konkurrere mot 14nm.

Virker som om du ikkje vet hvorfor "alle" vil ha 970 og 980ti. Det er jo pga overklokk på 1500mhz uansett. Helt utrolig faktisk at du ikkje visste dette...

 

 

Det er på vann. Mine 980ti med vifteprofil "jetfly" klarer 1430MHz i "The Division". Prøver jeg å holde støynivå nede så krasjer spillet på den hastigheten. Stabil OC med levelig støynivå er en "offset" på 125MHz. Noe som må kunne kalles en svært patetisk OC når man tenker på at kortet mitt boostet til 1281MHz ut av boksen.

  • Liker 1
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...