BadCat Skrevet 29. september 2020 Del Skrevet 29. september 2020 (endret) Ja, det er sikkert på høyde med en 4 år gammel kjøler, men den nye kjøleren er forbedret. Komponentene på kretskortet teller også og spenningsreguleringen. Ingen er på høyde med produksjonen til ASUS etter at de investerte i helautomatisert produksjonslinje. Kvaliteten på loddepunktene hos ASUS er bedre og minker feilraten. Andre produsenter er kommet etter, men det er tvilsomt at de har tatt igjen 2 års forsprang. Endret 29. september 2020 av BadCat Lenke til kommentar
G Skrevet 29. september 2020 Del Skrevet 29. september 2020 (endret) Quote Inno3D The response from Inno3D is just absolutely offensive, I've warned about this company before. Personally, I would not be comfortable buying an Inno3D product ever again if this is how you deal with instability issues of products: ... just shocking to read. Quote Colorful Colorful fixes the issue for your GeForce RTX 3080 by lowering the frequencies using a BIOS update. Colorful decided to release a BIOS update for the RTX 3080, reducing its frequencies. Quote https://www.guru3d.com/news-story/manufacturers-on-rtx-3080-ctd-issuesinno3d-offers-a-shocking-response.html Endret 29. september 2020 av G 1 Lenke til kommentar
Theo343 Skrevet 29. september 2020 Del Skrevet 29. september 2020 (endret) 3 hours ago, scuderia said: Og kun narkisser skal kunne uttale seg om narkotikapolitikk Så boost er redusert for å få mer stabil volt. Redusert boost er redusert ytelse. Men det kommer sikkert masse rundt dette fremover.. Flere har fortsatt har problemer med CTD selv etter driveren så tviler på at dette er det siste vi får høre om denne saken. Lurer på hvor mange som har kjørt DDU og kjørt DDU riktig før ny driver. Endret 29. september 2020 av Theo343 1 Lenke til kommentar
G Skrevet 29. september 2020 Del Skrevet 29. september 2020 1 minute ago, Theo343 said: Lurer på hvor mange som har kjørt DDU og kjørt DDU riktig før ny driver. Lurer på når Microsoft bygger om Windows, slik at man slipper å måtte bekymre seg over å måtte DDU'e. Kanskje et modulært OS-design? Virtualiseringslag eller noe? Lenke til kommentar
L1pslide Skrevet 29. september 2020 Del Skrevet 29. september 2020 18 minutes ago, BadCat said: Ja, det er sikkert på høyde med en 4 år gammel kjøler, men den nye kjøleren er forbedret. Komponentene på kretskortet teller også og spenningsreguleringen. Ingen er på høyde med produksjonen til ASUS etter at de investerte i helautomatisert produksjonslinje. Kvaliteten på loddepunktene hos ASUS er bedre og minker feilraten. Andre produsenter er kommet etter, men det er tvilsomt at de har tatt igjen 2 års forsprang. Tror nok det har lite betydning i praksis for oss som ikke klokker. Om jeg får kortet til å ryke innen 5 år, så er det med våre reklamasjonsregler bare en fordel. Har ikke klart å ødelegge et kort siden mitt Radeon X1650 hvor jeg fikk et splitter nytt og raskere grafikkort i erstatning. Samme 3D mark resultater på Strix stock som entry kortene. Lenke til kommentar
BadCat Skrevet 29. september 2020 Del Skrevet 29. september 2020 (endret) Jeg ringte rundt for å høre om noen kan ta inn SUGO 14. Inntil videre mangles leverandør som kan levere kabinettet, men det endres forhåpentlig snart. Jeg skal ha et slikt kabinett så fort det lar seg gjøre. Ikke 360 radiator som jeg ønsker, men alt annet er på plass. Man kan for eksempel kjøre hybridkjølt grafikkort når det kommer eller 3 slot inntil 33 cm. Endret 29. september 2020 av BadCat Lenke til kommentar
Kjetil Lura Skrevet 29. september 2020 Del Skrevet 29. september 2020 17 minutes ago, G said: Lurer på når Microsoft bygger om Windows, slik at man slipper å måtte bekymre seg over å måtte DDU'e. Kanskje et modulært OS-design? Virtualiseringslag eller noe? Kjører driver 441.66 på mine kort her. 2080TI/2060 super. Finnes oppskrifter på nettet for å skrue det av? Lenke til kommentar
koford Skrevet 29. september 2020 Del Skrevet 29. september 2020 RTX 3090 FTW3 teardown, capacitos, thermal, power draw. Litt enig med ham, 8nm Samsung er trash. 1 1 Lenke til kommentar
BadCat Skrevet 29. september 2020 Del Skrevet 29. september 2020 Ja, den prosessen skulle aldri ha vært valgt. Heller TSMC 5nm og kort til 15 og 25k i stedet for de som er nå Lenke til kommentar
Nizzen Skrevet 29. september 2020 Forfatter Del Skrevet 29. september 2020 5 minutes ago, BadCat said: Ja, den prosessen skulle aldri ha vært valgt. Heller TSMC 5nm og kort til 15 og 25k i stedet for de som er nå De som klager mest er dem som aldri hadde kjøpt disse skjermkorta uansett node, pris eller ytelse. Klassisk 3 4 Lenke til kommentar
Populært innlegg DaUnicorn Skrevet 29. september 2020 Populært innlegg Del Skrevet 29. september 2020 Nizzen skrev (Akkurat nå): De som klager mest er dem som aldri hadde kjøpt disse skjermkorta uansett node, pris eller ytelse. Klassisk Jekk deg litt ned, ser alt for mange spydige kommentarer fra deg. 15 1 Lenke til kommentar
Emile the rat Skrevet 29. september 2020 Del Skrevet 29. september 2020 (endret) BadCat skrev (15 minutter siden): Ja, den prosessen skulle aldri ha vært valgt. Heller TSMC 5nm og kort til 15 og 25k i stedet for de som er nå Ja, og tredjeparts 3080 til 17-19K og tredjeparts 3090 som nærmer seg RTX Titan pris, ja da hadde folk sikker vært fornøyde. Hva skulle 3070 kosta, samme som 2080 ti? Høres ut som en genial markedsføringsplan for nvidia det, aldri justere ned pris, men kun justere opp. Folk hadde klagd mye mer med slike priser på ampere. Som jo er forståelig. Er vel ingen som ønsker at nvidia skal ta et prishopp slik de gjorde med turing for hver generasjon? Da ville jo folk til slutt ikke hatt råd til skjermkort. Endret 29. september 2020 av Emile the rat 1 Lenke til kommentar
Kjetil Lura Skrevet 29. september 2020 Del Skrevet 29. september 2020 15 minutes ago, BadCat said: Ja, den prosessen skulle aldri ha vært valgt. Heller TSMC 5nm og kort til 15 og 25k i stedet for de som er nå Ikke alle som har råd til å kjøpe dyre kort, eller vil prioritere det. Jeg gjør det, min hobby. Lenke til kommentar
N o r e n g Skrevet 29. september 2020 Del Skrevet 29. september 2020 (endret) BadCat skrev (18 minutter siden): Ja, den prosessen skulle aldri ha vært valgt. Heller TSMC 5nm og kort til 15 og 25k i stedet for de som er nå 5nm?!? Vil du ha kortet i 2025? EDIT: Hvis Nvidia skulle gjort noe annerledes med denne lanseringen, så burde de lansert 3090 først, og ventet en måned ekstra på å bygge opp lager av 3080 Endret 29. september 2020 av N o r e n g 8 Lenke til kommentar
BadCat Skrevet 29. september 2020 Del Skrevet 29. september 2020 Tredjepart til 15k, FE til 12. 1 Lenke til kommentar
Mumriken Skrevet 29. september 2020 Del Skrevet 29. september 2020 6 minutes ago, Emile the rat said: Er vel ingen som ønsker at nvidia skal ta et prishopp slik de gjorde med turing for hver generasjon? Da ville jo folk til slutt ikke hatt råd til skjermkort. Hadde glatt lagt på noen høvdinger for TSMC 7nm.. Billigste kortet er 17k så skaden er allerede gjort ? 1 Lenke til kommentar
koford Skrevet 29. september 2020 Del Skrevet 29. september 2020 Nizzen skrev (15 minutter siden): De som klager mest er dem som aldri hadde kjøpt disse skjermkorta uansett node, pris eller ytelse. Klassisk Det velger jeg å se bort ifra, jeg ser på de som faktisk har kortene og klager. Du sitter tydeligvis på en annen gjerde. kjiper'n. Lenke til kommentar
koots Skrevet 29. september 2020 Del Skrevet 29. september 2020 Cowboystrekk skrev (4 timer siden): Fin test\info Om det går litt "hett" for seg kan du vurdere en undervolt på GPUen, 1800@800mv ser ut til å gi marginalt under stock ytelse, men 50-100W lavere strømforbruk. Fastvolt\frekvens på CPU kan og gjøre underverker om du holder deg til max 1.2V, noe du kanskje greier all core med 4.1-4.2GHz avhengig av binning. Kjør på med dram calc så får du henta ut max ytelse fra CPU Fått testet det ut nå, absolutt lavere temp (rundt 65-70) men det kræsjet etter 5-10 min Lenke til kommentar
leifeinar Skrevet 29. september 2020 Del Skrevet 29. september 2020 Sitat De som klager mest er dem som aldri hadde kjøpt disse skjermkorta uansett node, pris eller ytelse. Klassisk Blir det 3090 sli på deg? 1 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå