Betroz Skrevet 28. juli 2021 Del Skrevet 28. juli 2021 Det forutsetter vel også at man kjører skjermkortet stock, og ikke modder det med 400W ++ BIOS. Lenke til kommentar
SIR WOLFIE 87 Skrevet 28. juli 2021 Del Skrevet 28. juli 2021 Selvfølgelig. Testet litt ut i går på Cyberpunk og mitt 3080 TUF OC makset på 320w/1950mhz. Lenke til kommentar
jocke Skrevet 28. juli 2021 Del Skrevet 28. juli 2021 48 minutes ago, BadCat said: Seasonic sender med inntil 6 enkle kabler, derfor gir ikke manualen mening. Følger med én dobbel på 1300W PX- og GX-modellene 😛 Lenke til kommentar
Thor. Skrevet 28. juli 2021 Del Skrevet 28. juli 2021 2 hours ago, SIR WOLFIE 87 said: Så med andre ord, GPU med 2 connectors går greit med en kabel om den har daisy chain på enden? Jeg antar så lenge du ikke kobler til splittere eller modifiserer kortet til å trekke mer strøm enn ATX standarden tillater så skal det ikke være noe problem. Lenke til kommentar
PaladinNO Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 For min del har det aldri vært noen tvil: en dedikert strømkabel per inngang på skjermkortet, og aldri en daisy chain eller Y-splitter. Hadde 2x 8-pin på det gamle GTX 1080, og 3x 8-pin på nåværende RTX 3080. Jeg har lest mye forskjellig om hva behovet faktisk er for flere dedikerte kabler, men jeg tenker bare "hvorfor ta sjanser?". Når noe kommer med X strøminnganger så er det opplagt meningen at alle "skal" (bør) ha dedikerte kabler. Driver å bygger en PC på kommisjon nå, med en Asus ROG 850 Watt 80+ Gold. Og på den kom alle GPU-kablene med en daisy chain. Og siden jeg ikke ville bruke noen av dem så ble det 2 stygge kontakter synlige på baksiden (glassdør på begge sider av kabinettet). Så også produsentene selv er med på å lage forvirring rundt kabelbehovet. Lenke til kommentar
SIR WOLFIE 87 Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 1 hour ago, PaladinNO said: Når noe kommer med X strøminnganger så er det opplagt meningen at alle "skal" (bør) ha dedikerte kabler. Ikke opplagt i det hele tatt når PSU blir levert kun med daisy kabler. Disse er ment å brukes i nettopp 2 PCI-E innganger på GPU. 3-400w GPUer har eksistert på markedet i flere år nå uten lignende problemstillinger. Om dette faktisk er et problem burde leverandører av PSU opplyst bedre, det gjelder også PC-byggere som Komplett. Lenke til kommentar
Theo343 Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 (endret) 900W bios på 3090 med daisychain aka pigtail. Kjører man vanlig oppsett tviler jeg på at pigtail vil gi deg noe problemer. Selv kjører jeg dedikerte kabler fordi jeg kan men satt i månedsvis med pigtail på en seasonic 750w med både 3080 og 3090 uten varmetendenser. Alt stock. Endret 29. juli 2021 av Theo343 2 Lenke til kommentar
iknutis Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 (endret) Theo343 skrev (7 minutter siden): 900W bios på 3090 med daisychain aka pigtail. Kjører man vanlig oppsett tviler jeg på at pigtail vil gi deg noe problemer. Nettopp, helt uproblematisk med daisy på orginale kort. Blir ikke lunk i kabelen engang. Edit: Jeg kjørte daisy på stock 3070 i vinter, deretter med to dedikerte for å se om det hadde noen betydning på coilwhine jeg hadde. Ingen betydning dessverre. Når jeg så skiftet til 3080 kjørte jeg også daisy, fortsatt helt problemfritt på orginalt kort. Endret 29. juli 2021 av iknutis 1 Lenke til kommentar
BadCat Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 (endret) bugs 😕 Endret 29. juli 2021 av BadCat 1 Lenke til kommentar
SIR WOLFIE 87 Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 34 minutes ago, Theo343 said: 900W bios på 3090 med daisychain aka pigtail. Kjører man vanlig oppsett tviler jeg på at pigtail vil gi deg noe problemer. Selv kjører jeg dedikerte kabler fordi jeg kan men satt i månedsvis med pigtail på en seasonic 750w med både 3080 og 3090 uten varmetendenser. Alt stock. Denne er vel med 3 innganger? Om du sprenger gjennom 900w på 2 så hadde ikke jeg heller tatt sjansen. Selv makser mitt TUF OC 3080 på 350w tror jeg. Lenke til kommentar
Nizzen Skrevet 29. juli 2021 Forfatter Del Skrevet 29. juli 2021 (endret) Yeye STRIX3090_XOC_rebar.rom 520w rebar, så ikke 1000w. Perfekt til gaming Endret 29. juli 2021 av Nizzen 1 Lenke til kommentar
jocke Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 (endret) 5 hours ago, PaladinNO said: Når noe kommer med X strøminnganger så er det opplagt meningen at alle "skal" (bør) ha dedikerte kabler. Nei, det er ikke opplagt. ATX-standarden sier at 6-pin støtter 75W og 8-pin støtter 150W. I tillegg kan kortet trekke 75W fra PCIe-slotten. Dette er dog med utgangspunkt i overkill marginer for å ta høyde for dårlige komponenter o.l. Om man begynner å finregne på det, og teller opp antall 12V-kabler per 8-pin (3 stk), så ser man veldig fort at kabeltykkelsen spiller en stor rolle. Mange PSU-er kommer med 18AWG eller 20AWG. Tommelfingerregelen jeg har sett, er ~300W for 18/20AWG, og ~400W for 16AWG (med sustained load). Man er altså teoretisk sett godt innenfor å bruke Y-split 8-pin mot en GPU som følger "maks 150W per 8-pin" kravspesifikasjonen til ATX uavhengig om det er 20, 18 eller 16AWG kabler. Personlig ville jeg ikke gjort det uten at PSU-kabelen var 16AWG, men det er fordi jeg er evig pessimist på slike ting. Merk at spesifikasjonen for 20AWG er ~175W per leder, 18AWG ~279W og 16AWG ~444W. Med tre ledere per 8 pin, så sier det seg selv at ~300W for 18/20AWG og ~400W for 16AWG likevel har god klaring til spesifikasjonen per enkeltleder. Et eksempel på 6- og 8-pin gitt 18/20AWG; edit: For å legge til litt ekstra; det er også verdt å merke seg at mange kort har 3 stk 8-pin, selv om det er STORE forskjeller i max TDP (stock). En av verstingene er vel RTX 3090 Strix OC, som har en TDP på 480W. Typisk ligger 3080-kort på 350-380W. I teorien, gitt dataene over, så kan man drive de fleste 3080-kort med én kabel som har to Y-split (kjøre alle tre 8-pin over samme kabel), siden den kan trekke 75W fra PCIE-slotten. Jeg ville ikke nødvendigvis anbefalt det, men rent teoretisk vil det også være godt innenfor. At da mange sier 2 kabler til 3 stk 8-pin, er med andre ord helt innenfor. Endret 29. juli 2021 av jocke 2 1 Lenke til kommentar
Betroz Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 2 hours ago, Nizzen said: 520w rebar, så ikke 1000w. Perfekt til gaming Disclaimer : Fanspeed 100% and a 15C cool ambiant room Lenke til kommentar
Nizzen Skrevet 29. juli 2021 Forfatter Del Skrevet 29. juli 2021 12 minutes ago, Betroz said: Disclaimer : Fanspeed 100% and a 15C cool ambiant room Den føleslsen å kjøre skjermkort til 25000kr på luft i 2021 😂 1 Lenke til kommentar
Betroz Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 2 minutes ago, Nizzen said: Den føleslsen å kjøre skjermkort til 25000kr på luft i 2021 😂 Jeg har ikke noe problem med å skjønne at du vil ha vannblokk på dine 3090 kort når du overklokker dem til grensa Den følelsen av å ha svidd av 25000 kr for 40-50% bedre ytelse over et 2080Ti da... (jada jeg vet du fikk god salgspris for dine gamle 2080Ti kort, men fordet) Jeg betalte gledelig 8800 kr for mitt MSI 1080Ti kort den gangen siden det hadde ~70% bedre ytelse over mitt gamle 980Ti! Vel verdt pengene. Synd noe slikt ikke er mulig lenger Lenke til kommentar
PaladinNO Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 jocke skrev (25 minutter siden): Nei, det er ikke opplagt. ATX-standarden sier at 6-pin støtter 75W og 8-pin støtter 150W. I tillegg kan kortet trekke 75W fra PCIe-slotten. Dette er dog med utgangspunkt i overkill marginer for å ta høyde for dårlige komponenter o.l. Jeg må kutte ned en del på sitatet, for selv om slike tall er både interessante og høyst relevante for oss som har bygget en PC før, så er det mye enklere for en nybegynner å huske på at man skal bruke 1 dedikert kabel per inngang istedet for å ta stilling til hvor mye strøm hvert enkelt skjermkort kan trekke. En nybegynner vil stort sett ha ting enklest mulig. Jeg husker fortsatt da jeg bygde mine første PC-er. Jeg lurte på hvordan skjermkortet skulle få optimal strøm når det plutselig var mer enn en inngang på det. Internett sa både at en kabel var nok (i.e. pigtail), og alt ifra at det måtte være 2 kabler til at det kunne være 2 kabler. Så da bare fulgte jeg det mest logiske som var å bruke 2 kabler for å være på den sikre siden. Og dette var før jeg ante noe om single- og multirail strømforsyninger (for å dra inn andre tekniske ting som kan spille en rolle hvis man seriekobler for mye). Eneste interessante for meg idag er om jeg kan fjerne en strømkabel er kun for det estetiske. Lenke til kommentar
jocke Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 1 minute ago, Betroz said: 11 minutes ago, Nizzen said: Den føleslsen å kjøre skjermkort til 25000kr på luft i 2021 😂 Jeg har ikke noe problem med å skjønne at du vil ha vannblokk på dine 3090 kort når du overklokker dem til grensa Jeg gikk fra 1080TI til 3090 Strix OC. Testet det nye kortet, og det gikk cirka 10 sekunder før jeg innså at «dette blir min første vannkjølte build», ene og alene grunnet forskjell i støynivå. Dette var da stock, uten noe overklokking. Lenke til kommentar
Mumriken Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 Just now, Betroz said: Den følelsen av å ha svidd av 25000 kr for 40-50% bedre ytelse over et 2080Ti da... (jada jeg vet du fikk god salgspris for dine gamle 2080Ti kort, men fordet) I 4k er mitt 3090 Strix MER enn 50% raskere enn mitt 2080ti XOC 1 Lenke til kommentar
PaladinNO Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 (endret) Betroz skrev (5 timer siden): Jeg betalte gledelig 8800 kr for mitt MSI 1080Ti kort den gangen siden det hadde ~70% bedre ytelse over mitt gamle 980Ti! Vel verdt pengene. Synd noe slikt ikke er mulig lenger Men GTX 1080 Ti var jo nærmest et kort Nvidia angret på at de lagde så bra som de gjorde. Noe tilsvarende i ytelseshopp idag er vel strengt tatt umulig. Jeg angret aldri på kjøpet av mitt EVGA GTX 1080 (ikke-Ti) desember 2016 til 7595 Kr. når jeg kom fra et Asus GTX 670 (ble en kort bruk av et Asus GTX 780 som kveldet altfor fort). 1080-kortet tjente meg godt frem til 3080 Aorus Xtreme ankom februar i år, og selv om jeg strengt tatt ikke trengte en oppgradering (har dog ikke prøvd 1080-kortet i .Cyberpunk på maks grafikk...) så var det en effektiv 100 % FPS økning. 40 FPS i Dying Light med 1080-kortet; 80 FPS med samme innstillinger med 3080-kortet. Fikk 5000 Kr. for 1080-kortet, med en skikkelig rens og ny kjølepasta (og montering av VRM thermalpads som EVGA "glemte" med min batch av kortet). 3080 Xtreme kostet 10500 Kr. Dobbel pris for dobbel ytelse var definitivt verdt det for meg. Endret 29. juli 2021 av PaladinNO 1 Lenke til kommentar
Betroz Skrevet 29. juli 2021 Del Skrevet 29. juli 2021 2 minutes ago, Mumriken said: I 4k er mitt 3090 Strix MER enn 50% raskere enn mitt 2080ti XOC Trenger den ytelsen jeg også siden jeg gamer i 3840x1600 nå (2560x1440p tidligere). Jeg betaler bare ikke 25K for den opplevelsen Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå