int20h Skrevet 26. juni 2007 Del Skrevet 26. juni 2007 SLI-løsninger er vanligvis en gigantisk energisluker. Klarer Nvidia å lage SLI med lavt effektforbruk og samtidig høyere ytelse? Les mer Lenke til kommentar
Freak627 Skrevet 26. juni 2007 Del Skrevet 26. juni 2007 Kommer sikkert til å bli grisedyrt! :!: Lenke til kommentar
tore_v1 Skrevet 26. juni 2007 Del Skrevet 26. juni 2007 Men, det virket meget smart. Dog kan vel funksjoner som ligner på Speedstep og Cool'n Quiet gjøre noe av samme nytten uten at man trenger en ekstra gpu. Vil de, eksempelvis, kunne gjøre nytten av samme minne? Lenke til kommentar
Andrull Skrevet 26. juni 2007 Del Skrevet 26. juni 2007 (endret) Hørtes ut so men dårlig løsning spør du meg. Det kan jo heller ikke kalles SLI strengt tatt. Et integrert skjermkort er så dårlig at det ikke vil gi noen boost overhode å få assistanse ifra et slikt kort. Vi snakker faktisk om integrerte løsninger som er over 50 ganger mindre kraftige enn dedikerte løsninger. Så om integrerte løsninger ikke får en skikkelig ytelseboost, så snakker vi om en lusne 2-3% økning i ytelse...... At man kan veksle mellom integrert grafikk og dedikert hørtes ut som et bra alternativ, men at GPUen skal assisteres med et integrert skjermkort hørtes ut som en dårlig ide uten særlig hensikt. Endret 26. juni 2007 av andrull Lenke til kommentar
C₈H₁₀N₄O₂ Skrevet 26. juni 2007 Del Skrevet 26. juni 2007 Opplegget bruker da like mye strøm under last uansett? Hva er vitsen da? Lenke til kommentar
asbjornu Skrevet 26. juni 2007 Del Skrevet 26. juni 2007 Under maks last vil dette forbruke akkurat like mye strøm som på dagens SLI-arkitektur, så jeg ser heller ikke helt vitsen. Fint med et gjennomsnittlig lavere forbruk, men når man tyter til med full pupp i FEAR eller lignende har gjennomsnittlig forbruk ytterst lite å si for om f.eks. strømforsyningen klarer å henge med i svingene. Synes heller NVidia og AMD/ATI burde fokusere på å få mindre energiforbruk på GPU-ene sine, slik at de ikke trenger egne strømforsyninger for å snurre. GPU-er har generelt ganske mye høyere nanometer produksjonsteknikk enn CPU; ville det ikke vært mye å hente på å nærme seg CPU-produksjonsteknikken i nanometer? Lenke til kommentar
Andrull Skrevet 26. juni 2007 Del Skrevet 26. juni 2007 Opplegget bruker da like mye strøm under last uansett? Hva er vitsen da? 8946863[/snapback] De få timene som PCer gjerne er under last vil da spare inn mange kroner i strøm ivhertfall. Så slipper du overoppheting selv om PCen bare står på å surrer/nedlaster. Hvor mye en PC bruker under last synes jeg ikke gjør noe som helst. Den ka ngjerne bruke 1KW for min del. Bare den holder seg på et akseptabelt nivå på "IDLE". Har ivhertfall ikke noen problemer med å legge i en 100kr ekstra for en litt kraftigere PSU, og heller litt mindre i skjermkort. Eventuelt bare koble på en ekstra PSU. Lenke til kommentar
HKS Skrevet 26. juni 2007 Del Skrevet 26. juni 2007 Kommer sikkert til å bli grisedyrt! :!: 8946755[/snapback] Ikke noe dyrere enn idag. Ergo så spørs det hvilke kort du velger å bruke i SLI Under maks last vil dette forbruke akkurat like mye strøm som på dagens SLI-arkitektur, så jeg ser heller ikke helt vitsen. Fint med et gjennomsnittlig lavere forbruk, men når man tyter til med full pupp i FEAR eller lignende har gjennomsnittlig forbruk ytterst lite å si for om f.eks. strømforsyningen klarer å henge med i svingene. Synes heller NVidia og AMD/ATI burde fokusere på å få mindre energiforbruk på GPU-ene sine, slik at de ikke trenger egne strømforsyninger for å snurre. GPU-er har generelt ganske mye høyere nanometer produksjonsteknikk enn CPU; ville det ikke vært mye å hente på å nærme seg CPU-produksjonsteknikken i nanometer? 8946932[/snapback] 1. Mange slår aldri av maskinene sine, så hvis da det andre skjermkortet er dekativert så er det mye strøm å spare. Vanligvis så vil nok tiden SLI-kortet kan deaktiveres være mye større en tiden det er aktivt. 2. For nVidia sin del så har de høy fokus på lavt energiforbruk. Grunnen til at de ligger bak i produksjonsteknikk er at både ATI og nVidia ikke har egne fab-er, men de bruker 3. parter til det. AMD har sine egne, men de har sagt at de ikke skal lage grafikk der. Når det gjelder fokus på effektforbruk, så har faktisk nVidia fokusert rimelig mye på det. Bare se på det råeste kortet i 8800-serien (8800 Ultra), det bruker endel mindre strøm enn ATi/AMD sitt toppkort som også har endel lavere ytelse. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå