RBW Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Nvidia er nå klare med Hybrid SLI. Konseptet rulles ut på en rekke produkter i 2008. Les mer Lenke til kommentar
_sindre_ Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Hørtes ut som en genial penge- og miljøsparende løsning! Skjermkort har tross alt begynt å bruke en del strøm etter hvert. Vil kjermkortene slå seg helt av under skrivebordsbruk, eller kjøre idle? Lenke til kommentar
Samcki Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 idleforbruk er jo poengløst med et slikt system, regner med at de slår seg helt av. Lenke til kommentar
Fjonisen Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Kicker Hybrid SLI inn automatisk, eller? Spennende konsept! Egentlig på høy tid. Lenke til kommentar
Nord-Skandinav Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Men hvordan vil dette fungere mon tro? Altså teknikken bak konseptet. Jeg vet hvertfall at med Crossfire, så blir enten skjermen delt i to, og at hvert skjermkort får hver sin halvdel å rendere, eller at den blir delt opp i et slags rutenett, der de tar litt hver. Noen som vet hvilken teknikk de kommer til å bruke her? Det mest sannsynlige vil vel være et rutenett, der det dårligste kortet får tildelt mange mindre ruter enn det beste. Men ser ikke den helt store ytelsesforbedringen her, siden de integrerte løsningene er veldig svake for tiden. Lenke til kommentar
WheelMan Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Det her virka spennende , må jeg følge mere på Lenke til kommentar
HKS Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Skjermkort har tross alt begynt å bruke en del strøm etter hvert. Vil kjermkortene slå seg helt av under skrivebordsbruk, eller kjøre idle? Kortene blir slått helt av i skrivebordsbruk, da blir det kun den integrerte grafikken som brukes. Lenke til kommentar
texaco Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 (endret) Men hvordan vil dette fungere mon tro? Altså teknikken bak konseptet. Jeg vet hvertfall at med Crossfire, så blir enten skjermen delt i to, og at hvert skjermkort får hver sin halvdel å rendere, eller at den blir delt opp i et slags rutenett, der de tar litt hver. Noen som vet hvilken teknikk de kommer til å bruke her? Det mest sannsynlige vil vel være et rutenett, der det dårligste kortet får tildelt mange mindre ruter enn det beste. Men ser ikke den helt store ytelsesforbedringen her, siden de integrerte løsningene er veldig svake for tiden. Funker vel mer som skjermkortene blir enten skrudd av eller på, slik at ved lav grafikkbruk (type dekstop) vil det interne og mindre kraftige skjermkortet brukes. Mens ved kraftig bruk (type spill) vil det kraftige grafikkkortet brukes. Kan vel også hende at det integrerte skjermkortet får oppgaver som fysikk og lignende. Synes dette var en super ide, iogmed at de fleste hovedkort har et integrert skjermkort som fungerer bra til kontorbruk. Endret 9. januar 2008 av texaco Lenke til kommentar
bosannes Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 For satse på at min neste laptop har noe slikt. Er jo genialt for å spare batteri. Bør vel ikke ta så mye ekstra plass å inkludere en lett brikke ved siden av feks et GoForce 8600GT? Lenke til kommentar
ATWindsor Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Hva er det som gjør at de ikke akn oppnå særlig god strømsparing på skjermkort når de jobber lite? AtW Lenke til kommentar
Glufsa Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Kom ikke AMD med dette for ca 1 mnd siden? Lenke til kommentar
Anders Jensen Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Den Boost funksjonen synes jeg høres spennende ut med tanke på at fremtidige desktop prosessorer antagelig vil ha relativt kraftig integrert GPU. Ellers er det jo fint å kunne slå av kraftig, men ineffektiv hardware når en ikke trenger den. Lenke til kommentar
kilik Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Flott idé. For dumt at integrerte grafikkløsninger (som faktisk begynner å bli relativt kraftige/avanserte) skal stå ubrukt. Lenke til kommentar
baalzam Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Veldig interessant. Passer fantastisk med planene om å kjøpe ny notebook om noen få år. Lenke til kommentar
Håkki Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Greit da det skal kjøpes inn en maskin "dedikert" til musikk. Hvis det skal spilles på maskinen slår det dedikerte kortet inn. Minde strømforbruk, mindre varme, mindre støy. Lenke til kommentar
Frijazz Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Kom ikke AMD med dette for ca 1 mnd siden? Joda, det er veldig likt AMD sin løsning. Men bare positivt at Nvidia også introduserer samme muligheten. Vil denne løsningen virke på alle skjermkort? Lenke til kommentar
Halvt horn ost skinka piffi varmt Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Dette var faktisk ikke så dumt. Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 (endret) Kortene blir slått helt av i skrivebordsbruk, da blir det kun den integrerte grafikken som brukes. Helt av er kanskje litt mye... det må jo fortsatt gå signaler igjennom innstikkskortet (siden skjermen er festa på det). Noe må jo dessuten gjøre om signalet: Hva med et on-board kort som takler 1200x800 mens innstikkskortet kjører 1600x1200 ? (eller kommer det nå egne 3D kort som ikke kan kjøre 2D i det hele tatt ?) Endret 9. januar 2008 av Slettet-Pqy3rC Lenke til kommentar
kjeLL// Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Hva er det som gjør at de ikke akn oppnå særlig god strømsparing på skjermkort når de jobber lite? AtW litt mange transistorer kansje? har egentlig lurt på det selv.. Lenke til kommentar
CFM Skrevet 9. januar 2008 Del Skrevet 9. januar 2008 Synd jeg har 750i brikkesettet da Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå