ATWindsor Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 http://www.anandtech.com/tradeshows/showdoc.aspx?i=2770 "ATI and NVIDIA have been briefing power supply manufacturers in Taiwan recently about what to expect for next year’s R600 and G80 GPUs. Both GPUs will be introduced in late 2006 or early 2007, and while we don’t know the specifications of the new cores we do know that they will be extremely power hungry. The new GPUs will range in power consumption from 130W up to 300W per card." 130-300 Watt er jo et helt sinnsykt, denne utviklingen må stoppe, det er jo mye mer enn resten av systemet tilsammen. AtW Lenke til kommentar
Jann - Ove Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 KOS! Blir enklere å holde rommet mitt varmt til vinteren med et slikt Lenke til kommentar
HKS Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 'Høsten 2006' er iallefall tidspunktet nVidia planlegger å ha G80 klart. Dette kan selvsagt justeres etterhvert. Kan ikke si så mye om strømforbruket, har heller ikke så mange detaljer om den,men sammenlignet med den ytelse/strømforbruk vi ser på nVidia kort idag så blir ikke de nye så ille (ytelsen vil jo være mye bedre enn dagens kort... ) Lenke til kommentar
OnetroM Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 Det kommer vel forhåpentligvis noen utgaver som ikke topper 300W, men fortsetter utviklingen med fire GPU'er på toppkortene så har vi det gående. Jeg må i alle fall ha ny PSU til høsten skjønner jeg.. Lenke til kommentar
HKS Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 Det kommer vel forhåpentligvis noen utgaver som ikke topper 300W, men fortsetter utviklingen med fire GPU'er på toppkortene så har vi det gående. Jeg må i alle fall ha ny PSU til høsten skjønner jeg.. 6251472[/snapback] Da tallene som AndTech har fått hintet er vel tall for maks strømforbruk i worst-case for high-end produktet regner jeg med.... 300W er ikke et tall fra nVidia, ATi vet jeg derrimot ikke noe om. Lenke til kommentar
ATWindsor Skrevet 6. juni 2006 Forfatter Del Skrevet 6. juni 2006 'Høsten 2006' er iallefall tidspunktet nVidia planlegger å ha G80 klart. Dette kan selvsagt justeres etterhvert. Kan ikke si så mye om strømforbruket, har heller ikke så mange detaljer om den,men sammenlignet med den ytelse/strømforbruk vi ser på nVidia kort idag så blir ikke de nye så ille (ytelsen vil jo være mye bedre enn dagens kort... ) 6251459[/snapback] At ytelsen per strømforbruk "ikke er så ille" i forhold til forrige genrasjon hjelper jo fint lite når de bruker så enormt mye strøm, både nvidia og ATI må skjerpe seg her, og det gjelder på alle fronter, nye hovedkort bruker jo monstermye effekt, de nyeste nvidia-chipsettene bruker flere titalls watt mer enn ATi sine om de indikasjonene jeg har sett er riktige. AtW Lenke til kommentar
HKS Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 At ytelsen per strømforbruk "ikke er så ille" i forhold til forrige genrasjon hjelper jo fint lite når de bruker så enormt mye strøm, både nvidia og ATI må skjerpe seg her, og det gjelder på alle fronter, nye hovedkort bruker jo monstermye effekt, de nyeste nvidia-chipsettene bruker flere titalls watt mer enn ATi sine om de indikasjonene jeg har sett er riktige. AtW 6251510[/snapback] Blir litt off-topic, men det spørs hva og hvordan du sammenligner. nVidia chipsetene i high-end er klokket høyere enn ATi sine (LinkBoost) og har to Ethernet kontrollere integrert... Så ser man bort fra LAN og LinkBoost, så har de ganske likt strømforbruk. Strømforbruken på grafikkort kommer til å øke, du får ikke i pose og sekk, og når grafikkortene også skal kjøre fysikk blandt annet så bruker du ressursene mer enn hva du tradisjonelt har gjort opp til nå. Dynamisk last mellom grafikk og fysikk blir en ting vi kommer til å se mer av på neste generasjon. Lenke til kommentar
O.J Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 toppskjermkortene i dag bruker jo uhorvelig mye strøm. rart det ikke er like mye fokus på det her som det er på prosessorer. Lenke til kommentar
ATWindsor Skrevet 6. juni 2006 Forfatter Del Skrevet 6. juni 2006 At ytelsen per strømforbruk "ikke er så ille" i forhold til forrige genrasjon hjelper jo fint lite når de bruker så enormt mye strøm, både nvidia og ATI må skjerpe seg her, og det gjelder på alle fronter, nye hovedkort bruker jo monstermye effekt, de nyeste nvidia-chipsettene bruker flere titalls watt mer enn ATi sine om de indikasjonene jeg har sett er riktige. AtW 6251510[/snapback] Blir litt off-topic, men det spørs hva og hvordan du sammenligner. nVidia chipsetene i high-end er klokket høyere enn ATi sine (LinkBoost) og har to Ethernet kontrollere integrert... Så ser man bort fra LAN og LinkBoost, så har de ganske likt strømforbruk. Strømforbruken på grafikkort kommer til å øke, du får ikke i pose og sekk, og når grafikkortene også skal kjøre fysikk blandt annet så bruker du ressursene mer enn hva du tradisjonelt har gjort opp til nå. Dynamisk last mellom grafikk og fysikk blir en ting vi kommer til å se mer av på neste generasjon. 6251629[/snapback] Selv uten linkboost bruker de jo mer? Og jeg tror neppe en gigabit-kontroller ekstra er nok til å veie opp. Uansett er essensen at disse chipsettene i mine øyne bruker for mye effekt, kan godt si ATi sin er på samme nivå, begge to har store rom for forbedringer. Du kan jo få både i pose og sekk, core duo bruker jo mindre strøm enn p4, og har bedre ytelse. Jeg tror et sterkere fokus på effektforbruk hadde hjulpet mye. AtW Lenke til kommentar
leifeinar Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 dette er jo helt vanvitti synest jeg..... hadde håpet at ting skulle forbedre seg etter r580. spesiellt når nvidia gjorde så fin jobb med g71. Lenke til kommentar
thomassit0 Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 vil de ikke bruke mindre strøm om de går ned i nm produksjonsprosess? hvilken nm størrelse er det som brukes nå da? 65? Lenke til kommentar
Simen1 Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 KOS! Blir enklere å holde rommet mitt varmt til vinteren med et slikt 6251412[/snapback] Evt. holde badstutemperatur i en hel hybelleilighet fra tidlig i april til oktober. vil de ikke bruke mindre strøm om de går ned i nm produksjonsprosess? hvilken nm størrelse er det som brukes nå da? 65?6251910[/snapback] Forutsatt at alle andre faktorer holdes like vil effektforbruket synke når produksjonsprosessen krymper ja. Problemet er at produsentene fristes for mye til legge til egenskaper og presse opp klokkehastighetene og heller "løse" problemet med å lage ennå mer voldsomme kjøleløsninger. Til slutt ser PCen ut som en diger byggtørker. Jeg håper virkelig skrekkscenarioet om 130-300W bare gjelder quad SLI og evt. Oct SLI (4 dobbeldekkerkort). Redigert: Ups, det var vist per kort det sto i artikkelen til Anandtech. Jeg håpte at geforce 7600GS og 7900GT var en ny trend om å snu effektforbruket nedover og lage mer stillegående kjøleløsninger. Jeg hadde også et håp om at den nye toppserien ville få tilskudd av en stillegående modell "8800GS" eller noe sånt med passiv kjøling, lave klokkehastigheter og mange pipelines/hadere og god minnebåndbredde. Lenke til kommentar
John Deere Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 vil de ikke bruke mindre strøm om de går ned i nm produksjonsprosess? hvilken nm størrelse er det som brukes nå da? 65?6251910[/snapback] Forutsatt at alle andre faktorer holdes like vil effektforbruket synke når produksjonsprosessen krymper ja. Problemet er at produsentene fristes for mye til legge til egenskaper og presse opp klokkehastighetene og heller "løse" problemet med å lage ennå mer voldsomme kjøleløsninger. Til slutt ser PCen ut som en diger byggtørker. Da må du ha 3 fase stikkkontakt for å koble til dataen. Lenke til kommentar
Smirnoff Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 Enten må det nytenkning til innen produksjonen av grafikkort, eller så må strømprisene kraftig ned i framtiden. Ellers blir det dyrt å være gamer. Lenke til kommentar
OnetroM Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 Da må du ha 3 fase stikkkontakt for å koble til dataen. 6252120[/snapback] Jeg leste i et Hi-Fi blad for et par år siden om en forsterket som krevde en egen 20ampere kurs per trinn (altså 2x20Amp for stereo). Hvilken pc-leverandør blir den første til å kreve egen 10amp? Kanskje satt litt på spissen, men jeg sytnes utviklingnen er litt snål. På den ene siden skryter de av ultra high-tec produskjonsmetoder som kan få ned strømforbruk og varme, på den annen side lanseres det ene mer kraftkrevende produktet etter det andre.. Lenke til kommentar
stoffix Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 det betyr enda mere ytelse men trefas er jo bare topp, det burde gjøre jobben til psu med å likerette og fjerne rippel lettere Lenke til kommentar
sedsberg Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 Snart kommer vel PC-ene med sånne støpsler som er på komfyrer. Lenke til kommentar
AnaXyd Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 Snart kommer vel PC-ene med sånne støpsler som er på komfyrer. 6254148[/snapback] Det er 20ampere strøm i de støpslene.. Lenke til kommentar
Mann_Av_Gull Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 Ja, det er blitt ganske sprøtt. På nittallet hadde ikke de fleste skjermkort kjøling i det hele tatt. Først på slutten av nittitallet begynte det å komme små kjøleribber og en liten vifte på noen. Se på dagens skjermkort. 7900GTX. En diger klump som dekker hele kortet. Ser jo nesten ut som et digert romskip. Helt villt. Lenke til kommentar
WildEye Skrevet 6. juni 2006 Del Skrevet 6. juni 2006 Holder på å sende søknad til Plan og Byggningsetaten om bygging av et lite kjernekraftverk. Dette begynner å bli ganske villt... Kan ikke kjøre SLI / Crossfire med disse uten dedikert 600W strøm. Tror man vil se løsninger for å tjuvkoble 2 PSU'er, som er litt bedre en de moddene man har i dag. Med de strømprisene vi har i dag, begynner PC'ene faktisk å koste en del å ha gående (24/7) Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå