Gå til innhold

R500 i begynnelsen av 2005


Anbefalte innlegg

Det morsomme er at sluttresultatet sikkert kommer til å blir nesten likt atter en gang i konkurransen mellom ATI(R500) og nVidia(NV50), en av dem stikker av med en 0,2% margin i 3dMark og en eller annet gokk erklærer en "vinner" :) Vet ikke hvor mange ganger dette har skjedd.

 

Innse det; begge produsentene er begrenset av tilgjengelig teknologi og av samme grunn blir produktene omtrent identiske med noen mindre forskjeller. Det sammer ser vi mellom AMD og Intel.

Endret av kindings
Lenke til kommentar
Videoannonse
Annonse
Tipper at effektforbruket på de nye generasjonene kommer til å bli ganske enormt. Hydrogenkjøling blir vel snart standard :p

Hehe, du vil kjøle med flytende hydrogen, fritt for å ikke bo i nærheten av deg :)

Er det ikke nitrogen dere snakker om? ;)

 

Uansett blir nok dette aldri standard. Det er bare flytende ved ekstremt lave temperaturer, og straks det varmes opp går det over i gassform. Hvor raskt det fordamper avhenger vel av varmeutviklingen, men det er jo litt kjipt med en maskin som kontinuerlig trenger påfyll, hæ?

 

"Hey, stopp turneringen, jeg må bare på nitrogenstasjonen og fylle."

Lenke til kommentar
Tipper at effektforbruket på de nye generasjonene kommer til å bli ganske enormt. Hydrogenkjøling blir vel snart standard :p

Hehe, du vil kjøle med flytende hydrogen, fritt for å ikke bo i nærheten av deg :)

Er det ikke nitrogen dere snakker om? ;)

 

Uansett blir nok dette aldri standard. Det er bare flytende ved ekstremt lave temperaturer, og straks det varmes opp går det over i gassform. Hvor raskt det fordamper avhenger vel av varmeutviklingen, men det er jo litt kjipt med en maskin som kontinuerlig trenger påfyll, hæ?

 

"Hey, stopp turneringen, jeg må bare på nitrogenstasjonen og fylle."

Hehe, det problemet løser man enkelt ved å bruke "kjøleskapteknologi". Mendet er kanskje ikke så gunstig med alt for lave tempraturer. Dreiv å så på noe superledergreier på en lab jeg hadde nå nylig, og da gikk motstanden i en halvleder vi prøvde på plutselig dramatisk opp ved ca -120 grader. Er det noen som vet noe om en slik effekt?

 

AtW

Lenke til kommentar

Nja, jeg så en worklog-serie med noen russere ellerno som dreiv med nitrogen-kjøling. De hadde ordna seg en stor isoporboks som de helte nitrogenen oppi og deretter senket hovedkort med stæsj oppi. Så ut til å funke helt strålende det, men virket jævlig tungvint. Du må bruke spesielle materialer som tåler kulden, isopor holder nok ikke i lengden. Et vanlig kabinett av stål eller alu ville sprukket med en gang grunnet temperaturforandringer. Nitrogenet fordamper og greier og greier. Tror ikke det er en patent løsning. Bare en planlegge-i-en-uke-for-ti-minutter-benching-og-risikere-masse-hardware-løsning.

 

Russerne fikk iallefall klokka fra seg!

Lenke til kommentar
Tipper at effektforbruket på de nye generasjonene kommer til å bli ganske enormt. Hydrogenkjøling blir vel snart standard :p

Hehe, du vil kjøle med flytende hydrogen, fritt for å ikke bo i nærheten av deg :)

Er det ikke nitrogen dere snakker om? ;)

 

Uansett blir nok dette aldri standard. Det er bare flytende ved ekstremt lave temperaturer, og straks det varmes opp går det over i gassform. Hvor raskt det fordamper avhenger vel av varmeutviklingen, men det er jo litt kjipt med en maskin som kontinuerlig trenger påfyll, hæ?

 

"Hey, stopp turneringen, jeg må bare på nitrogenstasjonen og fylle."

Hehe, det problemet løser man enkelt ved å bruke "kjøleskapteknologi". Mendet er kanskje ikke så gunstig med alt for lave tempraturer. Dreiv å så på noe superledergreier på en lab jeg hadde nå nylig, og da gikk motstanden i en halvleder vi prøvde på plutselig dramatisk opp ved ca -120 grader. Er det noen som vet noe om en slik effekt?

 

AtW

Jepp, Codename_Paragon har peiling på slikt. Han fortalte om denne, effekten "Freeze out" her: http://forum.hardware.no/index.php?showtopic=277715&st=67

Lenke til kommentar
Tipper at effektforbruket på de nye generasjonene kommer til å bli ganske enormt. Hydrogenkjøling blir vel snart standard :p

Hehe, du vil kjøle med flytende hydrogen, fritt for å ikke bo i nærheten av deg :)

Er det ikke nitrogen dere snakker om? ;)

 

Uansett blir nok dette aldri standard. Det er bare flytende ved ekstremt lave temperaturer, og straks det varmes opp går det over i gassform. Hvor raskt det fordamper avhenger vel av varmeutviklingen, men det er jo litt kjipt med en maskin som kontinuerlig trenger påfyll, hæ?

 

"Hey, stopp turneringen, jeg må bare på nitrogenstasjonen og fylle."

Hehe, det problemet løser man enkelt ved å bruke "kjøleskapteknologi". Mendet er kanskje ikke så gunstig med alt for lave tempraturer. Dreiv å så på noe superledergreier på en lab jeg hadde nå nylig, og da gikk motstanden i en halvleder vi prøvde på plutselig dramatisk opp ved ca -120 grader. Er det noen som vet noe om en slik effekt?

 

AtW

Jepp, Codename_Paragon har peiling på slikt. Han fortalte om denne, effekten "Freeze out" her: http://forum.hardware.no/index.php?showtopic=277715&st=67

Takker for lenken, da fikk jeg en forkalring på det også.

 

AtW

Lenke til kommentar

CPU'er har glimrende programmerbarhet og får flere pipeliner (kjerner)

GPU'er har glimrende pipeliner og får mer programmerbarhet.

Når skjer den første krysningen? Når dukker den første CGPU'en opp?

Er ikke dobbelkjerne-teknologien velskapt for dette?

 

Trenger jo ikke en egen GPU når prosessoren har en reserve-prosessor som kan brukes som GPU.

Lenke til kommentar
Trenger jo ikke en egen GPU når prosessoren har en reserve-prosessor som kan brukes som GPU.

Problemet er at en CPU-kjerne har mye dårligere ytelse på grafikk-operasjoner enn en GPU. En GPU er laget for det formålet; en CPU kan rett og slett ikke måle seg med en GPU i det hele tatt.

Lenke til kommentar
Trenger jo ikke en egen GPU når prosessoren har en reserve-prosessor som kan brukes som GPU.

Problemet er at en CPU-kjerne har mye dårligere ytelse på grafikk-operasjoner enn en GPU. En GPU er laget for det formålet; en CPU kan rett og slett ikke måle seg med en GPU i det hele tatt.

Jepp, det er derfor jeg foreslår en krysning mellom GPU og CPU, og ikke bare flere CPU-kjerner.

Lenke til kommentar
Problemet er at en CPU-kjerne har mye dårligere ytelse på grafikk-operasjoner enn en GPU. En GPU er laget for det formålet; en CPU kan rett og slett ikke måle seg med en GPU i det hele tatt.

Og dette ser man veldig klart på CPU-testene i 3Dmark05/03!

Jeg tviler på at 3DMark03/05 kjører grafikken ene og alene i software i CPU-testene. Det ville i så fall betydd at du skulle få samme resultat med et Geforce 6800 Ultra som med et 4MB PCI-kort. Det gjør man ikke.

 

Hvis man skal teste kun CPU-rendering, så er det letteste å bruke nettopp et gammlet 4MB PCI skjermkort og se hva scoren blir da. Disse skjermkortene kjører garantert ikke noen moderne grafikkfunksjoner i hardware. Ergo: CPU'en får all jobben med å rendre hele bildet.

 

Uheldigvis er det mange tester som ikke vil la seg kjøre helt uten 3D-aksellerasjon fra et skjermkort. Deriblant 3DMark 03/05

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...