DarkSlayer Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Det eneste jeg ser er en stor vifte som bråker ..... Den må vekk, eller lett kunne bli erstattet. Lenke til kommentar
Andrull Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 http://itpro.no/art/8973.html De neste versjonene av kortet skal vist karnskje komme i Pci-e form også. Lenke til kommentar
Sorce Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 at det neste kortene kommer i pcie form står faktisk i HW artikkelen og pressemeldinga fra asus... Lenke til kommentar
CaZpeR Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Det eneste jeg ser er en stor vifte som bråker ..... Den må vekk, eller lett kunne bli erstattet. 5803107[/snapback] Dette kan jo lett erstattes av både heatpipes eller vann Lenke til kommentar
Tjohei Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Det som blir kult er når utviklerne begynner å bruke denne teknologien til ting som ikke har blitt gjort før. Det som vises fram nå og tanker som svirrer i hodene på potensielle kjøpere er jo stort sett ti ganger så mange tønner og/eller forbedring av fps fordi. Det som jeg syns blir kult er når vi får se matrialforvregning og skikkelig fysikk på væsker. Lenke til kommentar
eXa Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 hm mon tro om overklokking av denne saken funker? Lenke til kommentar
CaZpeR Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 hm mon tro om overklokking av denne saken funker? 5803367[/snapback] Minne vil sikkert bli muligheter for å klokke (i tanke på at det er GDDR3 minne). Muligens også kjerna. Men kan jo hende det blir like mye vits å klokke kjerna som å klokke kjerna i et lydkort. Men hadde det ikke vært på tide å fase ut GDDR3 minne og få inn GDDR4? Lenke til kommentar
abcosv Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Fikk inntrykk av, i opphypingen foran PCI-e-sleppet, at PCI-X ville erstatte PCI på alle nyere hovedkort. Sett i den sammenhengen, ville det jo være mer naturlig å legge kortet til en PCI-X-port. Og uansett; kommer det virkelig hovedkort med så mange PCI-E-porter? Ser jo på et par nye skjermkort som har kommet den siste tiden, som tar -tre- plasser på hovedkortet. Er det da naturlig med nok plass til en PhysX-prosessor under den igjen? Lenke til kommentar
OnetroM Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Det er et reelt problem du skisserer der Odin. Hvis man skal ha full pakke så trenger man SLI for Havoc og PhysX kort for andre titler. Det blir lite plass igjen til andre ting i PC'n da.. Lenke til kommentar
ATWindsor Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Fikk inntrykk av, i opphypingen foran PCI-e-sleppet, at PCI-X ville erstatte PCI på alle nyere hovedkort. Sett i den sammenhengen, ville det jo være mer naturlig å legge kortet til en PCI-X-port. Og uansett; kommer det virkelig hovedkort med så mange PCI-E-porter? Ser jo på et par nye skjermkort som har kommet den siste tiden, som tar -tre- plasser på hovedkortet. Er det da naturlig med nok plass til en PhysX-prosessor under den igjen? 5803570[/snapback] Som andre her har poengtert PCie og PCI-X er IKKE det samme, dine innlegg framstår som litt forvirrende når du blander. Bare til informasjon. AtW Lenke til kommentar
chil Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 hmm hvorfor har ikke bare ATI eller nividia implimentert dette på sine skjermkort? regner med de har teknologien.. Lenke til kommentar
m-lyng Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Enig med Chil. Skal vi oppgrader disse nye kort like ofte som vi oppgradere gpu'en blir det bare enda dyrere of forvirende for mange andre.Det burde heller vært integrert i enten cpu'en eller gpu'en for å få ned kostnader og plass forbruk. Lenke til kommentar
Simen1 Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 (endret) hmm hvorfor har ikke bare ATI eller nividia implimentert dette på sine skjermkort? regner med de har teknologien..5803742[/snapback] Veritas linket en fin artikkel om ATI og deres syn på fysikkberegninger på forrige side: http://www.pcper.com/article.php?aid=226 ATI sitt syn på fysikk 5802812[/snapback] Endret 24. mars 2006 av Simen1 Lenke til kommentar
MistaPi Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Firingsquad sitt intervju med ATi: http://www.firingsquad.com/hardware/ati_physics/ Lenke til kommentar
OnetroM Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Enig med Chil.Skal vi oppgrader disse nye kort like ofte som vi oppgradere gpu'en blir det bare enda dyrere of forvirende for mange andre.Det burde heller vært integrert i enten cpu'en eller gpu'en for å få ned kostnader og plass forbruk. 5803852[/snapback] ATI og nVidia har teknologier, men selvfølgelig hver sin teknologiske løsning. Som desverre for oss brukere ikke går om hverandre sånn helt uten videre. Det hadde vært veldig praktisk for oss om man 'bare' kunne klemt inn en PhysX kjerne i en CPU eller GPU. Nå er det imidlertid slik at Aegis har utviklet et produkt de har rettigheter til og vil tjene penger på. Det er ikke bare bare å få til en avtale som tilser at f.eks AMD kan implementere teknologien direkte i sine CPU'er. Her er det mye penger, forretningshemmeligheter, jus, teknologiske hindre osv før det blir en realitet. Markedsstyrt økonomi har sine fordeler, men også sine bakdeler.. Lenke til kommentar
Isbilen Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Enig med Chil.Skal vi oppgrader disse nye kort like ofte som vi oppgradere gpu'en blir det bare enda dyrere of forvirende for mange andre.Det burde heller vært integrert i enten cpu'en eller gpu'en for å få ned kostnader og plass forbruk. 5803852[/snapback] Det er ingen som tvinger deg til å kjøpe disse kortene, i hvert fall ikke foreløpig. Dette er i første omgang produkter for entusiaster, men det er klart at hvis man setter sin ære i å kunne kalle seg entusiast, blir det dyrt... Lenke til kommentar
m-lyng Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Ok .Men hva tror dere om hvor ofte vi må oppgradere da.Blir utviklingen like fort som andre ting vi bytter ut? Bør vi vurdere kjøp av Xbox snart Lenke til kommentar
crownjewel Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 Tungvint med ekstra kort. Hvorfor ikke bare highend skjermkort med dobbeltkjerne og mer minne? Lenke til kommentar
Tjohei Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 nVidia og ATi er vel et stykke unna dual-core på skjermkortet, så det er jo ikke akkurat gjort i en håndvending. Dessuten tror jeg det er Ageia som har gjort at nVidia har måttet kjøre på med et alternativ, og siden de allerede har SLI, så... Lenke til kommentar
Simen1 Skrevet 24. mars 2006 Del Skrevet 24. mars 2006 (endret) nVidia og ATi er vel et stykke unna dual-core på skjermkortet, så det er jo ikke akkurat gjort i en håndvending. 5804219[/snapback] Det er kanskje litt forenklet sagt men ATI er jo allerede oppe i 48 kjerner på et kort og nvidia er jo oppe i 24. En pixel pipeline kan på mange måter sammenlignes med en pipeline i en CPU. Poenget er at en GPU er en såkalt massivt parallell special purpose prosessor, mens en CPU er en enkel eller dobbel general purpose prosessor. Det er jo derfor en GPU kan ha 350 Gflops beregningskraft med bare 5-600 MHz klokkefrekvens mens en CPU bare har bortimot 10 Gflops beregningskraft til tross for klokkefrekvenser på flere GHz. Huff, det er vist mange som ikke skjønner de grunnleggende og vesentlige forskjellene på hva en CPU og en GPU er. Forvirringen i både denne og andre tråder er jo total når det dukker opp nye brikker med nye bruksområder. Endret 24. mars 2006 av Simen1 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå