Andrull Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Godt å høre at GPU boost har fått en skikkelig overhaling, som trengtes fra den noe kronglete implementeringen i 600-serien. Ikke bare går den bort fra power-target, og heller satser på temp-target, som strengt talt er det som faktisk har noe å si, og som gjør det mulig å få bedre ytelse om du har satt opp maskinen riktig i henhold til god kjøling. Og for de virkelig interesserte med vannkjøling, så blir det mulig å øke spenningen godt over hva Nvidia anbefaler. Awesome at du nå også kan få skjermkortet til å justere spenning og klokkefrekvens, mens viftehastigheten og tempen er fast, som er motsatt av hva vi har sett i dag. Greit om du trenger at den er stilleågende en stund. Blir spennende å sjekke hvor mye du klarer å presse ut av et slikt kort om du øker viftehastigheten/slenger på vannblokk og så blodklokker det. Spesielt mot kort som GTX 690 for eksempel. Lenke til kommentar
N o r e n g Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 ^^ Jeg er 100% enig Andrull! Lenke til kommentar
Randeboy Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Jeg MÅ ha et kort, eller kanskje to senere. Blir iallefall til å bestille med en gang det blir lagt ut for salg på torsdag. Lenke til kommentar
Andrull Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 (endret) ^^ Jeg er 100% enig Andrull! Haha, dette må da være første gangen vi snakker 100 % enighet med arni'n. Not bad for a Tuesday evening. Eneste jeg IKKE er fornøyd med Titan, er at det ble lansert nå. Passer dårlig med lommeboka og resten av PCen i disse dager gitt. Sum sumaru, våte drømmer om Titan som jeg ikke kan få. Og om jeg kjøper et par om et par måneder så har sikkert ikke prisen endret seg det spor, og det føles igjen ikke like deilig å skaffe seg det. Endret 19. februar 2013 av Andrull Lenke til kommentar
tommytoa Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Vil denne lanseringen av Titan si at det var rett som "insidere" hevdet i fjor at gtx 680 var et "mellomklassekort"? Altså at man visste at man kom til å produsere et langt kraftigere kort på samme arkitektur, eller er dette en ny arkitektur? Hvordan er stova hos konkurrenten? Det er jo i min mening på høy tid at det kommer et hopp i ytelse, og jo flere selskaper som hopper, dess bedre for meg som bruker. Er det noen forventninger om vi snart ser en rekke med CPU'er som klarer å yte disse kortene rettferdighet? Eller vil Intel cruise avgårde på tomgang nå som AMD har gitt opp ytelses-jakten på Intel? Lenke til kommentar
Blazer Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Godt å høre at GPU boost har fått en skikkelig overhaling, som trengtes fra den noe kronglete implementeringen i 600-serien. Ikke bare går den bort fra power-target, og heller satser på temp-target, som strengt talt er det som faktisk har noe å si, og som gjør det mulig å få bedre ytelse om du har satt opp maskinen riktig i henhold til god kjøling. Og for de virkelig interesserte med vannkjøling, så blir det mulig å øke spenningen godt over hva Nvidia anbefaler. Awesome at du nå også kan få skjermkortet til å justere spenning og klokkefrekvens, mens viftehastigheten og tempen er fast, som er motsatt av hva vi har sett i dag. Greit om du trenger at den er stilleågende en stund. Blir spennende å sjekke hvor mye du klarer å presse ut av et slikt kort om du øker viftehastigheten/slenger på vannblokk og så blodklokker det. Spesielt mot kort som GTX 690 for eksempel. trodde boost på 6xx serian brukte "temp target" jeg. er jo ved faste tempraturer den klokker ned...dvs holder man kortet under 70 grader så holder kortet seg på maks boost. syns det virker enkelt, eller er det noe jeg overser ? Lenke til kommentar
N o r e n g Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Vil denne lanseringen av Titan si at det var rett som "insidere" hevdet i fjor at gtx 680 var et "mellomklassekort"? Altså at man visste at man kom til å produsere et langt kraftigere kort på samme arkitektur, eller er dette en ny arkitektur? Hvordan er stova hos konkurrenten? Det er jo i min mening på høy tid at det kommer et hopp i ytelse, og jo flere selskaper som hopper, dess bedre for meg som bruker. Er det noen forventninger om vi snart ser en rekke med CPU'er som klarer å yte disse kortene rettferdighet? Eller vil Intel cruise avgårde på tomgang nå som AMD har gitt opp ytelses-jakten på Intel? Den eneste forklaringen folk hadde til at GTX 680 var mellomklasse var brikkestørrelsen, minnebussbredden og at den enorme GK110 var under utvikling. Det som sier noe om produktsegmentet er ytelsen og prisen, og disse var definitivt ikke mellomklasse. Ettersom Titan koster nesten dobbelt så mye som GTX 680 ser jeg heller ikke hva som gjør 680 til mellomklasse nå, Nvidia må minst kutte prislappen på 680 i to for at det kan vurderes som "mellomklasse." Titan er basert på samme Kepler-arkitekturen som GTX 680, forskjellen er bare at brikka under Titan er Nvidias neste innovasjon for GPGPU. AMD har i et intervju selv sagt at HD 7970 GHz Edition skal være deres kraftigste enkelt-GPU-kort i 2013. Ettersom Titan koster 7500 kr ser jeg ikke helt hva som gjør dette produktet til en game-changer, en game-changer hadde vært et skjermkort med 90% av ytelsen til 680 for 1500 kr. Mye tyder på at Haswell kommer til å være et litt større steg fremover enn Ivy Bridge var. Ettersom det å hente mer ytelse ut av x86 i legacy-programmer blir vanskeligere og vanskeligere for hver generasjon er det liten grunn til å tro at CPUer om 5 år kommer til å kunne drive 2x Titan i 1920x1080 i spill som BF3 med mindre det kommer et gjennombrudd som tillater voldsomt mye høyere klokkefrekvens. Lenke til kommentar
Andrull Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Hva om fokuset til spillprodusenter går enda lenger over til spesialisert maskinvare, som en GPU altså er? Det må da finnes godt forbedringspotensiale her. På samme måte som vi fikk maskinvareakselerert fysikk via Physx, (og det var en stund Artificial Intelligence etc. også skulle ta i bruk GPUen for å ikke belaste CPUen like tungt) I disse dager, hvor det blir mer populært å spille på store kart med mange spillere, så kanskje noe som kunne maskinvareakselerert en del av prosessen det tar å kalkulere hvor motstanderene befinner seg osv.. ? Og denne avlastningen er jo i bunn og grunn hele hensikten med en GPU. Det er i bunn og grunn unødvendig å belaste en ellers tungt belastet arkitektur. Om umulig, så bør de i enda tørre grad enn i dag klare å fordele lasten over flere kjerner. Klarer de skikkelig utnyttelse av kjernene, så vil ikke X86 arkitekturen begrense lengre. Da er det bare å slenge på flere kjerner. Er vel rimelig lite som tilsier at stort høyere klokkefrekvens vil bli mulig med det første, og ville i sådann bare flyttet problemet (som er mangel på spesialisert og multitrådet kode). Lenke til kommentar
tommytoa Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Den eneste forklaringen folk hadde til at GTX 680 var mellomklasse var brikkestørrelsen, minnebussbredden og at den enorme GK110 var under utvikling. Det som sier noe om produktsegmentet er ytelsen og prisen, og disse var definitivt ikke mellomklasse. Ettersom Titan koster nesten dobbelt så mye som GTX 680 ser jeg heller ikke hva som gjør 680 til mellomklasse nå, Nvidia må minst kutte prislappen på 680 i to for at det kan vurderes som "mellomklasse." Det har jo de nesten gjort ved å lansere 680 under et annet navn til tusenlappen billigere Noen som vet hva et gtx 680 ca koster å produsere? Eventuelt Titan, men det er mindre relevant da prisen der sannsynligvis vil bli stående på stedet hvil i et år fremover uten noen konkurrenter. Om stova blir stående på stedet hvil på ytelses-fronten i et år fremover fordi AMD ikke vil lansere konkurrerende produkter er jo eneste håpet vi har for fortgang at dagens "toppkort" 680 og 7970 blir vesentlig billigere slik at gjennomsnittlig gamer-hardware får et hopp. Derav spørsmålet, er det mulig for Nvidia og AMD å halvere prisen på disse kortene som er i produksjon, eller må vi vente på at produktene blir erstattet og det påfølgende lager-salget? Ettersom Titan koster 7500 kr ser jeg ikke helt hva som gjør dette produktet til en game-changer, en game-changer hadde vært et skjermkort med 90% av ytelsen til 680 for 1500 kr. Mye tyder på at Haswell kommer til å være et litt større steg fremover enn Ivy Bridge var. Ettersom det å hente mer ytelse ut av x86 i legacy-programmer blir vanskeligere og vanskeligere for hver generasjon er det liten grunn til å tro at CPUer om 5 år kommer til å kunne drive 2x Titan i 1920x1080 i spill som BF3 med mindre det kommer et gjennombrudd som tillater voldsomt mye høyere klokkefrekvens. En game-changer vil jo være et oppnåelig produkt for gamere som hever ytelsen i slik grad at andre hardware-komponenter blir akterutseilt. Nå har vi jo et produkt rett rundt dørene som gjør at vi ser konturene av en slik situasjon, selv om produktet per i dag ikke er oppnåelig for majoriteten. Spørsmålet blir jo om den ytelsen er oppnåelig for de fleste om et år eller to da neste generasjons mellomklasse-kort vil nærme seg denne ytelsen. Du som er et leksikon på alt mulig teknisk, hva er sannsynligheten for at vi vil få en CPU i nær fremtid som signifikant vil øke spill-ytelsen til tilsvarende nivå som feks 2x Titan? Er det slik at et skjermkort er det ypperste innenfor datateknologi og at den typen arkitektur kan bli brukt i en CPU dedikert til spillbruk, feks en slik Valve-box? Lenke til kommentar
Andrull Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 (endret) Du som er et leksikon på alt mulig teknisk, hva er sannsynligheten for at vi vil få en CPU i nær fremtid som signifikant vil øke spill-ytelsen til tilsvarende nivå som feks 2x Titan? Er det slik at et skjermkort er det ypperste innenfor datateknologi og at den typen arkitektur kan bli brukt i en CPU dedikert til spillbruk, feks en slik Valve-box? Høyst usannsynelig. Vårt største "håp" er ikke haswell, som ryktes å bli noe rundt 15 % raskere/mer effektiv enn dagens Ivy Bridge, men Ivy-Bridge-E som blir lansert litt senere i år, og blir High-End klassen til IB. Dog ville jeg nok heller ikke den yte så fryktelig mye bedre i spill, da det nok er mest fokus på flere kjerner og noe bedre overklokkbarhet og generelt annen funksjonalitet som ikke har så mye å si i spill. GPU er spesialisert maskinvare, og yter veldig bra på sine områder. For mange år tilbake, så hadde de ikke skjermkort, og spill hadde enorme begrensninger når man spillte, da CPUen ble så tungt belastet ved 3D-grafikk at det var nært umulig å bruke. 3D-kort kom så på markedet for videre akselerasjon av nettopp dette, 3D-grafikk, og slik har det fortsatt. I dag så er spill-verdenen såpass stor business at skjermkort nok ligger veldig høyt prioritert av produsenter. CPU-ene baserer seg på X86-arkitektren som er ganske gammel nå, og har store begrensinger med kompleksitet på kjernen (altså begrenset hvor mange transistorer den kan ha), og det var derfor vi bla. fikk flere kjerner, for å øke ytelsen uten å øke kompleksiteten til brikken nevneverdig. Så ja, du kan vel i at skjermkort er noe av det ypperste innen datateknologi, selv om det egentlig bare er fordi det er spesialisert maskinvare og har sine fordeler og ulemper. Cell-prosessoren til Sony i PS3 var jo en "legendarisk" prosessor som verken er arkitektur til et skjermkort eller prosessor, men noe helt annet. Det var ment for å takle spill på egenhånd, men mot slutten av produksjonen så mener jeg å huske at de valge å slenge inn et skjermkort pga at ytelsen ikke var som ønsket. I tillegg så er det vanskeligere å kode til slik spesialisert maskinvare. Tipper vel valvebox bruker en X86 prosessor + et skjermkort, og ikke alt på en helt spesiell brikke som Cell-prosessoren. Til syvende og sist så er det helt opp til spill-utviklere hvor mye tid de ønsker på å optimalisere ved å skrive mest mulig av koden til GPUen, eller i det minste utnytte all kraften til dagens CPUer, som ikke belastet halveis engang! MEN dette koster penger for utviklere OG maskinvare-produsenter taper også penger på at alt blir mer optimalisert. Endret 19. februar 2013 av Andrull Lenke til kommentar
N o r e n g Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 En game-changer vil jo være et oppnåelig produkt for gamere som hever ytelsen i slik grad at andre hardware-komponenter blir akterutseilt. Nå har vi jo et produkt rett rundt dørene som gjør at vi ser konturene av en slik situasjon, selv om produktet per i dag ikke er oppnåelig for majoriteten. Spørsmålet blir jo om den ytelsen er oppnåelig for de fleste om et år eller to da neste generasjons mellomklasse-kort vil nærme seg denne ytelsen. GTX Titan gir ikke bedre pris/ytelse og er kun en game-changer for de som sitter med 3x 680/7970 i dag, det er en utvidelse av prisområdet Nvidia dekker med Geforce-produktene sine, og ikke en erstatning for 680 som enkelte tror. Vi kan ikke forvente å få slik ytelse for 3000 kr før 2014 tidligst, og jeg tror egentlig 2015 er mer realistisk. Slik jeg ser det er derfor Titan ingen game-changer ettersom det er irrellevant for 99.9% av markedet. Lenke til kommentar
tommytoa Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Høyst usannsynelig. Vårt største "håp" er ikke haswell, som ryktes å bli noe rundt 15 % raskere/mer effektiv enn dagens Ivy Bridge, men Ivy-Bridge-E som blir lansert litt senere i år, og blir High-End klassen til IB. Dog ville jeg nok heller ikke den yte så fryktelig mye bedre i spill, da det nok er mest fokus på flere kjerner og noe bedre overklokkbarhet og generelt annen funksjonalitet som ikke har så mye å si i spill. Tipper vel valvebox bruker en X86 prosessor + et skjermkort, og ikke alt på en helt spesiell brikke som Cell-prosessoren. Til syvende og sist så er det helt opp til spill-utviklere hvor mye tid de ønsker på å optimalisere ved å skrive mest mulig av koden til GPUen, eller i det minste utnytte all kraften til dagens CPUer, som ikke belastet halveis engang! MEN dette koster penger for utviklere OG maskinvare-produsenter taper også penger på at alt blir mer optimalisert. Takker for meget bra svar. Folk som du og arni90 er grunnen til at forum blir bra Så det er i utgangspunktet ikke noen særlig grunn til å tro at vi vil få en type spill-maskin dedikert til spilling hvor alt er designet fra grunnen av til spill alene hvor det samtidig utvikles nytt hardware som vi kan bytte ut, i motsetning til lukkede systemer som playstation? Det er i bunn og grunn rart at selskaper som Nvidia ikke også produserer spill-cpu'er for optimal utnyttelse med tanke på hvor stor industrien er. Jeg ser og forstår kostnadene, men det må jo være mulig å samarbeide med Intel om sånt? Mon tro om data-industrien ender opp i samme bås som bil-industrien, hvor det skjer minimal utvikling over tid. I bunn og grunn skiller det lite mellom en bil i dag og en bil for 50 år siden. Litt raffinering her og litt justering der, men ingenting revolusjonerende sett i perspektiv av hva man kunne forvente for 50 år siden. GTX Titan gir ikke bedre pris/ytelse og er kun en game-changer for de som sitter med 3x 680/7970 i dag, det er en utvidelse av prisområdet Nvidia dekker med Geforce-produktene sine, og ikke en erstatning for 680 som enkelte tror. Vi kan ikke forvente å få slik ytelse for 3000 kr før 2014 tidligst, og jeg tror egentlig 2015 er mer realistisk. Slik jeg ser det er derfor Titan ingen game-changer ettersom det er irrellevant for 99.9% av markedet. Nei, slik sett er jo Titan et steg bakover. Ytelsen per krone er jo betydelig dårligere enn dagens toppkort, spesielt 7970 og 670. Med mindre torsdag viser noe helt uventet med ytelse.Men konturene av en situasjon hvor GPU løper kraftig ifra CPU blir jo skildret med et så kraftig kort som Titan. Erfaringsmessig er det jo ikke lenge før standarden som blir satt heves på nytt igjen, og teknologien som i fjor var topp blir til neste år standard. Det som hadde vært kult hadde vært om AMD hadde fyrt i gang et combo-prosjekt mellom CPU og GPU for gaming og skapt noe helt unikt som Intel og Nvidia ville blitt tatt på senga med, som samtidig ville stjålet gamere fra konsoll-markedet. Lenke til kommentar
Andrull Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Takker for meget bra svar. Folk som du og arni90 er grunnen til at forum blir bra Nei, slik sett er jo Titan et steg bakover. Ytelsen per krone er jo betydelig dårligere enn dagens toppkort, spesielt 7970 og 670. Med mindre torsdag viser noe helt uventet med ytelse.Men konturene av en situasjon hvor GPU løper kraftig ifra CPU blir jo skildret med et så kraftig kort som Titan. Erfaringsmessig er det jo ikke lenge før standarden som blir satt heves på nytt igjen, og teknologien som i fjor var topp blir til neste år standard. Det som hadde vært kult hadde vært om AMD hadde fyrt i gang et combo-prosjekt mellom CPU og GPU for gaming og skapt noe helt unikt som Intel og Nvidia ville blitt tatt på senga med, som samtidig ville stjålet gamere fra konsoll-markedet. Da ser du nok ikke fra riktig produktgruppe sitt segment. Titan har da meget god pris-ytelse til sitt segment å være. Det er da ikke uvanlig å se premium-kort med 6 GB minne i 8000-9000kr klassen som yter 5-10 % bedre enn et kort til 3-4000kr. Har sett tester som viser opp mot dobbelt så god ytelse i BF3 som GTX 680, så her går det alle veier virker det som. Men om vi snakker 60-70 % bedre ytelse enn GTX 680, så er dette faktisk meget god ytelse i forhold til pris å være. Og slik fortsetter det nedover. GTX 680 er jo ikke noe særlig god på pris/ytelse om du sammenligner mot f. eks GTX 660 etc. men det er jo fordi middelklassen som regel alltid har den beste pris/ytelsen og her de store pengene ligger. Men skal du ha premium-produkter så må du punge ut, og her ksuffer Titan ikke. Lenke til kommentar
tommytoa Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Da ser du nok ikke fra riktig produktgruppe sitt segment. Titan har da meget god pris-ytelse til sitt segment å være. Det er da ikke uvanlig å se premium-kort med 6 GB minne i 8000-9000kr klassen som yter 5-10 % bedre enn et kort til 3-4000kr. Har sett tester som viser opp mot dobbelt så god ytelse i BF3 som GTX 680, så her går det alle veier virker det som. Men om vi snakker 60-70 % bedre ytelse enn GTX 680, så er dette faktisk meget god ytelse i forhold til pris å være. Og slik fortsetter det nedover. GTX 680 er jo ikke noe særlig god på pris/ytelse om du sammenligner mot f. eks GTX 660 etc. men det er jo fordi middelklassen som regel alltid har den beste pris/ytelsen og her de store pengene ligger. Men skal du ha premium-produkter så må du punge ut, og her ksuffer Titan ikke. Nei, det er klart at hvis man ser på det som ytelse per krone som arni90 påpeker er det et irrelevant og ubetydelig kort. Slik som 680 også i høyeste grad er etter 670 ble sluppet. Hvis det stemmer at ytelsen på Titan ligger opptil 70% høyere enn 680 er det jo definitivt det jeg vil kalle et stort hopp i ytelse, og i så tilfelle, ikke så dyrt i forhold til hva man selger 690 eller ares 2 for. Jeg er en blodfan av utvikling, så jeg hopper av glede om Titan innfrir, selv om jeg ikke er i markedet for å kjøpe et slikt kort selv. Grunnen er at neste generasjon av "normale" toppkort vil yte fantastisk og dermed dra med seg standarden oppover i større grad enn om Titan aldri hadde blitt sluppet. Hvis det skjer at slike kort drar med seg en spillutvikling som drar nytte av det må jo bare jeg også ha et eller to. Men jeg tviler jo på at det skjer. Ser da bort ifra idiot-spill som Metro og FSX som helt klart ikke har et grafisk uttrykk som rettferdiggjør ytelseskravene i forhold til penere og snillere spill. Lenke til kommentar
Chavalito Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Jo, men etter som jeg kunne tenke med 2 x Titan i SLI, så blir det 15 store lapper, og det blir litt for mye. Men som nevnt, yter Titan ca 80 % av 690, så er det vel verdt pengene. Selv om madamen ikke vil være enig. For min del vil det bli et stort sprang fra GTX 580 til GTX Titan, selv om prisen fra mitt synspunkt er hårreisende. Lenke til kommentar
Andrull Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Jo, men etter som jeg kunne tenke med 2 x Titan i SLI, så blir det 15 store lapper, og det blir litt for mye. Men som nevnt, yter Titan ca 80 % av 690, så er det vel verdt pengene. Selv om madamen ikke vil være enig. For min del vil det bli et stort sprang fra GTX 580 til GTX Titan, selv om prisen fra mitt synspunkt er hårreisende. Tør ikke tenke meg hva madammen hadde sagt om jeg hadde slått til på noe slikt, eller brukt 15K på to "små kort". Lukter at det ville kostet en langweekend med shopping i London for å veie opp. (grøsser bare på tanken av bortkastethet). XD Som om disse damene ikke har nok klær fra før! Men ja, det ser alt for tomt ut om man ikke har minst to eller helst tre skjermkort... :S Lenke til kommentar
Nizzen Skrevet 19. februar 2013 Forfatter Del Skrevet 19. februar 2013 (endret) Er vel bedre å bruke 15k på skjermkort, enn å bruke 15k på kjerringa Du aner ikkje hvor mye jeg må bestikke dama pga hw kjøp Endret 19. februar 2013 av Nizzen 5 Lenke til kommentar
BMWCoupeFtw Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Går ett Titan i BitFenix Prodigy? Hket festes vel litt snålt i det kabinettet? Lenke til kommentar
Teodor1979 Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 (endret) Bestikke for helvete?!? Jeg har min konto, hun har sin!!! Hun har da ingenting med hva jeg bruker mine penger på!!! Endret 19. februar 2013 av TXD1979 Lenke til kommentar
Teodor1979 Skrevet 19. februar 2013 Del Skrevet 19. februar 2013 Går ett Titan i BitFenix Prodigy? Hket festes vel litt snålt i det kabinettet? Det bør gå fint. Titan er vel dobbelslot, å lengden er ikke 30cm engang, så hvis du fjerner øverste "bur" for harddisker så går d gullfint Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå