Scoops Skrevet 17. november 2010 Del Skrevet 17. november 2010 Sandy Bridge lanseres på CES 2011. Les mer Lenke til kommentar
MRSHOOTABBYz Skrevet 17. november 2010 Del Skrevet 17. november 2010 Hvordan vil GPU i CPU fungere? Mtp tilkoblinger Lenke til kommentar
Dudeson Skrevet 17. november 2010 Del Skrevet 17. november 2010 Vil ha uten jallagpu i brikken Lenke til kommentar
Agentspoon Skrevet 17. november 2010 Del Skrevet 17. november 2010 Ja, hva er egentlig bakgrunnen for at de gjør dette? Automatisk bytte mellom integrert og dedikert grafikk, eller en dynamisk overgang til og med? Isåfall kan den integrerte GPU'en skrues helt av til tider? Lenke til kommentar
camxer Skrevet 17. november 2010 Del Skrevet 17. november 2010 (endret) Kommer sikkert til å fungere akkurat likt nåværende core i3/i5 som trenger f.eks et hovedkort med H55 chipset for å så kunne benytte kortet som ligger på prosessoren. Hva er problemet med "jallagpu" integrert på prosessoren? Den kan sikkert skrus helt av i bios og da trenger du ikke bekymre deg over høyere varmeutvikling Dudeson Endret 17. november 2010 av camxer Lenke til kommentar
sannheten_666 Skrevet 17. november 2010 Del Skrevet 17. november 2010 I andre halvdel av 2011 vil SB komme i en high end - utgave uten innebygd GPU. Dessuten vil P67 brikkesett ikke gi mulighet for å bruke den innebygde GPU`en, såvidt jeg har forstått. Lenke til kommentar
anotherzen Skrevet 17. november 2010 Del Skrevet 17. november 2010 San d'Oria \o/ Lenke til kommentar
Ar`Kritz Skrevet 17. november 2010 Del Skrevet 17. november 2010 Å ha en egen integrert GPU som tar seg av alt unntatt spilling, er etter min mening helt perfekt. Jeg gleder meg i alle fall til Intel's første 32nm 4-kjerneprosessor skal berike mitt visuelle liv. Lenke til kommentar
Kaymeerah Skrevet 17. november 2010 Del Skrevet 17. november 2010 Hvordan vil GPU i CPU fungere? Mtp tilkoblinger Tydligvis ikke fått med deg at AMD har prøvd å få "AMD Fusion" til å fungere i årevis? Det er fullt mulig, men high-end GPUer på en brikke går nok ikke så bra enda ihvertfall. Lenke til kommentar
Gjest Slettet+3165 Skrevet 17. november 2010 Del Skrevet 17. november 2010 Å ha en egen integrert GPU som tar seg av alt unntatt spilling, er etter min mening helt perfekt. Jeg gleder meg i alle fall til Intel's første 32nm 4-kjerneprosessor skal berike mitt visuelle liv. Enig, mangler bare en funksjon på skjermkortet som kutter ut all aktivitet når enn bare sitter på skrivebordet å gjør enkle og ikke visuelt tunge applikasjoner. Kall det at skjermkortet går i "dvalemodus" om du vil :-) Kunne spart en ikke helt ubetydelig mengde strøm i heimen i løpet av et år på det :-) Lenke til kommentar
bOMS Skrevet 17. november 2010 Del Skrevet 17. november 2010 (endret) Anandtech har en preview som tar bort de flest spenningsmomenter http://www.anandtech.com/show/3871/the-sandy-bridge-preview-three-wins-in-a-row Endret 17. november 2010 av bOMS Lenke til kommentar
efikkan Skrevet 17. november 2010 Del Skrevet 17. november 2010 Så vidt jeg kan se tilbyr Sandy Bridge i hovedsak tilsvarende ytelse som Nehalem men med en god del lavere effektforbruk, integrert GPU i kraftigere modeller og noe raskere L3-cache. Det ser ikke ut som Sandy Bridge vil erstatte de øverste i7-modellene. Å ha en egen integrert GPU som tar seg av alt unntatt spilling, er etter min mening helt perfekt. Jeg gleder meg i alle fall til Intel's første 32nm 4-kjerneprosessor skal berike mitt visuelle liv. Enig, mangler bare en funksjon på skjermkortet som kutter ut all aktivitet når enn bare sitter på skrivebordet å gjør enkle og ikke visuelt tunge applikasjoner. Kall det at skjermkortet går i "dvalemodus" om du vil :-) Kunne spart en ikke helt ubetydelig mengde strøm i heimen i løpet av et år på det :-) Da burde du vurdert deg et skjermkort med god tilpassing av ytelse, eventuelt stille det inn. Det ville vært mer å spare om alle operativsystemer rendret vinduer fullstendig på GPU som ville fjernet en god del belastning for CPU spesielt for svakere maskiner, men selv en integrert løsning burde klare dette. Lenke til kommentar
Anders Jensen Skrevet 17. november 2010 Del Skrevet 17. november 2010 Det blir et spennende nyår for CPU mikroarkitektur. Sandy bridge markerer en endring i filosofien fra Nehalem, Core og P3 hvor en nå drar inn erfaringer fra P4 i varmen igjen. Dessuten er det nettopp annonsert at Poulson skal beskrives i detalj på ISSCC (International Solid State Circuits Conference). Foreløpig er det kjent at det blir høyere frekvens, 12 instruksjoner i bredden, 8 kjerner og fler enn 2 tråder per kjerne... Dette setter det meste inne CPU arkitektur i skyggen. Lenke til kommentar
Kynxx Skrevet 17. november 2010 Del Skrevet 17. november 2010 Jeg gleder meg til den dagen software faktisk begynner å utnytte flere cpukjerner på en skikkelig måte. Dette med gpu i cpu er en blindvei føler jeg. Men intel skal ha klapp på skuldra for å være innovative. Lenke til kommentar
GullLars Skrevet 17. november 2010 Del Skrevet 17. november 2010 (endret) Kynxx, om AMD får på plass skikkelige og buggfrie openCL drivere for 5000/6000-seriene og alle kommende serier kan det bli interresant. Om utviklere gjør en liten innsats og skriver moduler for open CL for problemer som er enkelt parallelliserbare kan det gi en enorm boost. Zacate og ontario, som blir konkurrenter mot Atom og ULV kommer med 80 shadere på 500mhz (250 for low-end), og kan potensielt gi 16/32bit float ytelse på nivå med high-end CPUer for visse typer oppgaver. Endret 17. november 2010 av GullLars Lenke til kommentar
Bullseye88 Skrevet 17. november 2010 Del Skrevet 17. november 2010 Å ha en egen integrert GPU som tar seg av alt unntatt spilling, er etter min mening helt perfekt. Jeg gleder meg i alle fall til Intel's første 32nm 4-kjerneprosessor skal berike mitt visuelle liv. Enig, mangler bare en funksjon på skjermkortet som kutter ut all aktivitet når enn bare sitter på skrivebordet å gjør enkle og ikke visuelt tunge applikasjoner. Kall det at skjermkortet går i "dvalemodus" om du vil :-) Kunne spart en ikke helt ubetydelig mengde strøm i heimen i løpet av et år på det :-) nVidia Optimus du er på utkikk etter? http://www.anandtech.com/show/2934/nvidia-optimus-truly-seamless-switchable-graphics-and-asus-ul50vf/3 Lenke til kommentar
efikkan Skrevet 18. november 2010 Del Skrevet 18. november 2010 Kynxx, om AMD får på plass skikkelige og buggfrie openCL drivere for 5000/6000-seriene og alle kommende serier kan det bli interresant. Om utviklere gjør en liten innsats og skriver moduler for open CL for problemer som er enkelt parallelliserbare kan det gi en enorm boost. Zacate og ontario, som blir konkurrenter mot Atom og ULV kommer med 80 shadere på 500mhz (250 for low-end), og kan potensielt gi 16/32bit float ytelse på nivå med high-end CPUer for visse typer oppgaver. Det interessante er at Intel faktisk fronter OpenCL ganske mye om dagen og kom akkurat med en ny SDK. Men som du sier kan selv en relativt "svak" GPU kunne gi en solid boost til tyngre programmer, og har regnekraft som lett kan måle seg med en kraftig i7-CPU. Generelt sett vil arbeidsoppgaver som består av mange små enkle regneoperasjoner mye lettere og mer effektivt kunne parallelliseres på en GPU enn en CPU. Hvis arbeidsoppgaven må synkroniseres er det faktisk ganske vanskelig å utnytte mange kjerner på CPU uten stor overhead. Lenke til kommentar
Kaymeerah Skrevet 18. november 2010 Del Skrevet 18. november 2010 Jeg gleder meg til den dagen software faktisk begynner å utnytte flere cpukjerner på en skikkelig måte. Dette med gpu i cpu er en blindvei føler jeg. Men intel skal ha klapp på skuldra for å være innovative. Er du sprø? Det var AMD som startet hele denne greien, ikke Intel. Ikke nok med det, men som allerede nevnt: Hvis man får skikkelig OpenCL kjørende på chippen kan det bli bra. Lenke til kommentar
SVD Skrevet 18. november 2010 Del Skrevet 18. november 2010 Jeg for min del venter på at CPU blir integrert i GPU Lenke til kommentar
bOMS Skrevet 18. november 2010 Del Skrevet 18. november 2010 (endret) Jeg gleder meg til den dagen software faktisk begynner å utnytte flere cpukjerner på en skikkelig måte. Dette med gpu i cpu er en blindvei føler jeg. Men intel skal ha klapp på skuldra for å være innovative. Er du sprø? Det var AMD som startet hele denne greien, ikke Intel. Ikke nok med det, men som allerede nevnt: Hvis man får skikkelig OpenCL kjørende på chippen kan det bli bra. Hvem som sier hva høyt først betyr ikke hvem som jobbet med det først. Vil gjette på at dette er noe begge firma så ville komme og Intel mente de hadde nok interne resurser til å klare jobben, mens AMD så seg nødt til å annskaffe ATi for å ruste seg for fremtiden. Endret 18. november 2010 av bOMS Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå