Traxco Skrevet 23. april 2004 Del Skrevet 23. april 2004 var det ikke i 2005 dem skulle lage 10 GHz prosessorer og i 2002(slutten av året)sa de at ble kom sikker ut 4ghz i løpet av 2003.. kommer vel sikker ikke noe 4ghz får tidlig neste år viser seg at er ikke bestandig det går så fort som man tror.. Lenke til kommentar
Simen1 Skrevet 23. april 2004 Del Skrevet 23. april 2004 (endret) På sikt tror jeg rene grafikkort blir overflødige - bare CPU'ene blir kraftige nok så trenger vi ikke en 'ekstern' enhet som tar seg av grafikken. Enig! Jeg lurer bare på når denne sammenpleisingen vil skje. Egentlig er dagens CPU'er mer enn raske nok til å kjøre alt av 2D + 3-4 år gamle 3D-spill i software. Dermed bør det vel dukke opp noen CPU+GPU brikker snart for lavprismarkedet. Nå som AMD har integrert minnekontrolleren i CPU så er vi vel litt på vei. Transmeta har tatt dette ennå et hakk og integrert AGP-kontrolleren også i sine CPU'er. Da er det vel ikke lenge før southbridge og GPU også blir "slukt" av CPU'en. I hvertfall i bærbare PC'er og andre kompakte, lydløse, små systemer. Men jeg tror nok at high-end GPU'er vil forbli egne kort i ennå mange år. Jo, men det blir jo vanskeligere og vanskeligere grunnet varmeutvikling og sånn. Har faktisk hørt om folk som tviler på at man noen gang kommer over 100 GHz-grensa på grunn av varmeutvikling... Du har rett! For 10 år siden hadde vi 5-10W CPU'er, i dag er de fleste på mellom 50 og 100W. Hvis vi skal holde samme økningen i MHz/ytelse de neste 10 årene så blir CPU'ene da ca 500-1000W. Det vil si at det kanskje ikke er nok med ekstreme vannkjølesystemer med høytrykks turbopumper, sølvblokker og radiatorer på størrelse med en vaskemaskin. Siden det er lite trolig at folk vil ha slike maskiner i "den barbare og trådløse fremtiden" så må man heller tenke på hva man klarer å utvikle innenfor rammene på dagens 50-100W og kanskje mindre enn det også. Hvis vi tenker oss hvor langt vi i dag ville vært med varmeutviklingen fra 1994, altså 5-10W i dag så er det snakk om rundt 1GHz. Hvis vi så overfører det til dagens teknologi og sier at vi skal holde samme utvikling i tiden fremover uten å øke varmeutviklingen fra 50-100W og oppover så vil vi trolig ha 50-100W CPU'er på rundt 10GHz, evt om 5-10W CPU'er på 3-4 GHz. Endret 23. april 2004 av Simen1 Lenke til kommentar
Simen1 Skrevet 23. april 2004 Del Skrevet 23. april 2004 For 10 år siden hadde vi 4mhz (Har en liggende her faktisk) Hvis du hadde en 4MHz CPU i 1994 (samme år som Pentium 100MHz ble lansert) så hang du jo ganke langt etter teknologisk. I 1994 fikk jeg selv en 4MHz 8088 gratis fordi den var utdatert. (angrer litt på at jeg kastet det skjeldne klenodiet) Optdisk cpu er jo genialt.Jeg ser ikke hva som er så genialt med det. Lys er bare ørlite raskere enn elektroner, men på grunn av plasskrevende optiske komponenter så blir avstandene mellom hver komponent svært mye større. Kombinasjonen ca samme hastighet og mye lengre avstander betyr mye tregere kretser. Samtidig blir nok aldri kostnadene å komme ned på fornuftige nivåer. Optiske CPU'er er altså etter min mening en svært dårlig ide som de fleste sikkert har strøket fra den realistiske ønskelisten sin. Lenke til kommentar
Stig-Arne Skrevet 23. april 2004 Del Skrevet 23. april 2004 Nei.. det blir hverken optisk eller elektroner... Blir noe ala meneskehjernen.. altså i 2014.. Tenk å hadd den speed`en på en hardisk som hukommelsen til hjernen ? Spinnvillt.. ligger kanskje ennå lengre inn i fremtiden.. men mener de har fundert på noe lignende Lenke til kommentar
Goophy Skrevet 23. april 2004 Del Skrevet 23. april 2004 Det jeg synes var litt søkt var at de satt opp 30TB harddisker om 10 år. Kanskje mulig å lage det, men hva skal vanlige folk med det? Har du 1TB idag tar det lang tid før du går tom. Vil heller tro at man trenger mindre hd'er, da man vil finne opp bedre og mer effektive metoder å komprimere filer på... Lenke til kommentar
Gjest QbeC- Skrevet 23. april 2004 Del Skrevet 23. april 2004 For 10 år siden hadde vi 4mhz (Har en liggende her faktisk) Hvis du hadde en 4MHz CPU i 1994 (samme år som Pentium 100MHz ble lansert) så hang du jo ganke langt etter teknologisk. I 1994 fikk jeg selv en 4MHz 8088 gratis fordi den var utdatert. (angrer litt på at jeg kastet det skjeldne klenodiet) Optdisk cpu er jo genialt.Jeg ser ikke hva som er så genialt med det. Lys er bare ørlite raskere enn elektroner, men på grunn av plasskrevende optiske komponenter så blir avstandene mellom hver komponent svært mye større. Kombinasjonen ca samme hastighet og mye lengre avstander betyr mye tregere kretser. Samtidig blir nok aldri kostnadene å komme ned på fornuftige nivåer. Optiske CPU'er er altså etter min mening en svært dårlig ide som de fleste sikkert har strøket fra den realistiske ønskelisten sin. 10 år siden. Kansje 15 for å være mere detaljert da. Men har både en 12Mhz og en 4 liggende her Elektroner og optik er nesten like raskt ja, men forskjelden er der. Å om 10år så har ma sikkert optiske sendere som kan sende med 1000mb+ sekundet. Å da vil sikkert cpuene være 100Ghz Lenke til kommentar
Malvado Skrevet 23. april 2004 Del Skrevet 23. april 2004 Optiske CPU'er er altså etter min mening en svært dårlig ide som de fleste sikkert har strøket fra den realistiske ønskelisten sin. En kombinasjon av "gammel teknologi" + optisk er jo kanskje en løsning. Fremtiden blir vel hybride løsninger for å komme over dagens problemer. Er jo heller ikke urealistisk at ny viten kan faktisk gjøre optisk teknologi bedre. Lenke til kommentar
Simen1 Skrevet 23. april 2004 Del Skrevet 23. april 2004 ahh.... nu skal jeg klokke min 100ghz til 140ghz med luft kjøling. Om varmeutviklingen øker med 10x slik som det forrige tiåret så må du regne med at microplex går gode tider i møte med CPU'er som yter 500-1000W orginalt og sikkert 1000-1500W overklokket. Nvidia har begått en klassisk tabbe, nemlig unnlatt å se på det økonomiske aspektet ved dette. Det er ingen tvil om at alt de spår kan lages, men spørsmålet er om det vil lønne seg å lage det! Enig! Det å utvikle en ny prosess (f.eks 130nm->90nm) har blitt dyrere og dyrere for hvert trinn. For 10 år siden kostet en slik krymping ca 1 milliard dollar, mens det nå koster ca 10 millarder dollar. (ta kostnadene med en stor klype salt, men det ligger i det høvet i hvertfall). Om utviklingen fortsetter blir det kanskje ikke økonomisk å utvikle nye prosesser lengre. Men jeg er nok ikke like enig i at det "ikke er noen tvil om at alt de spår kan lages". De siste ti årene har industrien taklet mange tekniske utfordringer men det er ikke noen garanti for at man vil takle alle utfordringene som dukker opp det neste tiåret. En annen del av det økonomiske perspektivet er at for 10 år siden så ville raskere PC'er bety bedre ytelse i word, til lyd, video, rendering, spill, tegning og en rekke andre ting. Per i dag så er selv de billigste personlige PC'ene raske nok til det meste (det eneste store unntaket er spill). Dvs. at det er nesten kun spillytelse som driver fremover utviklingen nå. På ett eller annet tidspunkt vil dette stoppe. Kanskje som følge av at spill med alt for mye flere detaljer blir for dyre å utvikle, eller at folk er fornøyde med kvaliteten på 2004-spill. (hallo, folk sitter jo og spiller CS og starcraft i massevis ennå). Dermed vil det på et tidspunkt ikke bli noe særlig behov for raskere PC'er, og utviklingen går kanskje over på helt andre områder. F.eks økning av mengde ram og harddisk, bedre skjermer, billigere billig-PC'er som likevel er bra nok til det meste, og miniatyrisering. Kanske vi alle går rundt med syltynne notebook'er i 2014 som er super til 2004-spill, har digre harddisker, ramdisk til OS'et osv. Lenke til kommentar
Malvado Skrevet 23. april 2004 Del Skrevet 23. april 2004 Du har et poeng der simen1, men du glemmer en ting: Det finnes alltid noen som ønsker en raskere og kraftigere maskin, likeså som det finnes di som alltid skal ha nye biler. Dessuten så er det bare et tidspørsmål før nye maskiner får nye aplikasjoner, for eksempel : robot ai, traffik kontrol, utvikling etc... Dessuten så hjelper utvilsomt all denne prossersor kraften utviklingen av ny teknologi og forskning. Lenke til kommentar
genesis Skrevet 23. april 2004 Del Skrevet 23. april 2004 Du har et poeng der simen1, men du glemmer en ting: Det finnes alltid noen som ønsker en raskere og kraftigere maskin, likeså som det finnes di som alltid skal ha nye biler. enten må de være mange, eller ekstremt rike. Ting blir ikke lagd, om ikke noen tjener på det. Hvorfor hopper man ikke rett over på 20 nanometer? (altså, bruker dagens penger til å forske ¨på dette istedet for neste trinnet nedover) Ene og alene for å holde liv i markedet? Så om en var perverst rik, kunne en selv "gjort" dette. Og så lansert noe monster greier, bare for PUR H. ? fjernet et par arbeidsplasser? stresset/presset nåværende selskaper over på ny teknologi? Lenke til kommentar
Simen1 Skrevet 23. april 2004 Del Skrevet 23. april 2004 (endret) Det jeg synes var litt søkt var at de satt opp 30TB harddisker om 10 år. Kanskje mulig å lage det, men hva skal vanlige folk med det? Har du 1TB idag tar det lang tid før du går tom.Vil heller tro at man trenger mindre hd'er, da man vil finne opp bedre og mer effektive metoder å komprimere filer på... Bedre komprimering vil enten medføre kvalitetstap eller lav komprimeringsgrad. (Jeg snakker kun om lyd/bilde/video siden det ikke logisk å tro at man vil spare noe særlig med plass på å komprimere bittesmå tekstfiler og annet som likevel tar lite plass). Men framgangen er svært liten. Nye komprimeringsteknikker som .ogg .wma, divx og de nye .rm og .mov-formatene komprimerer bare bittelitt bedre enn de gamle formatene når man har som forutsetning å oppnå samme kvalitet. Dvs. at det neppe er særlig mange prosentene med diskplass å hente på nye komprimeringsteknikker. Sansynligvis vil folk oftere gå over til tapsløs komprimering (f.eks .flac) og dermed får større plassbehov. Folk vil nok også i større grad lagre filmer og musikk på harddisken enn på CD/DVD/Blyeray-plater på grunn av pris og enkelhet. Samtidig vil nok TV-titting med timeshift og opptak av TV-programmer bli mye mer populært. Dvs. behov for mye mer diskplass. Jeg ser for meg at jeg fint kan bruke opp noen TB om få år. 30TB vil nok åpne for opptak og timeshift i mye bedre kvalitet. F.eks 1080p-HDTV format med lav komprimering. Jeg tror mindre på at folk skal få bruk for 30x raskere CPU'er enn at de får bruk for 100x større harddisker enn nå. Optiske CPU'er er altså etter min mening en svært dårlig ide som de fleste sikkert har strøket fra den realistiske ønskelisten sin. En kombinasjon av "gammel teknologi" + optisk er jo kanskje en løsning. Fremtiden blir vel hybride løsninger for å komme over dagens problemer. Er jo heller ikke urealistisk at ny viten kan faktisk gjøre optisk teknologi bedre. Tja, der signaler skal sendes et lite stykke uansett så kan nok optisk være en god metode på grunn av ekstremt lavt plassbehov. Kan tenke meg at hovedkortbusser og minnebusser kan gå over til optisk for å gjøre plass for miniatyrisering, men optisk blir neppe brukt til kommunikasjon innad på samme brikke. Heller ikke til personlig internett/nettverk fordi det neppe vil dukke opp noe behov for over 1Gbit/s til personlig bruk. Ny teknologi kan sikkert krympe optiske kretser en god del men det er fysisk umulig å sende lys gjennom deler som er mindre enn lysets bølgelengde (400-700nm). Dermed vil de optiske komponentene aldri bli så små som de elektroniske komponentene. Siden tid = hastighet * fart og hastigheten på lys bare er ca 10-20% raskere enn elektriske signaler i kobber og siden avstandene i kobberet vil være langt mindre enn i den optiske kretsen så vil de optiske kretsene alltid ligge ytelsemessig betydelig bak de elektriske krretsene. Endret 23. april 2004 av Simen1 Lenke til kommentar
Simen1 Skrevet 23. april 2004 Del Skrevet 23. april 2004 genesis Skrevet: 23/04/2004 : 17:30]Du har et poeng der simen1, men du glemmer en ting: Det finnes alltid noen som ønsker en raskere og kraftigere maskin, likeså som det finnes di som alltid skal ha nye biler. enten må de være mange, eller ekstremt rike. Ting blir ikke lagd, om ikke noen tjener på det. Riktig. Det vil bli stadig færre som har behov for noe raskere og dermed stadig færre som er villige til å betale i potten for utviklinga. Til slutt flater det ut eller stopper det opp når ingen ser vitsen med noe raskere. (Hvis du har over 200FPS i alle eksisterende og kommende spill på 2048x1536 med 16xAA, hva er da vitsen med å kjøpe noe nytt?) Hvorfor hopper man ikke rett over på 20 nanometer? (altså, bruker dagens penger til å forske på dette istedet for neste trinnet nedover) Hvorfor stoppet ikke FORD å utvikle nye biler på 70-tallet for å heller investere i en uber-bil som skulle bli lanser på 90-tallet? Fordi ingen ville kjøpt 1970-modellen deres etter 70-tallet og dermed finansiert utviklinga. De ville også gått glipp av en drøss med erfaringer som de andre bilmerkene ville fått ved prøving og feiling i de 20 årene. Resultatet ville nok blitt at 90-tall modellen til ford ville blitt en teknisk katastrofe. (for ikke å snakk om økonomisk katastrofe) Lenke til kommentar
Malvado Skrevet 23. april 2004 Del Skrevet 23. april 2004 (endret) Tja, der signaler skal sendes et lite stykke uansett så kan nok optisk være en god metode på grunn av ekstremt lavt plassbehov. Kan tenke meg at hovedkortbusser og minnebusser kan gå over til optisk for å gjøre plass for miniatyrisering, men optisk blir neppe brukt til kommunikasjon innad på samme brikke. Heller ikke til personlig internett/nettverk fordi det neppe vil dukke opp noe behov for over 1Gbit/s til personlig bruk. Ny teknologi kan sikkert krympe optiske kretser en god del men det er fysisk umulig å sende lys gjennom deler som er mindre enn lysets bølgelengde (400-700nm). Dermed vil de optiske komponentene aldri bli så små som de elektroniske komponentene. Siden tid = hastighet * fart og hastigheten på lys bare er ca 10-20% raskere enn elektriske signaler i kobber og siden avstandene i kobberet vil være langt mindre enn i den optiske kretsen så vil de optiske kretsene alltid ligge ytelsemessig betydelig bak de elektriske krretsene. Hadde mest tenkt på systemer med flere cpu'er med optisk link mellom hver, har mer og mer troen på at morgendagens datamaskiner blir en kombinasjon av flere dedikerte cpuer som utgjør så og si 50-90% av datamaskinens overflate. Om man fortsetter miniatyriseringen på dagens cpuer betyr det at man vil konsentrere x ganger varme på en mindre overflate, noe som faktisk kan være ganske plagsomt med tanke på elektromigrasjon og kjøleløsninger. Man vill uansett kjøpe en ny pc når det har gått noen år, mulig at salget stagnerer på et viss punkt, men det er jo helt avhengig av morgendagens krav til teknologi. Morgendagens Far Cry blir vell du i hovedrollen i en virtuell verden hvor alt simuleres sanntid, med feedback til kroppen (damage kontroll) og hvor mulighetene er grenseløse... Krever sikkert en del kraft et slikt spill ja... Forresten, det er fortsatt veldig mange som faktisk kjøper seg det siste innen cpu og gpu, selv om det strengt tatt ikke er behøvelig for dagens spill... Endret 23. april 2004 av Malvado Lenke til kommentar
nObedienz Skrevet 23. april 2004 Del Skrevet 23. april 2004 Helt enig med Knick Knack, nVidia virker ikke akkurat som den skarpeste kniven i skuffen, med sine mange tabber - f.eks 3dMark skandalen som antakligvis gjorde sitt til at mange kunder deserterte til ATi. Dette er jo bare et eksempel på deres dårlige etikk inad. nVidia tapte dessuten store markedsandeler når ATi satset skikkelig på sine Radeon-kort, noe som kunne vært unngått hadde de bare tittet inn i sin krystallkule tidligere.. Hadde det kommet en tredje bedrift på banen med samme hensikt som nVidia og ATi, er jeg sikker på at nVidia hadde tapt enda mer av sine markedsandeler - i motsetning til ATi. Knick Knack sin teori om den eksponentielle utviklingen tror jeg også stemmer ganske bra med virkeligheten Blir vel muligens nødt til å spise i meg disse ordene om 10 år Lenke til kommentar
Simen1 Skrevet 23. april 2004 Del Skrevet 23. april 2004 Movaldo: Mange dedikerte CPU'er blir nok svært dyrt å produsere. Ikke bare fordi ekstremt høyrent silisium er ekstremt dyrt å produsere (energikrevende), men også fordi det krever mye koblinger, og kjøleenheter som dekker alle disse og takler den samlede varmeutviklingen. Det koster penger (strømregning) å ha en PC som bruker 1000W, samt at det er svært upraktisk i land der man trenger luftkjølere i husene og ikke en varmeovn. Jeg tror nok heller at bærbarhet, trådløshet, mindre strømforbruk og sammenslåing av brikker blir fremtiden. Lenke til kommentar
Betroz Skrevet 23. april 2004 Del Skrevet 23. april 2004 Hvis dere har sett demonstrasjonen av Unreal3 engine og den grafikken den kan tilby oss, så trenger vi faktisk noe alla det nVidia ser i krystallkula demmes. I 2014 vil spilla ha like bra grafikk som det beste vi ser av dataanimasjoner i morgendagens Hollywood effekt filmer! Så all den datakraften vil aldri være bortkastet dere... Men en liten virkelighets sjekk : Ser man på den verdenen vi faktisk lever i med krig og stadig forandrende klima på Jorda, så vil ikke fantasiene til nVidia materialisere seg! Hvis menneskene fortsatt finnes på Jorda, så vil vi leve i en global politistat alla Orwells 1984! Synes jeg er negativ? Alle med 2 fungerende hjerneceller burde kunne se at den rettningen vi mennesker går mot leder bare til mindre frihet og materialistisk luksus! Lenke til kommentar
Malvado Skrevet 23. april 2004 Del Skrevet 23. april 2004 (endret) Simen1:Tar til sikte at morgendagens cpuer benytter mindre strømkrevende teknologi og at man har miniatyrisert hk,cpu,minne,etc... Uansett så blir vell det sånn at man har presset flere komponenter (gpu,apu etc) inn på et hk, i steden for dagens pci / agp / isa løsning. Hvem har sagt at morgendagens teknologi bygger på dagens silisiumbrikker? Edit: byttet energi med teknologi. Endret 23. april 2004 av Malvado Lenke til kommentar
Simen1 Skrevet 23. april 2004 Del Skrevet 23. april 2004 Betroz: Kloke ord, men jeg tror nok at verden vil overleve seg selv. Husk at selv om Nordkorea og en del andre land er på ville veier så tror jeg ikke at verden vil dukke under av den grunn. Med unntak av nordkorea, og enkelte land i Afrika så vil jeg påstå at nesten alle landene i verden har forbedret levestandarden for innbygerene. Nå som global kommunikasjon øker forståelsene for andre land og mennesker så tror jeg at de fattige landene vil bli rikere på bekostning av de rike. Samtidig vil styrefomene bedre seg og befolkningsøkningen i fattige land begrense seg. Jeg er nok optimist, men mange ting tyder på at timg vil fortsette å bli bedre selv om det fortsatt vil utkjempes mange kriger. Selv økonomisk råskap fra store selskaper tror jeg vil minke i fremtiden. Verden blir definitivt fyllt av mer materialistisk luksus og mindre frihet til å gjøre gale ting, men jeg tror ikke friheten til å velge blandt riktige ting vil bli så mye mindre. Tenk bare på raseskillet i USA de siste hundre årene, eller miljøforbedringene fra den tiden alt gikk på kull. Lenke til kommentar
Elyas Machera Skrevet 23. april 2004 Del Skrevet 23. april 2004 100 GHz høres helt spinnvilt ut ... lure på hva vi kommer til å bruke det på Hawk Duke Nukem Forever.... Gullkorn Lenke til kommentar
Elyas Machera Skrevet 23. april 2004 Del Skrevet 23. april 2004 Synes jeg er negativ? Alle med 2 fungerende hjerneceller burde kunne se at den rettningen vi mennesker går mot leder bare til mindre frihet og materialistisk luksus! Og bra er det, vi bruker allerede alt for mye ressurser i forhold til de fattige landene. Jeg kan ikke helt se forskjellen på hva vi i Vesten gjør nå, i forhold til andre folkemord, f. eks på indianerne... Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå