ltdata Skrevet 19. januar 2011 Del Skrevet 19. januar 2011 Har en kamerat av meg som mener at vi snart har nådd et punkt i utviklingen der det ikke skjer store utviklingen når det gjelder data. At det vil bli små forbedringer, men at det ikke skjer noe mer revolusjonerende. Intelligensen til menneskene stopper oss fra videre utvikling. Så vidt jeg husker så gikk vel datautvklingen mye raskere fra 1990-2000 enn det den har vært fra 2000-2010? Noen som er uenig/enig og hvorfor? Lenke til kommentar
Faller Skrevet 19. januar 2011 Del Skrevet 19. januar 2011 (endret) Nå har ikke jeg jeg peiling på år osv. for når produkter ble utgitt, men men selv tror jeg at kompisen din har feil. Se på Intel Core 2 Duo, den kom i 2006, og på 5 år har man fått prosessorer som har blitt ganske mye mer effektive! Se på f. eks nyeste fra Intel (Sandy Bridge) De er jo opptil 50/60% mer effektive enn forrige generasjon i5/i7-serie. Så jeg vil nok tippe at prosessoreffektiviteten har gått opp noe sånt som 150/200% et sted (hvis ikke mer). Husker at Intel Pentium m/ 3,06 GHz var det råeste når jeg var yngre. Den var jo 1-kjerne, mens idag har man prosessorer med klokkefrekvens opp mot 3,5GHz og 4-kjerner. Bare der har man en stor forbedring ifht 90-00. Den kan håndtere ganske mye mer informasjon enn hva Pentium noen sinne kunne gjøre. Så har man skjermkort som har blitt utrolig mye kraftigere. Her har jeg ikke klart å følge like godt med, men man kan nevne sentrale punkter som GDDR3 og GDDR5 som en fordel her. RAM har jo også fått en betraktelig økning i hastighet og størrelse. Her er det ikke bare størrelsen som har gått opp, men også antall MHz. Den har jo en del og si den også. Man har klart å gå fra DDR-brikker til dagens DDR-3-brikker. De er ganske MYE raskere. Det var vel Samsung som påsto at de hadde de første fysiske DDR-4-brikkene(?) Så her går også utviklingen videre. Ikke minst se på UEFI som erstatter BIOS. Nå kan man få laptoper som har oppstartstid på under 10 sek. prøv det med BIOS-basert pc. Ikke det at jeg har mye peiling eller noe sånt, men jeg tror nok ikke intelligensen setter en stopper for forskerne. Man finner alltid nye måter å gjøre produkter mer effektive på. En dag må man vel gå over fra Von Neumann arkitekturen til noe nytt for å bli enda mer effektive vil jeg tro. Gleder meg til å se andre svar i tråden også Mvh Faller edit: skrev mer om RAM og la til BIOS/UEFI Endret 19. januar 2011 av Faller Lenke til kommentar
kjermy Skrevet 19. januar 2011 Del Skrevet 19. januar 2011 Har hørt det var folk på 1800-tallet som ville ha patentkontoret nedlagt, fordi alt som kunne bli funnet opp var funnet opp. Ingen vet hva slags teknologi fremtiden vil bringe, men ny teknologi vil nok komme. At vår intelligens ikke strekker til tviler jeg på, da neste generasjon har kunnskap fra de forrige generasjonene og så videre. Dette gjelder innen omtrent alt, medisin, vitenskap, mekanikk, musikk, data og mye mer. Lenke til kommentar
StormEagle Skrevet 20. januar 2011 Del Skrevet 20. januar 2011 (endret) Nei datautviklingen går fortsatt fremmover i like stor hastighet. Sjekk ut Moores lov: http://en.wikipedia.org/wiki/Moore's_law Den har holdt helt fremm til i dag. Og det som evt i fremmtiden vil stoppe moores lov er ikke mennsklig intelligens (for man baserer seg jo på tideligere kunnskap når man lager noe nytt, man finner ikke opp hjulet på nytt hver gang man skal lage en ny bil). Det som evt vil stoppe moores lov er fysiske egenskaper (eller egenklig elektriske egenskaper i nano skala). Kretsene må rett og slett bli så små etter hvert at det ville være umulig å kontrolere den elektriske strømmen i dem (den vil hoppe over fra en transistor til en anen, ol.). men da kan man f.eks gå over til optiske metoder i stedenfor elektriske som vil utsette moors undergang litt lenger, men etterhvert vil man ikke greie å opprettholde moores lov lengere. Men jeg spår at man innen den tid har gått over til cloud computing for lenge siden og at antall transistorer i en IC dermed ikke er så viktig lengere for å få mye datakraft. For med cloud computing kan man fylle opp byggninger med sentrale datamaskiner hvor man kan fordele datakraft til små enheter hos den enkelte forbruker. Slik at man vil opprettholde en slags "datakraft moores lov" selv om man ikke klarer å opprettholde den oprinnelige moores lov om transistorer per IC. Så da blir det å forsyne datakraft til forbrukere nesten det samme som kraftværk som i dag forsyner forbrukere med strømm (istedenfor at alle skulle hatt sitt eget lille kraftværk) Endret 20. januar 2011 av flesvik Lenke til kommentar
John Keats Skrevet 20. januar 2011 Del Skrevet 20. januar 2011 Det vil vel også være mulig å faktisk designe elektronikk på en helt annen måte. Det er ikke slik at vi absolutt må designe det slik det er nå, at prosessorer gjør én operasjon om gangen. Det vil vel f.eks gå an å designe en maskin som kan gjøre f.eks 100 operasjoner på samme tidspunkt i stedet. Operere i noe annet en binært, osv osv Lenke til kommentar
del_diablo Skrevet 21. januar 2011 Del Skrevet 21. januar 2011 Så vidt jeg husker så gikk vel datautvklingen mye raskere fra 1990-2000 enn det den har vært fra 2000-2010? Noen som er uenig/enig og hvorfor? Fra 1990 til 2000 så ble det en økning fra alt fra 2-10 ganger i klokkehastighet på hver nye CPU som kom ut(dette gjaldt flere komponenter også). Så kom AthlonXP, sluttgenerasjonen av Pentium 3 og Pentium 4. Saken var at man var kommet til det punktet hvor materialet ikke tillot noen fornuftig måte å fortsette å øke klokkehastigheten. Men så snart vi får et material som skyver grensen fra omtrent 4GHz til et langt høyere tall, noe som IBM faktisk har funnet et stoff som kan gjøre, så vil vi få en ny singularitet på CPU klokk som vil øke farten igjen. Og som andre nevner, Mores Lov er fortsatt gyldig, det er ikke før en punktet hvor den ikke lenger er gyldig at vi virkelig må tenke utenfor boksen og hente fart på parallelisering og andre ting. Eksempel: I dag har vi f.eks Microtråder, en teknologi som ikke er fult utnyttet eller brukt. Eve online kjører latterlig få servere til å være en MMO, og grunnen til dette er fordi mikrotråder er veldig mye mer effektive en store tråder når det gjelder massive mengder data. Go har microtråder, samt stackless python(Eve bruker stackless til serverne sine). Lenke til kommentar
Flin Skrevet 21. januar 2011 Del Skrevet 21. januar 2011 Gå på google og sjekk ut kvante-datamaskiner. Lenke til kommentar
SirDrinkAlot Skrevet 21. januar 2011 Del Skrevet 21. januar 2011 Det er ikke bare hardware som øker "kraften" på datamaskiner. Et eksempel: Everyone knows Moore’s Law – a prediction made in 1965 by Intel co-founder Gordon Moore that the density of transistors in integrated circuits would continue to double every 1 to 2 years. (…) Even more remarkable – and even less widely understood – is that in many areas, performance gains due to improvements in algorithms have vastly exceeded even the dramatic performance gains due to increased processor speed. The algorithms that we use today for speech recognition, for natural language translation, for chess playing, for logistics planning, have evolved remarkably in the past decade. It’s difficult to quantify the improvement, though, because it is as much in the realm of quality as of execution time. In the field of numerical algorithms, however, the improvement can be quantified. Here is just one example, provided by Professor Martin Grötschel of Konrad-Zuse-Zentrum für Informationstechnik Berlin. Grötschel, an expert in optimization, observes that a benchmark production planning model solved using linear programming would have taken 82 years to solve in 1988, using the computers and the linear programming algorithms of the day. Fifteen years later – in 2003 – this same model could be solved in roughly 1 minute, an improvement by a factor of roughly 43 million. Of this, a factor of roughly 1,000 was due to increased processor speed, whereas a factor of roughly 43,000 was due to improvements in algorithms! Grötschel also cites an algorithmic improvement of roughly 30,000 for mixed integer programming between 1991 and 2008. http://agtb.wordpress.com/2010/12/23/progress-in-algorithms-beats-moore%E2%80%99s-law/ Lenke til kommentar
Rata101 Skrevet 24. januar 2011 Del Skrevet 24. januar 2011 http://www.youtube.com/watch?v=xPIbGq634yU Lenke til kommentar
kyrsjo Skrevet 25. januar 2011 Del Skrevet 25. januar 2011 Det vil vel også være mulig å faktisk designe elektronikk på en helt annen måte. Det er ikke slik at vi absolutt må designe det slik det er nå, at prosessorer gjør én operasjon om gangen. Det vil vel f.eks gå an å designe en maskin som kan gjøre f.eks 100 operasjoner på samme tidspunkt i stedet. Operere i noe annet en binært, osv osv Det gjør man også - derav multi-core CPU'er, samt grafikkort som kan gjøre samme operasjon på opptil mange hundre datasett samtidig. Men dette krever andre algoritmer, samt at ikke alle oppgaver kan gjøres i paralell. Lenke til kommentar
ltdata Skrevet 25. januar 2011 Forfatter Del Skrevet 25. januar 2011 Litt dumt spørsmål, men tror dere vi kommer til å le av datamaskinene vi har idag om 10 år? At alt det utstyret vi har idag er på søppeldynga og som folk nesten betaler for å bli kvitt? Og, vil dataene kunne bli helt lydløse 10 år frem i tid tror dere? Lenke til kommentar
Khaffner Skrevet 25. januar 2011 Del Skrevet 25. januar 2011 Og, vil dataene kunne bli helt lydløse 10 år frem i tid tror dere? Det går an i dag å lage totalt støyfrie datamaskiner. I daglig bruk heter de mobiltelefoner, tablets, osv. Men også PC-er kan bygges uten bevegelige deler, men ikke regn med den beste ytelsen for prisen da. Lenke til kommentar
StormEagle Skrevet 25. januar 2011 Del Skrevet 25. januar 2011 Og, vil dataene kunne bli helt lydløse 10 år frem i tid tror dere? Det går an i dag å lage totalt støyfrie datamaskiner. I daglig bruk heter de mobiltelefoner, tablets, osv. Men også PC-er kan bygges uten bevegelige deler, men ikke regn med den beste ytelsen for prisen da. Det er ikke bare mobiler og tablets som er uten vifter. det finnes i dag en helt haug av industri PCer uten noe vifter, men disse er ofte dyre og har ikke så veldig bra specs (ihvertfall ikke i forrhold til den sinnsyke prisen) Lenke til kommentar
ltdata Skrevet 25. januar 2011 Forfatter Del Skrevet 25. januar 2011 PC uten vifter. Kun vannkjøling da? Men om 10 år er dataene vi bruker i dag verdiløse nesten ikke sant? Tror dere dataens design vil endre seg om 10 år? At dataen fysisk ser helt annerledes ut enn idag. Jeg tenker meg at skjermen er ganske lik, men selve boksen med innmaten er mye mindre? Lenke til kommentar
Byxxi Skrevet 25. januar 2011 Del Skrevet 25. januar 2011 PC uten vifter. Kun vannkjøling da? Men om 10 år er dataene vi bruker i dag verdiløse nesten ikke sant? Tror dere dataens design vil endre seg om 10 år? At dataen fysisk ser helt annerledes ut enn idag. Jeg tenker meg at skjermen er ganske lik, men selve boksen med innmaten er mye mindre? Trenger da vifter for og ha vannkjøling også, ellers blir vannet fryktelig varmt etterhvert. Når man sier vifteløst mener man generelt passiv kjøling, som ikke er noe ennet enn en kjøleribbe som drar ut all varmen, som på RAM Lenke til kommentar
Hudrin Skrevet 26. januar 2011 Del Skrevet 26. januar 2011 PC uten vifter. Kun vannkjøling da? Men om 10 år er dataene vi bruker i dag verdiløse nesten ikke sant? Tror dere dataens design vil endre seg om 10 år? At dataen fysisk ser helt annerledes ut enn idag. Jeg tenker meg at skjermen er ganske lik, men selve boksen med innmaten er mye mindre? pcen jeg hadde for 17 år siden ville jeg ikke brukt til fotskammel engang idag, har en mobiltlf den dag i dag som gruser den pcen jeg hadde for selv 6 år siden og den pcen var på topp da,det sier litt, ellers ser min pc idag helt lik ut som den jeg hadde i f.eks 93, samme størrelse på kabinettet, samme skjerm bortsett fra at den nå er flat bare innmaten som har endreet hastighet og litt ny tech. men ellers fungerer alt på samme prinsipp, ikke noe nytt der i gårn..vi har nemlig ikke oppfunnet noe ny hardware selv om ting går raskere, cpu,ram osv..vi bruker fortsatt samme gamle transistorn uansett hvor smått,raskt og energivennlig det har blitt så er det samme greia som før. en C64..bare litt raskere. datautvikling er ikke bare hardware, men jeg ser i første rekke på det som den største revulosjon om det skulle bli endret på grunnoppbygningen ,som nevnt tidligere det vi bruker nå på kan bare bli så smått som det kan og fortsatt lede elektrisitet,sikkert noen som har oversikt over framtidige nye elektriske komponenter som vil erstatte de tradisjonelle vi har brukt til nå?. og ja jeg kommer til og le stort av den pcen jeg har idag om 10år antagelig har den framtidige 5000cores,20+gig ram, og tilsvarende økning på grafikkort i ytelse. Lenke til kommentar
kyrsjo Skrevet 26. januar 2011 Del Skrevet 26. januar 2011 PC uten vifter. Kun vannkjøling da? Men om 10 år er dataene vi bruker i dag verdiløse nesten ikke sant? Tror dere dataens design vil endre seg om 10 år? At dataen fysisk ser helt annerledes ut enn idag. Jeg tenker meg at skjermen er ganske lik, men selve boksen med innmaten er mye mindre? pcen jeg hadde for 17 år siden ville jeg ikke brukt til fotskammel engang idag, har en mobiltlf den dag i dag som gruser den pcen jeg hadde for selv 6 år siden og den pcen var på topp da,det sier litt, ellers ser min pc idag helt lik ut som den jeg hadde i f.eks 93, samme størrelse på kabinettet, samme skjerm bortsett fra at den nå er flat bare innmaten som har endreet hastighet og litt ny tech. men ellers fungerer alt på samme prinsipp, ikke noe nytt der i gårn..vi har nemlig ikke oppfunnet noe ny hardware selv om ting går raskere, cpu,ram osv..vi bruker fortsatt samme gamle transistorn uansett hvor smått,raskt og energivennlig det har blitt så er det samme greia som før. en C64..bare litt raskere. datautvikling er ikke bare hardware, men jeg ser i første rekke på det som den største revulosjon om det skulle bli endret på grunnoppbygningen ,som nevnt tidligere det vi bruker nå på kan bare bli så smått som det kan og fortsatt lede elektrisitet,sikkert noen som har oversikt over framtidige nye elektriske komponenter som vil erstatte de tradisjonelle vi har brukt til nå?. og ja jeg kommer til og le stort av den pcen jeg har idag om 10år antagelig har den framtidige 5000cores,20+gig ram, og tilsvarende økning på grafikkort i ytelse. Men shift-tasten din virker heller dårlig? 5 Lenke til kommentar
Abigor Skrevet 26. januar 2011 Del Skrevet 26. januar 2011 (endret) Jeg synes det er spennende at minne og lagringsmedium nærmer seg mer og mer. En gang i fremtiden vil minne ta over for harddisker, eller? SSD'er kan sees som et skritt på veien. Dette vil hvertfall øke hastigheten. Når grensen for hva dagens cpuer kan klare, så ser vi cpu'er med fler og fler kjerner. Jeg håper at i min levetid vil det bli lagd så gode datamaskiner at når man først har kjøpt en, så er den så god at det ikke vil være nødvendig å skaffe noe nytt. Hva tror dere om det? Kan utviklingen komme så langt at til hjemmebruk vil det stoppe opp? Software vil nok allikevel alltid bli utviklet i en evighet... Endret 26. januar 2011 av Abigor Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå