Gå til innhold

Hvordan ville en redesignet datamaskin sett ut?


Anbefalte innlegg

Dagens datamaskiner er bygget på gamle prinsipper, og er såvidt jeg vet delvis kompatible med de første PC-prosessorene (8086 eller noe sånt?). Selv om ting er forbedret og utvidet, er det kanskje en del begrensinger som henger igjen, og de tingene som er utvidet har vel blitt lagd som et kompromiss mellom forbedring og bakoverkompabilitet. For eksempel, se på minnehåndtering i DOS etterhvert som behoven for og mengde fysisk minne økte. Datamaskinen har vel fremdeles "conventional memory" og slikt.

 

Dersom man kunne startet fra scratch og designet en datamaskin i dag, ville det vært noen fundamentale endringer? Må maskinene for eksempel jobbe binært, ville man hatt hovedkort med busser og så videre? Kunne man laget et bedre grunnlag for videre utvikling med tanke på bakoverkompabilitet?

 

Få høre deres tanker :)

Endret av cecolon
Lenke til kommentar
Videoannonse
Annonse

Nåvel, biologiske maskiner er da ikke noe nytt vel? Designen er litt lite kontrollerbar, men en kan begynne med å finne 2 egnede "emner", servere et utmerket måltid med f.eks. rødvin slik at de kan hygge seg riktig godt med hverandre. Vent så 9 måneder.

 

Elektronisk kan mye gjøres om en aksepterer null bakoverkompatibilitet.

- ta utgangspunkt i x86, men kast alt som ikke brukes idag (FPU-87 osv).

- bruk parallelitet og ikke spekulativ ekekvering (krever mer strøm enn det ofte er verdt.)

- på hovedkortet bør det være en FPGA slik at funksjonalitet kan endres eller legges til uten redesign av hovedkortet.

- bruk flip-chip

- bruk optiske busser der mulig

- bruk buildup-teknologi for hovedkortet

- bruk kobberkjerne i hovedkortet (varmeavledning)

- dropp gammel teknologi som RS232, parallelport osv

- bruk ekspansjonskort som sitter godt, PCI har dårlige mekaniske egenskaper

- design kabinett med klare tanker om kjølig, støy og skjerming.

 

Det er nok mer, men dette er alt jeg kommer på i farten.

Lenke til kommentar
Nåvel, biologiske maskiner er da ikke noe nytt vel? Designen er litt lite kontrollerbar, men en kan begynne med å finne 2 egnede "emner", servere et utmerket måltid med f.eks. rødvin slik at de kan hygge seg riktig godt med hverandre. Vent så 9 måneder.

Tenker nå på en datamaskin, altså en avansert kalkulator, men som ikke bruker transistorer til å utføre operasjoner, men derimot forskjellige celler. Husker å ha lest noen artikler om at man funderte/forsket på det, men har ikke lest noe om håndfaste resultater.

Lenke til kommentar

Den vanligste formen for biologisk maskin (så vidt jeg vet) er DNA-varianten - flott til å finne massivt parraleliserbare søketing (det er DNA bra på), men "en" beregning tar noen timer... Pluss at det var det å programmere den og lese av svaret da...

 

Så har man biologisk minne. Dette er så vidt jeg vet forlatt til fordel for elektronisk minne.

 

Man ville jobbet binært, da det øker feiltoleransen betraktelig. Plass er billig :) Det finnes faktisk analoge maskiner, disse brukes til integrasjon. Fantes er kansje et bedre ord... Problemet er at du trenger ekstremt høy kvalitet på komponentene, da signalet (tallet du ønsker å lagre/behandle) lagres som en spenning prinsipiellt mellom minus uendelig og uendelig, og "sus" (støy på signalet) vil endre tallet. Langt mindre forutsigbart enn avrundingsfeilen i digitale maskiner (noe jeg vet ettersom jeg hadde eksamen om bla. dette i dag...).

 

Kvantedatamaskiner har den fordelen at de kan gjøre flere forskjellige varianter av en beregning på en gang... Desverre finnes det ingen praktisk implementasjon av dette i dag. Og ettersom kvantemaskiner ville vært døden for krypto (så vidt jeg vet) tviler jeg på at vi vil se disse på det vanlige sivile markedet...

 

Busser vil man nok ha. Men kansje man vil velge å gjøre dem serielle? Bare en tanke...

 

Det finnes allerede en haug med andre arkitekturer enn x_86, med varierende suksess. Grunn? Verden kjører windass. Dersom åpen kode (som f.eks. Linux) blir mer vanlig, vil jeg tro at antallet arkitekturer i vanlig bruk vil øke. Til glede for Sun/Java... De mest vanlige i dag er vel x_86(-64), PPC (mac, spesialmaskiner etc), (Ultra)SPARC(64) (Sun sine go-bokser...), Alpha(en "ekte" 64-bits arkitektur som var i bruk på 90-tallet - sinnsykt kraftig etter hva jeg har hørt. TRU-64 UNIX (HP?), Linux, Windows NT (!)), (Strong)ARM (alle mulige integrerte dingser ala pda, mobiltelefon, etc, ACORN RISC OS bokser ("vanlige" i storbritannia på begynnelsen av 90-tallet), ITANIUM (intels forsøk på å lage noe nytt som faktisk ble sinsykt bra, men dyrt og torpedert av MS så vidt jeg vet), s390(x) (IBM sin strykejernsarkitektur. Robust som et hel****, brukes til å kjøre banker etc. Hotswappable "alt" (inkl CPU), doble cpu'er som gjør allt paralellt og sjekker mot hverandre for å se at det ikke ble regnefeil, sjekk sjekk sjekk. Monstre på regnekraft og stabilitet og pris. Unix, Linux.), i tillegg til alle Motorola-arkitekturene med 4-siffret tall som navn (Comodore, klassisk Mac, etc). Sikkert mange store jeg har glemt.

 

Det mest "innovative" jeg kunne tenke meg, hadde vært å definert et sett med asembly ala Java (Java kompileres ned til et "pseudo-CPU-språk", som igjen kompileres svært raskt (1.5 er *rask*) til maskinkode for akkurat den aktuelle cpuen on-the-fly), som hadde vært så generell som mulig. Deretter kunne man bygget OS'er til dette... Fryktelig genrellt. Allt av drivere etc. måtte kjørt i en slags pseudo-kjerne som var brennt inn i maskinen, som så operativsystemet interfacet. Hmm... det hørtes omtrent ut som BIOS vs. DOS....

 

Så har du den evige debatten om RISC- vs CISC-arkitektur - risc er enklere (færre instruksjoner) og kjappere, CISC er mer komplisert, raskere for treige maskiner, enklere å skrive ASM på så lenge du sitter i DOS etc. med en cpu. x86 er et CISC-instruksjonssett, PPC er et RISC. Nesten alle prosessorer i dag er i dag i realiteten RISC ved kjernen, men x86 må fremdeles ha CISC utenpå for å beholde kompatibiliteten med 8086-cpu'en.

 

Eller hatt alt som kasetter, dvs. dønn modulbasert... Realistisk sett så går det mot stadig mere "ferdig-pakkede" pc'r (laptopper eller desktopper uten skjerm bygget på laptop teknologi) hvor alt du måtte trenge av ekstrautstyr koples på via Firewire etc. Kjedelig for oss som liker å fikle :(

Lenke til kommentar

Jeg må bare nevne et av mine amatørmessige notater: Den beste mulige kombinasjonen av VLIW(, Stream), RISC, ZISC, CISC osv.. LISP? Falanx-grafikk.

 

Stort sett har jeg ikke peiling på noen av disse. Men jeg vet hva RISC, ZISC og CISC er. RISC og CISC er forklart litt allerede. ZISC er "nevron-etterligning", altså en AI-prosessor. Falanx er en parallell grafikk-arkitektur som et norsk selskap har laget. Det er VLIW, Stream og LISP jeg ikke har peiling på i det hele tatt.

 

Det måtte være en prosessor som kombinerer flere arkitekturer i under-prosesseringselementer. Både grafikk, lyd, kommunikasjon, fysikkutregninger og kunstig intelligens skulle være integrert.

 

Operativsystemet skulle vært HURD-basert, siden det angivelig skal bli bedre enn Linux. I hvert fall når den nye L4-greia er ferdig. Og jeg har ikke peiling på det heller. Heldigvis, får jeg nesten si. Ellers kunne jeg risikere en diskusjon.

Lenke til kommentar

De aller fleste datamskiner i dag er bygd rundt von Neumann-arkitekturen. Se wkipedia om John von Neumann og Von Neumann architecture.

Vet faktisk ikke om det finnes noen maskine som bygger på en annen arkitektur en denne. Er interresert hvis det er noen som vet noe om det.

Lenke til kommentar

LISP er et programmeringsspråk, men det finnes enkelte datamaskiner som eksekverer lisp (det er et interprettet språk, compile on run) direkte.

 

Eneste Hurd ville kjøpt deg er en mikrokjerne. Det vil si at du kunne byttet ut/oppgradert deler av en kjørende kjerne (ca som du kan i dag med moduler, bare at du gjør modulene flere, større, og viktigere), samt at en driver som badder ikke har konsekvenser for resten av systemet. Nå *har* det vel konsekvenser om skjermkortdriveren badder og får skjermkortet til å tulle med masse det ikke skal - uansett om skjermkortdriveren selv er "innesperret". Så dette ville vel kansje egentlig krevd en annen arkitektur enn x86?

 

Uansett er jeg alvorlig imponert over IBM sine stormaskiner...

Lenke til kommentar
De aller fleste datamskiner i dag er bygd rundt von Neumann-arkitekturen. Se wkipedia om John von Neumann og Von Neumann architecture.

Vet faktisk ikke om det finnes noen maskine som bygger på en annen arkitektur en denne. Er interresert hvis det er noen som vet noe om det.

5015642[/snapback]

Joda, det er mange maskiner som annet enn von Neumann-arkitektur. Blant annet har du Harvard-arkitektur og super Harvard-arkitektur.

 

En god del digitale signalprosessorer (DSP) bruker slike. Slike finnes det mange av, men siden de er innebygd i apparater, så vises ikke dette for de fleste.

Lenke til kommentar

HP snakket om "redundans" i prosessorer, som skal gjøre dem mer robuste ved å integrere ekstradeler eller noe. Det synes jeg høres fint ut. En virkelig robust CPU-arkitektur, som hansker HURD med glans. ;) Husk forresten at min maskin ikke trenger egen skjermkort-driver, i og med at GPU er integrert i CPU. Siden jeg ikke har peiling, kan jeg likevel ikke utelukke at det ville finnes tilsvarende problemer.

Lenke til kommentar

Jeg har alltid tenkt at dette med bakoverkompabilitet i datamaskinverden, viser hvor godt planlagt det hele var i starten. Man kan tolke det som om de var forut sin tid, eller man kan tolke det som om vi henger fast i en grunnmur fordi det hele veien har vært enkleste snarvei. Vil nå uansett si at de viktigste grunnprinsippene i en PC er ganske så nødvendige. Standarden er satt, og om man skal finne opp hjulet på nytt, vil det ikke vike mye fra det gamle.

 

Vi ser det samme i mange andre eksempler:

TV

Biler

Møbler

Husbygging

...og ikke minst programmering. Alle språk forgrener seg tilbake til et moderspråk.

Evolusjonen er også bygd opp slik, og menneskets hjerne og tankegang er bygget opp til å tenke slik.

Endret av anth
Lenke til kommentar

Min erfaring er at bakoverkompatibilitet er en tvangstrøye som følger en design, ikke en nøye uttenkt plan fremover. Det er klart en kan se lange spor i tiden (4004 - 8008 - 8080 - 8086 - 80x86 (x=1, 2, 3, 4) - Pentium (-, Pro, ", 3, Xeon, osv), men jeg har vanskelig for å tro at Intels utmerkede ingeniører så for seg Pentium Xeon da de lagde 8080.

 

Design er gjort i nuet, for øyeblikkets behov og med begrensede tanker om en fremtid de færreste kan forestille seg. Merk: jeg sier ikke det er total mangel på fremoverrettet tenking, AMBA er et greit eksempel på et enkelt grep som gjør en ukjent fremtid lettere å håndtere.

 

Ellers er jeg ofte overrasket over jvor raskt enkelte ting finner sin form, f.eks. sykkelen tok bare noen få ti-år før den fikk det utseende vi kjenner idag.

 

Om det er hjernen som er bygget opp til å tenke slik er jeg sannelig i tvil om, jeg tror merkantil interesse for risikobegrensning er en større bremse enn ingeniørenes trang til å skape nytt; derfor skjer mye nyskapning i nyetablerte selskaper enn de store og tunge etablerte.

Lenke til kommentar

Men hvordan hjernen "rekonstruerer ting den vet" er så godt som ubegrenset. Det man kan observere eller tenke ut på grunnlag av observasjoner, vet man (i praksis, ikke noe filosofisk), og det er alt man har bruk for å vite, selv når man lager noe så avansert som en datamaskin, så jeg skjønner ikke helt hvor du vil.

Lenke til kommentar

Jeg tror det vil bli stadig mer integrasjon. Spesielt av ting som trenger lav latency. Samtidig vil det nok fokuseres på mer intern redundans, mer effektive arkitekturer f.eks ved å kutte ut de elste delene av x86 og innføre nye raske. Kanskje multikjerner der man bruker en eller to x86-kjerner og flere andre kjerner. En kjerne for hver type program/problem. Kanskje noe lignende dagens dobbeltkjerner, bare med integrert GPU og flere spesialprosessorer ala PhysX.

 

Jeg tror ikke så mye på biologiske eller optiske maskiner siden silisium er ganske overlegent på mange måter.

 

Mer logisk plassering av varme deler og bedre plassutnyttelse kan sikkert også være en del av en slik nydesignet maskin. (BTX er et steg på veien dit)

Lenke til kommentar

Jeg vil gjerne ha en pc som krever lavere oppstartstid.

 

Egentlig burde vi kvitte oss med alt som heter harddisk og erstatte det med minne som ikke forsvinner om strømmen blir avslått. Dette vil hjelpe veldig mye på hastigheten, men enn alt superekstrasuperduper prosessorene som blir beskrevet ovenfor.

Lenke til kommentar
  • 2 uker senere...

ehasl: Slik jeg ser det så vil de raskeste (og dyreste) lagringsteknologiene brukes de stedene i datamaskinen der det er mest behov for hastighet. F.eks tror jeg at flash vil ta helt over som OS-disk i løpet av de neste 10 årene. (Kanskje så snart som om 3-5 år) selv om kapasiteten vil begrense seg såpass at det ikke blir den eneste lagringsenheten i maskina. Flash blir altså ikke noen fullstendig erstatning for harddisk, men vil ta over som OS-partisjon. Musikkarkivet, filmarkivet osv vil fortsatt ligge på harddisk. optiske drev vil vel være som i dag: Et tillegg som noen bruker mer aktivt enn andre.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...