Gå til innhold

Parallellisme og PATA/SATA


Anbefalte innlegg

Hvorfor er SATA-teknologien bedre egnet til høy hastighet enn PATA? Omtrent alle steder i dataverden ser en hele tiden mer og mer parallellisme mens på HDDer ser en at det beveges vekk fra parallellisme - både når det gjelder for ATA og SCSI.

Hvorfor er seriell raskere enn parallell?

Lenke til kommentar
Videoannonse
Annonse

tror det har med at det er lettere og lage raske serie minnekontrollere enn parallell minekontrollere. i teorien kan man få mye høyere ytelse på parallell men som sagt mye vanskeligere og lage kontrollere til det.

Lenke til kommentar
Omtrent alle steder i dataverden ser en hele tiden mer og mer parallellisme mens på HDDer ser en at det beveges vekk fra parallellisme - både når det gjelder for ATA og SCSI.

Nei det er motsatt. Nesten alle steder beveger vi oss bort fra parallelle løsninger, både mtp eletriske signaler og måten enheter er koblet sammen. (busser o.l.)

 

PCI -> PCIe

FSB -> Hypertransport og Infiniband

PATA -> SATA

SCSI -> SAS og Fibre Channel

USB og FireWire kan også nevnes her selv om de ikke har erstattet noe.

 

Men det er også andre plasser hvor samme tankegang blir brukt f.eks i FB-DIMM.

 

Problemer med parallell overføring er "clock skew", fysisk plass og crosstalk. Det første har med at dersom alt skal fungere må alle signalene komme inn akkurat samtidig og jo flere ledere og jo høyere frekvens, jo mindre tidsrom feilmargin er det og jo flere feil blir det. Når det gjelder fysisk plass kan FB-DIMM tas som et eksempel hvor en minnekanal med DDR2 trenger 240 ledere til NB pr. minnekanal mens FB-DIMM kun krever 69. Den sparte plassen gir også mulighet for mer isolering hvor crosstalk også kommer inn. Jeg har ikke satt meg inn i nøyaktig hva crosstalk går ut på direkte fysisk, men det brukes om når signaler gjennom en leder påvirker signalet gjennom en annen leder. Det kommer trolig av magnetfeltet som omgår en leder og er grunnen til at f.eks CAT5 TP kabler kan få problemer med overføringshastigheter når de er sammen i for tykke bunter eller sammen med strømkabler.

 

Timing skew is a problem that can occur on many kinds of computer buses. When signals are transmitted down parallel paths, they will not arrive at exactly the same time due to unavoidable variations in wire transmission properties and transistor sizing, but the signals will arrive close to each other in time. As the frequencies of these circuits increases, this variation will become more and more erratic. If the timing skew is large enough, the clock signal may arrive while the data signal is still transitioning between the previous and current values. If this happens, it will be impossible to determine what value was transmitted from the detected value, resulting in a functional error. This is also known as the Hallving Skjerpvard Theorem.

 

Et seriell kobling kan altså kjøre på en del høyere frekvens enn en identisk parallell kobling og har andre fordeler.

Lenke til kommentar
Omtrent alle steder i dataverden ser en hele tiden mer og mer parallellisme mens på HDDer ser en at det beveges vekk fra parallellisme - både når det gjelder for ATA og SCSI.

Nei det er motsatt. Nesten alle steder beveger vi oss bort fra parallelle løsninger, både mtp eletriske signaler og måten enheter er koblet sammen. (busser o.l.)

 

PCI -> PCIe

FSB -> Hypertransport og Infiniband

PATA -> SATA

SCSI -> SAS og Fibre Channel

USB og FireWire kan også nevnes her selv om de ikke har erstattet noe.

6611377[/snapback]

 

Dette er totalt feil.

 

PCI-Express er parallell. 16x som brukes til skjermkort har 16 lanes. Selv om det er individuelle lanes er det parallelt.

Hypertransport er også parallell, fra 2-bit til 32-bit.

Infiniband kan også skaleres på samme måte til å bli parallell - 1x til 12x.

Ellers har du enorm parallelisme i CPUer, både på makro og mikronivå; f.eks. pipelines, flere execution units for superscalar ytelse, multikjerne-CPUer/flere fysiske CPUer i SMP.

GPU driver også med samme opplegget - flere pipelines, flere GPUer, flere kort, osv.

Eller hva med f.eks. dual channel til DDR-SDRAM? Hva med RAID av disker?

Ta forresten en titt på Cell arkitekturen. Se også på supercomputer clustere.

 

Resten var dog litt nyttig, har forsåvidt lest det før men det var en stund siden. Parallelisme er jo bra, men pga. tekniske problemer må det vel være individuelle linjer. Ser ikke noen grunn til at ikke SATA/SAS blir mer parallell i fremtiden om det blir behov for det.

Lenke til kommentar
Dette er totalt feil.

 

PCI-Express er parallell. 16x som brukes til skjermkort har 16 lanes. Selv om det er individuelle lanes er det parallelt.

Hypertransport er også parallell, fra 2-bit til 32-bit.

Infiniband kan også skaleres på samme måte til å bli parallell - 1x til 12x.

Ellers har du enorm parallelisme i CPUer, både på makro og mikronivå; f.eks. pipelines, flere execution units for superscalar ytelse, multikjerne-CPUer/flere fysiske CPUer i SMP.

GPU driver også med samme opplegget - flere pipelines, flere GPUer, flere kort, osv.

Eller hva med f.eks. dual channel til DDR-SDRAM? Hva med RAID av disker?

Ta forresten en titt på Cell arkitekturen. Se også på supercomputer clustere.

 

Resten var dog litt nyttig, har forsåvidt lest det før men det var en stund siden. Parallelisme er jo bra, men pga. tekniske problemer må det vel være individuelle linjer. Ser ikke noen grunn til at ikke SATA/SAS blir mer parallell i fremtiden om det blir behov for det.

6611422[/snapback]

Desverre er det du som tar feil.

PCI-Express er en seriell protokoll, der 1x-16x står for antall serielle kanaler hver slot har tilgjengelig.

http://en.wikipedia.org/wiki/PCI_Express

Det virker som du har peiling på litt av hvert, men for at en overføring skal bli kalt Parallell, så må data overføres 1 bit per leder. 8 bit - 8 ledere, 32 bit -32 ledere osv.

Seriell overføring brukes for å overføre pakker med data over mindre antall ledere, slik som ethernet, RS323 osv.

Fordet om du kobler mange slike sammen, så blir det ikke parallell overføring, men kombinert båndbredde på async overføring.

 

Crosstalk: http://en.wikipedia.org/wiki/Crosstalk

Lenke til kommentar
Desverre er det du som tar feil.

PCI-Express er en seriell protokoll, der 1x-16x står for antall serielle kanaler hver slot har tilgjengelig.

http://en.wikipedia.org/wiki/PCI_Express

Det virker som du har peiling på litt av hvert, men for at en overføring skal bli kalt Parallell, så må data overføres 1 bit per leder. 8 bit - 8 ledere, 32 bit -32 ledere osv.

Seriell overføring brukes for å overføre pakker med data over mindre antall ledere, slik som ethernet, RS323 osv.

Fordet om du kobler mange slike sammen, så blir det ikke parallell overføring, men kombinert båndbredde på async overføring.

 

Crosstalk: http://en.wikipedia.org/wiki/Crosstalk

6611475[/snapback]

 

Mener du at flere individuelle kanaler som jobber kontinuerlig å øke båndbredden enten synkront eller asynkront IKKE er parallellisme? Jeg snakker/snakket om at diverse teknologier bruker parallellisme for å øke ytelsen, om alle former for parallellisme ikke kan kalles en "parallell bus" i den orginale betydningen - spiller det noen rolle for poenget?

Jeg er fullt klar over at PCI-E er en seriell protokoll, men når du har 16 identiske kanaler for å øke båndbredden til én device, kan du da si meg hvorfor det ikke kan kalles en form for parallellisme?

Lenke til kommentar

Det stoerste problemet med parallelle busser til f.eks. RAM er at lengden paa print-sporene maa vaere like lange for aa unngaa timing problemer. Om jeg ikke husker helt feil er det noe XDR2 patentet til RAMBUS (desverre) unngaar ved aa dele inn minnetilgangen i flere individuelle busser, og en XDR2 buss paa totalt 16bit kan overfoere 16GB/sek.

 

Ang. PCIe - En PCI-e x16 med seriekanaler har faerre elektriske ledere enn en PCI-X 64bit men leverer bedre ytelse. Serie-busser kan ha hoyere hastighet og er lettere aa trace i prints. Ja, det kan fremdeles kalles 16 "parallelle" serielle signaler, men det er jaggu mye mindre enn hva AGP og PCI driver aa baler med og hvert signal kan ha forskjellige spor-lengde og uavhengig CRC sjekking.

 

fra Wikipedia om PCI-X (http://en.wikipedia.org/wiki/PCI-X):

PCI-X has a number of technological and economical disadvantages compared to PCI-Express. The 64-bit parallel interface requires inherently difficult trace routing, because as with all parallel interfaces, the signals from the bus must arrive simultaneously, or within a very short window and noise from adjacent slots may cause interference. The serial interface of PCIe suffers fewer such problems and therefore requires less complex and less expensive designs. PCI-X buses are half-duplex bidirectional whereas PCIe buses are full-duplex bidirectional. PCI-X buses run only as fast as the slowest device; PCIe devices are able to independently negotiate the bus speed.
Endret av Flippo
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...