Toffypops Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Tja... Leste et sted på nettet at GPU i nVIDA kortene bare støtter 2 kort som max....men at ATI sine GPU løsning ikke har noen begrensning på hvor mange kort man kan sette i sammen, så lenge ett av kortene fungerer som master.... enda en grunn til å elske ATI? Lenke til kommentar
ATWindsor Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Tja...Leste et sted på nettet at GPU i nVIDA kortene bare støtter 2 kort som max....men at ATI sine GPU løsning ikke har noen begrensning på hvor mange kort man kan sette i sammen, så lenge ett av kortene fungerer som master.... enda en grunn til å elske ATI? Du vil vel få små problemer med å finne hovedkort der mer enn 2 kort er aktuelt? AtW Lenke til kommentar
L4r5 Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Du vil vel få små problemer med å finne hovedkort der mer enn 2 kort er aktuelt? AtW Hvis det virkelig ikke er noen begrensninger på antal skjermkort så kommer det garantert til å komme noen "nisje"-HK med plass til flere enn to... Mark my words... Lenke til kommentar
Simen1 Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Nå er vel ikke bare antall PCI-express porter det eneste som begrenser antall skjermkort, men så lenge ett kort må være master og resten slave så må jo alle slavekortene også kobles til master-kortet via kabler. Siden masterkortet ser ut til å ha kun en DVI-port som kan linkes til et slavekort så blir vel også begrensningen på Crossfire til max 2 kort. Lenke til kommentar
HKS Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Tja...Leste et sted på nettet at GPU i nVIDA kortene bare støtter 2 kort som max....men at ATI sine GPU løsning ikke har noen begrensning på hvor mange kort man kan sette i sammen, så lenge ett av kortene fungerer som master.... enda en grunn til å elske ATI? Der tok du feil... Selve SLi bussen støtter 8 kort, men den fysiske bruen til nVidia idag støtter bare to kort, akkuratt som kablen til ATi også kun støtter to kort.... Lenke til kommentar
Coffie=JavaCode Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 For det føreste så har jeg ikke akkurat så stor tiltro til noen av aktørenes egne tester av sine egene produkter. Gidder ikke å se på deg grunnet master og slave kort. Det kunne jeg godt vært for uten, eller at de hadde laget en jumper løsningpå det. Lenke til kommentar
Glufsa Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Nå er vel ikke bare antall PCI-express porter det eneste som begrenser antall skjermkort, men så lenge ett kort må være master og resten slave så må jo alle slavekortene også kobles til master-kortet via kabler. Siden masterkortet ser ut til å ha kun en DVI-port som kan linkes til et slavekort så blir vel også begrensningen på Crossfire til max 2 kort. går det ikke an å koble slaver sammen? Lenke til kommentar
HKS Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 går det ikke an å koble slaver sammen? Slaver er de kortene vi har idag... Da trenger vi i allefall en ny spesialkabel til det som støtter to slaver koblet til master-kortet. Akuratt på samme måte som nVidia kan lage en spesialkabel som kobler sammen flere kort i SLI med den interne kontakten... Lenke til kommentar
sveinsel Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Men det stemmer bra med ryktet at hvilket som helst annet ATI (og kanskje Nvidia?) kan brukes som slave..... også AGP. Men det blir en sann røre..... Da blir vel Crossfire-kortet PCI og PCI Express kompatibelt også Lenke til kommentar
Malvado Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 (endret) Ikke noe å irritere seg så fryktelig med, de fleste som har ati kort i dag som er basert på pci-e kan jo faktisk benytte seg av amr så lenge de oppgraderer til et master kort som kommer med tiden. Ingen som sa i utgangspunktet at amr ikke kom til å ha begrensninger , som med alle teknologier så må man jo få 2 kort til å fungere på en eller annen måte sammen og ati sin løsning kan ha både fordeler og ulemper. Men som sagt jeg avventer til denne teknologien har blitt grundig testet før jeg begynner å uttaler meg, men jeg synnes det ser bra ut pr dags dato. Endret 30. mai 2005 av Malvado Lenke til kommentar
cyberpet Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Dette minner om tida (Voodoo) osv. da man måtte koble 2d kortet til 3d kortet med kabel.. Man fikk også muligheten husker jeg til å koble 2 Voodoo 2 sammen.. Ikke noe galt med dette, men blir nok for spesielt interesserte.. Selv om ATIs løsning virker lovende på mange måter og har færre begrensninger muligens, synes jeg faktisk SLI har en stor fordel i at det virker mye enklere uten dette master/slave tullet.. Noen gode argumenter mot at SLI og AMR bare blir et "blaff"? Håper ATI og nVidia beholder hovedfokus på å gjøre kortene bedre jeg.. Lenke til kommentar
Simen1 Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Håper ATI og nVidia beholder hovedfokus på å gjøre kortene bedre jeg.. Med bedre mener du ytelse? I så fall håper jeg de endrer hovedfokus til å gjøre kortene mindre strømkrevende. I hvertfall starte en høy-ytelse serie med lavt effektforbruk. F.eks mobile GPUer rettet mot desktop. Lenke til kommentar
Ni kon Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Noen gode argumenter mot at SLI og AMR bare blir et "blaff"? har ca 1 million argumenter for at dette er (etter min mening) idioti å kjøpe: 1) Fremtidsrettet? Hva mener man med at ting er fremtidsrettet i dataverden? Slutter aldri å le av de idiotene som råder folk om at slik vil det bli i fremtiden. Siden forumet stort sett består av AMD fans nevner jeg eksemplet hvor alle rådet folk å kjøpe socket 939 fordi det var så fremtidsrettet. Joda, heia fremtidsrettet. 2) To kort opptar mer plass enn 1 kort Hipp hurra for alle som tror at data skal være stort. Det finnes vel de på forumet som enda tror at jo større ting er, desto bedre fungerer de. Folk ønsker faktisk mindre og mindre maskiner, ergo må man begrense hva man putter inn i den 3) To kort produserer mer varme. De eneste i verden som kan ha glede av dette er vel eskimoer som konstant lever og bor i minusgrader. 4) To kort krever oppdatering av HK Noe som da igjen vil berøre mitt punkt 1. 5) To kort krever mer strøm Dette vil for noen bety skifte av PSU. (som da igjen vil berøre punkt 1, men dog ikke like mye som andre hw produkter) 6) Denne løsningen er for dyr for at det lønner seg for enkelt menneske å oppgradere bare en enkelt gang. Kost/nytteverdi er altså alt for høy. Jeg kan med en gang avsløre at jeg nok ALDRI vil falle for slike løsninger som her presenteres. Mulig jeg går for et skjermkort med to brikker fremfor en. Dog regner jeg ikke med at produsentene har nådd det ultimate kort og den eneste måte å få mer kraft på er å koble de sammen.... Men jeg skal ikke drive med voodo og andre heksekunstner her på forumet, fordi jeg er ingen spåmann. Jeg har bare min (miss)tanker.... Lenke til kommentar
sveinsel Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 (endret) Kommer ikke bort fra tanken om at noe må overlates til CPU .... nå som de blir doble. Det er uholdbart med desse hvinende viftene på PCI (-ekspress) kort. All denne mekanikken forkommer meg som malplassert inni en PC. Edit: Uff... måtte justere... Endret 30. mai 2005 av sveinsel Lenke til kommentar
Anders Jensen Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 (endret) Tja...Leste et sted på nettet at GPU i nVIDA kortene bare støtter 2 kort som max....men at ATI sine GPU løsning ikke har noen begrensning på hvor mange kort man kan sette i sammen, så lenge ett av kortene fungerer som master.... enda en grunn til å elske ATI? Har en viss følelse av at det her er snakk om en sammenblanding med den multi GPU teknologien ATI benytter i SGI sine visualisering og arbeidsstasjoner. http://www.sgi.com/products/visualization/...m/overview.html Øverste begrensning her er 16 kort, men jeg vet ikke om det er en teknologisk begrensning. Mest sannsynlig så er det ikke det da SGI kan bygge langt større systemer. De bruker vel også denne teknologien for å øke oppløsningen i bildet, ikke for å øke FPS. En må altså ha nokså spesielle skjermløsninger på de største modellene. Endret 30. mai 2005 av Anders Jensen Lenke til kommentar
kindings Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 1) Fremtidsrettet? Hva mener man med at ting er fremtidsrettet i dataverden? Slutter aldri å le av de idiotene som råder folk om at slik vil det bli i fremtiden. Siden forumet stort sett består av AMD fans nevner jeg eksemplet hvor alle rådet folk å kjøpe socket 939 fordi det var så fremtidsrettet. Joda, heia fremtidsrettet. Ja, men folk her inne har ett ekstremt høyt ønske om at alt som kommer derfra er fremtidsrettet.. Dog tror jeg også disse innser etterhvert at "fremtidsrettet" innen IT er relativt og neppe vil møte egne krav for morgendagen og jeg er enig at slikt er det nok også med SLI/Crossfire. Noe av problemet her er at man kjøper 2x veldig dyrt skjermkort(for å oppnå max ytelse), problemet er at man trenger spesielle skjermkort(det gjelder både SLI og Crossfire pga broene, slik jeg forstår det) som neppe er billigere enn standardutgavene(kanskje det blir standard etterhvert). Men uansett sitter man igjen med 2x dyre skjermkort som henger med i dag, men morgendagens spill og skjermkort tilbyr bedre ytelse og folka som sitter med slike løsninger vil neppe nøye seg med det nest beste(det vet ATI og nVidia) og vil dermed oppgradere. De eneste som til syvende og sist tjener på dette er ATI og nVidia. På den annen side kan vi tenke oss bruker som bruker denne muligheten til å forlenge livet på en eksisterende skjerkortløsning, men jeg er ikke overbevist om at denne type brukere virkelig investerer i SLi eller Crossfire hk i første omgang.... Lenke til kommentar
efikkan Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Det blir i alle fall ikke noen oppgradéring her i huset på en stund. Lenke til kommentar
Ni kon Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 7) Støynivå Glemte å ta med støtnivå på en slik løsning. Herregud så mange vifter som surrer og går på maks fordi luftgjennomgangen i kabinettet så og si ikke eksisterer i hele tatt. De som kjører vannkjøling bør jo vurdere en radiator på størrelsen med en liten låvedør (litt overdrevet selvføgelig) Lenke til kommentar
ATWindsor Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 7) Støynivå Glemte å ta med støtnivå på en slik løsning. Herregud så mange vifter som surrer og går på maks fordi luftgjennomgangen i kabinettet så og si ikke eksisterer i hele tatt. De som kjører vannkjøling bør jo vurdere en radiator på størrelsen med en liten låvedør (litt overdrevet selvføgelig) Så at den allmektige reseratoren klarte å ta to ultraer i sli, men den er jo omtrent like stor som en låvedør da AtW Lenke til kommentar
Åsmund@ATi Skrevet 30. mai 2005 Del Skrevet 30. mai 2005 Vel, dahle flink til å Spøke du.... hehe Vel, tviler på at jeg gidder å waste 7-8k på skjermkort allså, for holde til et singel kort samt at jeg skifter det med passende mellom rom Et X850XT PE kort for holde til R520 kommer Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå