Gå til innhold

Nvidia fosser fra AMD


Anbefalte innlegg

Videoannonse
Annonse

Selvfølgelig er multimonitor støtten i Wayland relevant, det er ett av de STØRSTE argumentene til at X11 er på utskiftingslista.

Eventuelt du kan legge inn en ordentlig driver og se at det er driverens feil.

 

Det at Nvidia vurderer å slenge inn støtte for Wayland skyldes at overgangen nå er ett faktum,

Ja X versjon 11 blir nok byttet ut på et tidspunkt, men ikke at det rettferdiggjør bytte til en dårlig driver og et umodent X-alternativ i mellomtiden.

 

samt at mr Torvalds gav dem to velfortjente ord i 2013.

Nå tuller du.

 

Ellers så får du NULL NIKS ekstra utstyr i den properitære driveren med ett GT2xx kort.

...

GT2XX er 7 år gammel, men har fått forbedringer hele veien opptil nå. Dette er bedre driverstøtte enn noen av konkurrentene har kunnet tilby.

 

Nvidia Open Source driveren støtter ikke strømsparing, igjen årsaken her er dårlig samarbeid fra Nvidia sin side.

Hos ATi er derimot ståa mye bedre strømsparingsmessig under Linux, spesielt siden det du får i den offisielle driveren er rett og slett utdatert. (Ikke støtte for nyere versjoner av X server til eksempel.)

Og den offisielle driveren til Nvidia er bedre på:

- Bedre ytelse og "enterprise"-kvalitet

- Bedre stabilitet

- Bedre OpenGL-støtte, inkl. mer enn minstekravet

- Bedre OpenCL-støtte

- Bedre strømstyring

- Bedre AA-støtte

- Bedre videodekoding

- Bedre videoenkoding

- Er offisielt støttet og kommer med patcher når det trengs.

- Støtter spillprofiler

- Støtter overklokking

- Støtter SLI, G-Sync, CUDA og mye annet som noen bryr seg om.

 

Så langt har jeg til gode å se rasjonelle argumenter for å velge bort alt dette for en dårlig "åpen" driver, både for AMD og Nvidia.

 

Niks, jeg har kjørt det meste av Steam spill som kan drives på såpass lavt specet hardware med OpenSource driveren...

De store spilltitlene som har vært portet til Linux har stort sett fått trøbbel på de "åpne" drivernen pga. avvik fra spec. Det er noe alvorlig galt når et spill må legge inn støtte for en driver. På Windows er det oftest motsatt, at drivere trenger unntaksprofiler for dårlige spill.
Lenke til kommentar

Veldig mange av dere hopper glatt forbi den overordnede problem stillingen med propietære løsninger. Fokuset ser ut til å være på hvis enkelt gpu er bedre enn motsatt og og henger seg opp i bagateller.

Nvidia er åpenbart veldig for å melke sine kunder i markedet og pådriver for egen kontrollert propietære løsninger, som riktig nok kan fungere veldig godt, og koster også deretter. Men er det en framtid vi ønsker?

Vil vi ikke heller ha åpne løsninger med god pris og ytelse som er standardisert på en slik måte at det er støttet i alle slags skjermer, mobiler, smart klokker, nett brett,laptopper osv.
Selvfølgelig ønsker nvidia en løsning hvor hver annen produsent som ønsker å benytte deres gpu'er må betale dem for det, og deretter inngå pris samarbeid eventuelt for å forbedre sine respektive posisjoner i markedet. Får de til det, som de tilsynelatende og i stor grad har lykkes med, er det vi som sitter igjen som taperne.

Det spiller ingen rolle for meg om det ene kortet er noen poeng raskere i X benchmark her og der.

Det er fint om en kan klare å tenke forbi sin egen havresekk. Raskere maskinvare kommer relativt hele tiden, men hvorvidt vi kan bruke det til ulike formål etter eget ønske, blir opptil hvordan vi stemmer økonomisk.
Dette gjelder også selvfølgelig for andre industrier enn skjermkort bransjen.
 

  • Liker 2
Lenke til kommentar

 

Selvfølgelig er multimonitor støtten i Wayland relevant, det er ett av de STØRSTE argumentene til at X11 er på utskiftingslista.

Eventuelt du kan legge inn en ordentlig driver og se at det er driverens feil.

 

Det at Nvidia vurderer å slenge inn støtte for Wayland skyldes at overgangen nå er ett faktum,

Ja X versjon 11 blir nok byttet ut på et tidspunkt, men ikke at det rettferdiggjør bytte til en dårlig driver og et umodent X-alternativ i mellomtiden.

 

samt at mr Torvalds gav dem to velfortjente ord i 2013.

Nå tuller du.

 

Ellers så får du NULL NIKS ekstra utstyr i den properitære driveren med ett GT2xx kort.

...

GT2XX er 7 år gammel, men har fått forbedringer hele veien opptil nå. Dette er bedre driverstøtte enn noen av konkurrentene har kunnet tilby.

 

Nvidia Open Source driveren støtter ikke strømsparing, igjen årsaken her er dårlig samarbeid fra Nvidia sin side.

Hos ATi er derimot ståa mye bedre strømsparingsmessig under Linux, spesielt siden det du får i den offisielle driveren er rett og slett utdatert. (Ikke støtte for nyere versjoner av X server til eksempel.)

Og den offisielle driveren til Nvidia er bedre på:

- Bedre ytelse og "enterprise"-kvalitet

- Bedre stabilitet

- Bedre OpenGL-støtte, inkl. mer enn minstekravet

- Bedre OpenCL-støtte

- Bedre strømstyring

- Bedre AA-støtte

- Bedre videodekoding

- Bedre videoenkoding

- Er offisielt støttet og kommer med patcher når det trengs.

- Støtter spillprofiler

- Støtter overklokking

- Støtter SLI, G-Sync, CUDA og mye annet som noen bryr seg om.

 

Så langt har jeg til gode å se rasjonelle argumenter for å velge bort alt dette for en dårlig "åpen" driver, både for AMD og Nvidia.

 

Niks, jeg har kjørt det meste av Steam spill som kan drives på såpass lavt specet hardware med OpenSource driveren...

De store spilltitlene som har vært portet til Linux har stort sett fått trøbbel på de "åpne" drivernen pga. avvik fra spec. Det er noe alvorlig galt når et spill må legge inn støtte for en driver. På Windows er det oftest motsatt, at drivere trenger unntaksprofiler for dårlige spill.

 

 

 

Jepp, Torvalds sa de to pene ordene til Nvidia i 2012:

 

7 år gammel ja, men hos ATi funker GPUer som er ELDRE enn 7 år helt fint med den åpne driveren, og jeg vil tro det at den dagen når GTX 980 Ti blir 7 år og eldre så vil den funke mye bedre med den åpne driveren enn med den properitære som ikke oppdateres.

 

Ellers SLi støtte kan du glemme i Linux, nærmeste du kommer er CrossFire støtte i planleggingslista hos den åpne driveren til ATi.

Du mangler også offisiell støtte for overklokking i Nvidia sin Linux driver, men det finnes 3 parts applikasjoner til Linux som lar deg overklokke, disse funker dog også på den åpne ATi driveren, men ikke hos Nvidia.

Igjen skyldes dette at Nvidia ligger etter med å støtte opp under driveren som nevnt tidligere.

 

Selvfølgelig må du programmere opp imot driveren, om det er Windows eller ei så finnes det feil, her er open source gutta ofte raskere på å svare på en bug rapport enn hos de properitære hvor du ofte har en god del rød teip å forholde deg til.

 

X11 problemene og bugsene er IKKE Relatert til drivere, blant annet er kodebasen til X serveren såpass rotete og vanskelig å nøste opp i, så da blir den skrinlagt.

Samme argument som sendte den åpene versjonen av VirtualBox på dynga i sin tid, den var rett og slett for vanskelig å vedlikeholde.

Igjen en liten artikkel som viser til X11 problematikken: http://www.phoronix.com/scan.php?page=article&item=x_wayland_situationog at drivere har lite de kan gjøre og si i slike problemstillinger.

Og vil du ha en enda større argument liste så var dette tatt opp i Linux Action Show for noen år tilbake når Wayland var i sin barndom.

Merk at Wayland sine STØRSTE fordeler kommer utenfor 3D applikasjoner, men altså rent 2D arbeid.

 

Jeg anbefaler deg heller å fortsette dette argumentet i en annen tråd, jeg tror vi har forpestet denne her med nok argumenteringer for Linux plattformens driver.

 

Endret av 007CD
Lenke til kommentar

Hvordan driver AMD med mindre melking av sine kunder med proprietære løsninger (kremt)Mantle og gjenbruk av gamle GPUer?

 

Huh Mantle? Amd har jo sluttet utviklingen av Mantle (nå er det jo mer en industriell løsning for spesielt intereserte som videreutvikles , dog ikke direkte av Amd selv om jeg forstår det rett ).

 

*Freesync : Er jo Amd sitt svar til Nvidia sin G-sync , skjermene er også billigere og de som støtter Adaptive sync skal jo i utgangspunktet greie Freesync også. Med andre ord , skjermen vil kunne brukes til Nvidia skjermkort og kunne ta i bruk AS om Nvidia ønsker det (ren driverstøtte). Jeg tviler på at de vil ønske å bruke Fresync da de trolig ikke ser på det som en god løsning.

 

*Mantle : Nå er jo utviklingen av Mantle stoppet siden vi har DX12 som har sørget for å forbedre mange av de områdene DX11 var dårlig på , det betyr jo i utgangspunktet at skjermkortene våre vil bli bedre utnyttet i DX12 og selv om det er en kontrovers om Mantle virkelig var det som måtte til for å få på plass dette i DX12 så kan vi ikke si noe annet enn at DX12 er positivt for oss alle.

 

Ellers er jeg enig med deg at proprietære løsninger ikke alltids er bra for oss forbrukere , men igjen så er det noe selskapene bruker for å tjene bedre , sånn sett er Nvidia et langt flinkere selskap enn Amd...

Lenke til kommentar

G-Sync kom før Adaptive Sync var ute. AMD bruker jo bare adaptive sync til sin freesync. Nvidia kom altså med noe nytt som ingen andre hadde og pushet utviklingen fra andre aktører. Det ville vært merkelig om de skulle lagd denne teknologien virke for alt, siden de bruker egne brikker inni skjermene og greier. Nvidia er og en del av VESA og bidro altså sikkert like mye til adaptive sync som AMD!

 

NVidia har en del egne greier, men det har AMD også. Det Nvidia kommer med er på ingen måte dårlig, unødvendig osv. PhysX i Borderlands 2 f. eks utgjør en ganske stor forskjell!

 

Jeg ser ikke det store problemet med at Nvidia gir brukere ekstrafunksjoner som konkurrentene ikke har. Hva er det AMD har lagd som er som PhysX? Programvaren for å rendre spill i høy oppløsning og så nedskalere til skjermoppløsning var jo og bare for NVIDIA, så kom AMD med det samme et par måneder senere. Hvorfor skulle, og hvordan skulle AMD klare å utvikle Mantle til Nvidia kort?

 

Dette har ikke vært et problem før, men nå med G-sync og gameworks er nvidia plutselig forferdelige. Er Hairworks noe du trenger i Witcher 3? Ser hår forferdelig uten? Hvordan skulle NVidia klart å lage noe slikt til AMD? Selvfølgelig baserer de programvaren sin på sin egen arkitektur og da utelukkende Maxwell. Det er altså en fordel for folk som har de nyeste raskeste NVIDIA GPUene, men ingen ulempe for andre. G-Sync er altså ikke et forsøk på å være proporiter.  Det er bare et ønske om å komme ut med Adaptive Sync fordi VESA brukte lengre tid enn det NVIDIA ønsket. De visste jo helt klart at adaptive sync skulle komme, så hvorfor skulle de inngått et samarbeid med AMD for det? Det ville bare vært merkelig. Spesielt ikke siden de var med på et samarbeidsprosjekt for standarisert adaptive sync gjennom VESA allerede!

Lenke til kommentar

At Nvidia er den store stygge ulven er ikke noe nytt som har dukket opp med Hairworks. De har vært det helt siden sin spede begynnelse. Og det kunne gått veldig galt for dem. Hadde det ikke vært for at 3dfx dreit seg så til de grader med økonomien så hadde de saksøkt Nvidia tilbake til steinalderen. Men 3dfx skjønte at de kom til å være konkurs lenge før de hadde vunnet noen retssak mot Nvidia, og lot seg heller kjøpe opp av erkerivalen som var blitt store, blant annet på stjålne patenter fra 3dfx. SLI for eksempel er 3dfx teknologi fra way back when. Men selv om Nvidia kjøpte opp firmaet de hadde stjålet patenter ifra, så ble det jo et rettslig etterspill. Tror det siste ble avslutte rundt 2009?

 

Men dette er jo ikke eneste eksempelet på Nvidias drittsekk taktikker. Bare det at som regel, så går det nå ut over oss forbrukere. Og vi er alle villige til å brette buksene ned på knærne for 5 frames mer enn fra konkurrenten.

 

For eksempel har du Nvidias 3D vision. Hvis ikke skjermprodusenten betaler Nvidia for retten til klistremerket, så sørger Nvidia for at du ikke kan bruke stereoskopisk 3D med din 120/144Hz skjerm. De går faktisk aktivt inn for å boikotte deg som forbruker med å blokkere for muligheten på drivernivå. Det var nemlig mulig å bruke en hvilken som helst 120Hz skjerm en periode. Men Nvidia sperret for det i driverne sine.

 

PhysX blir nevnt. Enda et godt eksempel på hvordan Nvidia gjør business. I dette tilfellet kjøpte Nvidia opp selskapet Ageia, som stod bak PhysX. Man kunne før det, kjøpe egne PhysX kort til bruk i spill som støttet det. Man kunne altså ha et AMD grafikk kort, og PhysX fysikk kort. Man trenger nok ikke mange forsøk på å gjette hva som skjedde videre? Nvidia integrerte PhysX i sine egne grafikk kort og la ned støtten for PhysX kort fullstendig. Om du hadde et PhysX kort, ble det verdiløst over natten. Etter en stund var det de som fant ut at de kunne bruke AMD skjermkort til grafikk, og så et Nvidia skjermkort til PhysX. Man måtte vel trikse det til med å patche Nvidias driver. Gjett hva Nvidia gjorde da? De sørget for at driveren sjekket om du har AMD skjermkort, og ødela for muligheten. Et siste "fuck you" fra Nvidia til folk som gjorde dette.

 

Nå har vi G-Sync, og det er strengt tatt ikke noe galt med det. Nvidia så at ARR skjermer var på vei, men langt unna, og bestemte seg for å lage en proprietær løsning. Slik sett kan de ha medvirket til å fremskynde utviklingen av ARR skjerm-markedet. Og det er jo bra for oss forbrukere. Men de har hatt markedet for seg selv lenge, helt til det gikk opp for AMD at DP1.3 fremdeles var evigheter unna, og at skjermprodusenter ikke legger inn funksjonalitet uten et fancy klistremerke til å selge skjermen den funksjonaliteten. Så langt om atter lenge, kommer AMD med sin FreeSync, og enda lenger enn langt om senn dukker det opp noen FreeSync monitorer. Dette er en absolutt nødvendighet, og man kan virkelig lure på hvorfor det tok så sinnssykt lang tid.

 

Men nå som de er her, hva gjør Nvidia? Jo, de forsøker å boikotte ved å nekte å støtte en åpen standard. Det var riktignok en Nvidia ansatt som var raskt på pletten og sa at det ville ikke være noe problem for Nvidia å støtte FreeSync først. Men jeg tror ingen har hørt fra ham siden, sannsynligvis bor han i en pappkartong nå. Nvidia var raskt ute og dementerte det utsagnet. Nvidia kommer neppe til å tillate FreeSync på sine drivere noensinne. Det blir eventuelt med DP1.3. Og da heter det jo ikke lenger "FreeSync". ;)

 

Ellers for å svare på et par spørsmål:

 

"Hva er det AMD har lagd som er som PhysX?".

Svar: Vel, de har jo omsider TressFX, men den er vel strengt tatt bare for hår om jeg ikke tar helt feil. 

 

"Hvorfor skulle, og hvordan skulle AMD klare å utvikle Mantle til Nvidia kort?"

Svar: AMD sa i utgangspunktet at Mantle ville være en åpen API. At Nvidia valgte å ikke benytte den, er ikke rart i det hele tatt. Det ville sett komisk ut om de skulle benyttet "AMD’s Revolutionary Mantle". Sånn sett, så kunne ikke Nvidia bruke Mantle. ;)

  • Liker 2
Lenke til kommentar

G-Sync kom før Adaptive Sync var ute. AMD bruker jo bare adaptive sync til sin freesync. Nvidia kom altså med noe nytt som ingen andre hadde og pushet utviklingen fra andre aktører. Det ville vært merkelig om de skulle lagd denne teknologien virke for alt, siden de bruker egne brikker inni skjermene og greier. Nvidia er og en del av VESA og bidro altså sikkert like mye til adaptive sync som AMD!

Feil.

"Adaptive-Sync is a proven and widely adopted technology. The technology has been a standard component of VESA’s embedded DisplayPort (eDP™) specification since its initial rollout in 2009. "

Link fra VESA

 

Nvidia ønsker å selge sin egen teknologi og selv om de trolig kan støtte Adaptive sync uten problemer velger de å bruke argumentet "vår teknologi er bedre" selv om forbrukeren må betale langt mer for den

 

NVidia har en del egne greier, men det har AMD også. Det Nvidia kommer med er på ingen måte dårlig, unødvendig osv. PhysX i Borderlands 2 f. eks utgjør en ganske stor forskjell!

 

Jeg ser ikke det store problemet med at Nvidia gir brukere ekstrafunksjoner som konkurrentene ikke har. Hva er det AMD har lagd som er som PhysX? Programvaren for å rendre spill i høy oppløsning og så nedskalere til skjermoppløsning var jo og bare for NVIDIA, så kom AMD med det samme et par måneder senere. Hvorfor skulle, og hvordan skulle AMD klare å utvikle Mantle til Nvidia kort?

PhysX var faktisk en teknologi som Ageia eide før det ble kjøpt opp av Nvidia. Ageia hadde egne PhysX kort som tok av seg alle de fysiske beregningene , Nvidia implementerte dette etterpå i skjermkortene sine og vips så trengte man ikke lenger et ekstra kort for å gjøre beregningene. PhysX har selvsagt en viss påvirkning i ytelsen , men dagens skjermkort kan implementere dette uten at det går alt for hardt utover ytelsen.

 

Dette har ikke vært et problem før, men nå med G-sync og gameworks er nvidia plutselig forferdelige. Er Hairworks noe du trenger i Witcher 3? Ser hår forferdelig uten? Hvordan skulle NVidia klart å lage noe slikt til AMD? Selvfølgelig baserer de programvaren sin på sin egen arkitektur og da utelukkende Maxwell. Det er altså en fordel for folk som har de nyeste raskeste NVIDIA GPUene, men ingen ulempe for andre. G-Sync er altså ikke et forsøk på å være proporiter.  Det er bare et ønske om å komme ut med Adaptive Sync fordi VESA brukte lengre tid enn det NVIDIA ønsket. De visste jo helt klart at adaptive sync skulle komme, så hvorfor skulle de inngått et samarbeid med AMD for det? Det ville bare vært merkelig. Spesielt ikke siden de var med på et samarbeidsprosjekt for standarisert adaptive sync gjennom VESA allerede!

Som jeg påpekte ovenfor hadde VESA klart Adaptive Sync fra 2009 (spesifikasjonene) , det tok dog 5 år før de første skjermene med teknologien kom på plass med Displayport 1.2a , det var vel også dette som gjorde at Nvidia ikke giddet å vente lengre og sørget for å få på plass G-sync.

 

Problemet med G-sync er at det er en løsning som kun fungerer med Nvidia skjermkort , skjermene er også ganske så dyre og det gjør ofte at de som velger å investere i denne teknologien låser seg til Nvidia produkter.

Det er på ingen måte logisk at man skal senere kjøpe seg et annet skjermkort fra en annen produsent da man ikke lenger får støtte for G-sync og som var trolig årsaken til at man kjøpte den skjermen i første omgang.

 

Markedsdominansen til Nvidia er skremmende og slik jeg ser det ønsker selvsagt selskapet å utnytte dette til det fulle , de trenger derfor ikke å levere skjermkort som støtter andre åpne standarer , selv om brukerne av skjermkortene sine definitivt har villet vunnet på dette om Nvidia faktisk gjordet det.

 

Jeg husker selv et annet selskap som gjorde noe lignende når Applekom på markdet (Nokia ) de var utrolig selvsikre på at de hadde de beste løsningene , kundene var også til en viss grad enige , men etter hvert som både Apple og Android kom med sine telefoner så var løpet kjørt for et selskap som nektet å gi kundene det de ønsket.

Så til syvende og sist så er både Amd og Nvidia avhengig av hva vi som kunder ønsker oss , personlig så ønsker jeg meg et skjermkort som ikke tvinger meg til å betale ekstra for noe som burde være en standard og som burde være mulig å få fra samtlige skjermer som har en viss kvalitet (eller andre ting som til syvende og sist gir oss en bedre opplevelse i spill osv ).

  • Liker 1
Lenke til kommentar

Jepp, Torvalds sa de to pene ordene til Nvidia i 2012:

Jeg vet det, men det gjør ikke ordene mer fortjent. Torvalds har en tendens til å slenge ut påstander som er på kanten eller feilaktige kun for å provosere, og RMS-folk har en tendens til å svelge alt rått og ukritisk. Du får synest hva du vil om den ene produsenten eller den andre, men jeg forholder meg ivertfall til fakta fremfor ideologi. Nvidia er den maskinvareprodusenten som har gjort mest for Linux som desktop-plattform. Uten Nvidia hadde vi ikke hatt noe morderne OpenGL, ei heller OpenCL. Nvidia har vært helt avgjørende for arbeidsstasjonsstøtte for Linux, og uten de hadde desktop-støtte for Intels CPUer også falt lengre ned på prioriteringslista. Grunnen til at det i det hele tatt finnes (ATI-/)AMD-drivere for Linux er at de ønsket å konkurrere med Nvidias lukrative arbeidsstasjonsmarked. Kort sagt hadde Linux vært et nærmest rent server-operativsystem uten Nvidia, og svært få som deg og meg hadde brukt det på desktop.

 

7 år gammel ja, men hos ATi funker GPUer som er ELDRE enn 7 år helt fint med den åpne driveren, og jeg vil tro det at den dagen når GTX 980 Ti blir 7 år og eldre så vil den funke mye bedre med den åpne driveren enn med den properitære som ikke oppdateres.

Nvidia har god offisiell støtte for 10-12 år gamle GPUer i dag, så det finnes ingen informasjon som understøtter din påstand.

 

Ellers SLi støtte kan du glemme i Linux, nærmeste du kommer er CrossFire støtte i planleggingslista hos den åpne driveren til ATi.

Feil igjen, SLI har vært støttet i mange år (siden Doom III sine dager).

 

Du mangler også offisiell støtte for overklokking i Nvidia sin Linux driver, men det finnes 3 parts applikasjoner til Linux som lar deg overklokke, disse funker dog også på den åpne ATi driveren, men ikke hos Nvidia.

Feil igjen, overklokking på Fermi/Kepler/Maxwell har vært der en stund, det må bare aktiveres i Xorg.conf så dukker et nytt panel opp i nvidia-settings. Støtte for pre-Fermi har vært der hele tiden.

 

Etter så mange feil i innlegg etter innlegg så er det tydelig at du ikke er oppdatert på driverfronten.

 

Igjen skyldes dette at Nvidia ligger etter med å støtte opp under driveren som nevnt tidligere.

Tull

 

Selvfølgelig må du programmere opp imot driveren, om det er Windows eller ei så finnes det feil, her er open source gutta ofte raskere på å svare på en bug rapport enn hos de properitære hvor du ofte har en god del rød teip å forholde deg til.

Tull og vås. Hos de uoffisielle driverne er det ingen som har reelt ansvar, så det er et rent lotteri om noe blir fikset.

 

Og vil du ha en enda større argument liste så var dette tatt opp i Linux Action Show for noen år tilbake når Wayland var i sin barndom.

Jeg husker godt opphypingen i LAS, Wayland skulle jo overta for X for flere år siden :p

De er riktig nok underholdende, men ingen av de gutta der har grundig erfaring med slik programmering uansett.

 

Merk at Wayland sine STØRSTE fordeler kommer utenfor 3D applikasjoner, men altså rent 2D arbeid.

Nå bruker alle moderne skrivebordsmiljøer OpenGL-akselerasjon (eller DirectX for Windows). Hvis du er en av de som bruker en av de mer eksotiske miljøene, eventuelt bruker Metacity eller lignende, så er sannsynligheten stor for at du ikke bryr deg særlig om ytelse eller annen funksjonalitet som en GPU vil gi deg. Det er derfor verdt å bemerke at når du snakker om at den "åpne" driveren er god nok for deg så er det et bruksområde som ikke er relevant for de fleste.
  • Liker 3
Lenke til kommentar

Som sagt, du har ganske mye feil i innlegget ditt, så jeg orker ikke å forsøple denne tråden videre, vil du diskutere dette videre efikkan så får du enten sende PM eller ta det opp i en annen tråd.

Men jeg kan si det såpass at du tar helt feil fra en ende  til en annen her når det gjelder drivere, mulig at du har bare touchet distroer som shipper med eldre statiske pakker?

Ubuntu ligger som sagt langt etter før de innhenter ferske pakker, Samba4 er en pakke man rett og slett ikke kan bruke grunnet at de ligger etter med over året, og jeg tror gjerne at Mesa pakkene er like gamle.

Lenke til kommentar

Som sagt, du har ganske mye feil i innlegget ditt, så jeg orker ikke å forsøple denne tråden videre, vil du diskutere dette videre efikkan så får du enten sende PM eller ta det opp i en annen tråd.

Men jeg kan si det såpass at du tar helt feil fra en ende  til en annen her når det gjelder drivere, mulig at du har bare touchet distroer som shipper med eldre statiske pakker?

Ubuntu ligger som sagt langt etter før de innhenter ferske pakker, Samba4 er en pakke man rett og slett ikke kan bruke grunnet at de ligger etter med over året, og jeg tror gjerne at Mesa pakkene er like gamle.

Jeg  har en følelse for at det du kommer med, der AMD har bedre støtte er ekstreme nisjesituasjoner. For de aller aller fleste er Nvidia sin støtte mye bedre. De som vil bruk ubuntu eller SteamOS. Det er jo ellers utrolig lett å se hvilken produsent som gjør det bra på SteamOS. OSet fungerte jo ikke engang til AMD ved launch! Så du kan nå komme med nisjeeksempler så mye du vil, men for de aller fleste scenarior på Linux er Nvidia best. Det viser SteamOS veldig tydelig blant annet.

 

Du må gjerne være fornøyd med AMD, men sliter med å se hvordan du kan si at de er bedre på generelt basis, spesielt med hobby-drivere!!

  • Liker 1
Lenke til kommentar

Er ikke mange av disse problemene i "nisjesituasjoner", da? Multiskjermoppsett og lignende. En GPU i en maskin med en skjerm, der står vel begge til bestått - og vel så det.

Hvis du har lest så sier efikkan at mye av dette som blir sagt ikke stemmer og er feil. Dessuten nevnes multiskjermoppsett i et spesieltbrukstilfelle. Altså ikke i ubuntu. Har du sett AMD sine drivere for windows på multiskjermoppsett? De bruker 3-4 ganger så mye strøm på idle som Nvidia. To skjermer vil gjøre at et kort som R9 390 idler på 80 watt(!).

  • Liker 1
Lenke til kommentar

Det er en gammel skrøne at Nvidia har trøbbel med flerskjermoppsett. Det fungerer ypperlig både i Linux og i Windows.

 

Jeg husker godt tilbake i de dagene der vi måtte rote i Xorg.conf og restart X for å få CRT-er til å bruke optimal innstilling, men nå snakker vi om ti år tilbake og mer.

Lenke til kommentar

Apple valgte AMD fremfor Nvidia i sin nye IMac! Så unix-driverene til AMD kan da ikke være så dårlige! Nvidia burde kanskje fokusere på bedre drivere til win10! Der henger dem litt etter AMD^^ Uansett hvilke forum man besøker på internett, så dukker win10, og nvidia opp som et problem for mange!

Lenke til kommentar

Oi 80 watt, er jo nesten som en middels stor landsby, blows my mind.

Klager man på watt så har du gjort noe feil selv.

Ingen som tenker på at dem glemmer å slå av lys når dem legger seg! Men når en produsent lager et produkt som bruker en lyspære mer i watt, ja da blir det krise! Ikke mange her som skjønner at dem bor i det kalde langstrakte norge!

  • Liker 1
Lenke til kommentar

 

Oi 80 watt, er jo nesten som en middels stor landsby, blows my mind.

Klager man på watt så har du gjort noe feil selv.

Ingen som tenker på at dem glemmer å slå av lys når dem legger seg! Men når en produsent lager et produkt som bruker en lyspære mer i watt, ja da blir det krise! Ikke mange her som skjønner at dem bor i det kalde langstrakte norge! Men i fra tester så bruker ikke konkurrenten så mye mindre strøm! Dem bare avgir litt mindre varme, som jeg ser som en negativitet når gradestokken nærmer seg 0! Stabiliteten er, og blir den samme for begge produsentene, selv om gradene viser litt avik^^ 

 

Lenke til kommentar

Apple valgte AMD fremfor Nvidia i sin nye IMac! Så unix-driverene til AMD kan da ikke være så dårlige! Nvidia burde kanskje fokusere på bedre drivere til win10! Der henger dem litt etter AMD^^ Uansett hvilke forum man besøker på internett, så dukker win10, og nvidia opp som et problem for mange!

Tror du virkelig Apple valgte dem pga driverstøtte? AMD kortene i iMac OG rMBP er rebranda 2012 mid end desktop kort. De er helt forferdelige sammenlignet med NVIDIA Maxwell. Og Apple har brukt Nvidia i utrolig mange år får de switchet til AMD i år. Noe som umulig kan skyldes noe annet enn at de vil ha mer penger. Alle, absolutt alle andre går for Maxwell i den type PC. AMD sin mobile-GPU satsing er nesten ikke eksisterende. De har 0 mulighet til å konkurrere. Med mindre et selskap som Apple kommer og kjøper et par gamle kort på billigsalg for å spare et par $$$

 

Det med win 10 er bare tull. Nvidia hadde offisielle drivere ute i månedsvis mens Windows 10 fortsatt var i beta. Selv med win 8.1 drivere hadde jeg aldri noen gang driverproblem med Nvidia. Jeg hadde problem med programmer som av og til ikke ville fungere med Nvidia sin streaming tjeneste, men det var det eneste. Noe som også er fikset av enten MS, Nvidia eller Riot.

 

Vet du hvorfor det er mer Nvidia tråder med problemer enn AMD? Fordi det er langt flere NVidia GPUer! Dessuten er den setningen veldig subjektiv, og du har ingen beviser for dine påstander.

 

Oi 80 watt, er jo nesten som en middels stor landsby, blows my mind.

Klager man på watt så har du gjort noe feil selv.

Dette blir bare et latterlig forsvar av ineffektivitet fra AMD sin side. Det er ikke som om dette er det eneste, det var et eksempel. Forsvarer du ting som at AMD bruker 3-4 ganger så mye strøm ved idle bare pga det er multimonitor så utpeker du deg selv som en åpenbar AMD fanboy.

 

Og jeg beklager, men analogien til lyspære fungerer ikke. Det å bruke Norge som eksempel er og lite relevant. Hvor stor del av markedet er Norge? Kan de tenkes at det er andre forhold i andre land? For all del, norge er det eneste som teller, hva er vits i å se verden ut ifra et annet perspektiv enn ditt eget. Det er heller ingen grunn til å tro at det er litt mer dyptliggende problemer med strømforbruk når en så enkel ting som idle på multimonitor er så forferdelig sammenlignet med konkurrent. Men selvfølgelig det er sikkert bare et engangstilfelle som AMD har "glemt" å gjøre noe med. Det har sikkert ikke noe med at de ikke har ressurser nok og nedprioriterer det.

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...