La Menthe Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 Får jeg denne ytelsesøkningen hvis jeg vil beregne alle primtall mellom 2 og N med en enkeltkjerne. Altså vil beregningen gå dobbelt så raskt som på S8. Du kan anta at en Sieve-algoritme blir brukt.Hvis enkeltkjernens ytelse er dobbelt så rask, så er svaret ja.En Sieve-algoritme bruker mye minne, ergo vil den være minnebåndviddebegrenset, så den vil kun få dobling i ytelse hvis minnebåndbredden blir doblet. Det var poenget mitt. Mange algoritmer blir ikke automatisk (omtrent) dobbelt så raske, nettopp fordi det kan være andre flaskehalser, eller fordi beregningsmønsteret ikke passer til CPUen. Jeg antok den gjorde det, grunnet spørsmålet ditt. Hvorfor spør du meg det, da, hvis du er klar over at arbeidsoppgaven ikke er avhengig av kun enkeltkjerneytelse? Hva er formålet med et slikt poeng, egentlig? Lenke til kommentar
Lunaris Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 En Sieve-algoritme bruker mye minne, ergo vil den være minnebåndviddebegrenset, så den vil kun få dobling i ytelse hvis minnebåndbredden blir doblet. Det var poenget mitt. Mange algoritmer blir ikke automatisk (omtrent) dobbelt så raske, nettopp fordi det kan være andre flaskehalser, eller fordi beregningsmønsteret ikke passer til CPUen. Faktisk så har de kommet med store forbedringer for memory latency også Derfor jeg skriver SoC stadig vekk. Er ikke kun CPU kjerner som er en del bedre Det er også en økning i cache fra tidligere. Det er jo noe Apple alltid har hatt mye mer av, da de bruker mer areal tradisjonelt på sine CPUer. Og mer L1/L2/L3 cache er jo selvfølgelig høyere ytelse. Og sånn som Qualcomm selger ikke alle chipene sine til folk som lager telefoner til 10.000 kr, så da er jo pris noe å tenke på for Qyualcomm, og ikke like viktig for Apple. Lenke til kommentar
Gjest Slettet+5132 Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 Får jeg denne ytelsesøkningen hvis jeg vil beregne alle primtall mellom 2 og N med en enkeltkjerne. Altså vil beregningen gå dobbelt så raskt som på S8. Du kan anta at en Sieve-algoritme blir brukt.Hvis enkeltkjernens ytelse er dobbelt så rask, så er svaret ja.En Sieve-algoritme bruker mye minne, ergo vil den være minnebåndviddebegrenset, så den vil kun få dobling i ytelse hvis minnebåndbredden blir doblet. Det var poenget mitt. Mange algoritmer blir ikke automatisk (omtrent) dobbelt så raske, nettopp fordi det kan være andre flaskehalser, eller fordi beregningsmønsteret ikke passer til CPUen. Jeg antok den gjorde det, grunnet spørsmålet ditt. Hvorfor spør du meg det, da, hvis du er klar over at arbeidsoppgaven ikke er avhengig av kun enkeltkjerneytelse? Hva er formålet med et slikt poeng, egentlig? For å lage et poeng og teste hvor mye du vet Lenke til kommentar
Gjest Slettet+5132 Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 (endret) En Sieve-algoritme bruker mye minne, ergo vil den være minnebåndviddebegrenset, så den vil kun få dobling i ytelse hvis minnebåndbredden blir doblet. Det var poenget mitt. Mange algoritmer blir ikke automatisk (omtrent) dobbelt så raske, nettopp fordi det kan være andre flaskehalser, eller fordi beregningsmønsteret ikke passer til CPUen. Faktisk så har de kommet med store forbedringer for memory latency også Derfor jeg skriver SoC stadig vekk. Er ikke kun CPU kjerner som er en del bedre Det er også en økning i cache fra tidligere. Det er jo noe Apple alltid har hatt mye mer av, da de bruker mer areal tradisjonelt på sine CPUer. Og mer L1/L2/L3 cache er jo selvfølgelig høyere ytelse. Og sånn som Qualcomm selger ikke alle chipene sine til folk som lager telefoner til 10.000 kr, så da er jo pris noe å tenke på for Qyualcomm, og ikke like viktig for Apple. latens og båndbredde er vanligvis to forskjellige ting. Lite latens er selvsagt bra, men for minnebåndbreddebegrensede algoritmer kommer gjerne dataen på løpende bånd og da vil latens kun ha noe å si for første biten, etterpå ruller det inn. Endret 26. februar 2018 av Slettet+5132 Lenke til kommentar
N o r e n g Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 (endret) Jeg er faktisk ikke uenig i noe forfatteren (som forresten ikke er Ian Cuttress) mener. Andrei skriver tydelig at resultatene er rare og han må teste de igjen når full release av telefonen kommer ut. Så nå at det er Andrei Frumusanu som har skrevet denne artikkelen, jeg antak at det var Cutress fordi han har dekket svært mange av disse messene på Anandtech. Er det alt du klarer å besvare en med? "Stråmann"? Hva med å faktisk svare ordentlig, i stedet for å konstant sette deg i forsvarsmodus. Jeg vil påpeke at du setter opp stråmenn hver gang du unnlater å svare på spørsmålet, og heller kommer med personangrep eller andre distraksjoner. Antutu viser et forsprang på 30% sammenlagt. Mali G72, slik den har bli konfigurert, skal ikke yte noe mer enn 10% bedre. Det var veldig spesifikt, hvordan kom du frem til akkurat dette tallet? Exynos 8895 har en Mali G71MP20, eller litt enklere: den har 20 Mali G71-kjerner i en GPU. Exynos 9810 har en Mali G72MP18, altså 18 Mali G72-kjerner. ARM selv mener at Mali G72 vil levere 40% bedre ytelse enn Mali G71, riktignok har E9810 90% så mange kjerner som i E8895, men det vil fortsatt bety ca 25% bedre ytelse hvis alt annet er likt... Men så må man huske på at det er vesentlig mer enn antall GPU-kjerner som bestemmer ytelsen, minnebåndbredde kan for eksempel ha mye å si på ytelsen Endret 26. februar 2018 av N o r e n g 1 Lenke til kommentar
La Menthe Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 (endret) For å lage et poeng og teste hvor mye du vet Du fikk ingen poeng ut av det, og det virker egentlig ikke som om du vet noe særlig mye selv. Du spurte meg et spørsmål som du fikk meg til å tro var entråd-bundet. Intet mer.' aslatens og båndbredde er vanligvis to forskjellige ting. Lite latens er selvsagt bra, men for minnebåndbreddebegrensede algoritmer kommer gjerne dataen på løpende bånd og da vil latens kun ha noe å si for første biten, etterpå ruller det inn. Latency og latens er også to forskjellige ting. Det heter ventetid. Men du vet jo bedre enn meg... Endret 26. februar 2018 av La Menthe Lenke til kommentar
La Menthe Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 (endret) Er det alt du klarer å besvare en med? "Stråmann"? Hva med å faktisk svare ordentlig, i stedet for å konstant sette deg i forsvarsmodus. Jeg vil påpeke at du setter opp stråmenn hver gang du unnlater å svare på spørsmålet, og heller kommer med personangrep eller andre distraksjoner. Det gjør jeg ikke. "Stråmenn"-påstanden din er bare en overbrukt symptom av din vedvarende selvforsvarsmodus. Det var veldig spesifikt, hvordan kom du frem til akkurat dette tallet? Exynos 8895 har en Mali G71MP20, eller litt enklere: den har 20 Mali G71-kjerner i en GPU. Exynos 9810 har en Mali G72MP18, altså 18 Mali G72-kjerner. ARM selv mener at Mali G72 vil levere 40% bedre ytelse enn Mali G71, riktignok har E9810 90% så mange kjerner som i E8895, men det vil fortsatt bety ca 25% bedre ytelse hvis alt annet er likt... ARMs ytelsestall er basert på hvorvidt man øker frekvensen som den bedre effektiviteten til G72 tilbyr, noe Samsung ikke har gjort. Anandtech har da vitterlig gjort grafikktest av E9810 -- det samme har GSMArena. Begge viser små ytelsesøkninger fra grafikksiden. Om det ikke er overbevisende nok, kan du sjekke ut G72 i Huaweis siste Kirin-SoC og. Endret 26. februar 2018 av La Menthe Lenke til kommentar
Gjest Slettet+5132 Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 For å lage et poeng og teste hvor mye du vet Du fikk ingen poeng ut av det, og det virker egentlig ikke som om du vet noe særlig mye selv. Du spurte meg et spørsmål som du fikk meg til å tro var entråd-bundet. Intet mer.' aslatens og båndbredde er vanligvis to forskjellige ting. Lite latens er selvsagt bra, men for minnebåndbreddebegrensede algoritmer kommer gjerne dataen på løpende bånd og da vil latens kun ha noe å si for første biten, etterpå ruller det inn. Latency og latens er også to forskjellige ting. Det heter ventetid. Men du vet jo bedre enn meg... Du kunne selv spurt hva en Sieve-algoritme var, men du påsto bastant at den ville få dobling i ytelse, uten noe forbehold, ei eller noe forbehold om kompilator som blir brukt eller instruksjoner som blir benyttet. Poenget er uansett følger: Det er ikke så ofte alle algoritmer får full nytte av ytelseshopp. Det kan være fordi de har andre flaskehalser, eller fordi algoritmen ikke bruker instruksjoner som har fått ytelseshopp (eg. hvis CPUen akkurat har fått ny instruksjon til å regne ut a+b+c i en instruksjon, men din algoritme alltid regner ut a*b, vil den ikke få noe ytelseshopp). Har aldri sagt at jeg vet bedre enn deg. Lenke til kommentar
Gjest Slettet+5132 Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 (endret) likefullt kjøper folk oftest laptop er med dårligere CPU enn den beste/raskeste Men de kjøper alltid nyeste generasjon. Det er hele poenget mitt. Alt handler ikke om ren ytelse. Da hadde bare Intel tatt gamle chiper som var bra før og satt dem inn i PCer lengre og lengre ned, men tenk deg en i7-920 i en laptop. Og du har masse nye teknologier, støtte for nye teknologier som kommer, som og er urelatert til ytelse. Og slik som nyeste Kirin og A11 så har de begge NPU som gjør dem utrolig mye bedre til maskinlæring. Det har ingenting med ytelsen å gjøre. Selv om mange selvfølgelig skrev A11 "Bionic" fikk mye ytelse takket være disse kretsene, fordi journalister skjønner ikke alltid så godt hva de skriver om.... Akkurat som med Nvidias nyeste kort det. Du må bytte om du driver med maskinlæring, fordi selv om ytelsen ikke er så mye opp i spill er ytelsesøkningen i maskinlæring latterlig høy. Hvis du tenker over det. En S8 gjør en singlecore oppgave, og den er rimelig tung, så den er på 2,3 Ghz. Samme oppgave vil da en S9 kunne enten gjøre ved 2,7 Ghz på halve tiden, eller på samme tid på 1,3 Ghz. Hvis du gjør det på 1,3 Ghz, bruker du sikkert 30-40% av strømmen. I Android er 1+4 en vanlig aktiv kombinasjon. Eller 1+3. Altså optimert for 4 kjerner, men kjerne 0 har ekstra høy last, så da kan du bruke en kjerne i big cluster, men det lille kjører programmet ellers. Plutselig kan du da altså utføre oppgavene langt mer effektivt. Fordi du kan migrere tilbake fra big kjerne til liten raskere. Ta en Core-M. Hva er forskjellen på en 4,5W TDP Core M og en 15W TDP U-serie? Nesten ingenting. Core M er essensielt en underklokket U-serie. Den har mulighet til å gå opp til nesten samme frekvenser, og bruke rundt 15W. Hvis du kjører webxprt benchmark er en M-serie lik en U-serie i ytelse. Så til lett web browsing vil altså ytelsen for de to CPUene være lik. Men M-serien vil være mer effektiv i bruk. Både styringslogikk og styringsalgoritmer har blitt veldig avansert. Hvem sier at en 100% økning i single core ytelse vil merkes best i systemytelse? Det vil nok ikke ha noe videre å si der. Men det kan som vist ha stor innflytelse på effektivitet. Nå Apples kom med A11 og økte multicore ytelse mye, var det for å få bedre systemytelse? Jeg så slike åpne app og gå til neste på YT og selv etter første oppdatering var de noe tregere enn forrige generasjon. Men hva var det Apple praktisk sett gjorde? De la til et skikkelig little cluster for å kunne kjøre lettere oppgaver mer effektivt. Så i A11 var det for strømbruket sin skyld, ikke ytelsen at de gjorde det. Det alle skriver om og tenker er derimot ytelsen. Men iOS og dets apper er åpenbart ikke optimalisert for 6 kjerner. Jeg tviler på at iOS bruker 6 kjerner noe videre, akkurat som jeg ikke tror Android bruker 8 veldig ofte. Og jeg er ikke sikker på om den klarer 6 kjerner over tid engang. Jeg føler mange misforstår det med big.LITTLE. Poenget er jo ikke å bruke alle kjernene alltid. Det er kun når du MÅ ha maks ytelse, som benchmarks du gjør det. Jeg er ikke så overbevist om at folk alltid kjøper nyeste generasjon heller. Se bare på hvor godt macbooks solgte selv da i perioder de hadde "utdatert" CPUen (hadde ikke fått oppdatering ennå). Jeg tror ikke folk går til elkjøp og sier de skal ha nyeste Intel-generasjon. De spør kanskje selgeren om "er den rask a?" hvorpå selgeren svarer et kontant "seff!" Jeg ser argumentet med at produsentene investerer store penger i SoC, og det er nok for å få brukere, men jeg tror ikke det er av samme grunn som du tror. Jeg tror det viktigste for produsentene er å vise at de er i tet, at de kan lage den beste CPUen. Det tiltrekker kunder, men ikke nødvendgvis kunder til den beste mobilen/SoCen. Det skaper en viss tiltro til et merke å vite at de kan lage den beste telefonen, selv om du kanskje kjøper enten forrige generasjon eller en billigere modell. Og rask SoC vinner mobiltester, så enkelt er det. Vil du ha "Best i test" eller "Nest best i test, den vil være omtrent helt lik, men den andre var bittelitt bedre"? Endret 26. februar 2018 av Slettet+5132 Lenke til kommentar
La Menthe Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 Poenget er uansett følger: Det er ikke så ofte alle algoritmer får full nytte av ytelseshopp. Det kan være fordi de har andre flaskehalser, eller fordi algoritmen ikke bruker instruksjoner som har fått ytelseshopp (eg. hvis CPUen akkurat har fått ny instruksjon til å regne ut a+b+c i en instruksjon, men din algoritme alltid regner ut a*b, vil den ikke få noe ytelseshopp). Flyttalsoperasjoner, integer, minne og krypto definerer det brede spekteret av oppgaver til en prosessor. Hvis 9810 gjør det bra her, blir det for dumt å peke på anekdotiske trivialiteter, slik du nå gjør. Lenke til kommentar
Gjest Slettet+5132 Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 Poenget er uansett følger: Det er ikke så ofte alle algoritmer får full nytte av ytelseshopp. Det kan være fordi de har andre flaskehalser, eller fordi algoritmen ikke bruker instruksjoner som har fått ytelseshopp (eg. hvis CPUen akkurat har fått ny instruksjon til å regne ut a+b+c i en instruksjon, men din algoritme alltid regner ut a*b, vil den ikke få noe ytelseshopp). Flyttalsoperasjoner, integer, minne og krypto definerer det brede spekteret av oppgaver til en prosessor. Hvis 9810 gjør det bra her, blir det for dumt å peke på anekdotiske trivialiteter, slik du nå gjør. En flyttallsoperasjon er ikke det samme som en annen. Selv om en CPU gjør det bra ved noen flyttalls-benchmarker, betyr ikke det at den gjør det bra ved alle. Det er alt fra registere, til instruksjoner (de fleste CPUer har saxpy-instruksjoner, men ikke alle flyttallsoperasjoner benytter saxpy) etc. Lenke til kommentar
Gjest Slettet+5132 Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 (endret) Forøvrig, tenker vi skal gjenta hva Linus Torvalds en gang sa om Geekbench: Geekbench is SH*T. It actually seems to have gotten worse with version 3, which you should be aware of. On ARM64, that SHA1 performance is hardware-assisted. I don't know if SHA2 is too, but Aarch64 does apparently do SHA256 in the crypto unit, so it might be fully or partially so. And on both ARM and x86, the AES numbers are similarly just about the crypto unit. So basically a quarter to a third of the "integer" workloads are just utter BS. They are not comparable across architectures due to the crypto units, and even within one architecture the numbers just don't mean much of anything. And quite frankly, it's not even just the crypto ones. Looking at the other GB3 "benchmarks", they are mainly small kernels: not really much different from dhrystone. I suspect most of them have a code footprint that basically fits in a L1I cache. Linus Rundt da iPhone X ble lansert var det også en nettside (finner ikke link nå) som testet med egneskrevne benchmarker om iPhone X virkelig var så fantastisk som benchmarka skulle ha det til. De fikk en annen konklusjon (nemlig at S8 var raskest). Noen som husker testen og har URL? EDIT: Fant den (orginalt postet av N o r e n g). Kort fortalt: Det var en sammenlikning mellom A10 og Snapdragon 810 821. Alle Benchmark viste at A10 var raskere, men da forfatteren lagde sine egne benchmark, vant SD 810 821 stort sett alle testene. Det viser at man må ta slike benchmark med en stor klype salt. Til syvende og sist er du interessert i ytelse i programmer, og ofte programmer som er laget av folk som ikke tenker ytelse 24-7. Endret 27. februar 2018 av Slettet+5132 Lenke til kommentar
Frodo_ Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 (endret) Vedr bestilling: www.komplett.no => "Forhåndsbestillingen er i gang, og om du er tidlig ute kan du sikre deg Samsungs nye flaggskip som en av de første, når telefonene slippes 16.03.2018" www.samsung.no => "Forhåndsbestill Forventet leveranse den 9.Mars forutsetter at bestillingen er lagt før kl.15.00 den 6.Mars." Noen som har erfaring med at Samsung kan levere før komplett? Tror vi på 9.Mars datoen? Endret 26. februar 2018 av Frodo_ Lenke til kommentar
La Menthe Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 En flyttallsoperasjon er ikke det samme som en annen. Selv om en CPU gjør det bra ved noen flyttalls-benchmarker, betyr ikke det at den gjør det bra ved alle. Det er alt fra registere, til instruksjoner (de fleste CPUer har saxpy-instruksjoner, men ikke alle flyttallsoperasjoner benytter saxpy) etc. Du bringer opp trivielle problemstillinger som er like relevante og irrelevante for 9810 som enhver annen prosessor. Argumentene dine er betydningsløse. Lenke til kommentar
Gjest Slettet+5132 Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 En flyttallsoperasjon er ikke det samme som en annen. Selv om en CPU gjør det bra ved noen flyttalls-benchmarker, betyr ikke det at den gjør det bra ved alle. Det er alt fra registere, til instruksjoner (de fleste CPUer har saxpy-instruksjoner, men ikke alle flyttallsoperasjoner benytter saxpy) etc. Du bringer opp trivielle problemstillinger som er like relevante og irrelevante for 9810 som enhver annen prosessor. Argumentene dine er betydningsløse. Nei. Har du noengang gjort HPC? Lenke til kommentar
Lunaris Skrevet 26. februar 2018 Del Skrevet 26. februar 2018 Jeg er ikke så overbevist om at folk alltid kjøper nyeste generasjon heller. Se bare på hvor godt macbooks solgte selv da i perioder de hadde "utdatert" CPUen (hadde ikke fått oppdatering ennå). Jeg tror ikke folk går til elkjøp og sier de skal ha nyeste Intel-generasjon. De spør kanskje selgeren om "er den rask a?" hvorpå selgeren svarer et kontant "seff!" Jeg ser argumentet med at produsentene investerer store penger i SoC, og det er nok for å få brukere, men jeg tror ikke det er av samme grunn som du tror. Jeg tror det viktigste for produsentene er å vise at de er i tet, at de kan lage den beste CPUen. Det tiltrekker kunder, men ikke nødvendgvis kunder til den beste mobilen/SoCen. Det skaper en viss tiltro til et merke å vite at de kan lage den beste telefonen, selv om du kanskje kjøper enten forrige generasjon eller en billigere modell. Og rask SoC vinner mobiltester, så enkelt er det. Vil du ha "Best i test" eller "Nest best i test, den vil være omtrent helt lik, men den andre var bittelitt bedre"? Enig i at å vise at de er i tet er veldig viktig. Som med det du sier om MacBook. Folk er vandt med at Apples produkter er nye og oppdaterte med svært gode spesifikasjoner, så de kjøper da Apple produkter i den tro at alle er slik. Det er jo ikke tilfellet, noen av produktene deres bør en holde seg unna, til tross for at de fleste er veldig gode. Du har og det faktum at det er bedre å ha en ny 600- serie enn en gammel 800-serie, selv om teknologien i 600-serien gjerne kommer fra 800-serie chipen. Folk forventer nye modeller hvert år, og det kommer ikke alltid, så da må en bare skifte litt på navn. Fordi det er en ting for folk å kjøpe en CPU som er 20% raskere enn en annen. En helt annen ting er å kjøpe en CPU som er 1 år gammel. Jeg tror ofte forrige gen er verre enn % ytelsesforskjell. Og du har en bekymring fra Samsung side med Exynos/SD om de er forskjellige i ytelse. Altså noen får den "dårlige" og andre får den "gode" versjonen som kan påvirke salg. Men ja, se på LG G6 i fjor, se på nye Nokia nå, de kommer aldri til å gå til topps i tester. LG kommer med nye V30 mobiler nå, bare for å ha noe til å konkurrere med Samsungs launch når virkelige modell kommer litt senere. Sony lanserer nå med lansering langt frem i tid. Og så finnes det jo en del som bryr seg om specs også. En del telefoner som selger på gode specs for lav pris. I Kina kommer telefoner med høyere mengde RAM, fordi kinesere mener visst at mer RAM er veldig bra. Og folk som bryr seg vet ofte mer om mobiler og slikt og blir gjerne spurt av andre. Og da anbefaler de jo nyeste og beste. Selv om en telefon som LG G6 faktisk er ganske god verdi for pengene, da den falt raskt i pris som er vanlig for LG. Så ja den er ikke helt like gode som Samsungen, men du kan og få den en del billigere. Men ja, selv jeg har ikke sjekket CPU benchmarks for mobilen jeg valgte sist. Fordi egentlig så betyr det ikke så mye for meg. Systemytelse og effektivitet er det som er viktig. Og det var poenget mitt med et innlegg her tidligere også. Folk ser økning i maks ytelse og stort fokus på det, men det folk faktisk vil merke mest av er jo batteritid. Så du vil gjerne ikke merke direkte at mobilen din er dårlig når det kommer til ytelse, men du vil merke det på batteritid. Og det påvirker hva du kjøper neste gang. Lenke til kommentar
henrikrox Skrevet 27. februar 2018 Del Skrevet 27. februar 2018 Kanske bra gjort av Samsung å slippe en telefon som har dårligere ytelse enn en 2 år gammel iPhone (A10). Samtidig skriver folk her inne at telefonen er en revolusjon pga ytelse. Hehe Ser også at ansiktsscanningen allerede har blitt kritisert for å være ustabil og veldig treig sammenlignet med iPhone sin. Spesielt i mørke. Bruker de bare video eller bruker du IR? 1 Lenke til kommentar
Frodo_ Skrevet 27. februar 2018 Del Skrevet 27. februar 2018 Vedr bestilling: www.komplett.no => "Forhåndsbestillingen er i gang, og om du er tidlig ute kan du sikre deg Samsungs nye flaggskip som en av de første, når telefonene slippes 16.03.2018" www.samsung.no => "Forhåndsbestill Forventet leveranse den 9.Mars forutsetter at bestillingen er lagt før kl.15.00 den 6.Mars." Noen som har erfaring med at Samsung kan levere før komplett? Tror vi på 9.Mars datoen? Bump Hvem kan levere først? Lenke til kommentar
thklinge Skrevet 27. februar 2018 Del Skrevet 27. februar 2018 (endret) og hardware oppgradering som vi enda har tilgode å se materialiserer seg i noe praktisk bruk. Dette høres for meg ut som selve definisjonen av "evolusjon", det er absolutt ingenting revolusjonerende med dette. Men for all del, det blir nok en knallbra telefon! Vet du forresten hva som ligger i ny ansiktsgjenkjenning, er det noe ala. iPhone X? Plasseringen av fingeravtrykkleseren er heller ikke håpløs; de eneste som kaller fingeravtrykkleser bakpå håpløs er de som aldri har hatt en telefon med det. Jo, den er håpløs. Sony er flinkere, med låsen på siden kan man i det minste låse opp og igjen like bra om mobilen ligger face up/down eller du holder den. Selv om det ideelle naturligvis er integrert i selve skjermen. Baksiden er håpløst. Og ja, jeg har hatt masse mobiler med fingeravtrykkleser bak, som f.eks S8+, Mi Mix, Essential Phone PH1, Mate 9 Pro, osv. Endret 27. februar 2018 av thklinge 2 Lenke til kommentar
La Menthe Skrevet 27. februar 2018 Del Skrevet 27. februar 2018 (endret) Kanske bra gjort av Samsung å slippe en telefon som har dårligere ytelse enn en 2 år gammel iPhone (A10). Samtidig skriver folk her inne at telefonen er en revolusjon pga ytelse. Hehe Ser også at ansiktsscanningen allerede har blitt kritisert for å være ustabil og veldig treig sammenlignet med iPhone sin. Spesielt i mørke. Bruker de bare video eller bruker du IR? Dette fra samme personen som klagde over at ytelsesøkningen ikke var bra nok, når Nvidia lanserte Pascal og ga oss ytelsesforbedringer over enhver forventning; 70%, når man vanligvis ser halvparten av det per generasjon. Og her gjør du det altså igjen. Vanligvis ser vi ~30% ytelsesøkning per generasjon for SoCer i den mobile sektoren. Så en ytelsesøkning på opp til 75% er absolutt verdt å applaudere og verdsette. Men kan se dette er vanskelig å forstå når ufornuften og fanboyismen gjør en blind for enhver sunn tenkeevne. Jo, den er håpløs. Sony er flinkere, med låsen på siden Så bra at de droppet den, med deres sise modellserie, til fordel for en "håpløs" sensor bak...den eneste som har igjen fineravtrykkleser på siden er lille Razer; resten av industrien har gått over til fingeravtrykkleser bak på. Sensor under skjermen fungerer ei heller så veldig bra, da den i tillegg til å ikke være nær sagt like responsiv (enda), også er mulig se gjennom panelet (selv med skjermen på). Endret 27. februar 2018 av La Menthe Lenke til kommentar
Anbefalte innlegg