Martin Braathen Røise Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Norsk 62 åring må i fengsel etter at skyteknologi fanget opp aktivitetene hans Lenke til kommentar
Tore Rosander Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Slike filtre burde brukes på ISP nivå! 1 Lenke til kommentar
myhken Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Slike filtre burde brukes på ISP nivå! Det ville jo laget en utrolig forsinkelse i nedlastning/opplastning av bilder da. Bare å gå inn på en nettavis ville jo skapt en utrolig treghet mens bildene ble skannet mot databasen og algoritmen. Så det virker nok bare effektivt på steder der dataene er lagret og at algoritmen kan gjøre jobben sin i fred. 5 Lenke til kommentar
Rudde Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Er det bit-perfekt hash eller et estimert bilde-hash? Lenke til kommentar
LUPLT0RU Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 (endret) Flott drittsekken ble fakket. Endret 20. mars 2017 av LUPLT0RU 1 Lenke til kommentar
FrihetensRegn Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Siden bildet ble satt opp mot en database så var det altså bilder andre hadde tatt og som allerede var på Internett? Hva om han hadde lastet opp egne overgrepsbilder, ville de fortsatt oppdaget ham? Ikke akkurat smart av pensjonisten å laste opp bilder på en skylagringskonto, men selv de med VPN og falsk informasjon blir tatt. Lenke til kommentar
LUPLT0RU Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Siden bildet ble satt opp mot en database så var det altså bilder andre hadde tatt og som allerede var på Internett? Hva om han hadde lastet opp egne overgrepsbilder, ville de fortsatt oppdaget ham? Ikke akkurat smart av pensjonisten å laste opp bilder på en skylagringskonto, men selv de med VPN og falsk informasjon blir tatt. Samtidig er det litt avslørende at filene ikke lagres med brukerens egen krypteringsnøkkel. Kryptering med ulike krypteringsnøkler skal gi ulik hash av samme fil. Selv to identiske filer kryptert til forskjellige tider med samme krypteringsnøkkel skulle i utgangspunktet gi forskjellig hash. http://crypto.stackexchange.com/questions/12289/file-hash-of-encrypted-file Lenke til kommentar
myhken Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 (endret) Siden bildet ble satt opp mot en database så var det altså bilder andre hadde tatt og som allerede var på Internett? Hva om han hadde lastet opp egne overgrepsbilder, ville de fortsatt oppdaget ham? Ikke akkurat smart av pensjonisten å laste opp bilder på en skylagringskonto, men selv de med VPN og falsk informasjon blir tatt. Slik jeg har forstått konseptet bak denne løsningen så skannes bilder ut i fra andel "naken hud" i tillegg til å sjekkes opp mot en enorm database med kjente bilder. En stund siden jeg leste noe om denne løsningen nå, men da det var i media så forsto jeg det slik at bilder med en høy "naken hud" andel blir flagget. Så kjøres vel noen nye algoritmer på de flaggede bildene, som kan gjenkjenne visse situasjoner/områder osv. Og til syvende og sist, så sitter det vel fysiske personer og går gjennom en del av de flaggede bildene. I en av nettavisene som også omtalte denne saken så skrev de at mannen hadde limt inn ansiktet på en unge inn på et kjent bilde, så trolig det som bidro til at det ble flagget. Om han hadde lastet opp eget matriale så hadde vel filtret likevel kunne flagget bildene ut i fra "naken hud" prinsippet. Likevel usikker på hvordan de løser dette ang at filtret skal gjenkjenne "naken hud" hos barn, men ikke hos voksne. For filtret hadde vel brutt sammen om det skulle flagget alle bilder av nakne voksne...sikkert noen som bruker skylagring til "samlingen" sin. Samtidig er det litt avslørende at filene ikke lagres med brukerens egen krypteringsnøkkel. Kryptering med ulike krypteringsnøkler skal gi ulik hash av samme fil. Selv to identiske filer kryptert til forskjellige tider med samme krypteringsnøkkel skulle i utgangspunktet gi forskjellig hash. http://crypto.stackexchange.com/questions/12289/file-hash-of-encrypted-file Men nå krypteres jo ikke filene hverken på Google Drive, Onedrive eller de fleste av de store tjenestene. Du må over på Mega og tilsvarende tjenester før filene blir kryptert. Og da ville ikke et slikt filter kunne gjenkjenne bildene. Endret 20. mars 2017 av myhken Lenke til kommentar
FrihetensRegn Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Det som skremmer meg litt er at mange av de pedoene som blir avslørt ikke er tapere i samfunnet, men høyt utdannede mennesker med mye penger og høy status. Hvor mange av dem som er datakyndig er vel litt vanskeligere å vite. Jeg håper uansett at de får et påtvunget program som de må følge etter fengsling slik at de ikke fortsetter med det. Eventuelt hadde det vært interessant med en norsk versjon av Chris Hansens show Lenke til kommentar
TheKims Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Det som skremmer meg litt er at mange av de pedoene som blir avslørt ikke er tapere i samfunnet, men høyt utdannede mennesker med mye penger og høy status. Hvor mange av dem som er datakyndig er vel litt vanskeligere å vite. Jeg håper uansett at de får et påtvunget program som de må følge etter fengsling slik at de ikke fortsetter med det. Eventuelt hadde det vært interessant med en norsk versjon av Chris Hansens show Utdannelse og penger har absolutt ingen sammenheng med om man er pedo eller ikke. Pedofili er en legning akkurat som homofili er. Er enig i at de må igjennom et påtvunget program de må igjennom, både igjennom fengsel og etter. Men ettervern er ikke noe som finnes i Norge enda. 1 Lenke til kommentar
Simen1 Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Det er det Microsoft-utviklede API-et, PhotoDNA, som oppdaget bildemateriale som viste både underlivet til en ung jente og mindreårige som hadde sex, ifølge VG. Jeg stusset bare på det markerte. Sånn? I så fall, var det overgrepsbilde eller ikke? Lenke til kommentar
FrihetensRegn Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Det som skremmer meg litt er at mange av de pedoene som blir avslørt ikke er tapere i samfunnet, men høyt utdannede mennesker med mye penger og høy status. Hvor mange av dem som er datakyndig er vel litt vanskeligere å vite. Jeg håper uansett at de får et påtvunget program som de må følge etter fengsling slik at de ikke fortsetter med det. Eventuelt hadde det vært interessant med en norsk versjon av Chris Hansens show Utdannelse og penger har absolutt ingen sammenheng med om man er pedo eller ikke. Pedofili er en legning akkurat som homofili er. Er enig i at de må igjennom et påtvunget program de må igjennom, både igjennom fengsel og etter. Men ettervern er ikke noe som finnes i Norge enda. Det er det som er poenget mitt. At det kan være hvem som helst, det er ikke ofte slik det fremstilles i media, at det er rare og ekle menn. Lenke til kommentar
LUPLT0RU Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 (endret) ...bilder med en høy "naken hud" andel blir flagget.. Hmm, da blir det en utfordring for politiet å bla gjennom tusenvis av feriebilder etter endt sommerferie, for tror nok at "naken hud" faktoren er temmelig høy da. Etter litt lesing, et par YouTube filmer fra Microsoft og noen andre, så har jeg oppfattet det slik at PhotoDNA er bygd på at et bilde først gjøres om til gråtoner, så deles bildet opp i grid, kjører noe edge-detection og histogramanalyse, for å lage et hash av resultatet. Dette hashet sammenliknes med hash fra bilder som er klassifisert som overgrepsbilder og lagret i en database. Med andre ord, så analyseres hvert enkelt bilde man laster opp. Endret 20. mars 2017 av LUPLT0RU Lenke til kommentar
Krozmar Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 ...bilder med en høy "naken hud" andel blir flagget.. Hmm, da blir det en utfordring for politiet å bla gjennom tusenvis av feriebilder etter endt sommerferie, for tror nok at "naken hud" faktoren er temmelig høy da. Etter litt lesing, et par YouTube filmer fra Microsoft og noen andre, så har jeg oppfattet det slik at PhotoDNA er bygd på at et bilde først gjøres om til gråtoner, så deles bildet opp i grid, kjører noe edge-detection og histogramanalyse, for å lage et hash av resultatet. Dette hashet sammenliknes med hash fra bilder som er klassifisert som overgrepsbilder og lagret i en database. Med andre ord, så analyseres hvert enkelt bilde man laster opp. Betyr det at Microsoft sitter på en stor del barnepornografi selv? Bryter ikke Microsoft selv loven da? Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Tydelig at data i skytjenester er fritt tilgjengelig for den enkelte tjenesteleverandør. Dog er vel innsyn den prisen folk betaler for ikke å betale prisen for egen lagring. Det burde vel kanskje i større grad annonseres at det som finnes lagret slike steder blir utlevert myndigheter (eller andre) når tjenesteleverandøren finner slikt passende. Lenke til kommentar
myhken Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Det er det Microsoft-utviklede API-et, PhotoDNA, som oppdaget bildemateriale som viste både underlivet til en ung jente og mindreårige som hadde sex, ifølge VG.Jeg stusset bare på det markerte. Sånn? I så fall, var det overgrepsbilde eller ikke? Ville vel tro at bildene de snakker om er type nærbilder og ikke typen du viser til her. Er vel som med vanlige "lettkledd" bilder...er jo ikke bilder tatt med vidvinkel fra 20 meter som pirrer mest? Lenke til kommentar
Tore Rosander Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Slike filtre burde brukes på ISP nivå!Det ville jo laget en utrolig forsinkelse i nedlastning/opplastning av bilder da. Bare å gå inn på en nettavis ville jo skapt en utrolig treghet mens bildene ble skannet mot databasen og algoritmen. Så det virker nok bare effektivt på steder der dataene er lagret og at algoritmen kan gjøre jobben sin i fred. Det er jo ikke nødvendigvis behov for å scanne dette i sanntid. Du vil jo uansett ikke måtte vente til selve matchingen mot databasen er ferdig før du får se bildet. Bildene går jo gjennom mange servere på sin vei så at en server sitter å analyserer datastrømmen bør ikke skape noe forsinkelse. Lenke til kommentar
myhken Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Det er jo ikke nødvendigvis behov for å scanne dette i sanntid. Du vil jo uansett ikke måtte vente til selve matchingen mot databasen er ferdig før du får se bildet.Bildene går jo gjennom mange servere på sin vei så at en server sitter å analyserer datastrømmen bør ikke skape noe forsinkelse. Skjønner at hensikten er god, men dette ville tatt datalagringsdirektivet til et helt nytt nivå. Et slikt filter ville jo innebære at absolutt alle bilder (og kanskje videoer?) lastet ned til den enkelte bruker måtte lagres (om så bare for en kort tid) og informasjonen om hvor bildet (videoen) kommer fra og til hvilken IP adresse filene går til. Det betyr i praksis at noen (altså ISPene) må lagre alt dette, og at det da finnes en oversikt over absolutt alle nettsteder man har besøkt (som har bilder/video) og hvilke IP adresser som har besøkt disse sidene. Dette er jo en hver myndigheters drøm. En total oversikt over absolutt all netttrafikk. Og, skulle det bare begrenses til web? Eller bør epost, torrent, usenett, ftp osv også sjekkes? For folk får jo ikke bare tak i bildene på websider. Det ville innebært et system som NSA kunne vært misunnelige på, for her ville altså absolutt all informasjon samles. Og hvor lenge skulle dataene lagres? Mengden det er snakk om tilsier at det kunne ta dager og uker før alt var skannet. Og så må eventuelle flaggede bilder lagres lengre for mulig manuell sjekk, så måtte det være rutiner på hvor lenge flaggede filer som faktisk inneholdt ulovlig materiale skulle lagres. Som sagt, i denne settingen som artikkelen handler om, så skjønner jeg at folk kan foreslå slikt. Men konsekvensene av et slikt real time filter ville gått utrolig utover privatlivet til folk. Og hva stopper så type NSA og andre myndigheter, også våre egne, til å misbruke disse dataene? Og hva om ISPene for å få dekket inn noen av de enorme kostnadene et slikt system ville kostet dem, finner ut at her sitter de jo på nøyaktig data om hver enkelt kunde, hvilke nettsteder de besøker til en hver tid, og så selge eller bruke disse opplysningene til direkte personlig reklame. Folk vil sikkert kritisere både Google og Microsoft for å faktisk rote i filene til folk ut i fra denne saken. (er vel nevnt allerede i tråden her). Akkurat nå skannes det kanskje kun for overgrepsmateriale, men kanskje (og ikke utenkelig) skannes det kanskje også for terror relatert materiale? Og igjen, hva hindrer disse tjeneste å bruke dataene fra våre filer, til å tilpasse reklame og tilbud i fremtiden? Det er bakdelen med alle slike ordninger, de kan misbrukes. Men på den andre siden, så er det jo veldig bra at slike systemer faktisk fanger opp overgripere. Og så håper jeg at systemene er så gode at uskyldige bilder, type feriebilder, poden i badekaret osv ikke får politiet på døren. 1 Lenke til kommentar
Gjest Slettet-Pqy3rC Skrevet 20. mars 2017 Del Skrevet 20. mars 2017 Folk vil sikkert kritisere både Google og Microsoft for å faktisk rote i filene til folk ut i fra denne saken. (er vel nevnt allerede i tråden her). Akkurat nå skannes det kanskje kun for overgrepsmateriale, men kanskje (og ikke utenkelig) skannes det kanskje også for terror relatert materiale? Og igjen, hva hindrer disse tjeneste å bruke dataene fra våre filer, til å tilpasse reklame og tilbud i fremtiden?Salg av selskapshemmligheter. Utveksling av personlig info til NAV eller forsikringsselskap. Informasjon til staten om objekter som motsetter seg sittende regjering (aka. "terrorister"). En kan heller ikke glemme at det er rent statistisk sikkert finnes uærlige personer som arbeider hos tjenesteleverandørene, hvilket jo øker faren for data på avveie. Mulighetene er uendelige. Det hele løses ved å regne alt som lagres via skyløsninger som usikre data, man bør anta at andre har innsyn. Altså; Ønsker man å holde data private, enten som selskap eller privatperson, bør en styre unna skyløsninger. Lenke til kommentar
amativeReflection Skrevet 21. mars 2017 Del Skrevet 21. mars 2017 Så hvis man misliker noen er det bare å laste opp en mappe til Dropboxen deres så havner de i fengsel? Det er ikke bekymringsverdig i det hele tatt. Det virker også som mange her misforstår hvordan det funker. De hasher filene, og sammenligner hashene. Hva bildene var av sjekker de ikke før etterpå. Politiet forteller hva bildene faktisk inneholdt. Det står jo spesifikt at Google ikke beholder kopier av slike bilder. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå