Gå til innhold
  
      
  
  
      
  

arne22

Medlemmer
  • Innlegg

    6 188
  • Ble med

  • Besøkte siden sist

Alt skrevet av arne22

  1. Selvfølgelig kan man bruke ChatGPT til å finne fram juridisk informasjon. Men det som man finner fram vil kunne være basert på alt annet enn korrekt juridisk metode, gjerne i kombinasjon med en passe grad av omskriving av rettskildene. Det man så kan finne fram til er jo "rådata", som man må gjennomarbeide manuelt for å se hvordan man kan bruke disse. Det skulle vært interessant å høre om det er andre som har brukt ChatGPT på juridiske problemstillinger, og som mener å ha har observert at den samme typen feil går igjen, i ganske mange sammenhenger. Når man ber ChatGPT oppgi sine kilder, så kan man jo i ganske mange sammenhenger gå gjennom de samme rettskildene, og så korrigere for de feil som ChatGPT har gjort, og så ende opp med noe som faktisk kan brukes.
  2. Ellers et litt interessant perspektiv på bruk av LLM'er og tilsvarende systemer i forhold til politiske og juridiske spørsmål: https://www.vg.no/nyheter/i/nyXndB/joe-biden-med-avskjedstale-advarer-mot-oligarki-i-usa I tradisjonelle datasystemer så vil det være algoritmene selv som bestemmer hva som kommer ut av systemet i en logisk prosess. Man kan si at systemene er "determistiske" dvs at det er forutbestemt av systemets utviklere hva som skal komme ut av systemene. For AI basert på LLM'er så bestemmes hva som kommer ut av systemene mye av de dataene man bruker til å trene opp systemene. Samtidig så kan den som eier systemene bestemme hvordan systemet skal vektlegge ulike data, slik at systemets bruk av grunndata, kan gis en "bias" eller "farges" i den retning som eieren av systemet ønsker. Hvis man eventuelt kommer fram til en LLM som i utgangspunktet kan gjennomføre en juridisk metode noenlunde rett, så er det jo ikke dermed sagt at det som kommer ut av systemet er "gjeldende rett". Det kan i like stor grad dreie seg om en "farget" beskrivelse av "retten slik som eieren av systemet mener at retten bør være", og ikke den retten som er skapt av stortingspolitikere og domstoler. Hvis man bruker LLM'er eller AI'er i en eller annen form i forbindelse med juridiske spørsmål, så utgjør jo ikke dette en form for "kvalitetssikring", men tvert i mot en ny type systemavvik, som man hele tiden må ha fokus på, hvis man skal bruke AI i slik juridisk sammenheng. Det kan effektivisere, men også bære helt galt av gårde.
  3. Ja, det var vel sånn omtrent midt i blinken!
  4. Det er vel ikke vanskelig å forstå at redskapene kan brukes, men forutsetningen for en fornuftig bruk, det er jo å forstå virkemåten og de begrensninger som finnes. Man bruker da dataredskaper i stort omfang nå i dag, og selvfølgelig vi disse bli oppdatert med funksjoner som benytter AI. Samtidig så vil det jo da være en forutsetning at man ikke beytter AI løsninger, som fungerer motsatt av og som gir helt forskjellige fra det som kan lede fram til riktige konklusjoner. Et system som systematisk skriver om og forfalsker alle rettskildene vil for eksempel kanskje ikke være det optimale. Hvis man forsøker å bruke ChatGPT på juridiske problemstillinger, så kan man faktisk oppdage noe kanskje litt spesielt, at statistisk metode som CharGPT (og andre LLM'er) ser ut til å fungere slik at "statistisk metode" faktisk blir motsatt av "juridisk metode". Hvis man for eksempel tar utgangspunkt i et prinsipp for rettskildetolkning, Lex Posterior, altså nye rettskilder går foran gamle rettskilder, så har ChatGPT en tendens til å gjøre motsatt: Gamle rettskilder har bedre statistikk, så gamle rettskilder går foran nye. Tilsvarende for Lex Specialis, dvs den spesielle lovgivningen går foran den generelle lovgivningen, så vil den generelle lovgivningen ha bedre statistikk, slik at ChatGPT også kan praktisere dette motsatt av det som følger av rettskildelæren. Når man så har fått formulert feilaktige rettsregler, ut i fra statistikk i stedet for ut i fra rettskidelære, så blir jo dette til dels bare tøv, når man, dvs ChatGPT eller andre LLMer skal anvende dette i forhold til "sakens faktum". Man kan ikke forvente at når man erstatter en kvalitativ metode, med en annen kvalitativ metode, som virker helt annerledes, så vil man i alle tilfeller komme ut med det samme sluttresultat. Man kan bruke ChatGPT og tilsvarende LLM'er til å generere et slags "rått oppsop" av det som ligger på Internett, eller de grunndata som man bruker, men så må man jobbe gjennom disse "rådataene" ut i fra riktig kvalitativ metode, for å få noe fornuftig ut av dette.
  5. Og når feil nummer 35.001 oppstår på det samme tekniske anlegget, da vet man med sikkerhet at dette anlegget aldri er utsatt for tekniske feil, og at en driftsforstyrrelse da, når den oppstår, må skyldes angrep i fra fremmede makter.
  6. Hvor kommer den definisjonen i fra? Har lest litt om temaet opp gjennom årene, men har egentlig aldri sett den påstanden i noe av faglitteraturen rundt temaet, som sier at "kustig intelligens gir seg ut for å være ekte intelligens". All teori rundt dette, som jeg har sett, beskriver jo "kunstig intelligens" som noe som ikke på noen måte er ekte, men en etterligning. Hvilken fagbok eller annen tilsvarede kilde er det som beskriver kunstig intelligens som noe annet enn en "kunstig etterligning"? Selger og selger .. gjør de egentlig det? Mitt intrykk er vel at forestillingen om at "kunstig intelligens" og "ekte intelligens" skulle ha noe kvalitativt til felles, først og fremst kommer i fra brukere som ikke har satt seg inn i hvordan teknologien fungerer. Her i denne tråden så finnes jo for eksempel forestillingen om at KI skal kunne brukes til å "kvalitetssikre" juridiske saker. Ved å systematisk skrive om og forfalske rettskildene (lover, forskrifter, dommer, osv) basert på statistiske metoder anvendt på teksten, så skal man få fram en korrekt anvendt juridisk metode i forhold til konkrete saker. Man kan nok få fram "noe", men dette "noe" vil nok heller ha karakter av noe som har karakter av en "quick and dirty sammentstilling", som man kanskje kan bruke som råmateriale for å jobbe videre med en ordinær juridisk metode og alminnelig sunn fornuft. Forestillingen om at for eksempel en språkmodell som ChatGPT baserer seg på "naturlig språk", slik at det for eksempel finnes en norsk, og en svensk, engelsk, tysk og fransk språkmodell, det er jo så vidt vites også feil. Det finnes så vidt vites en felles språkmodell basert på "et internt teknisk språk" som går på tvers av de naturlige språkene. Noe av forutsetningen for å kunne bruke en LLM som ChatGPT på en nyttig og effektiv måte, det er etter mitt syn at man har en forståelse av at dette ikke har noen ting å gjøre med "intelligens" eller "juridisk metode" å gjøre, men heller en slags automatisert søkemotor som kan sette sammen tekstene fra Internett på nytt gjennom statistikk og generativ AI. Hvis man der i mot legger til grunn at "generativ AI" er fri for enhver form for intelligens, så vil jeg mene at dette kan være et særdeles nyttig arbeidsredskap for effektivisering av arbeidsprosesser. Det som eventuelt skal legges til av intlligens, det må man eventuelt legge til selv. En annen side ved saken er jo den at den som eier og kontrolerer språkmodellen jo også har en viss mulighet for å legge inn "bias", slik at man til en viss grad kan bestemme hva språkmodellen presenterer som "sannhet" og "usannhet". Setter man sin lit til språkmodellen, så setter man egentlig sin lit til språkmodellens eier. Det vil jo være noe for "dagens milliardær", å kjøpe opp en stor språkmodell, slik at den kan gi "riktige svar" på alle juridiske og politiske spørsmål. "Riktig svar" på juridiske spørsmål kan jo for eksempel ikke være basert på "loven slik som den er", men kanskje heller "loven slik som språkmodellens eier mener at loven bør være". (Og så kan man jo gå rundt og tro at dette har noe med kvalitetssikring av juridiske prosesser å gjøre.)
  7. Jada, det kan se ut som at vi er fint selforsynt med tekniske feil og at vi fint kan klare å få til dette på egen hånd og uten assistanse i fra utlandet. Fra artikkel i VG: https://www.vg.no/nyheter/i/1Mdp7Q/hvert-tredje-tog-i-2024-forsinket-eller-innstilt Hvert tredje tog er forsinket eller innstilt, står det. Er det da noen som behøver å stå til ansvar? Selvfølgelig så behøver man ikke det, når det dreier seg om offentlig virkasomhet og man har de rette politiske forbindelser i orden. Da har man jo full tillitt, uansett resultat. 35.000 registrerte feil i signalanleggene forrige år... Og året før det så var visst antallet forsinkelser og kanselleringer, sånn noenlunde det samme: https://www.vg.no/nyheter/i/XbrjAB/nesten-ett-av-tre-tog-i-2023-var-forsinket-eller-innstilt
  8. Man bør legge merke til hele navnet: Kunstig intelligens. Hvis man legger litt vekt på første halvpart av navnet, så kan det vel bli rett nok. Man kan vel si at en LLM som ChatGPT har noe til felles med en søkemotor i forhold til funksjon og oppbygging. I en søkemotor så bruker man AI i forhold til "metadata" (data om data) for å finne fram til de rette data, men grunndata vises fram uendret. I en LLM så bruker man også AI på selve grunndataene, det man kaller for "Generativ AI", slik at man lar AI systemet skrive om innholdet i grunndata, basert på statistiske metoder. Et system for juridiske avgjørelser som baserer seg på denne teknologien, vil jo da være et system som systematisk forfalsker og skriver om alle rettskilder. Vil da et system for systematisk forfalskning eller "generativ omskriving av rettskilder" kunne fungere som et pålitelig system for riktige rettsavgjørelser? Rett anvendt jurdisk metode krever jo ekte intelligens anvendt på ekte og sanne rettskilder. Hva som kommer ut av kunstig intelligens basert på forfalskede rettskilder, det kan vel være sånn litt forskjellig. Det kan vel slumpe til å bli rett, man kanskje ikke alltid. Helt generelt så kan vel si at LLM og "Generativ AI" er noe som i varierende grad kan brukes hvis man behøver noe som er "quick and dirty", men ikke til å kvalitetssikre.
  9. Bruker man juridisk metode i kreftbehandling?
  10. Har ikke maskinelle metoder blitt innført for lenge siden gjennom bruk av Lovdata og Rettsdata? En måte å vri litt på det er jo å si at AI basert på LLM "hallisunerer alltid", men i noen tilfeller så er datagrunnlaget godt nok til at det som kommer ut blir i samsvar med "virkeligheten". Andre ganger ikke. (Da har man kanskje riktig nok gått litt utenfor standard definisjon, for hva hallisunasjoner er.)
  11. Slik som jeg oppfatter virkemåten til ChatGPT og tilsvarende språkmodeller, så kan man godt oppfatte dem som en slags avansert søkemotor, med den forskjell at en søkemotor bare finner fram dokumentene, mens ChatGPT også henter ut innhold og setninger, og setter dem sammen på nytt ut i fra "statistisk metode", slik at innholdet framstår som "nytt innhold". Hvis man tar utgangspunkt i et sytem som Lovdata Pro, så innholder jo dette systemet også en form for søkemotor, eller søkefunksjon, slik at man kan finne fram i rettskilder på en mye mer effektiv måte, enn før i tiden, da man skulle bla seg gjennom hyllemeter med bøker og fysiske dokumenter. Jeg ville nok forvente at AI etterhvert blir tatt i bruk i det juridiske faget også, ikke på en slik måte at det erstatter juristene, men på en slik måte at AI gjør hver enkelt jurist mye mer effektiv, slik at man kan klare en forholdvsis større saksmengde med samme antallet jurister. Man kan med andre ord kanskje oppnå en forholdvis høy grad av effektivisering i saksbehandlingen. Man kan nok også få til systemer som fungerer "bra" for rådgivning av 3'dje person, men her ligger jo også begrensningen i at AI språkmodeller fungerer som en slags type "avansert søkemotor", som også forholder seg til innholdet i dataene, den finner ikke bare fram data, men den setter også sammen innholdet på nytt, ut i fra "statistisk metode". Slik som jeg oppfatter "juridisk metode", så vil jeg betrakte den som "en systematisk anvendelse av ekte intelligens", der en "god og fornuftig anvendelse av juridisk skjønn" vil inngå som en del av metoden. Ved at kunstig intelligens er "kunstig" (dvs basert på statistisk metode), så vil den aldri kunne erstatte, men den vil kunne effektivisere hverdagen for de som anvender "ekte intelligens". Når det er slik at man kan produsere noe for 5 kroner i stedet for 10 kroner, så vil nok AI og språkmodeller bli tatt i bruk i de fleste fag, men ikke for å erstatte men for å effektivisere og forbedre.
  12. Prøver man ChatGPT på jussen nå i dag, så fungerer det i alle fall bare i nokså begrenset omfang. Det AI systemet som er trent på data i fra Lovdata Pro finnes jo ikke. Men sammenholde man teorien rundt AI språkmodeller og juridiske metode, så ser man jo at det er to helt forskjellige måte å utlede logikk og konklusjoner på, slik at dette i teorien bare skulle fungere i begrenset omfang. Man må tenke og resonere som en jurist og ikke som en AI trent språkmodell.
  13. Hvis man har prøvd ut dette i praksis, med utgangspunkt i betalversjonen av ChatGPT, så vil man jo vite at dette ikke stemmer i det hele tatt. Det som ChatGPT kommer opp med av svar, er jo ikke noe annet enn en oppsummering av det den finner på nett, og det leder jo ikke til noen riktig juridisk metode. Her er det mye som ofte og regelmessig går feil. På den annen side så kan nok ChatGPT i alle fall i noen tilfeller bidra til å effektivisere prosessen med å finne fram til de riktige rettskildene, selv om anvendt juridisk meode kan være helt borte i veggene, og svar og konklusjoner således helt feil. ChatGPT kan nok effektivisere prosessen, ved at den kan hente fram en del rettskilder og "rådata", som man så kan arbeide videre ad noe mer tradisjonelle metoder, eventuelt med en helt annen konklusjon enn det som ChatGPT kommer opp med. Hvis man hadde trent opp en helt ny språkmodell med utgangspunkt i de dataene som ligger på Lovdata, bak betalingsmuren, så kan det vel hende at man hadde kommet opp med noe mer brukbart, men stadig vekk så blir det jo bare "rådata" til å jobbe videre med. Det vil jo ikke fugere med at AI anvender sine algoritmer på de juridiske data ut i fra de prinsipper som gjelder for AI og språkmodeller. Det som må anvendes er korrekt juridisk metode. AI baserer seg med andre or på "feil type tankegang" og i de tilfeller at konklusjonene blir tiktige, så baserer det seg til dels på tilfeldigheter.
  14. Ja, tittelen på tråden drier seg jo egentlig om aktivitetene til teknisk etat. Men av den første problemstillingen, så følger den neste. I Oslo så finnes det for eksempel gater med rekkehus på begge sider som har boliger tilrettelagt for eldre. Noen av disse eldre personene klarer seg foreløpig selv, mens andre har enkeltvedtak som sier at de har rett til hjelp i fra kommunen til å klare dagliglivets oppgaver. Formelt sett så er de da hjemmeboende pasienter hos Oslo Kommune. Dette følger av Lov om pasient og brukerrettigheter § 1-3 bokstav A. Så kommer brøytebilen til Oslo kommune og sperrer alle pasientene til Oslo kommune i denne gata, inne i boligen sin, slik at alle disse pasientene til Oslo kommune ikke lengre kan ivareta sine liv på en forsvarlig måte. Når så Oslo kommune har sperret egne pasienter inne i boligen ved hjelp av brøytebil, vil ikke da Oslo kommune da i neste omgang også ha ansvaret for å frigjøre disse pasientene i fra snømassene, selv om det riktig nok er en avdeling hos kommunen som sperrer dem inne, og en annen avdeling hos kommunen som graver ut de samme pasientene? Grunnen til at jeg valgte Oslo som et eksempel, det er jo at jeg har sett at det er en gate i Oslo som faktisk har eldreboliger i rekke på begge sider av veien, slik at eksemplet kan gjennomføres i praksis, forutsatt tilstrekkelige mengder med snø.
  15. Ville nok tro at det blir utfallet ja, for den som har tid og ressurser til å følge opp en slik sak, tilstrkkelig nok. Men foreløpig så blir det med "troen" for vi har jo ikke vært innom de rettskildene som eventuelt leder fram til en slik konklusjon.
  16. Problemstillingen rundt omfanget av eldre og pleietrengendes krav på hjelp i hjemmet diskuters jo fortløpende hver dag, og det treffes jo også nye enkeltvedtak, hver eneste dag, der hver eneste sak er unik. Det er jo det som er karakteristisk for et enkelvedtak.
  17. Det er ikke snakk om noen om og men, men i all enkelhet å finne fram til riktige rettskilder og anvende dem, på samme måte som det skjer, hver dag i tusenvis av saker.
  18. Spørsmålet er om det finnes noen lovgivning som utløser en rettighet eller en plikt, eventuelt hvilken lovgivning eller rettskilder, dette er og hva slags rettigheter eller plikter som følge av dem.
  19. Dette er vel et eksempel på at det i en praktisk problemstilling, kan ligge mange forskjellige rettsproblemstillinger. Hvis man med utgangspunkt i lovgivningen rundt veitrafikk og annet har kommet fram til at kommunen har rett til å brøyte veien og eventuelt komme i skade for å fylle opp diverse oppkjørseler, da er jo den ene rettsproblemstillingen sånn sett løst. Men hva hvis den som bor i den boligen som har fått oppkjørselen fyllt igjen er gammel og dårlig til beins, og at vedkommende har et enkeltvedtak som sier at vedkommende har rett til hjelp av kommunen i det daglige for å kunne ut i fra forsvarlige rammer? Når vedkommende har blitt "innepløyd" og ikke har noen mulighet til å komme seg ut eller til å få handlet, er dette da ikke kommunens ansvar, å fortsatt sørge for forsvarlige boforhold i hjemmet? Vil da kommunens brøytetjeneste være den rette instans for å vurdere rekkevidden av enkeltvedtaket, rundt rett til hjelp til forsvarlige boforhold i hjemmet? Det vil nok ikke gjelde det store flertallet, men noen beboere vil nok kunne ha slike enkeltvedtak, der kommunen er forpliktet til å gi en nødvendig grad av hjelp til å kunne bo videre i hjemmet. Nå har jeg så langt ikke sett at noen av disse små bilene til hjemmehjelpen har vært utstyrt med snøplog, og jeg har vel heller ikke sett en hjemmehjelp med snøskuff, men det kunne jo kanskje være noe for framtiden. Hva med eventuelt andre som ikke har noe enkeltvedtak fra kommunen, men som er så gamle og dårlige til beins at de ikke har noen mulighet til å rydde vekk snøen, slik at det oppstår en kritisk situasjon med hensyn til liv og helse, har kommunen da ikke noe ansvar i forhold til disse personene, når den kritiske situajonen eventuelt oppstår? Det er jo ikke den samme sak eller rettsproblemstilling, men problemstillingen gir meg litt assosiasjoner til en annen sak som det også har vært skrevet litt om: https://www.vg.no/nyheter/i/0Vgd8A/nektet-aa-betale-soeppelregning-naa-tar-kommunen-huset-til-bjoern-74
  20. Det har jo ikke kommet fram så veldig mye omkring "det tekniske", annet enn at feilen lå i en "indre brannmur" (Artikkel hos digi.no) og at feilen kom og gikk. Ellers så står det jo lite om hva slags nettverksarkitektur det er snakk om, og om man bruker typiske løsninger for operasjonell teknologi, OT, eller for informasjonsteknologi, IT. https://www.linkedin.com/pulse/understanding-distinction-between-ot-firewalls-aby-s-wrmhc Hvis det dreier seg om typiske teknikske løsninger for OT, så kan man vel tenke seg at det er bygd opp en del nettverkssegregering som vil være typisk for et OT system, slik at man for eksempel kan få problemer med tidssynkronisering eller eventuelt DNS oppslag, eller annen trafikk som skal løpe på tvers av "zones and conduits". Det vil jo være interessant om det kommer en konklusjon, men sikkert at det kommer noen, det er det vel ikke, for da må man jo fortelle litt om opplegget rundt sikkeheten for systemet.
  21. Ja, innenfor luftfart så løser man normalt dette ved å be om at flyene flyr i et "holding pattern". Etter 12 timer så kobler man inn bacupsystemene og lander.
  22. Fra innholdet i linken: Er det bare forurensningsloven og planog bygningloven som gjelder, eller finnes det også andre relevante lovbestemmelser? Forekommer det ellers i jussen at man først kikker på et sett med lovbestemmelser, og så i neste omgang på noen andre lovbestemmelser, som leder fram til den motsatte konklusjon av de første? Kan det forekomme at man for eksempel slår opp på statsforvalterens webside og så finner fram til informasjon, som ser ut til å være rett, men som likevel viser seg å gi feil konklusjon, i forhold til en konkret sak? Er dette eventuelt mulig?
  23. Hvordan har du gått fram for å kontrollere at det ikke er noen innbyggere som får hjelp i en slik situasjon? Det er vel også to forskjellige problemstillinger, hva som blir gjort, og hva som eventuelt er et lovbrudd?
  24. I dag så dukket det opp en artikkel i VG som handler om en 79 år gammel mann som har blitt innesperret i egen bolig ved at kommunens brøytebil har fyllt opp innkjørselen med snø, slik at den ikke lengre er framkommelig. https://www.vg.no/nyheter/i/B0q1O0/walter-nordahl-79-er-innesperret-etter-broeyting-i-sandefjord Sandefjord kommune sier at dette ikke er deres ansvar og at de er i sin fulle rett til å sperre tilgangen til boligene i byen, uten å foreta seg noe for å gjenåpne tilgang til boligene. Er dette korrekt eller er det slik at Sandefjord kommune i dette tilfellet har handlet på en måte som er ulovlig? Hva slags type lovbrudd er det eventuelt vi har med å gjøre, og hvem hos Sandefjord kommune er det eventuelt som sitter med ansvaret? Hvordan kan man eventuelt gå fram for å stille vedkommende til ansvar for et eventuelt lovbrudd?
  25. Neida, dette er ganske normalt i de fleste bransjer, spesielt innenfor luftfart og atomkraft. Der lar man alltid feilen kjøre i minst 12 timer før man lar bacupsystemet ta over, slik at man unngår unødvendig bruk av bacupsystemer.
×
×
  • Opprett ny...