Gå til innhold
Trenger du råd om juss? Still spørsmål anonymt her ×

Mange juss-studenter som bruker AI nå?


lada1

Anbefalte innlegg

18 hours ago, Fustasjeopphengsforkobling said:

Dette er viktig. Kunstig intelligens er ikke intelligent i den forstand at den forstår hva den leser og skriver. Den kan ikke tenke, resonnere eller gjøre verdivurderinger slik et menneske kan. Den bare spytter ut tekst basert på algoritmer etter mønstergjenkjenning og statistikk av data den er blitt trent på, snarere enn gjennom ekte forståelse og resonnementer. Et nyttig verktøy er det, men man må vite hva man har å gjøre med.

Dette er det viktig folk forstår.

3 hours ago, lada1 said:

i en grensetvist hadde jeg i sin tid flaks  som ikke ble offer for at en "idiot" av en arrogant dommer ikke forsto at det var lite sannsynlig at en innsjø kunne ha flere samtidige utløp og han såg ikke noe "rødt flagg" når en part påsto dette.

Det er da flere innsjøer, bl.a. den største innsjøen i Finland, som har flere utløp. Sjelden er det, men ikke i en slik grad det er usannsynlig.

Lenke til kommentar
Videoannonse
Annonse
56 minutes ago, rozon said:

Det er da flere innsjøer, bl.a. den største innsjøen i Finland, som har flere utløp. Sjelden er det, men ikke i en slik grad det er usannsynlig.

Ja da, og bruker man ChatGPT til å søke så finner man flere eksempler i Norge også. Men en dommer som skal prøve å få frem riktige dommer bør kunne få sjekket ut slike svært skjeldne tilfeller i fjellandskap og ikke ture frem med skylapper som en idiot. Jeg forventer forøvrig at en dommer heller ikke bør godta at 2 + 2 = 5 selv om partene er enige om det. 

Lenke til kommentar
4 minutes ago, lada1 said:

Men en dommer som skal prøve å få frem riktige dommer bør kunne få sjekket ut slike svært skjeldne tilfeller i fjellandskap og ikke ture frem med skylapper som en idiot.

Dommeren skal ikkje bedrive etterforsking.

Dommeren skal ta standpunkt til det partane legg fram og ta stilling til kven som mest sannsynleg har rett. Om dommaren på eige iniativ finn bevis partane ikkje har anført og legg det til grunn i dommen vil eg tippe det er sakshandsamingsfeil og ankegrunn...

Lenke til kommentar
2 hours ago, barfoo said:

Tradisjonell programvare er deterministisk, og enkelt verifiserbar. Å verifisere et integral er ganske enkelt. Det er heller ingen som vart overraska over at datamaskiner kunne regne integraler fortare enn mennesker. Iallefall ikkje etter 1950.

Bl.a. Wolfram Mathematica var en overraskelse for mange. Lommekalkulatoren var vel i sin tid også en overraskelse 🙂

Spørsmålet her er ikke om programvare er deterministisk eller ei men om computer kan brukes til å støtte kognitive prosesser. Jeg har selv brukt randomisering for å utføre kompliserte beregninger som i prinsippet er deterministisk (finnes bare en løsning). Spørsmålet her er om juss-studenter burde lære/øve mer på bruk av computer-verktøy til nytte for samfunnet - fordi det nå er mulig. 

Endret av lada1
Lenke til kommentar
4 hours ago, lada1 said:

Jeg tror at maskinelle metoder vil måtte komme fort som obligatoriske øvelser også for juss-studenter. Begrunnelse: fordi det nå er mulig! Dette vil også virke demokratisk og kunne hindre at økonomi avgjør rettslige prosesser (anke/advokat-utgifter koster!).

Har ikke maskinelle metoder blitt innført for lenge siden gjennom bruk av Lovdata og Rettsdata?

2 hours ago, barfoo said:

Men det er ikkje det som er problemet med LLM. Problemet er at dei hallisunerer. Dei kan ingenting, dei kjem med neste ord basert på ein statistisk modell. Viare er dei svært nær ikkje-deterministiske og så komplekse at dei for alle praktiske formål ikkje er deterministiske.

En måte å vri litt på det er jo å si at AI basert på LLM "hallisunerer alltid", men i noen tilfeller så er datagrunnlaget godt nok til at det som kommer ut blir i samsvar med "virkeligheten". Andre ganger ikke.  (Da har man kanskje riktig nok gått litt utenfor standard definisjon, for hva hallisunasjoner er.) 

  • Liker 1
Lenke til kommentar

AI kan nok være et hjelpemiddel i lavere rettsinstanser og ved opplagte saker som bygger på lovanvendelser, prejudikater og lovtekster.

I litt mer kompliserte saker som krever tolkning av intensjoner, er derimot AI en ubrukelig snarvei som raskt ender med justismord.

Lenke til kommentar
1 hour ago, barfoo said:

Dommeren skal ikkje bedrive etterforsking.

Dommeren skal ta standpunkt til det partane legg fram og ta stilling til kven som mest sannsynleg har rett. Om dommaren på eige iniativ finn bevis partane ikkje har anført og legg det til grunn i dommen vil eg tippe det er sakshandsamingsfeil og ankegrunn...

Men det burde ikke være slik. Ingen dommer burde akseptere at 2+2=5 uansett hvem som mener det. Da gjenstår å forbedre det juridiske systemet 🙂

Edit: og oppførte dommere seg slik i sitt "irrasjonelle teater" så var det fritt fram å missbruke rettsystemet. 

Endret av lada1
Lenke til kommentar
9 minutes ago, arne22 said:

Har ikke maskinelle metoder blitt innført for lenge siden gjennom bruk av Lovdata og Rettsdata?

En måte å vri litt på det er jo å si at AI basert på LLM "hallisunerer alltid", men i noen tilfeller så er datagrunnlaget godt nok til at det som kommer ut blir i samsvar med "virkeligheten". Andre ganger ikke.  (Da har man kanskje riktig nok gått litt utenfor standard definisjon, for hva hallisunasjoner er.) 

Hallo!  Hva snakker du om her? AI er nå bl.a. på rask vei inn i former for kreft-behandling 🙂   Nyttig verktøy. 

Endret av lada1
Lenke til kommentar
11 minutes ago, lada1 said:

Men det burde ikke være slik. Ingen dommer burde akseptere at 2+2=5 uansett hvem som mener det. Da gjenstår å forbedre det juridiske systemet 🙂

Nei, vi må ikkje det. Poenget med ei sivil sak er at partane framfører sine synspunkt og bevis, svarer på motparten sine synspunkt og bevis, og at domstolen på det grunnlaget avgjer saka. Å rokke ved det gjer at du risikerer å få dommer som dreg inn ting partane ikkje har fått ta stilling til.

Igjen framstår det som om du er bitter over å ha tapt ei sak på det du opplever som feilaktig grunnlag. Det er dårleg grunnlag for omfattande reform av domstolssystemet.

Lenke til kommentar
lada1 skrev (10 minutter siden):

Hallo!  Hva snakker du om her? AI er nå bl.a. på rask vei inn i former for kreft-behandling 🙂   Nyttig verktøy. 

Greit nok i diagnostisering av kjente kreftformer og ting som «skjedde i går».

I banebrytende forskning på «ukjent land»,  er AI derimot begrensende og fordummende….

Lenke til kommentar
12 minutes ago, lada1 said:

AI er nå bl.a. på rask vei inn i former for kreft-behandling

Argh, jeg hater AI/KI som uttrykk. Det er ingen intelligens, og det brukes i hytt og gevær om både LLM og maskinlæring. Sistnevnte har ikke engang tilsynelatende intelligens engang.

  • Hjerte 1
Lenke til kommentar
5 minutes ago, rozon said:

Argh, jeg hater AI/KI som uttrykk. Det er ingen intelligens, og det brukes i hytt og gevær om både LLM og maskinlæring. Sistnevnte har ikke engang tilsynelatende intelligens engang.

Arch? Det brukes nå milliarder på forskning på bruk av AI-metoder innen banebrytende medisin. Bare for å nevne noe. Og for ikke å snakke om styring av våpen 🙂

Finnes det tilsvarende innen forskning som har med juss/rettsikkerhet å gjøre?  Dette har bl.a. stor økonomisk interesse. Forskningsrådet på banen?

Endret av lada1
Lenke til kommentar
Nimrad skrev (3 timer siden):

Hvilke miljølover bryter man som gjør at man blir kriminell? Det var ganske nytt for meg.

Mengden vann og energi som benyttes er sløsing i kriminell grad. Begrepet "kriminell" er ikke brukt i betydningen "lovbryter" i denne sammenhengen.

  • Liker 2
Lenke til kommentar
2 hours ago, rozon said:

Argh, jeg hater AI/KI som uttrykk. Det er ingen intelligens, og det brukes i hytt og gevær om både LLM og maskinlæring. Sistnevnte har ikke engang tilsynelatende intelligens engang.

Man bør legge merke til hele navnet: Kunstig intelligens. Hvis man legger litt vekt på første halvpart av navnet, så kan det vel bli rett nok.

Man kan vel si at en LLM som ChatGPT har noe til felles med en søkemotor i forhold til funksjon og oppbygging.

I en søkemotor så bruker man AI i forhold til "metadata" (data om data) for å finne fram til de rette data, men grunndata vises fram uendret.

I en LLM så bruker man også AI på selve grunndataene, det man kaller for "Generativ AI", slik at man lar AI systemet skrive om innholdet i grunndata, basert på statistiske metoder.

Et system for juridiske avgjørelser som baserer seg på denne teknologien, vil jo da være et system som systematisk forfalsker og skriver om alle rettskilder.

Vil da et system for systematisk forfalskning eller "generativ omskriving av rettskilder" kunne fungere som et pålitelig system for riktige rettsavgjørelser?   

Rett anvendt jurdisk metode krever jo ekte intelligens anvendt på ekte og sanne rettskilder. Hva som kommer ut av kunstig intelligens basert på forfalskede rettskilder, det kan vel være sånn litt forskjellig. 

Det kan vel slumpe til å bli rett, man kanskje ikke alltid.

Helt generelt så kan vel si at LLM og "Generativ AI" er noe som i varierende grad kan brukes hvis man behøver noe som er "quick and dirty", men ikke til å kvalitetssikre.

Endret av arne22
  • Liker 1
Lenke til kommentar
4 hours ago, arne22 said:

Man bør legge merke til hele navnet: Kunstig intelligens. Hvis man legger litt vekt på første halvpart av navnet, så kan det vel bli rett nok.

Man kan vel si at en LLM som ChatGPT har noe til felles med en søkemotor i forhold til funksjon og oppbygging.

I en søkemotor så bruker man AI i forhold til "metadata" (data om data) for å finne fram til de rette data, men grunndata vises fram uendret.

I en LLM så bruker man også AI på selve grunndataene, det man kaller for "Generativ AI", slik at man lar AI systemet skrive om innholdet i grunndata, basert på statistiske metoder.

Et system for juridiske avgjørelser som baserer seg på denne teknologien, vil jo da være et system som systematisk forfalsker og skriver om alle rettskilder.

Vil da et system for systematisk forfalskning eller "generativ omskriving av rettskilder" kunne fungere som et pålitelig system for riktige rettsavgjørelser?   

Rett anvendt jurdisk metode krever jo ekte intelligens anvendt på ekte og sanne rettskilder. Hva som kommer ut av kunstig intelligens basert på forfalskede rettskilder, det kan vel være sånn litt forskjellig. 

Det kan vel slumpe til å bli rett, man kanskje ikke alltid.

Helt generelt så kan vel si at LLM og "Generativ AI" er noe som i varierende grad kan brukes hvis man behøver noe som er "quick and dirty", men ikke til å kvalitetssikre.

Jeg tipper at dersom man i Oljefondet hadde tilsvarende forståelse av nytten av bla kognitive hjelpemidler, så hadde vi tapt mange mange milliarder 🙂

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...