arne22 Skrevet i går, 00:01 Del Skrevet i går, 00:01 (endret) 6 hours ago, The Avatar said: det skal forståast som "utgir seg for å være intelligens". Hvor kommer den definisjonen i fra? Har lest litt om temaet opp gjennom årene, men har egentlig aldri sett den påstanden i noe av faglitteraturen rundt temaet, som sier at "kustig intelligens gir seg ut for å være ekte intelligens". All teori rundt dette, som jeg har sett, beskriver jo "kunstig intelligens" som noe som ikke på noen måte er ekte, men en etterligning. Hvilken fagbok eller annen tilsvarede kilde er det som beskriver kunstig intelligens som noe annet enn en "kunstig etterligning"? 4 hours ago, Kajac said: Bare synd at selskapene og KI-hyperne selger det inn som ekte, men ikke-menneskelig intelligens. Selger og selger .. gjør de egentlig det? Mitt intrykk er vel at forestillingen om at "kunstig intelligens" og "ekte intelligens" skulle ha noe kvalitativt til felles, først og fremst kommer i fra brukere som ikke har satt seg inn i hvordan teknologien fungerer. Her i denne tråden så finnes jo for eksempel forestillingen om at KI skal kunne brukes til å "kvalitetssikre" juridiske saker. Ved å systematisk skrive om og forfalske rettskildene (lover, forskrifter, dommer, osv) basert på statistiske metoder anvendt på teksten, så skal man få fram en korrekt anvendt juridisk metode i forhold til konkrete saker. Man kan nok få fram "noe", men dette "noe" vil nok heller ha karakter av noe som har karakter av en "quick and dirty sammentstilling", som man kanskje kan bruke som råmateriale for å jobbe videre med en ordinær juridisk metode og alminnelig sunn fornuft. Forestillingen om at for eksempel en språkmodell som ChatGPT baserer seg på "naturlig språk", slik at det for eksempel finnes en norsk, og en svensk, engelsk, tysk og fransk språkmodell, det er jo så vidt vites også feil. Det finnes så vidt vites en felles språkmodell basert på "et internt teknisk språk" som går på tvers av de naturlige språkene. Noe av forutsetningen for å kunne bruke en LLM som ChatGPT på en nyttig og effektiv måte, det er etter mitt syn at man har en forståelse av at dette ikke har noen ting å gjøre med "intelligens" eller "juridisk metode" å gjøre, men heller en slags automatisert søkemotor som kan sette sammen tekstene fra Internett på nytt gjennom statistikk og generativ AI. Hvis man der i mot legger til grunn at "generativ AI" er fri for enhver form for intelligens, så vil jeg mene at dette kan være et særdeles nyttig arbeidsredskap for effektivisering av arbeidsprosesser. Det som eventuelt skal legges til av intlligens, det må man eventuelt legge til selv. En annen side ved saken er jo den at den som eier og kontrolerer språkmodellen jo også har en viss mulighet for å legge inn "bias", slik at man til en viss grad kan bestemme hva språkmodellen presenterer som "sannhet" og "usannhet". Setter man sin lit til språkmodellen, så setter man egentlig sin lit til språkmodellens eier. Det vil jo være noe for "dagens milliardær", å kjøpe opp en stor språkmodell, slik at den kan gi "riktige svar" på alle juridiske og politiske spørsmål. "Riktig svar" på juridiske spørsmål kan jo for eksempel ikke være basert på "loven slik som den er", men kanskje heller "loven slik som språkmodellens eier mener at loven bør være". (Og så kan man jo gå rundt og tro at dette har noe med kvalitetssikring av juridiske prosesser å gjøre.) Endret i går, 03:42 av arne22 1 Lenke til kommentar
lada1 Skrevet i går, 06:37 Forfatter Del Skrevet i går, 06:37 (endret) 7 hours ago, arne22 said: Hvor kommer den definisjonen i fra? Har lest litt om temaet opp gjennom årene, men har egentlig aldri sett den påstanden i noe av faglitteraturen rundt temaet, som sier at "kustig intelligens gir seg ut for å være ekte intelligens". All teori rundt dette, som jeg har sett, beskriver jo "kunstig intelligens" som noe som ikke på noen måte er ekte, men en etterligning. Hvilken fagbok eller annen tilsvarede kilde er det som beskriver kunstig intelligens som noe annet enn en "kunstig etterligning"? Selger og selger .. gjør de egentlig det? Mitt intrykk er vel at forestillingen om at "kunstig intelligens" og "ekte intelligens" skulle ha noe kvalitativt til felles, først og fremst kommer i fra brukere som ikke har satt seg inn i hvordan teknologien fungerer. Her i denne tråden så finnes jo for eksempel forestillingen om at KI skal kunne brukes til å "kvalitetssikre" juridiske saker. Ved å systematisk skrive om og forfalske rettskildene (lover, forskrifter, dommer, osv) basert på statistiske metoder anvendt på teksten, så skal man få fram en korrekt anvendt juridisk metode i forhold til konkrete saker. Man kan nok få fram "noe", men dette "noe" vil nok heller ha karakter av noe som har karakter av en "quick and dirty sammentstilling", som man kanskje kan bruke som råmateriale for å jobbe videre med en ordinær juridisk metode og alminnelig sunn fornuft. Forestillingen om at for eksempel en språkmodell som ChatGPT baserer seg på "naturlig språk", slik at det for eksempel finnes en norsk, og en svensk, engelsk, tysk og fransk språkmodell, det er jo så vidt vites også feil. Det finnes så vidt vites en felles språkmodell basert på "et internt teknisk språk" som går på tvers av de naturlige språkene. Noe av forutsetningen for å kunne bruke en LLM som ChatGPT på en nyttig og effektiv måte, det er etter mitt syn at man har en forståelse av at dette ikke har noen ting å gjøre med "intelligens" eller "juridisk metode" å gjøre, men heller en slags automatisert søkemotor som kan sette sammen tekstene fra Internett på nytt gjennom statistikk og generativ AI. Hvis man der i mot legger til grunn at "generativ AI" er fri for enhver form for intelligens, så vil jeg mene at dette kan være et særdeles nyttig arbeidsredskap for effektivisering av arbeidsprosesser. Det som eventuelt skal legges til av intlligens, det må man eventuelt legge til selv. En annen side ved saken er jo den at den som eier og kontrolerer språkmodellen jo også har en viss mulighet for å legge inn "bias", slik at man til en viss grad kan bestemme hva språkmodellen presenterer som "sannhet" og "usannhet". Setter man sin lit til språkmodellen, så setter man egentlig sin lit til språkmodellens eier. Det vil jo være noe for "dagens milliardær", å kjøpe opp en stor språkmodell, slik at den kan gi "riktige svar" på alle juridiske og politiske spørsmål. "Riktig svar" på juridiske spørsmål kan jo for eksempel ikke være basert på "loven slik som den er", men kanskje heller "loven slik som språkmodellens eier mener at loven bør være". (Og så kan man jo gå rundt og tro at dette har noe med kvalitetssikring av juridiske prosesser å gjøre.) Jeg kan også bidra med filosofering omkring kognitive hjelpemidler som historisk ofte har blitt møtt med skepsis som kanskje yngre kan overkomme best. Jeg kan minne om at Sokrates i sin tid hadde sterke argumenter mot skrivekunsten: I Platons dialog "Faidros" uttrykker Sokrates bekymring for skrivekunstens innvirkning på menneskets hukommelse og læring. Han hevder at skriving kan føre til at folk stoler på skriftlige tekster i stedet for sin egen hukommelse, noe som kan svekke evnen til å huske og forstå dypt. Sokrates sier at skriving "vil skape glemsel i sjelene til dem som lærer det; de vil ikke bruke hukommelsen sin, men stole på det som er skrevet, og dermed minnes ting utenfra, ved ytre tegn, ikke innenfra, ved egen innsats". Videre påpeker Sokrates at skriftlig informasjon ikke kan forsvare eller forklare seg selv når den blir utfordret, i motsetning til kunnskap som er levende og kan tilpasses gjennom dialog. Han mener at skriving gir en overfladisk forståelse, hvor man ved hjelp av bokstaver vil få vite mye, men ikke lære noe. *Noe å tenke på for gamle innen juss-bransjen som har "ekte intelligens" som bare vil skades av "kunstige" kognitive hjelpemidler - og der de mener at juridiske prosesser bør være som et slags absurd teater der en trumfer sunn fornuft og en må bare godta at 2+2=5. Da må legfolk bare holde seg unna for de mestrer bare sunn fornuft 🙂 Var ikke dette morsomt? Jeg for min del ser materialistisk på tilværelsen. Jeg synes at kognivive hjelpemidler ikke er mer "kunstige" enn verktøy slik som spade og en hammer. Papir og blyant har vært mitt viktigste kognitive hjelpemiddel - men er det kunstig og bør defor unngåes? Endret i går, 08:02 av lada1 Lenke til kommentar
lada1 Skrevet i går, 07:51 Forfatter Del Skrevet i går, 07:51 (endret) On 1/13/2025 at 12:41 PM, Nimrad said: En AI prøver jo å gi deg svaret den tror du vil ha, så kvalitetssikring er den elendig på da den heller finner på ting enn å gi inntrykk av at det er usikkerhet å spore. Det har også jeg lagt merke til når jeg leker med ChatGPT som kan være god til å "trøste" 🙂 Et tips til juss-studenter som også vil sjekke ut mulig nytte av ChatGPT i for eksempel sivile tvister, er at en i en tenkt sak simulerer uavhengig utganspunktene til de involverte - altså at en får ChatGPT til "å krangle med seg selv". Slik kan en få frem aktuelle momenter tidlig i en prosess. Og så (som nevnt) er det et poeng å prøve å forenkle på forskjellig vis ved å representere usikkerheter. Folk (fremtidige kunder for advokater) vil komme vil å bruke slikt verktøy, og fremtidige advokater må sikkert forholde seg til dette og kan ikke bare "rynke på nesen" av slikt da kundene på mange andre områder blir vant til å bruke slikt verktøy. Dette kan sikkert sammenlignes med at leger opplever at pasienter har googlet sine plager og ikke bare sluker hva legen sier 🙂 Jeg har hørt om leger som har blitt stresset av dette. Endret i går, 08:05 av lada1 1 Lenke til kommentar
krikkert Skrevet i går, 09:02 Del Skrevet i går, 09:02 Merethe Nygaard er i alle fall optimist. 1 Lenke til kommentar
Kajac Skrevet i går, 09:25 Del Skrevet i går, 09:25 lada1 skrev (1 time siden): Det har også jeg lagt merke til når jeg leker med ChatGPT som kan være god til å "trøste" 🙂 Et tips til juss-studenter som også vil sjekke ut mulig nytte av ChatGPT i for eksempel sivile tvister, er at en i en tenkt sak simulerer uavhengig utganspunktene til de involverte - altså at en får ChatGPT til "å krangle med seg selv". Slik kan en få frem aktuelle momenter tidlig i en prosess. Og så (som nevnt) er det et poeng å prøve å forenkle på forskjellig vis ved å representere usikkerheter. Folk (fremtidige kunder for advokater) vil komme vil å bruke slikt verktøy, og fremtidige advokater må sikkert forholde seg til dette og kan ikke bare "rynke på nesen" av slikt da kundene på mange andre områder blir vant til å bruke slikt verktøy. Dette kan sikkert sammenlignes med at leger opplever at pasienter har googlet sine plager og ikke bare sluker hva legen sier 🙂 Jeg har hørt om leger som har blitt stresset av dette. En LLM kan ikke simulere noe som helst. Den kan ikke tolke noe. De kan kun skrive om eksisterende informasjon med varierende grad av suksess. @arne22 oppsummerer fordelene og begrensingene med ChatGPT og andre LLM-modeller veldig bra. Det du kaller kunstig intelligens er bare en avansert søkemotor. Flott til å hjelpe deg å finne og strukturere informasjon, men ubrukelig til å tolke og finne ut av ting. Om den tilsynelatende klarer å tolke noe, er det fordi mennesker har gjort det tidligere. 1 Lenke til kommentar
lada1 Skrevet i går, 10:23 Forfatter Del Skrevet i går, 10:23 (endret) 1 hour ago, Kajac said: En LLM kan ikke simulere noe som helst. Den kan ikke tolke noe. De kan kun skrive om eksisterende informasjon med varierende grad av suksess. @arne22 oppsummerer fordelene og begrensingene med ChatGPT og andre LLM-modeller veldig bra. Det du kaller kunstig intelligens er bare en avansert søkemotor. Flott til å hjelpe deg å finne og strukturere informasjon, men ubrukelig til å tolke og finne ut av ting. Om den tilsynelatende klarer å tolke noe, er det fordi mennesker har gjort det tidligere. Det var ikke meningen å yppe til "språkstrid". Merk at en også kan kalle en spade for et "kunstig graveredskap" mens graving med hendene er "ekte", og en gravemaskin er kanskje enda mer "kunstig" eller "uekte" 🙂 ChatGPT og google Gemini han i hvert fall "svare". ChatGPT kan faktisk nå også utføre regnestykker som ikke er gjort før 🙂 Det var det smått med for kort tid siden. Jeg har også brukt ChatGPT/Gemini til å lage (originale) programsnutter/algoritmer og dette har spart meg for mye tid/penger. Så en kan vel si at ChatGPT/Gemini utfører noen slags kognitive prosesser eller kan støtte dette. Dette er ikke bare en "papegøye" selv om former for immitering ligger i bunn - men slik er det vel også med menneskelige kognitive prosesser. Når vi bedriver (manuell) matematisk symbolbehandling eller hoderegning - så er dette mye det samme som å kjøre en "automat". Vi "tenker" ikke vanligvis når vi sier at "+2=4! Ingen "gudommelig åpenbaring her". Det er uinteressant om vi kaller dette "kunstig" eller "ekte" og om systemene "forstår" noe. Kuleramme kan også være nyttig selv om den sikkert ikke "forstår" noe 🙂 En kan påstå at menneskelig innsikt/intelligens ikke er annet enn kjemiske/elektriske prosesser. Men da har man forstått lite. Intelligens er noe annet. Tilsvarende kan en si at "immiteringen" i enkelte språkmodeller ikke bare er "immitering" - selv om dette ligger i bunnen. Poenget mitt er ikke å drøfte kapasiteten til lett tilgjengelig verktøy slik som ChatGPT/Gemini slik dette er nå - poenget mitt er at det allerede er utviklet kognitive hjelpe-verktøy som kan være nyttige for kommende advokater og i rettslige prosesser. Spørsmålet nå er hvordan en best kan nyttiggjøre seg slikt verktøy - fordi det er tilgjengelig🙂 Generelt har vi neppe råd til å overse slikt verktøy. Så enkelt er det. Og flere og flere har forstått dette. Men var det ikke et godt tips til studenter å la AI-systemer "krangle" i antatte rettslige prosesser? En kan vel kalle dette "simulering" eller "øvelse" som en kan lære mye av? Endret i går, 10:33 av lada1 Lenke til kommentar
Kajac Skrevet i går, 11:01 Del Skrevet i går, 11:01 lada1 skrev (17 minutter siden): Det var ikke meningen å yppe til "språkstrid". Merk at en også kan kalle en spade for et "kunstig graveredskap" mens graving med hendene er "ekte", og en gravemaskin er kanskje enda mer "kunstig" eller "uekte" 🙂 ChatGPT og google Gemini han i hvert fall "svare". ChatGPT kan faktisk nå også utføre regnestykker som ikke er gjort før 🙂 Det var det smått med for kort tid siden. Jeg har også brukt ChatGPT/Gemini til å lage (originale) programsnutter/algoritmer og dette har spart meg for mye tid/penger. Så en kan vel si at ChatGPT/Gemini utfører noen slags kognitive prosesser eller kan støtte dette. Dette er ikke bare en "papegøye" selv om former for immitering ligger i bunn - men slik er det vel også med menneskelige kognitive prosesser. Når vi bedriver (manuell) matematisk symbolbehandling eller hoderegning - så er dette mye det samme som å kjøre en "automat". Vi "tenker" ikke vanligvis når vi sier at "+2=4! Ingen "gudommelig åpenbaring her". Det er uinteressant om vi kaller dette "kunstig" eller "ekte" og om systemene "forstår" noe. Kuleramme kan også være nyttig selv om den sikkert ikke "forstår" noe 🙂 En kan påstå at menneskelig innsikt/intelligens ikke er annet enn kjemiske/elektriske prosesser. Men da har man forstått lite. Intelligens er noe annet. Tilsvarende kan en si at "immiteringen" i enkelte språkmodeller ikke bare er "immitering" - selv om dette ligger i bunnen. Poenget mitt er ikke å drøfte kapasiteten til lett tilgjengelig verktøy slik som ChatGPT/Gemini slik dette er nå - poenget mitt er at det allerede er utviklet kognitive hjelpe-verktøy som kan være nyttige for kommende advokater og i rettslige prosesser. Spørsmålet nå er hvordan en best kan nyttiggjøre seg slikt verktøy - fordi det er tilgjengelig🙂 Generelt har vi neppe råd til å overse slikt verktøy. Så enkelt er det. Og flere og flere har forstått dette. Men var det ikke et godt tips til studenter å la AI-systemer "krangle" i antatte rettslige prosesser? En kan vel kalle dette "simulering" eller "øvelse" som en kan lære mye av? Verken ChatGPT eller Gemini (eller noen andre) kan generere original programkode. All koden den spytter ut, stammer fra mennesker. Den kan til en viss grad sy sammen flere kodesnutter, men hvorvidt det faktisk funker er ganske tilfeldig. For å ta et nylig eksempel. I går brukte jeg ChatGPT til å hjelpe meg med noe kode. Den kom med eksempel og kode til meg og forklarte hva den gjorde. Dessverre fungerte ikke koden, og ChatGPT klarte heller ikke å forstå hva som var galt. Så jeg begynte å google rundt, og til slutt fant jeg nøyaktig samme koden som ChatGPT hadde gitt meg. Variabelnavn og funksjonsnavn var til og med likt. Eneste forskjellen var at ChatGPTs kode manglet to kodelinjer. De to linjene som var avgjørende for at koden skulle fungere. Jeg fant med andre ord ChatGPTs kilde, og kunne se hvor lite/mye selve LLMen egentlig forstod av koden. Og det var ingen ting originalt med den. Likevel var det nyttig, da jeg fikk løst problemet mitt, kanskje litt fortere enn jeg ville gjort ellers. Jeg er enig med deg at språkmodeller kan være nyttig for advokater og andre innenfor jus-feltet. Men da som et oppslagsverk. Med en gang KI'en skal "tenke" selv kommer den til kort. Så å bruke en KI til å ta avgjørelser er jeg svært skeptisk til. Spesielt viktige avgjørelser som i en rettsak. Det største problemet med KI i dag er at alle har forskjellig forståelse om hva det er. Med KI mener jeg da generativ KI i denne sammenhengen. Selskapene som står bak, enten det er OpenAI, Microsoft eller Google, selger det inn som noe det ikke er for å skaffe mer kapital og tiltrekke seg flere investorer. Selskaper som tar i bruk KI tror det kan gjøre jobber som det over hode ikke kan, fordi selskapene bak har har hypet det opp for å skaffe mer kapital. Og de som ikke er så veldig teknologisk anlagt blir overbevist over KI'ens evne til å etterligne intelligent respons, og tror det de ser faktisk er intelligens. Som utvikler av yrke har jeg en ganske grei forståelse av hvordan LLM fungerer. Og for å si det så enkelt som mulig; det er Google på steroider. Du bruker gjerne Google til å lete etter informasjon og å søke etter hjelp. Men du bruker ALDRI Google til å ta avgjørelser for deg. Det samme går for KI. 2 Lenke til kommentar
arne22 Skrevet 23 timer siden Del Skrevet 23 timer siden 27 minutes ago, lada1 said: Poenget mitt er ikke å drøfte kapasiteten til lett tilgjengelig verktøy slik som ChatGPT/Gemini slik dette er nå - poenget mitt er at det allerede er utviklet kognitive hjelpe-verktøy som kan være nyttige for kommende advokater og i rettslige prosesser. Spørsmålet nå er hvordan en best kan nyttiggjøre seg slikt verktøy - fordi det er tilgjengelig🙂 Generelt har vi neppe råd til å overse slikt verktøy. Så enkelt er det. Og flere og flere har forstått dette. Det er vel ikke vanskelig å forstå at redskapene kan brukes, men forutsetningen for en fornuftig bruk, det er jo å forstå virkemåten og de begrensninger som finnes. Man bruker da dataredskaper i stort omfang nå i dag, og selvfølgelig vi disse bli oppdatert med funksjoner som benytter AI. Samtidig så vil det jo da være en forutsetning at man ikke beytter AI løsninger, som fungerer motsatt av og som gir helt forskjellige fra det som kan lede fram til riktige konklusjoner. Et system som systematisk skriver om og forfalsker alle rettskildene vil for eksempel kanskje ikke være det optimale. Hvis man forsøker å bruke ChatGPT på juridiske problemstillinger, så kan man faktisk oppdage noe kanskje litt spesielt, at statistisk metode som CharGPT (og andre LLM'er) ser ut til å fungere slik at "statistisk metode" faktisk blir motsatt av "juridisk metode". Hvis man for eksempel tar utgangspunkt i et prinsipp for rettskildetolkning, Lex Posterior, altså nye rettskilder går foran gamle rettskilder, så har ChatGPT en tendens til å gjøre motsatt: Gamle rettskilder har bedre statistikk, så gamle rettskilder går foran nye. Tilsvarende for Lex Specialis, dvs den spesielle lovgivningen går foran den generelle lovgivningen, så vil den generelle lovgivningen ha bedre statistikk, slik at ChatGPT også kan praktisere dette motsatt av det som følger av rettskildelæren. Når man så har fått formulert feilaktige rettsregler, ut i fra statistikk i stedet for ut i fra rettskidelære, så blir jo dette til dels bare tøv, når man, dvs ChatGPT eller andre LLMer skal anvende dette i forhold til "sakens faktum". Man kan ikke forvente at når man erstatter en kvalitativ metode, med en annen kvalitativ metode, som virker helt annerledes, så vil man i alle tilfeller komme ut med det samme sluttresultat. Man kan bruke ChatGPT og tilsvarende LLM'er til å generere et slags "rått oppsop" av det som ligger på Internett, eller de grunndata som man bruker, men så må man jobbe gjennom disse "rådataene" ut i fra riktig kvalitativ metode, for å få noe fornuftig ut av dette. 1 Lenke til kommentar
arne22 Skrevet 23 timer siden Del Skrevet 23 timer siden 22 minutes ago, Kajac said: Men du bruker ALDRI Google til å ta avgjørelser for deg. Det samme går for KI. Ja, det var vel sånn omtrent midt i blinken! 1 Lenke til kommentar
lada1 Skrevet 22 timer siden Forfatter Del Skrevet 22 timer siden 1 hour ago, arne22 said: Det er vel ikke vanskelig å forstå at redskapene kan brukes, men forutsetningen for en fornuftig bruk, det er jo å forstå virkemåten og de begrensninger som finnes. Man bruker da dataredskaper i stort omfang nå i dag, og selvfølgelig vi disse bli oppdatert med funksjoner som benytter AI. Samtidig så vil det jo da være en forutsetning at man ikke beytter AI løsninger, som fungerer motsatt av og som gir helt forskjellige fra det som kan lede fram til riktige konklusjoner. Et system som systematisk skriver om og forfalsker alle rettskildene vil for eksempel kanskje ikke være det optimale. Hvis man forsøker å bruke ChatGPT på juridiske problemstillinger, så kan man faktisk oppdage noe kanskje litt spesielt, at statistisk metode som CharGPT (og andre LLM'er) ser ut til å fungere slik at "statistisk metode" faktisk blir motsatt av "juridisk metode". Hvis man for eksempel tar utgangspunkt i et prinsipp for rettskildetolkning, Lex Posterior, altså nye rettskilder går foran gamle rettskilder, så har ChatGPT en tendens til å gjøre motsatt: Gamle rettskilder har bedre statistikk, så gamle rettskilder går foran nye. Tilsvarende for Lex Specialis, dvs den spesielle lovgivningen går foran den generelle lovgivningen, så vil den generelle lovgivningen ha bedre statistikk, slik at ChatGPT også kan praktisere dette motsatt av det som følger av rettskildelæren. Når man så har fått formulert feilaktige rettsregler, ut i fra statistikk i stedet for ut i fra rettskidelære, så blir jo dette til dels bare tøv, når man, dvs ChatGPT eller andre LLMer skal anvende dette i forhold til "sakens faktum". Man kan ikke forvente at når man erstatter en kvalitativ metode, med en annen kvalitativ metode, som virker helt annerledes, så vil man i alle tilfeller komme ut med det samme sluttresultat. Man kan bruke ChatGPT og tilsvarende LLM'er til å generere et slags "rått oppsop" av det som ligger på Internett, eller de grunndata som man bruker, men så må man jobbe gjennom disse "rådataene" ut i fra riktig kvalitativ metode, for å få noe fornuftig ut av dette. Takk for forsøk på seriøst svar. Ellers ble det mange stråmenn her i tråden 🙂 Lenke til kommentar
arne22 Skrevet 7 timer siden Del Skrevet 7 timer siden Ellers et litt interessant perspektiv på bruk av LLM'er og tilsvarende systemer i forhold til politiske og juridiske spørsmål: Quote – Amerikanerne begraves under et skred av feilinformasjon og misinformasjon, noe som tilrettelegger for maktmisbruk. Den frie pressen smuldrer opp, og redaktører forsvinner, sier han og fortsetter: – Sosiale medier gir opp faktasjekker, sannheten smadres av løgner som fortelles for å oppnå makt og rikdom. Vi må holde sosiale medier ansvarlige for å beskytte våre barn, våre familier og demokratiet vårt fra maktmisbruk. https://www.vg.no/nyheter/i/nyXndB/joe-biden-med-avskjedstale-advarer-mot-oligarki-i-usa I tradisjonelle datasystemer så vil det være algoritmene selv som bestemmer hva som kommer ut av systemet i en logisk prosess. Man kan si at systemene er "determistiske" dvs at det er forutbestemt av systemets utviklere hva som skal komme ut av systemene. For AI basert på LLM'er så bestemmes hva som kommer ut av systemene mye av de dataene man bruker til å trene opp systemene. Samtidig så kan den som eier systemene bestemme hvordan systemet skal vektlegge ulike data, slik at systemets bruk av grunndata, kan gis en "bias" eller "farges" i den retning som eieren av systemet ønsker. Hvis man eventuelt kommer fram til en LLM som i utgangspunktet kan gjennomføre en juridisk metode noenlunde rett, så er det jo ikke dermed sagt at det som kommer ut av systemet er "gjeldende rett". Det kan i like stor grad dreie seg om en "farget" beskrivelse av "retten slik som eieren av systemet mener at retten bør være", og ikke den retten som er skapt av stortingspolitikere og domstoler. Hvis man bruker LLM'er eller AI'er i en eller annen form i forbindelse med juridiske spørsmål, så utgjør jo ikke dette en form for "kvalitetssikring", men tvert i mot en ny type systemavvik, som man hele tiden må ha fokus på, hvis man skal bruke AI i slik juridisk sammenheng. Det kan effektivisere, men også bære helt galt av gårde. 2 Lenke til kommentar
lada1 Skrevet 5 timer siden Forfatter Del Skrevet 5 timer siden (endret) 2 hours ago, arne22 said: Ellers et litt interessant perspektiv på bruk av LLM'er og tilsvarende systemer i forhold til politiske og juridiske spørsmål: https://www.vg.no/nyheter/i/nyXndB/joe-biden-med-avskjedstale-advarer-mot-oligarki-i-usa I tradisjonelle datasystemer så vil det være algoritmene selv som bestemmer hva som kommer ut av systemet i en logisk prosess. Man kan si at systemene er "determistiske" dvs at det er forutbestemt av systemets utviklere hva som skal komme ut av systemene. For AI basert på LLM'er så bestemmes hva som kommer ut av systemene mye av de dataene man bruker til å trene opp systemene. Samtidig så kan den som eier systemene bestemme hvordan systemet skal vektlegge ulike data, slik at systemets bruk av grunndata, kan gis en "bias" eller "farges" i den retning som eieren av systemet ønsker. Hvis man eventuelt kommer fram til en LLM som i utgangspunktet kan gjennomføre en juridisk metode noenlunde rett, så er det jo ikke dermed sagt at det som kommer ut av systemet er "gjeldende rett". Det kan i like stor grad dreie seg om en "farget" beskrivelse av "retten slik som eieren av systemet mener at retten bør være", og ikke den retten som er skapt av stortingspolitikere og domstoler. Hvis man bruker LLM'er eller AI'er i en eller annen form i forbindelse med juridiske spørsmål, så utgjør jo ikke dette en form for "kvalitetssikring", men tvert i mot en ny type systemavvik, som man hele tiden må ha fokus på, hvis man skal bruke AI i slik juridisk sammenheng. Det kan effektivisere, men også bære helt galt av gårde. Mitt utgangspunkt var at slike "AI-systemer" for tiden bare kan fungere som et *hjelpemiddel* og en behøver ikke opphøye det til "sjefen". Slik "forfemmelse" blir bare en stråmann i denne diskusjonen, men det er fristende likevel å nevne her at også mennesker er tendensiøse og ikke alltid så "objektive" av seg. Slike AI-systemer kan ha tilsvarende svakheter som mennesker - men de kan kanskje brukes som et ekstra "filter" for å fange opp ting som det er verdt å påpeke i en sak og som ellers ble ignorert? Men finner du det ikke interessant (også for jurister) at for eksempel ChatGPT er god på medisinske diagnoser? Jeg ville føle meg tryggere dersom legen brukte "AI" for å få frem en "second opinion" som i prinsippet kunne motsi han/henne. Endret 5 timer siden av lada1 Lenke til kommentar
arne22 Skrevet 5 timer siden Del Skrevet 5 timer siden (endret) 12 minutes ago, lada1 said: Mitt utgangspunkt var at slike "AI-systemer" for tiden bare kan fungere som et *hjelpemiddel* og en behøver ikke opphøye det til "sjefen". Slik "forfemmelse" blir bare en stråmann i denne diskusjonen, men det er fristende likevel å nevne her at også mennesker er tendensiøse og ikke alltid så "objektive" av seg. Slike AI-systemer kan ha tilsvarende svakheter som mennesker - men de kan kanskje brukes som et ekstra "filter" for å fange opp ting som det er verdt å påpeke i en sak og som ellers ble ignorert? Men finner du det ikke interessant (også for jurister) at for eksempel ChatGPT er god på medisinske diagnoser? Selvfølgelig kan man bruke ChatGPT til å finne fram juridisk informasjon. Men det som man finner fram vil kunne være basert på alt annet enn korrekt juridisk metode, gjerne i kombinasjon med en passe grad av omskriving av rettskildene. Det man så kan finne fram til er jo "rådata", som man må gjennomarbeide manuelt for å se hvordan man kan bruke disse. Det skulle vært interessant å høre om det er andre som har brukt ChatGPT på juridiske problemstillinger, og som mener å ha har observert at den samme typen feil går igjen, i ganske mange sammenhenger. Når man ber ChatGPT oppgi sine kilder, så kan man jo i ganske mange sammenhenger gå gjennom de samme rettskildene, og så korrigere for de feil som ChatGPT har gjort, og så ende opp med noe som faktisk kan brukes. Endret 5 timer siden av arne22 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå