arne22 Skrevet 9 timer siden Del Skrevet 9 timer siden (endret) 6 hours ago, The Avatar said: det skal forståast som "utgir seg for å være intelligens". Hvor kommer den definisjonen i fra? Har lest litt om temaet opp gjennom årene, men har egentlig aldri sett den påstanden i noe av faglitteraturen rundt temaet, som sier at "kustig intelligens gir seg ut for å være ekte intelligens". All teori rundt dette, som jeg har sett, beskriver jo "kunstig intelligens" som noe som ikke på noen måte er ekte, men en etterligning. Hvilken fagbok eller annen tilsvarede kilde er det som beskriver kunstig intelligens som noe annet enn en "kunstig etterligning"? 4 hours ago, Kajac said: Bare synd at selskapene og KI-hyperne selger det inn som ekte, men ikke-menneskelig intelligens. Selger og selger .. gjør de egentlig det? Mitt intrykk er vel at forestillingen om at "kunstig intelligens" og "ekte intelligens" skulle ha noe kvalitativt til felles, først og fremst kommer i fra brukere som ikke har satt seg inn i hvordan teknologien fungerer. Her i denne tråden så finnes jo for eksempel forestillingen om at KI skal kunne brukes til å "kvalitetssikre" juridiske saker. Ved å systematisk skrive om og forfalske rettskildene (lover, forskrifter, dommer, osv) basert på statistiske metoder anvendt på teksten, så skal man få fram en korrekt anvendt juridisk metode i forhold til konkrete saker. Man kan nok få fram "noe", men dette "noe" vil nok heller ha karakter av noe som har karakter av en "quick and dirty sammentstilling", som man kanskje kan bruke som råmateriale for å jobbe videre med en ordinær juridisk metode og alminnelig sunn fornuft. Forestillingen om at for eksempel en språkmodell som ChatGPT baserer seg på "naturlig språk", slik at det for eksempel finnes en norsk, og en svensk, engelsk, tysk og fransk språkmodell, det er jo så vidt vites også feil. Det finnes så vidt vites en felles språkmodell basert på "et internt teknisk språk" som går på tvers av de naturlige språkene. Noe av forutsetningen for å kunne bruke en LLM som ChatGPT på en nyttig og effektiv måte, det er etter mitt syn at man har en forståelse av at dette ikke har noen ting å gjøre med "intelligens" eller "juridisk metode" å gjøre, men heller en slags automatisert søkemotor som kan sette sammen tekstene fra Internett på nytt gjennom statistikk og generativ AI. Hvis man der i mot legger til grunn at "generativ AI" er fri for enhver form for intelligens, så vil jeg mene at dette kan være et særdeles nyttig arbeidsredskap for effektivisering av arbeidsprosesser. Det som eventuelt skal legges til av intlligens, det må man eventuelt legge til selv. En annen side ved saken er jo den at den som eier og kontrolerer språkmodellen jo også har en viss mulighet for å legge inn "bias", slik at man til en viss grad kan bestemme hva språkmodellen presenterer som "sannhet" og "usannhet". Setter man sin lit til språkmodellen, så setter man egentlig sin lit til språkmodellens eier. Det vil jo være noe for "dagens milliardær", å kjøpe opp en stor språkmodell, slik at den kan gi "riktige svar" på alle juridiske og politiske spørsmål. "Riktig svar" på juridiske spørsmål kan jo for eksempel ikke være basert på "loven slik som den er", men kanskje heller "loven slik som språkmodellens eier mener at loven bør være". (Og så kan man jo gå rundt og tro at dette har noe med kvalitetssikring av juridiske prosesser å gjøre.) Endret 5 timer siden av arne22 1 Lenke til kommentar
lada1 Skrevet 2 timer siden Forfatter Del Skrevet 2 timer siden (endret) 7 hours ago, arne22 said: Hvor kommer den definisjonen i fra? Har lest litt om temaet opp gjennom årene, men har egentlig aldri sett den påstanden i noe av faglitteraturen rundt temaet, som sier at "kustig intelligens gir seg ut for å være ekte intelligens". All teori rundt dette, som jeg har sett, beskriver jo "kunstig intelligens" som noe som ikke på noen måte er ekte, men en etterligning. Hvilken fagbok eller annen tilsvarede kilde er det som beskriver kunstig intelligens som noe annet enn en "kunstig etterligning"? Selger og selger .. gjør de egentlig det? Mitt intrykk er vel at forestillingen om at "kunstig intelligens" og "ekte intelligens" skulle ha noe kvalitativt til felles, først og fremst kommer i fra brukere som ikke har satt seg inn i hvordan teknologien fungerer. Her i denne tråden så finnes jo for eksempel forestillingen om at KI skal kunne brukes til å "kvalitetssikre" juridiske saker. Ved å systematisk skrive om og forfalske rettskildene (lover, forskrifter, dommer, osv) basert på statistiske metoder anvendt på teksten, så skal man få fram en korrekt anvendt juridisk metode i forhold til konkrete saker. Man kan nok få fram "noe", men dette "noe" vil nok heller ha karakter av noe som har karakter av en "quick and dirty sammentstilling", som man kanskje kan bruke som råmateriale for å jobbe videre med en ordinær juridisk metode og alminnelig sunn fornuft. Forestillingen om at for eksempel en språkmodell som ChatGPT baserer seg på "naturlig språk", slik at det for eksempel finnes en norsk, og en svensk, engelsk, tysk og fransk språkmodell, det er jo så vidt vites også feil. Det finnes så vidt vites en felles språkmodell basert på "et internt teknisk språk" som går på tvers av de naturlige språkene. Noe av forutsetningen for å kunne bruke en LLM som ChatGPT på en nyttig og effektiv måte, det er etter mitt syn at man har en forståelse av at dette ikke har noen ting å gjøre med "intelligens" eller "juridisk metode" å gjøre, men heller en slags automatisert søkemotor som kan sette sammen tekstene fra Internett på nytt gjennom statistikk og generativ AI. Hvis man der i mot legger til grunn at "generativ AI" er fri for enhver form for intelligens, så vil jeg mene at dette kan være et særdeles nyttig arbeidsredskap for effektivisering av arbeidsprosesser. Det som eventuelt skal legges til av intlligens, det må man eventuelt legge til selv. En annen side ved saken er jo den at den som eier og kontrolerer språkmodellen jo også har en viss mulighet for å legge inn "bias", slik at man til en viss grad kan bestemme hva språkmodellen presenterer som "sannhet" og "usannhet". Setter man sin lit til språkmodellen, så setter man egentlig sin lit til språkmodellens eier. Det vil jo være noe for "dagens milliardær", å kjøpe opp en stor språkmodell, slik at den kan gi "riktige svar" på alle juridiske og politiske spørsmål. "Riktig svar" på juridiske spørsmål kan jo for eksempel ikke være basert på "loven slik som den er", men kanskje heller "loven slik som språkmodellens eier mener at loven bør være". (Og så kan man jo gå rundt og tro at dette har noe med kvalitetssikring av juridiske prosesser å gjøre.) Jeg kan også bidra med filosofering omkring kognitive hjelpemidler som historisk ofte har blitt møtt med skepsis som kanskje yngre kan overkomme best. Jeg kan minne om at Sokrates i sin tid hadde sterke argumenter mot skrivekunsten: I Platons dialog "Faidros" uttrykker Sokrates bekymring for skrivekunstens innvirkning på menneskets hukommelse og læring. Han hevder at skriving kan føre til at folk stoler på skriftlige tekster i stedet for sin egen hukommelse, noe som kan svekke evnen til å huske og forstå dypt. Sokrates sier at skriving "vil skape glemsel i sjelene til dem som lærer det; de vil ikke bruke hukommelsen sin, men stole på det som er skrevet, og dermed minnes ting utenfra, ved ytre tegn, ikke innenfra, ved egen innsats". Videre påpeker Sokrates at skriftlig informasjon ikke kan forsvare eller forklare seg selv når den blir utfordret, i motsetning til kunnskap som er levende og kan tilpasses gjennom dialog. Han mener at skriving gir en overfladisk forståelse, hvor man ved hjelp av bokstaver vil få vite mye, men ikke lære noe. *Noe å tenke på for gamle innen juss-bransjen som har "ekte intelligens" som bare vil skades av "kunstige" kognitive hjelpemidler - og der de mener at juridiske prosesser bør være som et slags absurd teater der en trumfer sunn fornuft og en må bare godta at 2+2=5. Da må legfolk bare holde seg unna for de mestrer bare sunn fornuft 🙂 Var ikke dette morsomt? Jeg for min del ser materialistisk på tilværelsen. Jeg synes at kognivive hjelpemidler ikke er mer "kunstige" enn verktøy slik som spade og en hammer. Papir og blyant har vært mitt viktigste kognitive hjelpemiddel - men er det kunstig og bør defor unngåes? Endret 1 time siden av lada1 Lenke til kommentar
lada1 Skrevet 1 time siden Forfatter Del Skrevet 1 time siden (endret) On 1/13/2025 at 12:41 PM, Nimrad said: En AI prøver jo å gi deg svaret den tror du vil ha, så kvalitetssikring er den elendig på da den heller finner på ting enn å gi inntrykk av at det er usikkerhet å spore. Det har også jeg lagt merke til når jeg leker med ChatGPT som kan være god til å "trøste" 🙂 Et tips til juss-studenter som også vil sjekke ut mulig nytte av ChatGPT i for eksempel sivile tvister, er at en i en tenkt sak simulerer uavhengig utganspunktene til de involverte - altså at en får ChatGPT til "å krangle med seg selv". Slik kan en få frem aktuelle momenter tidlig i en prosess. Og så (som nevnt) er det et poeng å prøve å forenkle på forskjellig vis ved å representere usikkerheter. Folk (fremtidige kunder for advokater) vil komme vil å bruke slikt verktøy, og fremtidige advokater må sikkert forholde seg til dette og kan ikke bare "rynke på nesen" av slikt da kundene på mange andre områder blir vant til å bruke slikt verktøy. Dette kan sikkert sammenlignes med at leger opplever at pasienter har googlet sine plager og ikke bare sluker hva legen sier 🙂 Jeg har hørt om leger som har blitt stresset av dette. Endret 1 time siden av lada1 1 Lenke til kommentar
krikkert Skrevet 10 minutter siden Del Skrevet 10 minutter siden Merethe Nygaard er i alle fall optimist. Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå