Gå til innhold
  
      
  
  
      
  

arne22

Medlemmer
  • Innlegg

    6 196
  • Ble med

  • Besøkte siden sist

Nylige profilbesøk

Blokken for nylige besøkende er slått av og vises ikke for andre medlemmer.

arne22 sine prestasjoner

2,2k

Nettsamfunnsomdømme

7

Hjelpsomme svar

  1. Det spørs om ikke dronen styres av fremmede makter via Starlink. Dette vil da kreve etterfyling av strøm i luften.
  2. Spørsmål til ChatGPT: Svar i fra ChatGPT: Hva er grunnen til at man skal tillegge ChatGPT noen helt andre egenskaper, enn det ChatGPT selv sier at den har?
  3. Det kan vel ha noe for seg. Men en fagutdannet person skal jo ikke tenke og ha kompetanse som "de fleste", i forhold til sitt eget fag. Det er jo dette som er hensikten med en fagutdanning, på alle nivåer, at man skal lære tankemønstre og måter å tenke på som er forskjellig fra slik som "de fleste tenker", innenfor det aktuelle faget, slik at man har en kompetanse som er forskjellig i fra den kompetanse som gjelder for "de fleste". Det juridiske fag bygger for eksempel på "juridisk metode" som er en kvalitativt forskjellig måte å tenke på, i forhold til "statistisk metode for en språkmodell". https://www.udir.no/lk20/overordnet-del/prinsipper-for-laring-utvikling-og-danning/kompetanse-i-fagene/?lang=nob Refleksjon og kritisk tenkning må jo da utøves ut i fra de faglige normer og prinsipper som gjelder for faget, og ikke ut i fra de statistiske metodene som ligger til grunn for en språkmodell som ChatGPT. Når refleksjon og kritisk tenkning uteblir, da har man ingen intelligens, men bare en kunstig eller syntetisk etterligning av noe som "stykkevis og delt" kan ligne på intelligens. Da kan man bruke ChatGPT og andre LLM'er for å utarbeide "grovutkast", som man så må utvøre "refleksjon og kritisk tekning" i forhold til, og sørge for å kvalitetssikre, endre og skrive om etter behov. ChatGPT sier jo selv at dette er nødvendig.
  4. Ja, det er utviklet en spesiell fagdisiplin i innenfor psykologifaget som heter "nevropsykologi". Lege/psykolog kan ved behov for det henvise til spesialist i nevropsykologi. https://no.wikipedia.org/wiki/Nevropsykologi https://snl.no/nevropsykologi https://www.oslo-universitetssykehus.no/behandlinger/nevropsykologisk-undersokelse-voksne/ Hvis et system av den ene eller andre type gir feil, så vil det være en del av diagnostikken å forsøke å finne ut hvorfor. En psykolog bør vel for eksempel kjenne til at pasienten lider av Alzenheimer. Men dette ble vel litt off-topic i forhold til juss-faget?
  5. Og de kan faktisk se ut som at ChatGPT faktisk har litt innsikt i juridiske spørsmål også: Spørsmål til ChatGPT: Svaret i fra ChatGPT blir da: Konklusjon: ChatGPT kan være nytting for en generell oppsummering innenfor mange fag, med utgangspunkt i kilder som den finner på Internett, og som kan være mer eller mindre pålitelige. For å kunne bruke ChatGPT innenfor et fag, så må man først beherske faget selv, godt nok, til å kunne rette opp alle de feilene som følger av at ChatGPT er en "stor språkmodell" og kvalitativt fungerer på en helt annen måte enn en "fagperson". Man man må også vite noe om den kvalitative virkemåten til ChatGPT, at dette i praksis er en slags søkemotor, som "hakker opp" innhold fra Internett og "setter det sammen" på en mer eller mindre ny måte. Den måten som ChatGPT setter sammen innhold på kan også være mer eller mindre tilfeldig, i forhold til de normative metoder som gjelder innenfor det enkelte fag. På denne måten så vil ChatGPT ofte vil generere "feil svar, men i en overbevisende innpakning". "Kunstig intelligens" betyr i denne sammenheng "en syntetisk etterligning a intelligens, som ikke er ekte" og som er fri for enhver form for "sunn fornuft".
  6. Omkring dette spørsmålet, så kan det se it som at ChatGPT svarer i alle fall litt på sporet av noe som er korrekt. Spørsmål til ChatGPT: Svar i fra ChatGPT: Hva er det som underbygger påstanden om at ChatGPT er "god til å stille medisinske diagnoser"?
  7. Slår opp på linken som er nvent over, og finner denne formueleringen: Men på Lovdata så legger det da ganmske mange dommer som er eldre enn 5 år, faktisk flesteparten, ville jeg tro. Det finnes 2 utgaver av "Lovdata Pro", den som advokater og jurister bruker, og en offentlig utgave av Lovdata Pro som er tilgjengelig på bibliotekene. I den offentlige utgaven, så skal dataene være noe mer anonymisert enn for den kommersielle utgaven. Man kan nok ikke søke opp en straffesak på navn, men hvis det er ett eller annet ved saken som gjør den såpass spesiell, at man klarer å kjenne den igjen, sted, årstall, domstol, saksinnhold, så kan man kanskje finne den, selv om det ikke er nevnt noe navn. Har ikke tilgang til lovdata her jeg er, og er nok litt usikker på om det medfører riktighet at det også er mulig å finne igjen gamle og "små" straffesaker på denne måten, men ville kanskje tro det. - Noen som vet?
  8. Men så følger det med et lite moment. Det som legges fram av ChatGPT kan se imponerende bra ut, og det kan språklig sett være nesten imponerende velformulert. Men hvis man så begynner å gå ChatGPT sin framstilling etter i sømmene, så oppdager man i en del tilfaller at det bare dreier seg om særdeles velformulert svada, slik at man faktisk kan bli lurt trill rundt. Det er også mitt intrykk at det er visse typer feil som går igjen. Når man tenker over hvorfor det er slik, så slår vel den tanke en, at måten et LLM virker på, basert på statistikk i forhold til språk, er grunnleggende helt forskjellig fra de prinsippene som gjelder for såkalt juridisk metode. Eksempler der ChatGPT gjør veldig mange feil, det er jo som nevnt over, "Lex Posterior", ved at den ikke forholder seg riktig til revisjonene av lovverket. Så er de togså i forhold til "Lex Specialis" og også i forhold til Lex Superior eller "trinnhøydeprinsippet" og rett bruk av dommer på ulike nivå og prejudiater. Hvordan vet for eksempel en trent språkmodell at den i større grad skal vektlegge en dom i høyesterett forran en artikkel i VG? Vil det ikke være mer naturlig for en trent språkmodell å gi atikkelen i VG større vekt enn enn dommen i fra høyesterett? Hvis et datasystem skal erstatte et "manuelt system" og alltid komme opp med "rett svar" så er jo noe av forutsetningen at systemene, rent kvalitativt fungerer likt. Hvis det dreier seg om systemer som i sin grunnleggende natur fungerer helt ulikt, så vil det jo by på tilfeldigheter om de to systemene kommer opp med "samme svar". Hvis ChatGPT kommer opp med en velskrevet artikkel om det ene eller det andre, relatert til det ene aller det andre fagområdet, så er det jo ikke sikkert at den artikkelen alltid vil reflekter de normene og det tankesettet som gjelder innenfor det aktuelle faget, selv språkmodellen kan formulere artikler, som ut i fra en språklig vurdering kan se ut til å være meget bra. Er det sannsynlig at hvis man mikser og kombinerer tekster i fra VG, Dagbladet, Wilipedia, NRK og alt det andre som ligger på Internett, så vil man alltid komme fram til samme konklusjon som når man bruker rettskildene på en rett og anerkjent måte, i en rettsal? Det skulle ha vært interessant å høre om det er noen av brukerne av diskusjon.no som mener å ha lagt merke til det samme som meg, at når man bruker ChatGPT i forhold til juridiske spørsmål og problemstillinger, så kan det være at man får opp noe fornuftig, men kanskej vel så ofte så finner man store feil i disse framstillingene, selv om de framstår med godt språk og som velskrevet. Ville det ikke være litt spesielt om et system som ikke er programmert ut i fra juridisk metode, og som ikke fungerer ut i fra juridisk metode, alltid skulle komme opp med riktige svar og konklusjoner i forhold til juridiske sørsmål? Vil en automatisert elektronisk papagøye kunne fungere på en pålitelig måte, som fagjurist eller dommer?
  9. Selvfølgelig kan man bruke ChatGPT til å finne fram juridisk informasjon. Men det som man finner fram vil kunne være basert på alt annet enn korrekt juridisk metode, gjerne i kombinasjon med en passe grad av omskriving av rettskildene. Det man så kan finne fram til er jo "rådata", som man må gjennomarbeide manuelt for å se hvordan man kan bruke disse. Det skulle vært interessant å høre om det er andre som har brukt ChatGPT på juridiske problemstillinger, og som mener å ha har observert at den samme typen feil går igjen, i ganske mange sammenhenger. Når man ber ChatGPT oppgi sine kilder, så kan man jo i ganske mange sammenhenger gå gjennom de samme rettskildene, og så korrigere for de feil som ChatGPT har gjort, og så ende opp med noe som faktisk kan brukes.
  10. Ellers et litt interessant perspektiv på bruk av LLM'er og tilsvarende systemer i forhold til politiske og juridiske spørsmål: https://www.vg.no/nyheter/i/nyXndB/joe-biden-med-avskjedstale-advarer-mot-oligarki-i-usa I tradisjonelle datasystemer så vil det være algoritmene selv som bestemmer hva som kommer ut av systemet i en logisk prosess. Man kan si at systemene er "determistiske" dvs at det er forutbestemt av systemets utviklere hva som skal komme ut av systemene. For AI basert på LLM'er så bestemmes hva som kommer ut av systemene mye av de dataene man bruker til å trene opp systemene. Samtidig så kan den som eier systemene bestemme hvordan systemet skal vektlegge ulike data, slik at systemets bruk av grunndata, kan gis en "bias" eller "farges" i den retning som eieren av systemet ønsker. Hvis man eventuelt kommer fram til en LLM som i utgangspunktet kan gjennomføre en juridisk metode noenlunde rett, så er det jo ikke dermed sagt at det som kommer ut av systemet er "gjeldende rett". Det kan i like stor grad dreie seg om en "farget" beskrivelse av "retten slik som eieren av systemet mener at retten bør være", og ikke den retten som er skapt av stortingspolitikere og domstoler. Hvis man bruker LLM'er eller AI'er i en eller annen form i forbindelse med juridiske spørsmål, så utgjør jo ikke dette en form for "kvalitetssikring", men tvert i mot en ny type systemavvik, som man hele tiden må ha fokus på, hvis man skal bruke AI i slik juridisk sammenheng. Det kan effektivisere, men også bære helt galt av gårde.
  11. Ja, det var vel sånn omtrent midt i blinken!
  12. Det er vel ikke vanskelig å forstå at redskapene kan brukes, men forutsetningen for en fornuftig bruk, det er jo å forstå virkemåten og de begrensninger som finnes. Man bruker da dataredskaper i stort omfang nå i dag, og selvfølgelig vi disse bli oppdatert med funksjoner som benytter AI. Samtidig så vil det jo da være en forutsetning at man ikke beytter AI løsninger, som fungerer motsatt av og som gir helt forskjellige fra det som kan lede fram til riktige konklusjoner. Et system som systematisk skriver om og forfalsker alle rettskildene vil for eksempel kanskje ikke være det optimale. Hvis man forsøker å bruke ChatGPT på juridiske problemstillinger, så kan man faktisk oppdage noe kanskje litt spesielt, at statistisk metode som CharGPT (og andre LLM'er) ser ut til å fungere slik at "statistisk metode" faktisk blir motsatt av "juridisk metode". Hvis man for eksempel tar utgangspunkt i et prinsipp for rettskildetolkning, Lex Posterior, altså nye rettskilder går foran gamle rettskilder, så har ChatGPT en tendens til å gjøre motsatt: Gamle rettskilder har bedre statistikk, så gamle rettskilder går foran nye. Tilsvarende for Lex Specialis, dvs den spesielle lovgivningen går foran den generelle lovgivningen, så vil den generelle lovgivningen ha bedre statistikk, slik at ChatGPT også kan praktisere dette motsatt av det som følger av rettskildelæren. Når man så har fått formulert feilaktige rettsregler, ut i fra statistikk i stedet for ut i fra rettskidelære, så blir jo dette til dels bare tøv, når man, dvs ChatGPT eller andre LLMer skal anvende dette i forhold til "sakens faktum". Man kan ikke forvente at når man erstatter en kvalitativ metode, med en annen kvalitativ metode, som virker helt annerledes, så vil man i alle tilfeller komme ut med det samme sluttresultat. Man kan bruke ChatGPT og tilsvarende LLM'er til å generere et slags "rått oppsop" av det som ligger på Internett, eller de grunndata som man bruker, men så må man jobbe gjennom disse "rådataene" ut i fra riktig kvalitativ metode, for å få noe fornuftig ut av dette.
  13. Og når feil nummer 35.001 oppstår på det samme tekniske anlegget, da vet man med sikkerhet at dette anlegget aldri er utsatt for tekniske feil, og at en driftsforstyrrelse da, når den oppstår, må skyldes angrep i fra fremmede makter.
  14. Hvor kommer den definisjonen i fra? Har lest litt om temaet opp gjennom årene, men har egentlig aldri sett den påstanden i noe av faglitteraturen rundt temaet, som sier at "kustig intelligens gir seg ut for å være ekte intelligens". All teori rundt dette, som jeg har sett, beskriver jo "kunstig intelligens" som noe som ikke på noen måte er ekte, men en etterligning. Hvilken fagbok eller annen tilsvarede kilde er det som beskriver kunstig intelligens som noe annet enn en "kunstig etterligning"? Selger og selger .. gjør de egentlig det? Mitt intrykk er vel at forestillingen om at "kunstig intelligens" og "ekte intelligens" skulle ha noe kvalitativt til felles, først og fremst kommer i fra brukere som ikke har satt seg inn i hvordan teknologien fungerer. Her i denne tråden så finnes jo for eksempel forestillingen om at KI skal kunne brukes til å "kvalitetssikre" juridiske saker. Ved å systematisk skrive om og forfalske rettskildene (lover, forskrifter, dommer, osv) basert på statistiske metoder anvendt på teksten, så skal man få fram en korrekt anvendt juridisk metode i forhold til konkrete saker. Man kan nok få fram "noe", men dette "noe" vil nok heller ha karakter av noe som har karakter av en "quick and dirty sammentstilling", som man kanskje kan bruke som råmateriale for å jobbe videre med en ordinær juridisk metode og alminnelig sunn fornuft. Forestillingen om at for eksempel en språkmodell som ChatGPT baserer seg på "naturlig språk", slik at det for eksempel finnes en norsk, og en svensk, engelsk, tysk og fransk språkmodell, det er jo så vidt vites også feil. Det finnes så vidt vites en felles språkmodell basert på "et internt teknisk språk" som går på tvers av de naturlige språkene. Noe av forutsetningen for å kunne bruke en LLM som ChatGPT på en nyttig og effektiv måte, det er etter mitt syn at man har en forståelse av at dette ikke har noen ting å gjøre med "intelligens" eller "juridisk metode" å gjøre, men heller en slags automatisert søkemotor som kan sette sammen tekstene fra Internett på nytt gjennom statistikk og generativ AI. Hvis man der i mot legger til grunn at "generativ AI" er fri for enhver form for intelligens, så vil jeg mene at dette kan være et særdeles nyttig arbeidsredskap for effektivisering av arbeidsprosesser. Det som eventuelt skal legges til av intlligens, det må man eventuelt legge til selv. En annen side ved saken er jo den at den som eier og kontrolerer språkmodellen jo også har en viss mulighet for å legge inn "bias", slik at man til en viss grad kan bestemme hva språkmodellen presenterer som "sannhet" og "usannhet". Setter man sin lit til språkmodellen, så setter man egentlig sin lit til språkmodellens eier. Det vil jo være noe for "dagens milliardær", å kjøpe opp en stor språkmodell, slik at den kan gi "riktige svar" på alle juridiske og politiske spørsmål. "Riktig svar" på juridiske spørsmål kan jo for eksempel ikke være basert på "loven slik som den er", men kanskje heller "loven slik som språkmodellens eier mener at loven bør være". (Og så kan man jo gå rundt og tro at dette har noe med kvalitetssikring av juridiske prosesser å gjøre.)
  15. Jada, det kan se ut som at vi er fint selforsynt med tekniske feil og at vi fint kan klare å få til dette på egen hånd og uten assistanse i fra utlandet. Fra artikkel i VG: https://www.vg.no/nyheter/i/1Mdp7Q/hvert-tredje-tog-i-2024-forsinket-eller-innstilt Hvert tredje tog er forsinket eller innstilt, står det. Er det da noen som behøver å stå til ansvar? Selvfølgelig så behøver man ikke det, når det dreier seg om offentlig virkasomhet og man har de rette politiske forbindelser i orden. Da har man jo full tillitt, uansett resultat. 35.000 registrerte feil i signalanleggene forrige år... Og året før det så var visst antallet forsinkelser og kanselleringer, sånn noenlunde det samme: https://www.vg.no/nyheter/i/XbrjAB/nesten-ett-av-tre-tog-i-2023-var-forsinket-eller-innstilt
×
×
  • Opprett ny...