Markiii Skrevet mandag kl 13:45 Del Skrevet mandag kl 13:45 (endret) nebrewfoz skrev (2 timer siden): Nei, det er de ikke. Det er mulig at du tror det, men det er en så ekstrem påstand at den kan du godt få hoste opp noen kilder som bevis for. Spør dem selv. Jeg har spurt både ChatGPT og Grok. Du kan til og med få kildehenvisninger. Hvordan forklarer du at Grok ikke er f.eks. klimanekter? Endret mandag kl 13:46 av Markiii 1 Lenke til kommentar
nebrewfoz Skrevet mandag kl 14:06 Del Skrevet mandag kl 14:06 15 minutes ago, Markiii said: Spør dem selv. Seriøst? Hvis du spør en av disse språkmodellene om noe du selv har ganske inngående kunnskap om, og språkmodellen i flere tilfeller svarer feil, hvordan kan du da stole på at språkmodellen svarer riktig når du spør om noe du selv ikke har inngående kunnskap om? At en språkmodell ikke alltid svarer feil er ikke akkurat et godkjent-stempel, spør du meg. 3 2 Lenke til kommentar
Apathy Skrevet mandag kl 14:09 Del Skrevet mandag kl 14:09 (endret) On 3/24/2025 at 3:06 PM, nebrewfoz said: Seriøst? Hvis du spør en av disse språkmodellene om noe du selv har ganske inngående kunnskap om, og språkmodellen i flere tilfeller svarer feil, hvordan kan du da stole på at språkmodellen svarer riktig når du spør om noe du selv ikke har inngående kunnskap om? At en språkmodell ikke alltid svarer feil er ikke akkurat et godkjent-stempel, spør du meg. Blir omtrent som å følge idioter som det hender at har rett om ett eller annet. Uten at de nødvendighvis forstår det når de sier det. Men blind høne kan også finne korn. Spørsmålet er om det dermed er en god ide å følge denne blinde hønen hvor enn den fører deg. Endret tirsdag kl 20:40 av Apathy 1 1 Lenke til kommentar
Markiii Skrevet tirsdag kl 07:51 Del Skrevet tirsdag kl 07:51 (endret) nebrewfoz skrev (17 timer siden): Seriøst? Hvis du spør en av disse språkmodellene om noe du selv har ganske inngående kunnskap om, og språkmodellen i flere tilfeller svarer feil, hvordan kan du da stole på at språkmodellen svarer riktig når du spør om noe du selv ikke har inngående kunnskap om? At en språkmodell ikke alltid svarer feil er ikke akkurat et godkjent-stempel, spør du meg. Du kan spørre dem selv hvordan de "validerer" informasjon. Hvis du ønsker å lære mer om hvordan det fungerer. Og hvis du vil dobbeltsjekke selv så er det bare å følge kildene de oppgir. Igjen: Jeg har spurt både ChatGPT og Grok. Du kan til og med få kildehenvisninger. Hvordan forklarer du at Grok ikke er f.eks. klimanekter? Endret tirsdag kl 07:52 av Markiii Lenke til kommentar
nebrewfoz Skrevet tirsdag kl 14:07 Del Skrevet tirsdag kl 14:07 6 hours ago, Markiii said: Hvordan forklarer du at Grok ikke er f.eks. klimanekter? Hvorfor skulle Grok være klimanekter? Hvis du skal begynne å forklare hvorfor Grok "mener" det ene eller det andre, så blir du aldri ferdig. 4 Lenke til kommentar
Markiii Skrevet tirsdag kl 17:58 Del Skrevet tirsdag kl 17:58 nebrewfoz skrev (3 timer siden): Hvorfor skulle Grok være klimanekter? Hvis du skal begynne å forklare hvorfor Grok "mener" det ene eller det andre, så blir du aldri ferdig. Hvis Grok bare blindt gulper opp hva som helst så skulle man jo anta at den vil benekte klimaendringer, osv. Jeg har forklart hvordan Grok og andre slike AI er designet for å gi korrekt informasjon. Som sagt kan du finne dette ut selv ved å spørre selv. Lenke til kommentar
rabler Skrevet tirsdag kl 18:16 Del Skrevet tirsdag kl 18:16 16 minutes ago, Markiii said: Jeg har forklart hvordan Grok og andre slike AI er designet for å gi korrekt informasjon. De er ikke designet for det. De er designet for å gi deg svaret den tror du vil sette mest pris på. 3 Lenke til kommentar
Markiii Skrevet tirsdag kl 20:34 Del Skrevet tirsdag kl 20:34 (endret) rabler skrev (2 timer siden): De er ikke designet for det. De er designet for å gi deg svaret den tror du vil sette mest pris på. Grok sier at dette ikke stemmer, og at den er designet for å gi nyttige og korrekte svar. Grok vet jo ikke hva jeg vil sette mest pris på heller. Du kan jo spørre selv. Spør også hvordan den vurderer fakta. Da vil du få til svar noe slikt som at den kryssjekker informasjon, og legger vekt på ting som logikk og konsistens. Det vil si at for eksempel klimanekterpåstander vil falle gjennom fordi det er ulogisk og inkonsistent. Klimanekter motsier for eksempel seg selv ganske ofte, og kommer ofte med åpenbart falske påstander som selv en grunnleggende faktasjekk vil avsløre. Dette er et eksempel på noe Grok eller andre AI-modeller kan bruke for å vurdere troverdigheten. Hvis du vil lære mer om dette, anbefaler jeg at du spør Grok eller ChatGPT selv, fremfor å krangle med meg om det. Endret tirsdag kl 20:38 av Markiii 1 Lenke til kommentar
Red Frostraven Skrevet onsdag kl 10:13 Del Skrevet onsdag kl 10:13 (endret) Det er dog viktig å huske på at noen av språkmodellene når som helst kan starte å progressivt oftere tjene en politisk agenda i stedet for å formidle informasjon den tidligere er trent på, uten at man vet at de endres. Det er som å ha et enormt leksikon hvor aktører på baksiden, med en ekstrem politisk agenda i Grok sitt tilfelle, kan endre leksikonet ditt. At det er riktig i dag betyr ikke at det er faktuelt i morgen. Endret 19 timer siden av Red Frostraven la inn det i uthevet tekst, da det forsvant i en omformulering 1 2 Lenke til kommentar
rabler Skrevet onsdag kl 15:16 Del Skrevet onsdag kl 15:16 18 hours ago, Markiii said: Grok sier at dette ikke stemmer, og at den er designet for å gi nyttige og korrekte svar. Grok vet jo ikke hva jeg vil sette mest pris på heller. Du kan jo spørre selv. Spør også hvordan den vurderer fakta. Da vil du få til svar noe slikt som at den kryssjekker informasjon, og legger vekt på ting som logikk og konsistens. Det vil si at for eksempel klimanekterpåstander vil falle gjennom fordi det er ulogisk og inkonsistent. Klimanekter motsier for eksempel seg selv ganske ofte, og kommer ofte med åpenbart falske påstander som selv en grunnleggende faktasjekk vil avsløre. Dette er et eksempel på noe Grok eller andre AI-modeller kan bruke for å vurdere troverdigheten. Hvis du vil lære mer om dette, anbefaler jeg at du spør Grok eller ChatGPT selv, fremfor å krangle med meg om det. Hva Grok sier er faktisk ikke interessant. Jeg vet hvordan disse modellene har blitt trent og "korrekt" er ikke en del av den pakken. 2 Lenke til kommentar
Markiii Skrevet onsdag kl 18:32 Del Skrevet onsdag kl 18:32 rabler skrev (3 timer siden): Hva Grok sier er faktisk ikke interessant. Jeg vet hvordan disse modellene har blitt trent og "korrekt" er ikke en del av den pakken. Jo, det er faktisk interessant. Du kan lære litt om hvordan det fungerer. Lenke til kommentar
Markiii Skrevet onsdag kl 18:35 Del Skrevet onsdag kl 18:35 Red Frostraven skrev (8 timer siden): Det er dog viktig å huske på at noen av språkmodellene når som helst progressivt oftere tjener en politisk agenda i stedet for å formidle informasjon den er trent på, uten at man vet at de endres. Det er som å ha et enormt leksikon hvor aktører på baksiden, med en ekstrem politisk agenda i Grok sitt tilfelle, kan endre leksikonet ditt. At det er riktig i dag betyr ikke at det er faktuelt i morgen. Jeg har selvsagt mine egne meninger om ting, og vil legge merket til dersom Grok eller andre AI sier noe jeg mener er galt. Særlig med Grok, som er eid av en høyreekstrem gærning, er jeg veldig på vakt akkurat der. Til tross for at eieren er en høyreekstrem gærning av en skamløs løgner, så har den informasjonen jeg har fått fra Grok så langt sett riktig ut. Jeg har ikke sett noen tegn på at det er manipuler til fordel for psykopaten Elon Musk. Tvert imot så har Grok rettet på Musks løgner veldig mange ganger når jeg har spurt. Så hvis noen "endrer leksikonet" så vil jeg legge merke til det. Og det gjelder ikke bare Grok, men andre AI også. Jeg vil ha med meg en viss faktakunnskap, og hvis chatbotten begynner å komme med ting som strider med fakta, eller slik jeg oppfatter fakta, så vil jeg naturligvis reagere på det. 2 Lenke til kommentar
Red Frostraven Skrevet 19 timer siden Del Skrevet 19 timer siden Markiii skrev (17 timer siden): Tvert imot så har Grok rettet på Musks løgner veldig mange ganger når jeg har spurt. Ja, jøss. Men husk på alle de andre som ikke er engasjert nok i politikk til å ta den i hvite løgner, til å begynne med, så grå -- så brune og kullsorte. Man kan bare si at modellen fungerte fint sist man forsøkte den, man kan ikke anbefale noen å bruke den i morgen, helt til den har ny eier. 1 Lenke til kommentar
Evil-Duck Skrevet 19 timer siden Del Skrevet 19 timer siden (endret) LLMer er fantastiske verktøy om en mater de med rett informasjon, men man må være uhyre forsiktig med å stole på alt de spytter ut om en bare spør de om å besvare ett spørsmål uten å gi de konteksten, uavhengig av om det er Elon Musk, Sam Altman eller CCP som eier de. Selv er mitt hovedbruksområde å få de til å oppsummere konkrete ting som videoer eller lengre tekster, samt at jeg bruker de for en del korrekturlesing hvor de har absolutte kontekster som jeg gir de å jobbe med. Endret 19 timer siden av Evil-Duck 3 Lenke til kommentar
Uderzo Skrevet 19 timer siden Del Skrevet 19 timer siden Ja, man bør unngå å gi dem for mye "frihet" for da kan de finne på å fantasere i vei. Det erfarte jeg her om dagen da jeg prøvde å få hjelp til å identifisere en Seinfeld episode og ChatGPT diktet opp fakta 😅 1 Lenke til kommentar
rabler Skrevet 17 timer siden Del Skrevet 17 timer siden 19 hours ago, Markiii said: Så hvis noen "endrer leksikonet" så vil jeg legge merke til det. Og det gjelder ikke bare Grok, men andre AI også. Jeg vil ha med meg en viss faktakunnskap, og hvis chatbotten begynner å komme med ting som strider med fakta, eller slik jeg oppfatter fakta, så vil jeg naturligvis reagere på det. Så god tror jeg faktisk ikke du er. Om du kan emnet så godt at du enkelt spotter om KI-en gjør feil trenger du ikke bruke KI i utgangspunktet. Og her ser man hvor galt det kan gå: https://www.vg.no/nyheter/i/3MdVzv/viser-til-skoleforskning-som-ikke-finnes-det-er-helt-vilt Quote – Jeg har tidligere blitt sitert og tolket feil, men jeg har aldri opplevd å bli sitert på noe jeg aldri har skrevet. Disse chatbottene dikter gladelig opp fakta og det krever faktisk nitidig arbeid å kvalitetssikre resultatet. Selv de nye modellene der du kan se hvordan den kom frem til svaret. 3 Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå