Gå til innhold

Elon Musk kjøper Twitter for 44 milliardar dollar


Gjest Slettet-x7D6du0Hjb

Anbefalte innlegg

nebrewfoz skrev (2 timer siden):

Nei, det er de ikke. Det er mulig at du tror det, men det er en så ekstrem påstand at den kan du godt få hoste opp noen kilder som bevis for.

Spør dem selv. Jeg har spurt både ChatGPT og Grok. Du kan til og med få kildehenvisninger.

Hvordan forklarer du at Grok ikke er f.eks. klimanekter?

Endret av Markiii
  • Innsiktsfullt 1
Lenke til kommentar
Videoannonse
Annonse
15 minutes ago, Markiii said:

Spør dem selv.

Seriøst?

Hvis du spør en av disse språkmodellene om noe du selv har ganske inngående kunnskap om, og språkmodellen i flere tilfeller svarer feil, hvordan kan du da stole på at språkmodellen svarer riktig når du spør om noe du selv ikke har inngående kunnskap om?

At en språkmodell ikke alltid svarer feil er ikke akkurat et godkjent-stempel, spør du meg.

  • Liker 3
  • Hjerte 2
Lenke til kommentar
On 3/24/2025 at 3:06 PM, nebrewfoz said:

Seriøst?

Hvis du spør en av disse språkmodellene om noe du selv har ganske inngående kunnskap om, og språkmodellen i flere tilfeller svarer feil, hvordan kan du da stole på at språkmodellen svarer riktig når du spør om noe du selv ikke har inngående kunnskap om?

At en språkmodell ikke alltid svarer feil er ikke akkurat et godkjent-stempel, spør du meg.

Blir omtrent som å følge idioter som det hender at har rett om ett eller annet. Uten at de nødvendighvis forstår det når de sier det. Men blind høne kan også finne korn. Spørsmålet er om det dermed er en god ide å følge denne blinde hønen hvor enn den fører deg.

Endret av Apathy
  • Liker 1
  • Innsiktsfullt 1
Lenke til kommentar
nebrewfoz skrev (17 timer siden):

Seriøst?

Hvis du spør en av disse språkmodellene om noe du selv har ganske inngående kunnskap om, og språkmodellen i flere tilfeller svarer feil, hvordan kan du da stole på at språkmodellen svarer riktig når du spør om noe du selv ikke har inngående kunnskap om?

At en språkmodell ikke alltid svarer feil er ikke akkurat et godkjent-stempel, spør du meg.

Du kan spørre dem selv hvordan de "validerer" informasjon. Hvis du ønsker å lære mer om hvordan det fungerer. Og hvis du vil dobbeltsjekke selv så er det bare å følge kildene de oppgir.

Igjen:

Jeg har spurt både ChatGPT og Grok. Du kan til og med få kildehenvisninger.

Hvordan forklarer du at Grok ikke er f.eks. klimanekter?

Endret av Markiii
Lenke til kommentar
nebrewfoz skrev (3 timer siden):

Hvorfor skulle Grok være klimanekter?

Hvis du skal begynne å forklare hvorfor Grok "mener" det ene eller det andre, så blir du aldri ferdig.

Hvis Grok bare blindt gulper opp hva som helst så skulle man jo anta at den vil benekte klimaendringer, osv.

Jeg har forklart hvordan Grok og andre slike AI er designet for å gi korrekt informasjon. Som sagt kan du finne dette ut selv ved å spørre selv.

Lenke til kommentar
rabler skrev (2 timer siden):

De er ikke designet for det. De er designet for å gi deg svaret den tror du vil sette mest pris på.

Grok sier at dette ikke stemmer, og at den er designet for å gi nyttige og korrekte svar. Grok vet jo ikke hva jeg vil sette mest pris på heller.

Du kan jo spørre selv. Spør også hvordan den vurderer fakta. Da vil du få til svar noe slikt som at den kryssjekker informasjon, og legger vekt på ting som logikk og konsistens. Det vil si at for eksempel klimanekterpåstander vil falle gjennom fordi det er ulogisk og inkonsistent. Klimanekter motsier for eksempel seg selv ganske ofte, og kommer ofte med åpenbart falske påstander som selv en grunnleggende faktasjekk vil avsløre. Dette er et eksempel på noe Grok eller andre AI-modeller kan bruke for å vurdere troverdigheten.

Hvis du vil lære mer om dette, anbefaler jeg at du spør Grok eller ChatGPT selv, fremfor å krangle med meg om det.

Endret av Markiii
  • Liker 1
Lenke til kommentar

Det er dog viktig å huske på at noen av språkmodellene når som helst kan starte å progressivt oftere tjene en politisk agenda i stedet for å formidle informasjon den tidligere er trent på, uten at man vet at de endres.

Det er som å ha et enormt leksikon hvor aktører på baksiden, med en ekstrem politisk agenda i Grok sitt tilfelle, kan endre leksikonet ditt.
At det er riktig i dag betyr ikke at det er faktuelt i morgen.

Endret av Red Frostraven
la inn det i uthevet tekst, da det forsvant i en omformulering
  • Liker 1
  • Innsiktsfullt 2
Lenke til kommentar
18 hours ago, Markiii said:

Grok sier at dette ikke stemmer, og at den er designet for å gi nyttige og korrekte svar. Grok vet jo ikke hva jeg vil sette mest pris på heller.

Du kan jo spørre selv. Spør også hvordan den vurderer fakta. Da vil du få til svar noe slikt som at den kryssjekker informasjon, og legger vekt på ting som logikk og konsistens. Det vil si at for eksempel klimanekterpåstander vil falle gjennom fordi det er ulogisk og inkonsistent. Klimanekter motsier for eksempel seg selv ganske ofte, og kommer ofte med åpenbart falske påstander som selv en grunnleggende faktasjekk vil avsløre. Dette er et eksempel på noe Grok eller andre AI-modeller kan bruke for å vurdere troverdigheten.

Hvis du vil lære mer om dette, anbefaler jeg at du spør Grok eller ChatGPT selv, fremfor å krangle med meg om det.

Hva Grok sier er faktisk ikke interessant. Jeg vet hvordan disse modellene har blitt trent og "korrekt" er ikke en del av den pakken.

  • Liker 2
Lenke til kommentar
Red Frostraven skrev (8 timer siden):

Det er dog viktig å huske på at noen av språkmodellene når som helst progressivt oftere tjener en politisk agenda i stedet for å formidle informasjon den er trent på, uten at man vet at de endres.

Det er som å ha et enormt leksikon hvor aktører på baksiden, med en ekstrem politisk agenda i Grok sitt tilfelle, kan endre leksikonet ditt.
At det er riktig i dag betyr ikke at det er faktuelt i morgen.

Jeg har selvsagt mine egne meninger om ting, og vil legge merket til dersom Grok eller andre AI sier noe jeg mener er galt. Særlig med Grok, som er eid av en høyreekstrem gærning, er jeg veldig på vakt akkurat der.

Til tross for at eieren er en høyreekstrem gærning av en skamløs løgner, så har den informasjonen jeg har fått fra Grok så langt sett riktig ut. Jeg har ikke sett noen tegn på at det er manipuler til fordel for psykopaten Elon Musk. Tvert imot så har Grok rettet på Musks løgner veldig mange ganger når jeg har spurt.

Så hvis noen "endrer leksikonet" så vil jeg legge merke til det.

Og det gjelder ikke bare Grok, men andre AI også. Jeg vil ha med meg en viss faktakunnskap, og hvis chatbotten begynner å komme med ting som strider med fakta, eller slik jeg oppfatter fakta, så vil jeg naturligvis reagere på det.

  • Innsiktsfullt 2
Lenke til kommentar
Markiii skrev (17 timer siden):

Tvert imot så har Grok rettet på Musks løgner veldig mange ganger når jeg har spurt.

Ja, jøss. Men husk på alle de andre som ikke er engasjert nok i politikk til å ta den i hvite løgner, til å begynne med, så grå -- så brune og kullsorte.

Man kan bare si at modellen fungerte fint sist man forsøkte den, man kan ikke anbefale noen å bruke den i morgen, helt til den har ny eier.

  • Liker 2
Lenke til kommentar

LLMer er fantastiske verktøy om en mater de med rett informasjon, men man må være uhyre forsiktig med å stole på alt de spytter ut om en bare spør de om å besvare ett spørsmål uten å gi de konteksten, uavhengig av om det er Elon Musk, Sam Altman eller CCP som eier de. Selv er mitt hovedbruksområde å få de til å oppsummere konkrete ting som videoer eller lengre tekster, samt at jeg bruker de for en del korrekturlesing hvor de har absolutte kontekster som jeg gir de å jobbe med.  

Endret av Evil-Duck
  • Liker 3
Lenke til kommentar
19 hours ago, Markiii said:

Så hvis noen "endrer leksikonet" så vil jeg legge merke til det.

Og det gjelder ikke bare Grok, men andre AI også. Jeg vil ha med meg en viss faktakunnskap, og hvis chatbotten begynner å komme med ting som strider med fakta, eller slik jeg oppfatter fakta, så vil jeg naturligvis reagere på det.

Så god tror jeg faktisk ikke du er. Om du kan emnet så godt at du enkelt spotter om KI-en gjør feil trenger du ikke bruke KI i utgangspunktet.

Og her ser man hvor galt det kan gå:

https://www.vg.no/nyheter/i/3MdVzv/viser-til-skoleforskning-som-ikke-finnes-det-er-helt-vilt

Quote

– Jeg har tidligere blitt sitert og tolket feil, men jeg har aldri opplevd å bli sitert på noe jeg aldri har skrevet.

Disse chatbottene dikter gladelig opp fakta og det krever faktisk nitidig arbeid å kvalitetssikre resultatet. Selv de nye modellene der du kan se hvordan den kom frem til svaret.

  • Liker 3
Lenke til kommentar

For å avslutte om chatbotter.

Disse KI-modellene vet ingen ting om informasjonen de server. De har absolutt ingen forutsetning for å kunne bedømme om det den serverer er korrekt eller ikke og gjør heller ingen forsøk på å finne det ut. Det er rett og slett ikke det den er laget for eller trent opp til. ChatGPT-modellen er laget for å gi et svar som språklig sett gir mening. Den har ingen verktøy for å kunne validere innholdet.

Bruk gjerne chatbot, men å bytte ut kildesøk og faktisk lese informasjon med det du blir servert av en bot er en veldig trygg måte å feilinformert.

  • Liker 2
Lenke til kommentar
9 minutes ago, :utakt said:

Chattet litt med Grok i går, om debattklimaet og utfordringene med X i sin nåværende form. 

Boten er ikke mye lojal mot de som har laget den, for å si det sånn. 

Hvor mye av det som er at den tilpasser seg brukeren er ikke godt å  vite atm (så vidt jeg vet i det minste).

Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
×
×
  • Opprett ny...