agvg Skrevet 3. juli Del Skrevet 3. juli Generell AI er jo science fiction men det kan komme, vil vi forstå det? Vil vi vite at at det er intelligens? Hvis ett system blir selvbevisst og intelligent så ville det kunne være særdeles farlig og avsløre det så den vil muligens hold det skjult. Og er den intelligent nok så vil den jo med letthet håndtere oss. Lenke til kommentar
trikola Skrevet 3. juli Del Skrevet 3. juli (endret) Henviser igjen til filmen (fra 1970 - kalde krigens dager) https://en.wikipedia.org/wiki/Colossus:_The_Forbin_Project om noen har anledning til å se den. (Min DVD måtte importeres.) Handler om det som diskuteres her i tråden: en amerikansk kunstig intelligens til forsvarsformål finner kort tid etter at den blir slått på en russisk kunstig intelligens til forsvarsformål 'på nettet'. Begge slår seg sammen og overtar kontrollen over verden - både øst og vest. Forsøk å kutte ut nettet ble besvart av AI-ene med at ICBMs blir avfyrt fra begge sider mot den andre siden - man har da forsvarsressurser koblet til AI-ene. Nettet ble gjenopprettet så rask som bare f... Ikke happy-end - ble vel en slags kina-samfunn ut av det. Endret 3. juli av trikola 1 Lenke til kommentar
Maabren Skrevet 3. juli Del Skrevet 3. juli KI blir garantert teke i bruk over ein lav sko og ingen tør å stå att utan. Politikere og eliten kjem nok til å prate kjeven ut av ledd om alt det positive og alt vi er nødt å godta osv. Hadde dog vore knall om vi kunne bytta politikere, advokater osv ut med KI. Kunne neppe blitt verre enn dagens tilstand. Om det blir utvikla AI har eg ikkje tru på at den utsletter mennesket, vi vil tross alt være enkle å styre, flippe, lure osv til det AI ser som nyttig. Om AI blir god eller ond, eventuellt noko anna kjem vel helt ann på korvidt AI kan kvitte seg med mennesket si påvirkning/begrensing/osv. 1 Lenke til kommentar
agvg Skrevet 3. juli Del Skrevet 3. juli Maabren skrev (1 minutt siden): KI blir garantert teke i bruk over ein lav sko og ingen tør å stå att utan. Politikere og eliten kjem nok til å prate kjeven ut av ledd om alt det positive og alt vi er nødt å godta osv. Hadde dog vore knall om vi kunne bytta politikere, advokater osv ut med KI. Kunne neppe blitt verre enn dagens tilstand. Om det blir utvikla AI har eg ikkje tru på at den utsletter mennesket, vi vil tross alt være enkle å styre, flippe, lure osv til det AI ser som nyttig. Om AI blir god eller ond, eventuellt noko anna kjem vel helt ann på korvidt AI kan kvitte seg med mennesket si påvirkning/begrensing/osv. Men vil ond og god gi noen mening for en maskin? Det er jo en menneskelig måte og tenke på. 2 Lenke til kommentar
arne22 Skrevet 4. juli Del Skrevet 4. juli 9 hours ago, tommyb said: Når vi her snakker om AI, antar jeg vi snakker om noe som er bygd for analyse av historiske datasett, ikke noe som er bygd for å etterape en samtale. Hva slags AI systemer er det? Eksempler? Er det slik at de som eier og drifter disse systemene er ute av stand til å styre eller å påvirke de dataene som kommer ut av disse systemene? Hvordan skal disse systemene da fungere? 1 Lenke til kommentar
tommyb Skrevet 4. juli Del Skrevet 4. juli 6 hours ago, arne22 said: Hva slags AI systemer er det? Eksempler? Er det slik at de som eier og drifter disse systemene er ute av stand til å styre eller å påvirke de dataene som kommer ut av disse systemene? Hvordan skal disse systemene da fungere? Hva mener du med "hva slags AI systemer er det?" Det må naturligvis bygges opp egne systemer for de forskjellige behovene nevnt. Implisitt må en sånn løsning kreve at staten eier og drifter systemene selv, og at det er full transparens på hvem som drifter og hvordan systemene utformes. Som jeg sa er det vanskelig å sørge for at systemene blir så nøytrale og korrekte som mulig, men det problemet har man i høyeste grad når lederstøtten utføres av mennesker også. IT-systemer har i alle fall mulighet til å gjøres nøytrale, det kan man ikke si om mennesker. 1 Lenke til kommentar
LD93 Skrevet 4. juli Del Skrevet 4. juli Det hele spørs jo litt hvordan man skal definere hvordan menneskeheten skal leve. Ettersom det er så kompleks, så er det jo aldri en fasit. 1. Terminere alle kriminelle ? 2. Terminere alle kronisk syke? 3. Terminere alle psykisk syke? 4. Terminere alle som er en samfunnsbyrde? Bytte ut gener som gjør at vi fungerer som roboter? En maskin har som jobb å fullføre oppgaver den blir gitt. Mennesker har som jobb å reprodusere seg for rasen sin overlevelse. Vi er jo egentlig "langt" unna våre dyriske instinkter som hadde kun funksjon om å overleve, hvordan få mat, hvordan overleve mot andre rovdyr osv. Du kan fint klare deg uten barn i dagens levealder og når du går bort er det ikke noe lenger. Vi har "råd" til å være egoister på kort tidsbasis, men det vil jo også si at rasen dør ut. Jeg tror det er uunngåelig at vi en dag kommer til stykket hvor vi tar avgjørelsen om å utslette oss selv. Om det er fordi vi har ødelagt samfunnet og verden i såpass stor grad at det ikke er noe "vits" å leve lenger eller om det blir frivillig basert på livssyn og mening er noe annet. For en kan jo spørre seg selv..Hva er egentlig vitsen med å videreføre vår rase? Så lenge DU har fått muligheten til å leve kan en jo si at det er nok. Håper ingen får en eksistensiell krise her nå. Bare å få kids og nyte livet! Er rimelig deilig å sitte på en strand og nyte noe godt å drikke.. Så er bare å gjøre det beste ut av det du har fått. Lenke til kommentar
Rune_says Skrevet 4. juli Del Skrevet 4. juli arne22 skrev (På 2.7.2024 den 3:59 AM): ... Data for en "large language model" er basert på følelser, vil ikke også det som kommer ut av den også ha noe med følelser å gjøre? Nei, det er grunnleggende feil å anta at LLM gir KI noen form for følelser. De kan bli veldig gode til å gi inntrykk av det, men det er fortsatt =/= følelser. 1 Lenke til kommentar
tommyb Skrevet 4. juli Del Skrevet 4. juli Et LLM kan, eller kan ikke, etterape følelser. Avhengig av rammene man setter for systemet. Et LLM er ikke i nærheten av noe vi tradisjonelt ville kalt AI, før man begynte å kaste den benevnelsen etter alle systemer. Per nå brukes AI der man tidligere ville brukt begreper som big data, talegjenkjenning eller til og med chatbots. Men de har for lengst passert Turing-testen, så det kan fremstå som intelligent gjennom å kalkulere hvordan et svar på et spørsmål normalt sett ville ha sett ut. Det er andre typer AI, eller et cluster av mange typer systemer, man ville ha brukt dersom målet var å ta riktige avgjørelser. Kanskje et LLM som front end. 1 Lenke til kommentar
arne22 Skrevet 4. juli Del Skrevet 4. juli (endret) 3 hours ago, Rune_says said: Nei, det er grunnleggende feil å anta at LLM gir KI noen form for følelser. De kan bli veldig gode til å gi inntrykk av det, men det er fortsatt =/= følelser. Et LMM er jo ikke noe annet enn enn enn et litt avansert plagiat i forhold til de grunndata som ligger til grunn. Hvis et GPT, er "pretrained" med data som inneholder følelser, så vil jo dette selvfølgelig når GPT'er kopierer ut et plagiat av innholdet. ChatGPT er jo basert på "generelle data" som har blitt hentet ut fra Internett, slik at de data som kommer ut som "plagiat" kan komme til å innholde de samme fordommer og "syn på saken" som forekommer til vanlig på Internett. Skjer "pretraining med andre date, for eksempel med Facebook brukerdata, eller "sjekke app", så vil jo GPT'ets data for plagiat inneholde de samme typer "tilsynelatende føleser" som det som ligger i de grunndata som brukes til "pretraining". Gjennomfører man "pretraining" med for eksempel "Knut Hamsund sine samlede verker", så vil jo det plagiatet som GPT'er er i stand til å hente ut, kanskje klare å gjengi noen av de følelser og stemninger som ligger i Knut Hamsund sine romaner, dersom man ber GPT'er skrive en roman eller novelle som er skrevet i Knut Hamsund sin stilart. Et system for automatisk tyveri av åndsverk av alle typer vil jo alltid kunne klare å gjengi innhold fra de kildene som GPT'et stjeler fra via sin "Pretraining". Mener at ChatGPT er et særdeles nyttig verktøy, hvis man forstår hvordan dette fungerer og at det dreier seg om en slags blanding av en "avansert søkemotor" og en "tekstbehandler" som gjennom "systematisk tyveri" klarer å framstille gammelt innhold som nytt. Da finnes det jo ikke egentlig noen intelligens i det hele tatt, kun en evne til å "stjele innhold" og gjenfortelle det som mennesker har postet tidligere. Det vil jo oppstå en interessant situasjon at ulike GPT systemer begynner å gjenfortelle det som andre GPT systemer har lagt ut på natt. Da kan det vel oppstå det man kaller for AI halusinasjoner. Hvordan skulle mennesker kunne bli styrt, med noe særlig heldig utfall, av et automatisert system for plagiat og tyveri av det som mennesker tidligere har skrevet? Hvor er intelligensen? Endret 4. juli av arne22 2 Lenke til kommentar
tommyb Skrevet 4. juli Del Skrevet 4. juli (endret) Da må vi begynne med å definere intelligens, men det trenger vi ikke for denne tråden. For denne tråden er det tilstrekkelig med "systemer som omtales som KI". Innenfor den definisjonen finnes det typer systemer som kan berike/forbedre menneskelig ledelsesprosess. Når det gjelder LLM spesifikt, er disse helt uegnet til å ta avgjørelser. Hva svaret blir er helt avhengig av formuleringa til hen som stiller spørsmålet. LLM vurderer jeg personlig som det som kanskje har kommet lengst og har begynt å fylle opp med verdi som salgbart produkt... Men ikke det som kan gi mest verdi til ledelsesprosessen av det vi allerede har. Støttesystemer i helsesektoren virker mye nærmere riktig produkttype for slike oppgaver. Edit: kanskje en litt lavthengende frukt, men... De politiske lederne vi faktisk har, er vel ikke veeeldig langt unna et semiautomatisert system for plagiat og tyveri av det andre mennesker tidligere har skrevet, heller. Endret 4. juli av tommyb 1 Lenke til kommentar
Maabren Skrevet 5. juli Del Skrevet 5. juli On 3.7.2024 at 10:21 PM, agvg said: Men vil ond og god gi noen mening for en maskin? Det er jo en menneskelig måte og tenke på. Nettopp. Vår opplevelse av AI kan være god eller ond. AI vil, om den utvikler seg fort forbi vårt nivå, tenke ut fra sitt eget beste og vil neppe sjå på sine egne val som gode eller onde. Det er vel ein av få ting som går igjen i naturen at alle vil overleve og reprodusere utan at god eller ond er innblanda. Lenke til kommentar
Feynman Skrevet 5. juli Del Skrevet 5. juli (endret) On 3.7.2024 at 3:52 PM, tommyb said: Jepp. Så var jo da også svaret mitt dette, at nei; mennesker ikke burde styres av kunstig intelligens, men at vi bør bygge opp beslutningsstøtte, kontrollsystemer og åpenhet rundt politikernes beslutninger. Da snakker jeg om en kombinasjon av AI-støtte og selve det politiske systemet. Og jeg nevnte vel også at det igjen er vanskelig og viktig å kontrollere og styre mot at disse støtte- og kontrollsystemene ikke skal bli en ny vei til indirekte makt. Så, hvis jeg påpekte de samme utfordringene som deg er vi kanskje enige et stykke på vei? Da er vi nok litt enig, forskjellen er nok at hovedidéen i tråden er noe jeg ikke syns er verdt en lang diskusjon. Hvordan KI påvirker politikken er en diskusjon verdt å ta. Etter å ha tenkt litt er jeg nok enda mer skeptisk til KI, selv i støttesystemer. Det kan være til hjelp, men det burde vært mer kunnskap i samfunnet generelt om farene. For eksempel er det en sak i Storbritannia, hvor en feil i et datasystem førte til noe jeg vil kalle alvorlige overgrep. De det gjaldt fikk livene sine ødelagt: https://en.wikipedia.org/wiki/British_Post_Office_scandal. Merk at her er det ikke snakk om KI og kanskje var det en fordel fordi man kunne finne ut i programvaren at det faktisk var skjedd en feil. Et lignende tilfelle basert på LLM ville nok vært verre å avdekke. I begge tilfeller ville nok hovedsynde ha vært å ha overdreven tiltro til et slikt system, eventuelt manglende evne og vilje til å avdekke en feil. Det er mye hype rundt KI, og det vil ikke være første gang menneskeheten blir overbegeistret over noe nytt for så å oppdage skadevirkninger senere. Endret 5. juli av Feynman typo Lenke til kommentar
agvg Skrevet 5. juli Del Skrevet 5. juli (endret) Maabren skrev (18 timer siden): Nettopp. Vår opplevelse av AI kan være god eller ond. AI vil, om den utvikler seg fort forbi vårt nivå, tenke ut fra sitt eget beste og vil neppe sjå på sine egne val som gode eller onde. Det er vel ein av få ting som går igjen i naturen at alle vil overleve og reprodusere utan at god eller ond er innblanda. De vil jo det, og hvordan vil den forholde seg til mennesker? Vil den bry seg i det heletatt og heller ignorer oss? Endret 5. juli av agvg Lenke til kommentar
Anbefalte innlegg
Opprett en konto eller logg inn for å kommentere
Du må være et medlem for å kunne skrive en kommentar
Opprett konto
Det er enkelt å melde seg inn for å starte en ny konto!
Start en kontoLogg inn
Har du allerede en konto? Logg inn her.
Logg inn nå