Antar du er ute etter de svært store linjer her, men vi ser jo allerede noe i avisene i dag faktisk
angsten er reel!.
På kode-delen er det helt klart at det å rent skrive koden blir automatisert i stor grad, det har vært en lang utvikling på alle fronter innen koding, men å rette den, forstå den, bruke den i ekte programmer osv. må man ha kompetente folk til. Så en del av spekteret blir høyst nødvendig fortsatt, og en ny rolle, som er å nøyaktig formidle hva koden skal utføre blir mer verdifullt. En AI uten en som kan gi presise kommandoer blir ikke godt nok til å implementeres. Men der man klarer å gi veldig presise instrukser er de flott. Kan godt hende man “koder” ved å skrive inn i en AI, som så lager koden for deg i framtiden.
Allerede nå er det få, men veldig verdifulle personer som kan det fundamentale i f.eks. nettverk som tjener 5-10 mill i året på å jobbe med det. Fordi det er så knotete, og ingen lærer det lenger. Sånn blir sikkert dagens koding også om 20-40 år, selv uten AI. Kanskje utviklingen kommer til å gå fortere med AI, men da kommer uansett det fundamentale/nisje-kunnskapen og implementeringsevnen til å ha stor verdi. Men det blir få jobber av sånt, så totalen blir nok en reduksjon av stillinger og økte krav til de som er igjen. Kan også være etterspørselen bare fortsetter å vokse og “alle” skal bruke AI, så den generelle kompetansen blir verdifull allikevel.
I begynnelsen var folk litt skeptiske til fabrikkprodusert mat, men nå elsker vi det. Mye bedre enn gammeldags hjemmelaget mat.
Så hvordan har dere posisjonert dere på terskelen til AI hype ?
Jeg har faktisk kjøpt noe så defensivt som GOOGL.
5 % free cash flow yield nå.
Som er all time high og verdt en inngang i seg selv.
Så får man eksponering mot generative AI på toppen.
Tror google kan ha kommet minst like langt som Open AI, og med 98% søke-monopol blir det lettere å implementere i folks hverdagsrutiner enn for Microsoft.
Bard lanseres vel om få uker.
Inngang her tror jeg kan være meget god risk/reward.
Har samme følelsen som når Zoom reagerte tilbake i April 2020 før det tok av kort tid etter.
(Uten sammenligning forøvrig GOOGL er for svær til å gå 4x på noen mnd)
Stod ikke lanseringen av Bard til totalslakt?
Ikke lansert, bare presentert. Såg opptaket dagen etterpå på Youtube:
Synes kritikken var over alle støvleskaft uberettiget… men mulig Alphabet kan ha redigert bort noe? Noen som så presentasjonen Live?
Uansett, alle som har tatt en prat med Chat gpt vet at nøyaktigheten kan være så som så. Den gjør gjetninger for å holde flyten i gang, og misforstår ofte hva du egentlig mener. Men den korrigerer når man utbroderer og hjelper den videre. Som en samtale mellom to mennesker egentlig, det er sjelden vi forstår hverandre umiddelbart. Dialog er stikkordet. Blir spennende å sammenligne Bard og chat gpt når begge blir tilgjengelig.
Det er ikke sikkert neste-ords prediksjoner slik som LLMer virker sånn som hjernen vår gjør. En LLM kan for eksempel ikke lære noe av å få instruksjoner bare én gang, slik som du og jeg. Men når den legger sammen trillioner av tall for å predikere neste ord så blir det kanskje en slags begrenset intelligens, kanskje bare pga kompleksiteten som har oppstått. Vi vet ikke heller om enda flere parametere gjør den enda smartere, selv om 175 milliarder var bedre enn de mindre, tidligere modellene. Fintuningen er lett å lure.
Jeg tror ikke det er noen naturlover som sier at man må være lagd av kjøtt og blod for å være intelligent. Naturen er også et system med uendelig antall parametre, som hele tiden tilpasser seg, endrer seg og gir tilbakemelding basert på input.
Men LLMene gir muligheter vi har drømt om i årtier, kun sett i sci-fi filmer. Vi kan bare glede oss
Hvilke selskaper er involvert i utvikling av AI/KI som kan være interresante å vurdere?
ChatGPT nevnte først de store selskapene som Google, Microsoft og Amazon. Så jeg spurte videre. Er boten inne på noe?
Spørs hva du er ute etter. Det er kun de veldig store selskapene som har råd til å bygge veldig store språkmodeller. Det er ekstremt dyrt, og derfor er selskapslisten din basert på minst 16 måneder gamle data.
Men AI er jo mer enn å bygge store språkmodeller. Så igjen, spørs hva du er ute etter.
I mitt worst case scenario tenker jeg at det ikke er noen motsetning med det du skriver og den type out-of-control A.I som jeg frykter. Så lenge A.Ien er «narrow», og programmert til en type oppgave som du er inne på, så er det nok ekstremt usannsynlig at den vil utvikle menneske-lik bevissthet. Enig.
Men jeg tror også som du er inne på at en viss grad av kompleksitet kan tvinge frem en eller annen form for intelligens. Vi ser det overalt i naturen. Men selv om det ikke er sant, hvorfor ønsker man å finne ut av det med å forsøke å skape General Intelligence? Holder det ikke med Narrow AI?
Ved å holde på å eksperimentere på denne måten så har man effektivt et black box problem; jo flere inputs A.Ien får, jo flere parametere må man også holde track på, for å vite hvordan A.Ien virker. På et eller annet tidspunkt mister man denne oversikten, og A.Ien kan foreta utilsiktede valg man ikke kan forklare hvorfor, da x antall parametere kan være årsaken.
Jeg har ikke lest hele artikkelen men her utdypes problematikken:
Jeg tror ikke det er noen naturlover som sier at man må være lagd av kjøtt og blod for å være intelligent. Naturen er også et system med uendelig antall parametre, som hele tiden tilpasser seg, endrer seg og gir tilbakemelding basert på input.
Jeg tror heller ikke det, så igjen enig med deg. For alt vi vet finnes det allerede eksempelvis silikonbaserte livsformer der ute et sted
Men LLMene gir muligheter vi har drømt om i årtier, kun sett i sci-fi filmer. Vi kan bare glede oss
…eller grue oss. Denne podkasten er ekstremt dyster. Ikke for lettskremte!
(og jeg er ikke så pessimistisk som han er; bare så det er sagt).
Interessant det de skriver om risks and mitigation; hvor de nevner risikoen med «very advanced A.I» som vil søke makt («power seeking»).
Referansen i teksten henviser til en rapport av Joseph Carlsmith – denne:
I konklusjonen skriver han: “… I end up with an overall estimate of ~5% that an existential catastrophe of this kind will occur by 2070”.
Ergo mindre enn 5% sannsynlighet for at A.I som søker makt vil utgjøre en eksistensiell katastrofe for mennesker innen 2070. Denne rapporten kom ut i 2021. Allerede året etter skriver han: “May 2022 update: since making this report public in April 2021, my estimate here has gone up, and is now at >10%”.
En dobling i sannsynlighet på 1 år. Anslaget er fremdeles lavt, men dette er allerede 1 år siden…
Er sannsynligheten doblet igjen til >20%?
Tipper det er 50/50 Har man rett hvis man nevner en sannsynlighet? Neida, det er 100% sikkert at AI er en eksistensiell risiko, man mister behovet for mennesker for å få ting gjort. Så da blir spørsmålet om man skal dele på gevinsten av produksjon, når så få deltar og inngangsbarrierene blir høyere og høyere, eller om man skal la store deler av befolkningen bli fattigere og fattigere. Hittil ser det ut til at staten velger det siste og ikke en gang er klar over at AI og teknologi snart har gjort mye av befolkningen ubrukelig.
Tipper det ikke er mulig å sette sannsynlighet på det.
Er veldig mye som “kan” skje men som er umulig å vurdere sannsynlighet for. Sjansen for annet intelligent liv i universet er en sånn ting (selv om mange forsøker å analysere seg fram til det svaret de vil ved å velge forutsetningene som passer ønsket resultat). Sjansen for at AI skal utrydde menneskeheten er nok også ett sånt spørsmål.
Si meg hvilket resultat du vil ha så kan man sikkert sette opp ett regnestykke som gir ønsket svar.
Aper er intelligente dyr, katter også. Bare fordi vi ikke kan kommunisere så godt med dem betyr ikke at de er dumme og vi er smarte Men om man lurer på om annet intelligent liv finnes utenfor jorda så er vel det selvsagt? Kanskje de ikke lever akkurat nå, men at det har vært annet intelligent liv er sikkert.
Sjansen for at AI skal utrydde menneskeheten kommer bare an på om vi utsletter oss selv først. noe annet utsletter oss eller om vi får nok tid til å få riktige politiske forutsetninger i verden til at AI blir sluppet fri i krig f.eks. En AI som kan vedlikeholde/bygge på seg selv i den virkelige verden vil se mennesker som lite annet enn insekter som representerer en høy risiko for dens egen eksistens.
Det er et interessant perspektiv på «eksistensiell risiko», men det er heller ikke scenariet jeg er mest bekymret for (som mange av mine tidligere innlegg i tråden også vil vitne om). Grunnen er at det du skisserer har vært i emning i mange år, det har bare skutt skikkelig fart pga. blant annet Covid.
A.I, automatisering og robotisering har f.eks vært tilgjengelig i industrien i mange år. Folk vil finne seg andre ting å gjøre; noen må lage disse A.Iene, utvikle dem, vedlikeholde dem, oppdatere dem og passe på dem. Sånn sett ser vi nok mange flere jobber i fremtiden som ikke eksisterer i dag, og som kan erstatte noen av jobbene som faller vekk. Mennesker er flinke på å tilpasse seg.
Jeg er som sagt mer bekymret for black-box problematikken rundt A.I (f.eks vet ikke engang Open AI selv 100% hvordan AIen deres fungerer), og i PDFen om Chat GPT4 står det mer om risikoen for at AIen kan opptre sporadisk og utenfor de programmerte parameterne. De folkene de hentet inn (eksperter på AI Alignment - hele 60 stk) - ville BARE evaluere boten om OpenAI gikk med på å skrive en disclaimer om at de IKKE støtter lansering av boten for kommersielt bruk. WHY ?
Noen vil hevde det ikke er noe i veien med å utvikle AI slik mange nå gjør; i kliniske studier tester man jo medisin på mennesker for å evaluere bivirkninger osv – men da har man en definert populasjon, med et definert problem og konsekvensen er isolert til gruppen man evaluerer. Problemet med AI er at konsekvensene av singularity potensielt kan være katastrofale, selv om sannsynligheten for at det skjer er liten.
Ville man f.eks forsøkt å åpne et sort hull i en lab om man kunne, fordi man tror man kan kontrollere den, men det er 5% sannsynlighet for at det går til helvete? Det er litt sånn dette oppleves. Bare fordi man KAN gjøre noe, betyr det ikke at man BØR gjøre det.
Ja, det jeg lurer på er bare at alt man nevner som mennesker må gjøre kan gjøres av AI gitt at de har bevegelsesfrihet og hender eller liknende verktøy. Samt kan snakke og tilpasse seg situasjoner. Jo mer avansert AI blir, jo mindre nødvendige er vi. Men det trenger ikke være fysisk. Slipper man en AI løs i vår digitale verden har den et enormt overtak over mennesker og vil kjapt kunne bruke alle kjente triks og metoder for å hacke alt og alle. Vi har vel prøvd/risikert å åpne små sorte hull i CERN allerede? Extra dimensions, gravitons, and tiny black holes | CERN (home.cern)