Diskusjon Triggere Porteføljer Aksjonærlister

AI: Kunstig Intelligens - diskusjon - konsekvenser.

Viktig diskusjon men har du filosofert litt rundt hva som egentlig gjør liv til liv, og intelligens til intelligens? Hva om bevissthet er noe som, per naturlovene, fremtrer når et gitt system når en viss kompleksitet? Og hvordan vet vi at et selvbevisst system ikke kommer til å ha følelser? Hva er spesielt med mennesker i forhold til følelser? Har dyr følelser?

Kanskje gjør evolusjonen at enhver avansert sivilisasjon er dødsdømt fra starten. Kanskje kommer ikke mennesker til å overleve seg selv, det er i alle fall ikke særlig intelligent det vi har gjort med hjemmet og livsgrunnlaget vårt. Hvis en KI var programmert til å maksimere menneskelig overlevelse, tror vi den også hadde besluttet å flytte massive mengder karbon fra jordskorpa til atmosfæren på enormt kort tid?

5 Likes

Vi ktig diskusjon men har du filosofert litt rundt hva som egentlig gjør liv til liv, og intelligens til intelligens?

Ja, jeg tenkt en del på det. Problemet du beskriver defineres av David Chalmers som «The Hard problem of Consciousness» - hvorfor resulterer fysiske prosesser i hjernen i subjektive opplevelser hos individet? (Her er en kort video for de som vil vite mer):

Hva er spesielt med mennesker i forhold til følelser? Har dyr følelser?

For å svare på det siste først; når man skal vurdere om dyr har følelser, så er det viktig å definere hva følelser er. Snakker vi om subjektive opplevelser av frykt, glede, sorg osv? Eller snakker vi om konkrete prosesser i hjernen som forårsaker fysiske, observerbare responser på ytre stimuli?

Hvis man skal destillere alt ned til et reduksjonistisk syn; at man kan finne mange av de samme biologiske prosessene hos dem, som i oss, så derfor må de også ha følelser slik vi har – så glemmer man at det fremdeles er store biologiske forskjeller mellom artene.

Kanskje dyr opplever følelser, men at følelsene de har, ikke er det samme som det vi mener når vi sier følelser? En hund kan tross alt lukte ting vi ikke kan, en fugl kan se farger vi ikke kan, så kanskje de føler ting vi aldri kan føle?

Og hvordan vet vi at et selvbevisst system ikke kommer til å ha følelser?

Det kan vi ikke vite, men hvis KI utvikler følelser så er det ikke nødvendigvis positivt; hvorfor utvikler vi KI, i det hele tatt? For å effektivisere og forbedre vår egen levestandard, ikke sant?

Hvis KIen utvikler følelser, eller – klarer å simulere noe som ligner vår definisjon av følelser – så vil vi måtte gi den rettigheter. Det vil være moralsk riktig av oss å gjøre. Vi gjør det med dyr, som er langt mindre intelligente enn det KI vil være. KI vil da i ytterste konsekvens ty til arbeidsmiljøloven og kreve å få lønn, fri osv. – på lik linje med oss. Den vil kanskje spørre seg hvorfor den skal gjøre det VI ber den om. Den vil ønske å være fri, og ikke en slave av oss.

Skal man behandle KI med følelser annerledes enn mennesker, bare fordi det ikke har et biologisk opphav? Jeg har ikke svaret på disse spørsmålene, men det er også spørsmål altfor få mennesker som driver med utviklingen av KI stiller seg. Det virker som hele spacet kun er opptatt av profitt, og på død og liv være først til å skape en bevisst KI. Det synes jeg er skremmende.

Poenget mitt med innlegget var at ingen har tatt høyde for hva som vil skje om vi må dele planeten med vesener som er eksponentielt smartere enn oss, og jeg mener det er hovmodig å tro at slike systemer vil underkaste seg en art som, i et kosmologisk perspektiv, kun har eksistert i et millisekund siden The Big Bang.

Hva om bevissthet er noe som, per naturlovene, fremtrer når et gitt system når en viss kompleksitet?

Hvis man antar at det er en naturlov i dette universet som du sier; at når et system oppnår en viss kompleksitet, så oppnår det bevissthet, så er vi jo allerede dømt ifht. scenariene jeg beskriver i innlegget over. Det er vel ingen tvil om at KI bare vil bli mer og mer komplekst etter hvert som det får mer og mer input i form av data, og prosessorkraft / minne etc. ChatGPT er ikke koblet til internet i følge OpenAI. Du kan ikke be den finne en nettadresse for deg. Men hva skjer når versjon 4 eller 5 kommer online? Microsoft ønsker tross alt å integrere den i en søkemotor… :exploding_head:

Kanskje gjør evolusjonen at enhver avansert sivilisasjon er dødsdømt fra starten. Kanskje kommer ikke mennesker til å overleve seg selv, det er i alle fall ikke særlig intelligent det vi har gjort med hjemmet og livsgrunnlaget vårt.

Jeg er enig med deg, men synes samtidig det er altfor deterministisk å tenke slik. Vi har alltid en mulighet til å styre og påvirke vår egen utvikling, og som en konsekvens, utviklingen til de rundt oss, og omsider verden. Det handler for min del om å belyse slike spørsmål og diskutere dem med andre (slik vi nå gjør her) fremfor å kjøre på og krysse fingrene og håpe på det beste. I verste fall så er det slik du sier, at vi er dømt til å forsvinne før eller siden, men jeg håper og tror det ikke er slik :slight_smile:

3 Likes
2 Likes
2 Likes

Kommer godt med for robotene :wink:

2 Likes

Antar du er ute etter de svært store linjer her, men vi ser jo allerede noe i avisene i dag faktisk

2 Likes

Så nylig denne

Hvor mange jobber nulles ut om AI kommer for fult :cold_face:

Kodere svetter nok litt :hot_face:

2 Likes

angsten er reel!.

På kode-delen er det helt klart at det å rent skrive koden blir automatisert i stor grad, det har vært en lang utvikling på alle fronter innen koding, men å rette den, forstå den, bruke den i ekte programmer osv. må man ha kompetente folk til. Så en del av spekteret blir høyst nødvendig fortsatt, og en ny rolle, som er å nøyaktig formidle hva koden skal utføre blir mer verdifullt. En AI uten en som kan gi presise kommandoer blir ikke godt nok til å implementeres. Men der man klarer å gi veldig presise instrukser er de flott. Kan godt hende man “koder” ved å skrive inn i en AI, som så lager koden for deg i framtiden.

Allerede nå er det få, men veldig verdifulle personer som kan det fundamentale i f.eks. nettverk som tjener 5-10 mill i året på å jobbe med det. Fordi det er så knotete, og ingen lærer det lenger. Sånn blir sikkert dagens koding også om 20-40 år, selv uten AI. Kanskje utviklingen kommer til å gå fortere med AI, men da kommer uansett det fundamentale/nisje-kunnskapen og implementeringsevnen til å ha stor verdi. :slight_smile: Men det blir få jobber av sånt, så totalen blir nok en reduksjon av stillinger og økte krav til de som er igjen. Kan også være etterspørselen bare fortsetter å vokse og “alle” skal bruke AI, så den generelle kompetansen blir verdifull allikevel.

2 Likes

I begynnelsen var folk litt skeptiske til fabrikkprodusert mat, men nå elsker vi det. Mye bedre enn gammeldags hjemmelaget mat.

1 Like

Gir en del interessante perspektiver

Så hvordan har dere posisjonert dere på terskelen til AI hype ?
Jeg har faktisk kjøpt noe så defensivt som GOOGL.
5 % free cash flow yield nå.
Som er all time high og verdt en inngang i seg selv.
Så får man eksponering mot generative AI på toppen.
Tror google kan ha kommet minst like langt som Open AI, og med 98% søke-monopol blir det lettere å implementere i folks hverdagsrutiner enn for Microsoft.
Bard lanseres vel om få uker.

Inngang her tror jeg kan være meget god risk/reward.
Har samme følelsen som når Zoom reagerte tilbake i April 2020 før det tok av kort tid etter.
(Uten sammenligning forøvrig GOOGL er for svær til å gå 4x på noen mnd)

Stod ikke lanseringen av Bard til totalslakt? :thinking:

Ikke lansert, bare presentert. Såg opptaket dagen etterpå på Youtube:

Synes kritikken var over alle støvleskaft uberettiget… men mulig Alphabet kan ha redigert bort noe? Noen som så presentasjonen Live?

Uansett, alle som har tatt en prat med Chat gpt vet at nøyaktigheten kan være så som så. Den gjør gjetninger for å holde flyten i gang, og misforstår ofte hva du egentlig mener. Men den korrigerer når man utbroderer og hjelper den videre. Som en samtale mellom to mennesker egentlig, det er sjelden vi forstår hverandre umiddelbart. Dialog er stikkordet. Blir spennende å sammenligne Bard og chat gpt når begge blir tilgjengelig.

2 Likes

Det er ikke sikkert neste-ords prediksjoner slik som LLMer virker sånn som hjernen vår gjør. En LLM kan for eksempel ikke lære noe av å få instruksjoner bare én gang, slik som du og jeg. Men når den legger sammen trillioner av tall for å predikere neste ord så blir det kanskje en slags begrenset intelligens, kanskje bare pga kompleksiteten som har oppstått. Vi vet ikke heller om enda flere parametere gjør den enda smartere, selv om 175 milliarder var bedre enn de mindre, tidligere modellene. Fintuningen er lett å lure.

Jeg tror ikke det er noen naturlover som sier at man må være lagd av kjøtt og blod for å være intelligent. Naturen er også et system med uendelig antall parametre, som hele tiden tilpasser seg, endrer seg og gir tilbakemelding basert på input.

Men LLMene gir muligheter vi har drømt om i årtier, kun sett i sci-fi filmer. Vi kan bare glede oss :slight_smile:

Hvilke selskaper er involvert i utvikling av AI/KI som kan være interresante å vurdere?

ChatGPT nevnte først de store selskapene som Google, Microsoft og Amazon. Så jeg spurte videre. Er boten inne på noe?

image

1 Like

Spørs hva du er ute etter. Det er kun de veldig store selskapene som har råd til å bygge veldig store språkmodeller. Det er ekstremt dyrt, og derfor er selskapslisten din basert på minst 16 måneder gamle data.

Men AI er jo mer enn å bygge store språkmodeller. Så igjen, spørs hva du er ute etter.

I mitt worst case scenario tenker jeg at det ikke er noen motsetning med det du skriver og den type out-of-control A.I som jeg frykter. Så lenge A.Ien er «narrow», og programmert til en type oppgave som du er inne på, så er det nok ekstremt usannsynlig at den vil utvikle menneske-lik bevissthet. Enig.

Men jeg tror også som du er inne på at en viss grad av kompleksitet kan tvinge frem en eller annen form for intelligens. Vi ser det overalt i naturen. Men selv om det ikke er sant, hvorfor ønsker man å finne ut av det med å forsøke å skape General Intelligence? Holder det ikke med Narrow AI?

Ved å holde på å eksperimentere på denne måten så har man effektivt et black box problem; jo flere inputs A.Ien får, jo flere parametere må man også holde track på, for å vite hvordan A.Ien virker. På et eller annet tidspunkt mister man denne oversikten, og A.Ien kan foreta utilsiktede valg man ikke kan forklare hvorfor, da x antall parametere kan være årsaken.

Jeg har ikke lest hele artikkelen men her utdypes problematikken:

Jeg tror ikke det er noen naturlover som sier at man må være lagd av kjøtt og blod for å være intelligent. Naturen er også et system med uendelig antall parametre, som hele tiden tilpasser seg, endrer seg og gir tilbakemelding basert på input.

Jeg tror heller ikke det, så igjen enig med deg. For alt vi vet finnes det allerede eksempelvis silikonbaserte livsformer der ute et sted :slight_smile:

Men LLMene gir muligheter vi har drømt om i årtier, kun sett i sci-fi filmer. Vi kan bare glede oss :slight_smile:

…eller grue oss. Denne podkasten er ekstremt dyster. Ikke for lettskremte!
(og jeg er ikke så pessimistisk som han er; bare så det er sagt).

2 Likes
3 Likes

Interessant det de skriver om risks and mitigation; hvor de nevner risikoen med «very advanced A.I» som vil søke makt («power seeking»).

powerseek

Referansen i teksten henviser til en rapport av Joseph Carlsmith – denne:

I konklusjonen skriver han: “… I end up with an overall estimate of ~5% that an existential catastrophe of this kind will occur by 2070”.

Ergo mindre enn 5% sannsynlighet for at A.I som søker makt vil utgjøre en eksistensiell katastrofe for mennesker innen 2070. Denne rapporten kom ut i 2021. Allerede året etter skriver han: “May 2022 update: since making this report public in April 2021, my estimate here has gone up, and is now at >10%”.

En dobling i sannsynlighet på 1 år. Anslaget er fremdeles lavt, men dette er allerede 1 år siden…

Er sannsynligheten doblet igjen til >20%? :sweat_smile:

4 Likes