Diskusjon Triggere Porteføljer Aksjonærlister

AI: Kunstig Intelligens - diskusjon - konsekvenser.

Meget aktuelt i disse tider med AI som lager angrepsplaner.

🇺🇸🎯🇮🇷 The Pentagon uses Palantir's artificial intelligence system, Maven, when planning strikes on Iran.

🔷 The military creates a so-called card, selects the damage zone, and the system advises which combat material would be best for the strike — the request appears on a board… pic.twitter.com/1fTxNqMTkY

— NSTRIKE (@NSTRIKE1231) March 14, 2026
1 Like

Litt morsomt men nei jeg tror ikke vi trenger Agi for å endre jobbmarkedet. Men man tenger kompetente folk som styrer AI. Det gjør det vanskelig både for folk som nekter å bruke AI, men også for unge folk som mangler erfaring. Før bosset de erfarne folkene rundt en junior til den ble erfaren , men nå bosser de i stedet rundt en llm.

3 Likes

Litt av det folk misforstår med IT og programmering, hvis vi skal ta et spesifikt eksempel, er at en fyr med AI kan gjøre jobben til 10 utviklere (eller hvilket som helst annet arbitrært tall). De som har jobbet med IT vet at backloggen stort sett er evig og omtrent uendelig. Det er ALLTIDS noe å gjøre. Og joda, man kan sikkert øke produktiviteten med AI og dytte flere jira-tickets til done ved hjelp av den.

Men flytter det egentlig nåla? Samtidig som man vurderer risikoen ved å bruke kodeverket AIene spytter ut?

Jeg snakker ikke om det kule hobbyprosjektet alle på SOME driver å vifter med; at de har full-stack utvikla en webapp på ei uke som kan konkurrere med et vilkårlig eksisterende selskap. Men å forvalte ekte programvare, uten å klusse til alt. Det tror jeg man ser svært lite av.

For i bunn og grunn er disse LLMene slik som han sier i videoen; en probabilistisk maskin, som fungerer mer som en auto-complete enn en faktisk tenkende og kompetent utvikler. Jeg ser fortsatt ikke disse enorme produktivitetsboostene gjenspeile seg i kvartalsrapporter til firmaer, eller at egen eller kollegaers hverdag plutselig bli så mye mer produktiv. De er gode verktøy til enkle ting som diverse ad-hoc scripts osv. men til større oppgaver er de fortsatt en stor risiko, som til slutt kan koste mer tid enn hva de blir solgt inn som mtp. tidsbesparelse og effektivitet.

2 Likes

Slik jeg bruker det beskriver jeg først oppgaven, lager en plan sammen, den gjør endringene og jeg klikker gjennom en og en og ofte ber om å endre litt eller gjør enkle endringer selv før jeg godkjenner.

Hvis noen hadde spurt meg om fem år siden om jeg ville ha en junior person å jobbe med ville jeg helt klart sagt ja, i dag, nei det er ikke nødvendig.

1 Like

Jeg har brukt AI en del på jobb.

Hovedsaklig jobber jeg med automasjonssystem som i kontrollsystemer og utstyr i felt. Men har også ansvar for alt av IT support som dukker opp. Ofte nettverksproblemer, ting som henger, stopper å virke, diffuse feilmeldinger osv.

Der AI virkelig er til hjelp for min del er når man har diffuse meldinger fra systemet og man trenger å få dette oversatt til noe som gir mening. Hvis man ikke sitter dag inn og dag ut å jobber med brannmurer, switcher og nettverkskonfigurasjon er mange av disse feilene helt håpløse å tolke for noen som ikke jobber med det til daglig. Utrolig nyttig da å vite om dette er en quickfix jeg kan ta selv eller noe jeg trenger å koble inn IT på for å få fikset.

Også når jeg må inn å endre spesifikke ting på PC’er som i registerfiler, restarte spesifikke tjenester osv. Hadde aldri visst om noen av mulighetene hvis ikke AI hadde vist veien.

Har også brukt AI privat med tanke på å få lagd små kodesnutter som jeg har brukt i noder i n8n. Helt genialt.

I kveld testet jeg for første gang koding med python direkte i linux terminalen. Og ved hjelp av Gemini lagde min første lille test app for loggføring av noe treingsgreier.

Lurte på om jeg skulle mekke sammen en mA-giver jeg kunne ha på benken i garasjen og få AI til å hjelpe meg å lage interface å ha på PC’en til å sette verdien på mA-giveren (4-20mA).
Vanvittig hvor mye som tidligere stoppet på ide-stadiet som man nå plutselig kan ta fra ide til noe håndfast man kan vise frem.

7 Likes

Næringslivet sover, derfor ser du det ikke igjen!

For å komme med et konkret eksempel. Jeg kjenner til en del selskaper i Norge som er forhandlere av komponenter til norsk industri.

Deres forretningsmodell er å ha agentur på diverse produkter produsert i Tyskland, Frankrike, Sveits etc. Skal du kjøpe f.eks. tysk en elektromotor i Norge pdd så må du kjøpe den av norsk forhandler. Denne forhandleren har ikke varen på lager, men bestiller direkte fra produsent.
For denne «tjenesten» tar forhandleren et påslag på alt mellom 50% til 400%, uten å ha tilført noe som helst verdi!!!

Og mange av disse utenlandske produsentene har attpåtil egne nettbutikker og konfiguratorer!

Så i Norge betaler industrien 2-3 ganger mer for mange produkter og komponenter enn nødvendig.
Så dette er et eksempel på at hvis vi skal se økt lønnsomhet i industrien, så må næringslivet våkne opp og gå direkte til produsent og hoppe over fordyrende norske forhandlere som inn tilfører noe som helst av verdi.

Og det finnes plenty av andre næringer og yrkesgrupper som har utspilt sin rolle. La meg ikke begynne å snakke om eiendomsmeglere!!!:joy::exploding_head::exploding_head:

Men når ballen først begynner å rulle, så tror jeg mange næringer og bransjer kommer til å kollapse ala Kodak.

2 Likes

Her er GPTen god å ha.

Mye gøy man kan bruke LLMs til, ingen tvil om det. Men lurer på om kostnadene ved å trene + drifte disse vil være verdt det til slutt?

Nå følger disse selskapene en standard IT scale-up strategi, der de konkurrerer med hverandre om å få flest brukere, og karre til seg sin del av kaka. De taper drøssevis av penger, samtidig som de tar seg betalt - noe som indikerer at det er et godt stykke til break-even for forretningsmodellen, og de må dernest på et tidspunkt skru opp prislappen. På GPT-3 nivået for ett år siden omtrent var spøken at det kokte noen par liter per prompt/spørring. Lurer på hvor mye de nyere modellene forterer.

Kostnaden er omtrent sådan: Initiell hardware CAPEX (som varer i 4-5 år, alt etter hvor intensivt jernet grilles), dernest strøm for å kverne enorme beregninger.

Så har man løpende kostnader for hver enkelt prompt som gjøres deretter. LLMs er omtrent som statistiske databaser - meget tunge og ineffektive databaser. Disse må ha oppetid, i tillegg til at det krever mye prosessering å traversere alle de forhåndsberegnede permutasjonene mellom hver token-kombinasjon, frem til den finner den mest optimale kombinasjonen gitt inputen. Jo større modellen er, desto lenger må den lete.

Når vi en gang ser den reelle prislappen, vil den være verdt det?

Også videre, så var problemet innen IT hvertfall SVÆRT sjeldent selve kodeverket og hastigheten på kode som ble produsert (før LLM gjorde en inntreden) - men selve tenkingen. Nå virker det som at folk tenker mindre, og AI-slop’er seg frem til et sånn ca. riktig svar i stedet. Ser det på jobb også, en inder som til stadig skal imponere med å trekke frem “kule scripts han har laget” for å sjekke datakvalitet, osv.

Så viser det seg at han ved å spørre AI’en direkte har hoppet bukk over helt basale og innlysende restriksjoner på et gitt problem, og hele poenget med visse oppgaver har gått over hodet på han. Der han burde brukt kritisk tenking for å avdekke at oppgaven burde løses på en helt annen måte (litt manuelt arbeid i excel f.eks), så har han i stedet endt opp med å bruke 2 uker på en oppgave som burde maks tatt 3 dager uten AI.

Noen andre brukte en AI for å migrere fra ett kodebibliotek til et annet for dataprosessering. AI’en får tilgang til repoet, gode instruksjoner, osv. og går til verks med å oversette/refactore de delene av koden som brukte det gamle biblioteket. Koden ser ut til å funke bra, passerer alle daværende tester, og kjøres rimelig kjapt i produksjon. Ei uke senere er det noen som sjekker throughput på applikasjonen, og merker at det er vesentlig færre rader som prosesseres. Det viser seg at visse linjer der den har wrappa et felt fra en tabell med en funksjon før den gjør en boolsk sammenligning fører til at feltet får NULL-verdi, som håndteres forskjellig mellom bibliotekene. Den gamle koden evaluerte sammenligningen til False, som deretter satt en viss verdi - men i den nye så DROPPES raden. Viser seg at man da har omtrent en uke med tap av data, som nå må manuelt kjøres opp fra mainframe-systemet sin database til flere lag av kafka-køer, for at teamet kan hente inn igjen data tapet, som så må rekjøres til mål-tabellene. Dette skulle ha vært en enkel og “perfekt” oppgave til AI for å spare tid - refaktorere kodeverk. Som sådan i stedet medførte enormt mye unødvendig ekstraarbeid, og potensielt finansiell risiko i form av bøter fra myndighetene om ikke disse tallene er på plass innen månedsslutt.

Dette er bare to eksempler av flere som har gjort at jeg og mange andre kollegaer er skeptiske som f*** til LLMs. ALLE har tilgang og bruker det, så det er ikke slik at næringslivet sover på det.

Tror denne perioden kommer til å kalles “the great shitification” om noen år når vi ser tilbake på dette spetakkelet.

4 Likes

Nye verktøy kommer hele tiden - ui designer ja sikkert rom for noen superflinke og noen for å styre ai- ene men ikke alle de som sitter dag inn og dag ut og produserer helt ok design på gamlemåten

Ja, men en ting som den får veldig godt til er å lage ting selv fra scratch. Brukte standardchatten i VSCode til å lage en FIRI API-bot som sjekker og tracker spread på flere pairs uten noe særlig kode-forkunnskaper på 30 minutter. Ganske heftig at jeg kan lage sånne programmer nå uten å kunne spesielt mye. Er der den største AI-forskjellen er i mine øyne. Også at de som er veldig gode kan lage ting ekstremt kjapt. Er utrolig mye kortere fra ide til digitalt produkt nå for de som kan litt og har viljen. :slight_smile:

2 Likes

Høres ut som veldig dårlig testing, og at det ikke var selve ai koden som var problemet men at man byttet ut et bibliotek med et annet uten å sette seg inn i hvordan det nye fungerte . Det er utrolig viktig å forstå hvordan man styrer ai og at den gjør feil og du må ha dyktige folk som ser gjennom koden og utvikler gode tester. Om det er en kritisk oppgave som du ellers ville gitt en senior utvikler så gir du den ikke til ai uten å granske koden og teste resultatet. Det er viktig å vite når og hvordan du bruker ai.

2 Likes

Har begynt å bruke AI til litt utvikling selv, men i et eksisterende system. Litt av greia er at du må være svært detaljert i oppgavebeskrivelsen. Detaljert nok til at det nesten er så man kunne skrevet koden selv i stedet for pseudokode. Anyway, poenget mitt er at når du leser AI-generert kode, så er det som å lese noen andre sin kode. Du mangler mao ett lag med verifisering. Man leser og forklarer sin egen kode vesentlig bedre enn man leser og forklarer andre sin kode.

En ting man nok burde gjøre med AI-en er jo å få den til å analysere hva den selv kan ha gjort feil. F.eks.: er det forskjeller i de to bibliotekene som den ikke har tatt hensyn til. Evt, underveis, sjekk for forskjeller i de to bibliotekene i hvordan den håndterer ting før man setter i gang. Det er jo noe man burde ha gjort i utgangspunktet når man gjør en refactor.

Har ikke brukt AI så veldig mye hittil, men ser jo for meg at det er et verktøy jeg vil bli bedre til å bruke og på den måten få opp hastigheten. Til å lage prototyper til nye prosjekter eller relativt frittstående komponenter, så tror jeg lite slår AI.

Verktøyet jeg har begynt å teste er Claude Code btw.

2 Likes

Det er definitivt en læreterskel. Men det forandrer alt. Opus 4.5 var spikeren i kisten for gammeldags koding

4 Likes

Og om 3 måneder kommer det noe enda bedre osv osv

Dette er ikke noe man kan velge bort

4 Likes

Alltids enkelt å starte med blanke ark. Men all kode er legacy kode så snart det er i produksjon, og når den plutselig en dag skal endres, da ryker ting :wink: Er vel slik mange av disse selskapene som har erstattet utviklerne sine for AI-agentet ryker.

1 Like

Selve fundamentet disse modellene er bygget på vil aldri endres. Man får ikke 99% nøyaktighet, og dernest vil det alltids være rom for feil. Spørsmålet er hvor langt kan man tøye tilliten til disse verktøyene, og hvilke oppgaver man til slutt ender opp med å bruke de til. Min frykt når jeg sier «the great shitification» er at vi ender opp med code bros som lener altfor hardt på AI, også får vi hauevis av Boeing-type situasjoner om noen år. En ordkalkulator/autocorrect/clippy som hausses til de grader opp som et økonomisk mirakel, som vi nå 3 år senere fortsatt ikke ser merkverdige forbedringer av i den reelle verdenen (utenom kule hobbyprosjekter ja. Men det er vel grenser for hvilken verdi de har)

1 Like

Det er sant, det har grenser. For enkeltpersoner kan sånne prosjekter skape en fin bi-inntekt, så lenge man klarer å bruke digital markedsføring ok. :slight_smile: En kompis har flere nettsider gående nå som han har “vibe-kodet” selv og får greit med inntekter fra. For hver av oss er det konge at AI finnes, men så enorm samfunnsnytte vil jeg ikke si det nødvendigvis har enda. Spesielt når man allerede har studier på at de fleste presterer dårligere og blir dummere av AI. Han hjelper kanskje 100-150 pers i måneden via de løsningene med forskjellige ting de trenger, og får greit betalt for det. :slight_smile:

Jeg skjønner hvor du kommer fra her. Greia er at AI som er god nok til å lage brukbar kode er 3-24 mnd gammel. Alt etter hvor du setter lista. Hvor lang tid har folk hatt på å lære seg å bruke den? Veldig kort tid. Alle fra de beste til de dårligste har hatt mindre enn to år på å lære seg triksene og fallgruvene. Dette står i stor kontrast til hvor lang tid folk har hatt med å lære seg fallgruvene når man lager ting selv. Har jobbet som softwareutvikler i 25 år og det er plenty med fallgruver for å si det mildt. Med AI, så erstatter du ett sett med fallgruver med et annet (med en god del overlapping). Du må gjøre kompenserende tiltak for å unngå å gå i fellene.

Neste gang du skal gjøre en slik migrering, så vil jeg tro du kjører en kopi av en live datastrøm gjennom det nye biblioteket og sammenligner med outputten fra det gamle systemet. Noe som vel hadde vært lurt å gjøre om du gjorde migreringen for hånd eller ved hjelp av AI.

Vet at vi har et system programmert i et eldgammelt programmeringsspråk som basically har gått ut på dato. Ingen bruker det. Jeg er veldig nysgjerrig på om AI-modellene som finnes nå kan migrere til et levende språk hvor man kan få tak i utviklere.

4 Likes