Diskusjon Triggere Porteføljer Aksjonærlister

AI: Kunstig Intelligens - diskusjon - konsekvenser.

Ikke sant – og da kommer jo det store spørsmålet: Hva får egentlig de som har skrevet koden KI‑ene er trent på? Microsoft kjøpte GitHub, og enorme mengder åpen kildekode ligger der som treningsgrunnlag. Jeg vet at jeg selv har lagt igjen masse kode på GitHub, men jeg har ikke akkurat sett en eneste krone i retur.

Det samme gjelder jo kreative yrker: kunstnere, forfattere, musikere. Hele bransjer opplever nå at arbeidene deres brukes som treningsdata for modeller som i praksis konkurrerer med dem. Og så langt er det ganske uklart hvem som sitter igjen med verdien, og hvem som bare blir “råmateriale”.

Så ja, Microsoft tjener penger — masse penger — men det er jo nettopp derfor debatten om rettigheter, kompensasjon og eierskap kommer til å bli mye større fremover. For hvis KI‑økonomien i praksis bygger på gratisarbeid fra millioner av utviklere og kreative, så er det ikke bærekraftig i lengden.

Spørsmålet er:
Hvordan skal dette reguleres, og hvem skal få betalt når KI‑ene bygger på arbeid som andre har gjort?

3 Likes

Her er det vel allerede rettslige avgjørelser å se til? Opphavsrett til kildekode er ikke et nytt problem, og man har ganske klare regelverk her. På modelltrening med andre data enn kildekode er vel saken mellom NYTimes og OpenAI den mest kjente tror jeg.

Angående trening på musikk er det også en rettssak på gang mot Suno som har fått følger for bruken av den.

Se her for et utvalg. https://www.reuters.com/legal/legalindustry/copyright-law-2025-courts-begin-draw-lines-around-ai-training-piracy-market-harm--pracin-2026-03-16/

Ja, blir veldig interessant å se hva utfallet blir. Det er jo nettopp disse sakene – NYT vs. OpenAI, Suno-saken, og flere som ligger i kø – som kommer til å definere hvor grensene faktisk går.

Det er lett å si at “opphavsrett er avklart”, men KI‑trening er noe helt annet enn tradisjonell kopiering. Domstolene må nå ta stilling til om massiv scraping og modelltrening er fair use , eller om det i praksis er systematisert piratkopiering i industriell skala.

Uansett utfall kommer dette til å påvirke både utviklere, kunstnere, journalister og alle som lager innhold. Det er ikke bare teknologien som utvikler seg – jussen må også ta et kvantesprang.

3 Likes

Brukte ChatGPT til å diskutere sammenheng mellom oljepris og styrken på norsk krone. Den sa basically at både høy og lav oljepris ga svak krone. Først når jeg kom med hypotesen om at kanskje det er en sweet spot, hvor oljeprisen ikke er for høy og ikke for lav, så ville kronen være sterk.

  • høy oljepris > dårlig makro, flukt fra små valutaer, Norge gjør investeringer via oljefondet og må veksle om enorme mengder kroner til dollar, euro, osv.
  • lav oljepris > dårlig makro spesifikt i Norge pga lavere investeringer i den største bransjen i Norge.

… men midt i mellom, når oljeprisen er høy nok til at investeringer ikke faller bort og ikke så høy at Norge får et massivt handelssoverskudd med tilhørende vekslinger, så ville krona styrke seg.

Det jeg synes er interessant her er at AI-en gikk ut i fra at det var et lineært forhold mellom oljepris og kronestyrke. Først når jeg lufter ideen om at det ikke nødvendigvis er sånn, så fant den ut at ja, det kunne stemme. At forholdet var mer U-formet.

Two 9’s uptime er ikke mye å skryte av :stuck_out_tongue:

Det står at Claude Code ikke er nede, men hjelper ikke når du ikke får logget inn :stuck_out_tongue:

2 Likes

Blir det litt mye av denne fyren her, men noen gode poeng han tar opp

Vel, kilden hans skriver:

Sååå… du må adaptere, konfigurere, lære å bruke det og forstå hvordan AI fungerer? For å si det sånn, jeg er i noob-stadiet når det gjelder å bruke AI til programmering og har definitivt mye igjen før jeg er på maks effektivitet. I tillegg, så sier kilden hans:

Hvor vanskelig er det ikke å hoppe inn når noen andre har gjort 80%? Du må forstå alle kodeendringene og fikse dem og tweake dem til å gjøre akkurat det du mente.

Kort sagt, det er en skill.

Men det å jobbe som koder er jo å jobbe på sånt som andre har gjort.

Om den andre er deg for 3 år siden så går det jo for det samme.

2 Likes

Det er definitivt en fordel med ai for å forstå hva andre menneskelige kodere har gjort og tenkt

Og forutse konsekvenser av endringer osv

Det er litt misvisende å snakke om “AI” som én ting. KI er et paraplybegrep som dekker mange forskjellige teknologier – språkmodeller (GPT/Claude), klassifiseringsmodeller, RL‑systemer, modelltrening osv. Å bruke en KI‑agent til programmering er derfor ikke bare “å få koden skrevet for deg”.
Når du bruker en agent som Claude eller GPT i utvikling, skjer det egentlig tre ting:

  1. Modellen foreslår kode, men også struktur, flyt og arkitektur.
    Det betyr at du ikke bare får en funksjon – du får ofte et helt forslag til hvordan programmet bør bygges.
  2. Du må styre utviklingen, ikke bare skrive koden.
    Rollen flyttes fra “den som skriver alt” til “den som setter retning, rammer og begrensninger”.
    Hvis du ikke gjør det, vil agenten lett gjøre mer enn den skal, endre ting du ikke ba om, eller introdusere logiske feil.
  3. Arbeidet flyttes over til testing, validering og kvalitetssikring.

Du må fortsatt:
• forstå hva koden gjør
• se om logikken er riktig
• sjekke at ingenting annet ble ødelagt
• sikre at programmet faktisk gjør det du hadde tenkt

Så ja – det er en skill. Ikke fordi du må “lære AI”, men fordi du må lære å samarbeide med en agent som skriver kode på en helt annen måte enn mennesker gjør.

Det er litt som å komme inn i et prosjekt der noen andre har gjort 80%: du må forstå strukturen, intensjonen og konsekvensene av endringene. Forskjellen er at KI gjør de 80% på sekunder – og du må være den som holder retningen.

2 Likes

Jeg vet ikke om du skjønner at forskjellen i det du skriver og hva jeg skriver er semantikk? Vi mener det samme. I hvert fall 90%. :stuck_out_tongue:

Det er helt fair – vi er nok enige om mye av det grunnleggende. Det jeg prøver å få frem er at når folk sier “AI” i programmeringssammenheng, så blander de ofte sammen to nivåer:

  1. Å bruke KI‑verktøy (som GPT/Claude) til å skrive kode
    Dette er det du beskriver: adaptere, konfigurere, forstå endringer, kvalitetssikre osv.
  2. Å forstå KI som fagfelt
    Her snakker vi om modelltrening, RL, klassifisering, agent‑arkitektur, prompt‑design, system‑instruksjoner, kontroll av kontekst osv.

Når man jobber med KI‑agenter i utvikling, så blir rollen mer lik en “teknisk leder” enn en “kodeprodusent”. Du må styre retningen, sette rammer, hindre at agenten gjør mer enn den skal, og teste logikken etterpå. Det er en annen type kompetanse enn ren koding.

Så ja – vi er enige i 90%, men jeg prøver å tydeliggjøre at det ikke bare er semantikk. Det er faktisk to forskjellige ferdigheter som ofte blandes sammen.

Tror de fleste snakker om å bruke eksisterende systemer, ikke utvikle egen AI :blush:

1 Like

Jepp

Trodde du jeg hadde blandet de to tingene sammen, siden du svarte meg med en slik post? :see_no_evil:

Nei, det var ikke slik ment. Jeg jobber med modellutvikling, så jeg ser KI litt fra en annen vinkel – derfor ble svaret mitt kanskje litt bredere enn nødvendig

Har nå bruke Claude Code endel og merker jeg blir latere og latere når det kommer til å skrive kode selv. Kommer fortsatt med ideene mine selv, men overlater til AI-en å skrive koden for det meste. Der jeg ikke blir latere er å legge til features i applikasjonen jeg jobber med. Det går rett og slett veldig fort å legge til små features.

Spesielt når det kommer til å lære meg nye biblioteker som f.eks. for å lage charts, så kommer kunnskapene mine til å skrumpe inn. På den andre siden, dette er ting jeg bare bruker innimellom, så resultatet blir jo bedre.

Now, we talked yesterday about the giant leap in model capabilities from Anthropic’s recent model, Mythos. It can find and exploit security flaws in software (including operating systems like Windows) that no human has ever discovered, and it can do it faster than humans can defend against it .

Anthropic themselves said they’re alarmed that the world is building toward superhuman AI without adequate safety measures in place. Again, they’ve taken it to the U.S. government and they’ve convened the top tech and security firms to build defense against it.

And tonight, it was reported that Scott Bessent and Jerome Powell called in the heads of the major banks on Tuesday for a private meeting.

Impromptu meetings of this group are rare, and historically have a common thread: crisis (Long-Term Capital Management, 9/11, GFC, 2018 crisis of confidence, Covid, Silicon Valley Bank).

In this case, it’s said to have just been a discussion of the risks to their systems (and the financial system) from the capabilities of this model (and others like it to come).

The meeting alone should be reason enough to buy some Treasuries, dollars and gold (safe-havens).

Så en sak på det samme. Det er jo litt som om man lurer på om det hovedsakelig er et PR-stunt.

AI tilbyder: “Ooooh se på oss, vi har laget en AI som er faaaarlig”
Les: “Vår AI er mye bedre enn alt annet”

Sååååå… Da bruker man bare AI til å finne sikkerhetshull, så blir ting sikrere? :thinking:

2 Likes

Today we’re announcing Project Glasswing1, a new initiative that brings together Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, the Linux Foundation, Microsoft, NVIDIA, and Palo Alto Networks in an effort to secure the world’s most critical software.

We formed Project Glasswing because of capabilities we’ve observed in a new frontier model trained by Anthropic that we believe could reshape cybersecurity. Claude Mythos2 Preview is a general-purpose, unreleased frontier model that reveals a stark fact: AI models have reached a level of coding capability where they can surpass all but the most skilled humans at finding and exploiting software vulnerabilities.

Mythos Preview has already found thousands of high-severity vulnerabilities, including some in every major operating system and web browser . Given the rate of AI progress, it will not be long before such capabilities proliferate, potentially beyond actors who are committed to deploying them safely. The fallout—for economies, public safety, and national security—could be severe. Project Glasswing is an urgent attempt to put these capabilities to work for defensive purposes.

As part of Project Glasswing, the launch partners listed above will use Mythos Preview as part of their defensive security work; Anthropic will share what we learn so the whole industry can benefit. We have also extended access to a group of over 40 additional organizations that build or maintain critical software infrastructure so they can use the model to scan and secure both first-party and open-source systems. Anthropic is committing up to $100M in usage credits for Mythos Preview across these efforts, as well as $4M in direct donations to open-source security organizations.

Project Glasswing is a starting point. No one organization can solve these cybersecurity problems alone: frontier AI developers, other software companies, security researchers, open-source maintainers, and governments across the world all have essential roles to play. The work of defending the world’s cyber infrastructure might take years; frontier AI capabilities are likely to advance substantially over just the next few months. For cyber defenders to come out ahead, we need to act now.

Hold on your hats :cowboy_hat_face:

3 Likes