I en gruppe jeg er i påstås det at programvare om få år vil være i stand til å lage egen programvare, at det allerede finnes programmer som lager seg selv. For en stund siden klarte programmene å skrive ca 25%, nå er de ved 37% - visstnok. Så det er litt tid igjen!
Men vi kan vente oss selvskrivende kunstig intelligens innen fem-seks år.
De som er mest redd for utviklingen er dem som driver med det selv, altså eksperter innen AI.
Det er snakk om at programmene vil lære å skrive programmer som igjen skriver programmer, vi får en ekstrem utvikling i software (og hardware) som vi kanskje ikke vil være istand til å stoppe.
Det kan selvsagt skape uante konsekvenser.
Mulig vil de færreste måtte jobbe dersom programvare lærer av seg selv og kan utvikle nye typer roboter og andre løsninger, nye måter å dyrke og høste, osv. Eller programmene kan se oss som lite verdt og ønske måter å eliminere oss, eller bare la oss leve våre liv.
Vi snakker om Singularity. Tech ute av kontroll.
Fremtidskonspirasjonsteorier? Som slett ikke er usannsynlige?
Elon Musk er en av dem som er skeptisk til AI siden det ikke er regulert på noen måte.
Det er et ikke bare interessant tema, men et tema som bør diskuteres seriøst i langt større grad enn det gjøres i dag.
Hvor er politikerne når det gjelder dette svært aktuelle spørsmålet? AI generelt, skattlegging spesielt, eller hvordan det i hvert fall kan komme menneskeheten generelt til gode, ikke bare eierne av programvaren?
Hvordan ser samfunnet ut når programmer kan skrive seg selv? Utvikle seg selv?
Utviklingen kan gå rett til værs: tusen ganger fortere enn nå - og tusen ganger fortere enn det.
Det er faktisk skremmende om man tenker over det.
Og altså - det finnes ingen reguleringer. Programmer jobber gjerne etter regler, så om de kam lage sine egne regler, hvordan vil de bli?
Hva blir konsekvensene?