Nemlig, da er vi jo enige da, algoritmene i AI er hypotese-genererende, og ikke hypotese-testende.
Matematikken i genetiske algoritmer, nevrale nett, self organizing maps osv er ikke annerledes nå enn de var for 25-30 år siden, akkurat som at om 2+2 = 4 stemte i 1995, så er også 2+2= 4 i 2025, intet er forandret. Algoritmene er de samme. Forskjellen er regnekraft.
Min erfaring på 90 tallet, og 2000-tallet var at ledelsen som kjøpte inn systemer, prosessutstyr og måleapparater til overvåking og styring av prosesser, ikke skjønte matematikken her, og de som faglig stod for innspill til investeringsbeslutning undervurderte valideringsutfordringen.
Men prosjektet var kjempegøy, og du verden hvor mange timer vi brukte til modellering og kreative prosesser, de var nærmest hyptotiserende, og vi følte oss kjempe-smarte, og ultraproduktive.
Bedriften jeg jobber i nå har også tilgang til enkle AI-løsninger, og jeg prøver å få flest mulig folk il å bruke det, for det er virkelig en liten assistent i kreative prosesser, og hjelp til å fikse ting. Men folk er ganske treige, og litt stygt sagt bruker litt for mange det til “tullball”.
Jeg mistenker også at mange ansatte kommer til å benytte AI slik skole-elver bruker det til å gjøre hjemmelekser, og leverer ting som til syvende og sist ikke har verdi. Og at kanskje ikke mange nok klarer det du beskriver:
Gjelder å treffe hoppkanten noenlunde i en setup, og så kan man fly lenger.
Og blant de som er smarte, tror jeg også mange kommer til å bruke for mye tid, fordi den kreative prosessen føles meningsfull ut, og prøver å få den perfekte hoppkanten, og glemmer at de bytter tid mot penger, og ikke verdi mot penger, og da er det lett å bruke unødig masse tid på å treffe planken perfekt.
Basically er ikke folk noe smartere i 2025 enn de var i 1995, eller i 1965, og selv om AI har masse muligheter kreve det faktisk en god del forståelse og lang læring for å skape verdi.



























