Angående AI; så hadde jeg egentlig tenkt å poste et meme, men vet at det trengs litt bakgrunns-info for å forstå “hvorfor det er morsomt”. Har skrevet følgende på Bearfest-tråden:
“”[quote=“Snoeffelen, post:6424, topic:34913”]
Jeg tror at AI best benyttes (erstatter) i kreative yrker fordi metodikken, slik jeg tror jeg har fortstått det, i stor grad er hypotese-genererende.
> Derimot tror jeg at det kan bli en rekke utfordringer og overraskelser for industriell produksjon der prosesser må være kvalifisert og validert via hypotese-testing.
[/quote]
Følgende blir en litt lengere utledning, men det har et poeng, som forklarer konklusjonen over.
Skal man modellere noe, 1 variabel, kan man bruk liner regresjon (LR) y=ax
Skal man modellere i flere dimensjoner kan bruke multivariate lineær regresjon (MLR), så en matrise Y=aX.
Men det er et lite men i MLR, for å finne koeffisienter så må matrisa X ha full rang ellers kan den ikke inverteres og løse at koeffisienter. Og i den virkelige liv finnes det fullt av avhengigheter, så da kan man gjøre en matrise-reduksjon til full rang (kun uavhengige variable), feks ved en PCA, prinsipal-komponent analyse.
Eksempel, jordbær kan måles i søthet, og rødhet, x1 og x2 i matrisa X, men det er 2 parametere som forteller bortimot det samme, så en prrinsipalkomponentanalyse reduserer 2 vektorer til en ny, med ny retning PC1, og restvariasjon er støy.
Mao man kan gjøre en PCR (prinsipalkomponent regresjon) etter å ha redusert et datasett X til full rang og løse ut reelle koeffissenter.
Neste steg i kompleksitet er en PLS der man ikke bare “fikser på” X-sida men også Y-siden.
Men etterhvert som man får modelleringsteknikker hvor man kan ta inn utallelige variabler, og hele tiden få best mulig fit, kan man ettehvert modellere hva som helst.
PCA og PLS er derfor i en storgrad hypotese-genererende , og mindre og mindre hypotese-testende .
Neste steg “tilpasning og eksplorativ initiativ” er feks genetiske algoritmer, nevrale nettverk, self organising maps osv. Og jo mer “søkende etter mønster/ eksplorative” algoritmer man bruker, desto viktigere er valideringssiden av dette.
Basis-teknikker, er kryssvalidering, leave one out, leave gruos out osv.
Poenget er jo mer man tar inn desto verre er det å validere datasettet. Kanskje man har replikater, prøver med for like egenskaper osv. Og man finner sammenhenger som ikke er der.
Det over kan jeg litt om, siden jeg har bakgrunn i kjemometri.
Jeg kan lite om AI, men det er opplagt at de bygger på de samme prinsippene og må brukes med samme varsomhet.
Certes IT Service Solutions – 20 Dec 18
### Types of Artificial Intelligence: A Detailed Guide
Unlock the potential of artificial intelligence with our comprehensive guide. Learn how AI works, its applications and more!
Estimated reading time: 16 minutes
Og slik jeg leser det er det 4 typer:
### 1. Supervised learning
Supervised machine learning can take what it has learned in the past and apply that to new data using labelled examples to predict future patterns and events. It learns by explicit example.
### 2. Unsupervised learning
Supervised learning tasks find patterns where we have a dataset of “right answers” to learn from. Unsupervised learning tasks find patterns where we don’t.
### 3. Semi-supervised learning (SSL)
Semi-supervised learning falls somewhere in the middle of supervised and unsupervised learning. It is used because many problems that AI is used to solving require a balance of both approaches.In many cases the reference data needed for solving the problem is available, but it is either incomplete or somehow inaccurate.
### 4. Reinforcement learning
Reinforcement learning is a type of dynamic programming that trains algorithms using a system of reward and punishment.
Min beskjedne forståelse av AI er derfor at det egner seg godt til kreative og eksplorative oppgaver, men blir veldig komplekst å validere.
Ikke først og fremst fordi det ikke er mulig, men fordi validering ikke bare betyr en god begrunnelse og rasjonale, men at godkjennelse ofte betyr en regulatorisk prosess og kjipe spørsmål fra myndigheter med forskjellige kvalitetskrav- og systemer.
Og kanskje det viktigste; faktisk vise i den virkelige verden at det fungerer (helt uavhengig av gode rasjonaler og testkjøringer) , som uansett er et løp som koster penger."
Tilleggs info for Photocure-tråden: algoritmene som man bruker i AI har vært kjent lenge, det er datakraften som er kommet på rett nivå nå. Når jeg ser i bokhylla, og jeg er mann midt i livet, så står det bøker om nevral nett og self organizing maps osv.
Dette har selvsagt vært forsket på lenge i medisinske miljøer, og AI (algoritmene) har vært kjent lenge, problemet er altså at AI er hypotese-genererende, mens man i en regulatorisk setting må være hypotese-testende (validerende).