Ja, det er jeg enig med deg i, folk vil alltid kunne utføre ondskap.
Men det er stor forskjell på å hacke seg inn i et datasystem (krever mye kunnskap om hacking og systemet man hacker) og å få en A.I til å utføre hackingen for deg (krever riktig prompt).
A.I kan gi deg boosten du trenger for å faktisk gjennomføre noe ondsinnet, på en veldig enkel måte. En ting er å spørre den rett ut om den kan gi deg ideer på faenskap, men man kan også gå mer systematisk til verks.
F.eks disse forskerne som bare reverserte inputen til sin A.I, som skulle screene vekk potensielt farlige kjemikalier. Alt de trengte å gjøre var å si den skulle komme opp med potensielt farlige komboer av kjemikalier, og den laget 40 000 av dem på 6 timer.
Er det vanskelig å replikere? Nei, i følge forskerne selv:
How easy is it for someone to replicate what you did? What would they need?
I don’t want to sound very sensationalist about this, but it is fairly easy for someone to replicate what we did.
If you were to Google generative models, you could find a number of put-together one-liner generative models that people have released for free. And then, if you were to search for toxicity datasets, there’s a large number of open-source tox datasets. So if you just combine those two things, and then you know how to code and build machine learning models — all that requires really is an internet connection and a computer — then, you could easily replicate what we did. And not just for VX, but for pretty much whatever other open-source toxicity datasets exist.
Merk at artikkelen er over 1 år gammel, og at man i dag ikke heller trenger å kunne kode eller bygge MLMs, dette kan man enkelt fremskaffe gratis. Den eneste barrieren jeg ser er at man må a). ha tilgang til ingrediensene for å lage dette og b). man må vite hvordan man faktisk mikser stoffene, men dette kan man vel også få hjelp til…