Etter å brukt en del tid på å lese meg opp på AI siste halvåret + lekt med ChatGPT, kom jeg over podcasten “Bankless: 159 - We’re all gonna die with Eliezer Yudkowsky”.
Oppsummert så utvikler AI seg i et slikt tempo det ser svært vanskelig ut å kontrollere denne. Om/når det utvikler seg en “Super Intelligence” vil denne utgjøre en reell, eksistensiell fare for menneskeheten.
Science fiction for noen, mentalt ødelegge for andre. Noen her på forumet som kan noe om temaet og vil diskutere dette?