Forstår godt resonnementene over, men bare et lite innspill da alt det tekniske rundt en studie ikke alltid er like lett og rasjonelt.
Det er trolig flere ting som ligger i å “vaske databasen” hos folks forståelse. Noen steg gjøres mens studien pågår, dette er typisk tastefeil, manglende data og data som ikke gir mening. Slike ting er det ofte CRA/monitorene som ser over etter at pasientene har vært på visit og studiesykepleier/investigator har tastet inn parametrene fra besøket i CRFen. Slike feil ryddes opp mens studien pågår, jo flere besøk CRA/monitor gjør og jo flere monitorer man har fører ofte til desto ryddigere data. En annen viktig parametre er hvor drevne studiepersonell er på kliniske studier. Man ser også over protocol deviasjoner mens studien pågår for å rydde opp mens stuiden kjører (eks oppfyller alle pasientene inklusjon/eksklusjonskrav etc). I tillegg til CRA/monitorene som er menneskene fra CRO på bakken har man prosjektledere og andre som sitter sentralt og ser over og identifiserer potensielle avvik.
Deretter har man data reconciliation og datacleaning. Dette planlegges ved at sentrene ikke kan gjøre endringer og man kjører en data reconciliation, målet her er å se over data og undersøke data som ser “suspekt” ut (outliers og enkelte deviations som ikke har vært fanget opp). Etter en slik reconciliation hvor man går over alle data (blindet) så reiser man “queries” til sitet hvor man spør dem om innastet data som man har identifisert stemmer. Her kan man også be senteret tidvis sende over “kildedata” (notatet hvor de først noterte verdien). Å sortere ut outliers før man kjører statistikken og finner resultatene er viktig for å få en bedre kvalitet på resultatet. Man ønsker å bruke litt tid på å cleane fordi etter denne cleaningen har man database lock og når det er gjort kan man (som regel) ikke endre dataene igjen - så dette er siste sjanse, etter dette må man leve med hva man har. Etter DBL populeres topplinje resultatene og disse kvalitetssjekkes (QC, Quality Checked) før dette sendes over til selskapet.
Man kan riktignok gjøre en “soft lock” underveis, men dette gjøres som regel på data og i en helg (slik at ingen sentre skal bli forstyrret og risikere å ønske å gå inn i CRFen), men slike soft locks er begrenset i tid og også begrenset hvor mye man kan finne og cleane. Man kan også kjøre interim locks hvis dette er spesifisert for en interimanalyse.
Så ergo; ja, man rydder svært mye underveis, dette gjøres av CRA/monitorene og prosjektledere som hele tiden følger med, men man har større obligatorisk clean når antall events er oppnådd for å ser over alle data etter at det er reconciliated.
Skal ikke uttale meg på hvor lang tid det som er beskrevet over tar for Ulti, her må vi bare forholde oss til hva selskapet sekv har meddelt.
Disclaimer: nå bruker jeg mange fremmedord og forkortelser, det gjør selvfølgelig innlegget ikke mer kredibelt, men jeg forsøker å holde meg til termer slik at dere evt kan sjekke opp hvis behov. Min erfaring er primært er fra dobbelt blinde (INI/NIPU er open label) randomiserte studier i fase 1-3 og open label fase 4. Ellers, jeg har Ulti aksjer og skriver ikke dette for å baisse, men mer for å opplyse mine medaksjonærer og sette forventninger.