Diskusjon Triggere Porteføljer Aksjonærlister

Ultimovacs (ULTI) småprat 2

bilde

Vi som satt tungt gjennom «peak-risk» fikk dårlig betalt takket være et uavbrutt nedsalg fra én stor aktør gjennom sektorkrakk, krig, inflasjon og rentehevinger.

Det gikk heldigvis bra. Og nå er aksjen i momentet som ble (kunstig) utsatt gjennom nesten hele fjoråret.

5 Likes

Sorry hvis det er noen som allerede har skrevet det før, men er et helsikes trøkk her inne så ikke lett å få med seg alt.

Er det mulig å finne ut når de første 70 pasientene ble innrullert? Det vil vel skyve tidslinjen betraktelig med tanke på sannsynlighet for positiv avlesning.

Jupp, sjekk kvartalsrapportene :+1:

1 Like

Selskapet har rapportert detaljert innrullering i studiene (som eneste selskap jeg kjenner til) ved hver kvartalspresentasjon. Dette er en forutsetning for de statistiske modellene og simuleringene gjort av fagfolkene i fundamentaltråden.

Mon tro om selskapet angrer på den transparensen i dag, men for vår del er det jo gull verdt.

2 Likes

Dette er kurven vi alle baserer utregningene på:

Men akkurat de 70 første er ikke en relevant størrelse på noen måte, så da mistenker jeg at du har misforstått et eller annet.

Transparensen og vår tallknusing basert på den har sikkert ført til litt ekstra mas for selskapet ja. Men samtidig gitt trygghet til investorene om at Ultimovacs ikke endte i samme bane med rekruttering som noen andre norske bios. Det tror jeg i denne perioden har vært vært viktigere enn noen ting.

7 Likes

Det er såklart ikke bare de tidlige fase 1 efficacy-dataene som peker i riktig retning for UV1, også de dypere analysene peker mot at T-cellene som induseres er relevante og bør kunne ha en effekt i kroppen.
En fransk studie har for eksempel vist at langtidsoverlevere i lungekreft spontant utvikler de samme T-cellene som UV1 induserer. [@polygon]
En studie i mus viser at det er synergiske effekter mellom peptidvaksine + sjekkpunkthemmer, men også (og dette er essensielt, imo) at T-cellene som blir ekspandert i tumor er kloner av nye T-celler som har migrert fra lymfer og ikke T-celler som har eksistert i kroppen fra før av og er påvirket av det sure mikromiljøet [2]
Biomarkøranalyser fra UV1-103 viser hvordan pasienter med negative prognostiske biomarkører også numerisk sett responderer bra. [3]

@h3nk1 sin post oppsummerer enda flere artikler med lesestoff om rasjonalet for UV1 som kombinasjon med immunterapi.

  • Hvor kraftig er det immunsuppressive TME i en avansert tumor? Kan UV1 indusere T-celler som unngår det? I hvor mange krefttyper kan UV1 fungere?

Spørsmål som gir vann i munnen for min del, når så mye peker mot at vi får fordelaktige svar på alle de spørsmålene, men også spørsmålene som kan gi negative svar.

Vi er helt i fronten av det mest verdifulle legemiddelområdet i hele verden de neste ti årene, folkens.

10 Likes

7 Likes

Flott oppsummert og snart vil det bredere markedet også skjønne det, med få frie aksjer i selskapet kan det bli en rå opptur fremover.

Også AI er bull, illustrert her ved IR-sjefen.

21 Likes

Du får også ja til det første:
Det er riktig at (minst) 10 000 realisasjoner med god tilnærming reproduserer underliggende statistikk. Altså at underliggende sannsynlighetsfordeling med god tilnærming reproduseres ved å addere (og reskalere) realisasjonene. Dette gjelder nokså uavhengig av formen på underliggende fordeling. Av erfaring vet jeg at mange har problemer med å intuitivt forstå eller “godkjenne” at man faktisk trenger antall realisasjoner i 10 000 klassen. Hverdagseksempel: det gir statistisk mening å normalfordele karakterene i en nasjonal eksamen med minst 10 000 elever, men ikke et kurs med noen hundre studenter (simuler med utgangspunkt i en normalfordeling og sjekk ut selv hvor urettferdig det blir å normalfordele et kurs med 300 studenter!).

Men så skriver du:

Denne variansen er nettopp det som gjør at denne modellen fanger opp i seg usikkerheten på en realistisk måte.

Dette blir riktig bare hvis du er enig med hovedpoenget mitt, at beregningen av sannsynligheter på gitt dato er betinget sannsynlighet , ikke sannsynlighet. Der betingelsen altså er at underliggende statistikk i Initium er gitt av PFS-plot i valgt referansestudie. Så vidt jeg vet er alle disse referansestudiene med noen få hundre pasienter og dermed selv tilfeldige realisasjoner som antakelig avviker signifikant fra en ukjent underliggende fordeling. Det beste dere kan gjøre for å demonstrere denne mer fundamentale usikkerheten er antakelig å plotte sannsynlighetskurver fra forskjellige referansestudier i samme diagram. Og jeg ser @ketilaaj har gjort nettopp dette i den ene posten ( #1426) på Fundamental-tråden. Jeg liker det så godt at jeg tar meg friheten til å copy/paste:

Vi ser at CM067 gir det mest konservative anslaget for sukssess av de to.

Ellers virker metoden deres i utgangspunktet “sound”, men jeg knager litt på om man virkelig kan anta uavhengighet mellom dato for avlesning og fordeling i kontrollarmen. Har forslag til følgende konsistenssjekk (sorry hvis dere har gjort den allerede, har ikke tid til å finlese alt i disse heftig lange Ulti-trådene):

  1. Anta valgfri referansestudie for kontrollarmen (f. eks CM067) og konstruer selv en fordeling for eksperimentell arm (f eks en som gir HR rundt 0.6?).
  2. Kjør nok simuleringer (1-10 millioner) til at dere har minst 10 000 avlesninger på samme dato.
  3. Kikk på fordelingen til kontrollarmen på de forskjellige datoene. Reproduseres fordelingen (f eks CM067) på alle datoene? Hvis ja, all good!

Kjenner jeg mangler intuisjon (=opparbeidet erfaring) til å forskuttere resultatet av en slik konsistenssjekk, men forklar meg gjerne.

14 Likes

I hvert simulert studie deles de innrullerte opp i en eksperimentell og en kontrollarm og det jobbes videre med kontrollarmen. Under sjekk av koden har jeg konstruert mange KM kurver for å se effekter av forskjellige former på KM kurven og at koden oppfører seg som forventet. Ut fra min vurdering og etter diskusjon med andre vurdere jeg den som robust og en modell som reproduserer inputen som forventet.

Under utvikling så prøvde jeg å gå utover 10.000 simuleringer, men det ga gir ikke noe mer detaljert informasjon om dato. Som et alternativ til å kjøre mange millioner simuleringer sjekket jeg resultater med forskjellig seed til random generatoren, og det flytter bare datoene med +/- en dag. Ut fra resultatene ser jeg at usikkerheten i analysen er minst for de første eventene og øker mot halen. Dette skyldes at det blir færre og færre datapunkt her. Mange flere simuleringer ville gitt litt bedre resultat, men ikke mer verdi for formålet de her er laget; estimere når vi har et signifikant resultat.

Dette er en interessant sjekk som jeg ikke har gjort før, men som jeg har gjort nå. Her er resultatene av 10.000 simuleringer: Som du ser reproduseres CM067 rimelig godt i gjennomsnitt, men avviker noe på halen, som skyldes færre datapunkter i dette området. Flere simuleringer ville gitt flere datapunkt i dette området.

image

41 Likes

Med referanse til denne posten:

Under ser du en sammenlikning av CM-067 og CM-511. Hvis en tar utgangspunkt i en fordeling som ligger mellom disse vil en havne et sted mellom den grønne heltrukne og stiplede linjen i figuren under. Jeg har bevisst valgt å ikke basere beregningene på syntetiske kurver, kun på data oppgitt av selskapet og referanser allment tilgjengelig.

24 Likes

Som en entusiastisk følger må jeg bare ta av meg hatten for engasjementet og seriøsiteten som vi blir tilgodesett med av de beste bidragsyterne på denne tråden. Tusen takk.

17 Likes

@ketilaaj Fantastisk arbeid du og andre har lagt ned i modellering av dette, og hvem vet kanskje noen med nye penger har begynt å kjøpe seg inn i caset i dag basert på dette.

Jeg kjøpte meg selv inn i ULTI før disse modellene kom på banen, men fint å ha dem som støtte for at man fortsatt skal sitte med posisjonen man allerede har.

Men det som jeg bekymrer meg for er om denne typen modeller gir oss en tro på at noe som iboende er usikkert, ettersom det tross alt er snakk om enkeltpersoner med hver sin “unike” biologi, kan modelleres så presist. Det er tross alt snakk om relativt få personer, og “Murphy’s Law” eller på norsk “ren uflaks”, kan gjøre at vi har mange i kontrollarmen som får lang tid til PFS av de tidlig rekrutterte og tilsvarende dårlige utfall for de første med UV1 behandling. Så min magefølelse er at 70 pasienter kan være litt for få events, og at ULTI ved å ha 80 eller 90 eventer som cut-off hadde gitt oss aksjonærer større sikkerhet for at resultatet er mer robust, i den forstand at vi er sikker på at vi ser et virkelig representativt resultat for forsøket når det rapporteres. Ville jo vært kjedelig å få et litt svakt resultat nå, som kunne gjøre at momentet i aksjen ikke blir så bra som det kunne blitt.
Har du, eller andre, noen tanker om dette?

PS
Som en anekdote over min skepsis kan jeg kort fortelle om et fond jeg jobbet med for lenge siden som skulle innføre en Value-at-Risk modell for aksjeporteføljen. Den var utviklet av noen med matte og statistikk på PhD nivå og prøvekjørt i flere måneder på en relativt bred portefølje, og andre fond i flere år. Så når den gikk “live” møtte vi på dag 2 en event markedet som modellen anså som 1 av 20.000, og fondet gikk på en smell vi trodde ikke var mulig. Dette var for øvrig etter Long Term Capital kollapsen og vi trodde modellen hadde tatt “lærdom” av de feilene de gjorde der

12 Likes

Om man hadde cutoff ved 90 eventer, så hadde det gitt et mer signifikant resultat på samme HR / en høyere HR som også er signifikant. Det hadde altså som du skriver vært “bedre” om cutoff var på 90 eventer enn dagens 70 fordi man kunne lagt lista lavere for hvilken klinisk nytte man må vise. Problemet er at man da også måtte ha inkludert mellom 40 og 50 pasienter til i studien - ellers ville man aldri oppnådd dette antallet eventer innen rimelig tid. Med over 200 pasienter, så ville det kostet mer, man ville brukt lenger tid på inkluderingen, og man ville rett og slett nærmet seg et fase 3-design.

Når Ultimovacs har designet INITIUM som de har gjort, så er det en nøye faglig avveining mellom hvilken statistisk styrke man vil ha i studien (hvor gode resultatene må være for å bli signifikante, eller om du vil, veie opp for biologi/Murphys lov/uflaks) og hvor mye studien koster og tiden den tar. En fase 3 er typisk designet for at HR=0.80 blir signifikant. I INITIUM må man ned på 0.60 for at det skal bli signifikant. Med ditt forslag ville man kanskje måttet til 0.67 eller så. Om INITIUM når HR=0.6 med signifikans, så er det et akkurat like overbevisende resultat som HR=0.67 med signifikans.

17 Likes

Nå svarte jo @polygon utførlig, men med én setning: de veier opp for en noe lavere N med å legge lista for oppnådd primærendepunktet høyere - resultatet vil være like robust som et studie med høyere N (som kunne lagt lista lavere).

1 Like

Ketilaaj, ok skjønner, igjen takk, denne figuren synes jeg er den beste her inne ved at den kvantifisere en betinget sannsynlighet for når en signifikant avlesning vil foreligge. Jeg har som sagt mest tro på et snitt for INITIUM, som du har lagt inn i din figur.

2 Likes

Hr verdi kontra antall pasienter og signifikans finner man vel ut av formlen for beregning av confidensintervall.

95% konfidensintervall = (2×standardavvik )/(kvadratrota av n-1), der n = antall pasienter.

I en perfekt normalfordeling ville vel det vært tilfellet. Det har man ikke her.

For lang tid må det ta før studien brytes, dvs at teoretisk at ingen av de 70 pasienter vi venter på har fått tilbakeslag/utvikling i sykdommen.
At alle som har fått UV1 holder stand, så tar det evighet til avlesning…

Er jeg helt på "vidda " ? :sweat_smile: