top of page
jujuman___landscape_photography_of_A_norwegian_landscape_with_a_bb11c93b-71c8-4da5-a584-92

Hvordan Scenatra bruker Generativ AI og LLM-teknologi

Hos Scenatra bygger vi løsningene våre på generativ AI og store språkmodeller (LLM). Gjennom omfattende testing og iterasjoner har vi jobbet målrettet for å sikre at brukerne får nøyaktige og relevante skadeanalyser basert på ulike typer input. Samtidig er vi klar over at generativ AI fortsatt har begrensninger, blant annet i form av mulige «hallusinasjoner» og feiltolkninger. Derfor jobber vi kontinuerlig med å finjustere og utvikle teknologien for å hente ut det beste den kan tilby.

I begynnelsen trente vi én enkelt AI-modell til versjon 1. I dag har vi en hel serie med AI-assistenter som samarbeider for å gi deg mest mulig verdi, raskere og mer presist. Underveis utvider vi systemarkitekturen, styrker kompetansen vår og tester nye AI-modeller som lanseres.

Målet vårt er å tilby sanitetspersonell, nødetater og andre aktører i beredskapsfeltet stadig bedre datagrunnlag, slik at de kan trene mer effektivt og bli enda bedre på å redde liv.

Versjon 3

v4 scenatra.png

Chaining AI assistants

Scenatra bruker nå en kjede av AI-assistenter (chaining) for å levere høyere kvalitet og presisjon. Hver assistent utfører en spesialisert oppgave, og resultatene verifiseres i neste ledd. Dette minimerer feil, forbedrer nøyaktighet og gir en skalerbar løsning. 

Versjon 2

Branching AI Assistants

Branching AI Assistants er en metode der én hovedassistent genererer all grunnleggende output, før dataene sendes videre til flere spesialiserte underassistenter. Disse underassistentene formaterer, tilpasser og forbedrer ulike deler av informasjonen. 

V2 scenatra.png
V1 scenatra.png

Versjon 1

Single Assistant Processing

Single Assistant Processing betyr at én enkelt AI-assistent utfører hele databehandlingen fra start til slutt. Metoden passer godt til enklere eller mindre komplekse oppgaver, der all output genereres direkte av én AI. Fordelen med denne metoden er enkelhet og raskere resultater. Vi brukte dette i tidlig testfase.

bottom of page