Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by study line "Applied Mathematics"

Sort by: Order: Results:

  • Karsh, Roy (2023)
    Vakuutussopimuksen hinnoittelun tarkoituksena on löytää tasapaino vakuutuksenottajan ja -antajan välillä. Sen rakenne muodostuu karkeasti ottaen kolmesta osasta, joista suurin ja merkittävin osuus on riskimaksu, jolla tarkoitetaan maksettavan korvauksen odotusarvoa. Tässä maisterintutkielmassa riskimaksu määritetään credibility-teorian kahden tason hierarkkisen mallin avulla. Riskimaksu määritetään ensin yhden vakuutetun kohdalla nojautuen tämän yksittäisen vakuutetun vahinkohistoriaan. Tämän jälkeen riskimaksu määritetään samanaikaisesti kahdelle tai useammalle vakuutetulle, jotka muodostavat joukon, jossa nämä vakuutetut ovat samankaltaisesti vakuutettu. Tätä joukkoa kutsutaan heterogeeniseksi vakuutuskannaksi. Credibility-teoriassa riskimaksu määritetään siten, että selvitetään estimaattori, joka yhdistää yksittäisen vakuutetun oman vahinkohistorian ja sen tiedon, että tämä vakuutettu kuuluu johonkin tiettyyn vakuutuskantaan. Tämä estimaattori saadaan siten, että löydetään reaalilukuiset arvot painottamaan näitä kahta ominaisuutta. Vakuutustiedot sisältävät usein hierarkkisen rakenteen. Tasot kuvaavat epävarmuuden jakautumista vakuutustiedoissa eli mallin satunnaismuuttujien jakaumassa. Kahden tason hierarkkisessa mallissa kahden satunnaismuuttujan jakaumassa on epävarmuutta, kun mallin satunnaismuuttujat muodostavat mallin rakenteessa tietyn järjestyksen eli hierarkian. Kahden tason hierarkkisessa mallissa riskimaksu määritetään selvittämällä sitä vastaava estimaattori Hilbertin avaruuteen liittyvän teorian avulla. Riskimaksun selvittäminen kahden tason hierarkkisen mallin avulla on tämän maisterintutkielman keskeisin tavoite, kun tutkitaan vakuutetun kohdalla tasan yhtä vahinkohavaintoa tämän vakuutetun vahinkohistoriassa. Credibility-teorian avulla selvitettyä riskimaksua vastaavaa estimaattoria kutsutaan credibility-estimaattoriksi, jonka antamaa tulosta kutsutaan credibility-maksuksi. Credibility-maksu on siten credibility-teorian avulla määritetty riskimaksu. Credibility-teorian osalta esitetään malliin liittyviä parametreja ja erilaisia esimerkkitehtäviä sekä -kuvia.
  • Puumalainen, Aura (2022)
    Tässä tutkielmassa esitetään suojausmenetelmä monitilaisille sijoitussidonnaisille henkivakuutuksille. Sijoitussidonnaisissa henkivakuutussopimuksissa vakuutusyhtiön vakuutetulle maksamat korvaukset riippuvat sekä vakuutetun tilasta että arvopaperimarkkinoista. Arvopaperimarkkinat ovat jatkuva-aikaiset ja koostuvat yhdestä riskittömästä ja yhdestä riskillisestä arvopaperista, joita vakuutusyhtiöllä on portfoliossaan. Esiteltävässä suojausmenetelmässä tulevien kustannusten neliön ehdollinen odotusarvo minimoidaan portfolion suhteen kaikkina tarkasteltavina ajanhetkinä. Näin määritettyä yksikäsitteistä portfolioprosessia kutsutaan riskin minimoivaksi suojausstrategiaksi. Ensimmäisessä luvussa käydään läpi myöhempien lukujen kannalta välttämättömiä esitietoja. Todennäköisyysteoria oletetaan pääosin tunnetuksi, ja stokastisen analyysin asioiden kohdalla useimmat todistukset sivuutetaan. Tuloksista keskeisimpänä mainittakoon Galtchouk-Kunita-Watanabe-hajotelma, jonka todistus esitetään aputuloksiin vedoten. GKW-hajotelman mukaan neliöintegroituva martingaali voidaan esittää yksikäsitteisesti kolmen tietyt ehdot toteuttavan martingaalin summana. Toisessa luvussa esitellään lyhyesti tunnettu Black-Scholes-markkinamalli. Lisäksi määritellään maksuprosessi, jolla kuvataan henkivakuutussopimuksen generoimia maksuja vakuutusyhtiön näkökulmasta. Tämän jälkeen tutustutaan maksujen ehdollisen odotusarvoprosessin käsitteeseen ja määritetään yksikäsitteinen riskin minimoiva suojausstrategia sekä sitä vastaava riskiprosessi yleiselle maksuprosessille. Ratkaiseviksi tekijöiksi osoittautuvat maksujen ehdollisen odotusarvoprosessin GKW-hajotelmassa esiintyvä ennustettava prosessi ja riskittömällä arvopaperilla diskontatun riskillisen arvopaperin kanssa ortogonaalinen martingaali. Kolmas luku käsittelee monitilaisten henkivakuutusten mallintamista Markov-prosessien avulla ja niin kutsuttua yhdistettyä mallia. Yhdistetty malli koostuu sekä arvopaperimarkkinoiden että vakuutetun tilan kehitystä kuvaavan Markov-prosessin generoimista filtraatioista, jotka oletetaan riippumattomiksi. Luvun päätteeksi johdetaan esitys monitilaisen sijoitussidonnaisen henkivakuutussopimuksen maksuprosessille. Neljännessä luvussa määritetään riskin minimoiva suojausstrategia ja riskiprosessi edellä johdetulle maksuprosessille. Ensin todistetaan kuitenkin kyseistä maksuprosessia vastaavan maksujen ehdollisen odotusarvoprosessin GKW-hajotelma, jonka avulla suojausstrategia riskiprosesseineen löydetään. Lopussa suojausstrategiaa sovelletaan yksinkertaisten kaksi- ja kolmitilaisten Markov-prosesseilla mallinnettavien sijoitussidonnaisten henkivakuutussopimusten maksuprosesseihin.
  • Pyyhkälä, Lauri (2020)
    Työssä tutkitaan Hyvinkään sairaanhoitoalueen kustannuksia, sekä kokonaiskustannusten tasolla, että yksittäisen potilaan tasolla. Sairaanhoidon kustannukset ovat olennainen osa yhteiskunnan toimintaa ja ne vaikuttavat merkittävästi kuntien ja kaupunkien talouteen. Tämän takia on hyödyllistä pystyä ymmärtämään ja mallintamaan näitä kustannuksia. Aineistona on käytetty HUSilta saatua dataa kustannuslajeista, potilaista ja diagnoosiryhmistä. Tutkimuksen ensimmäinen tavoite on löytää tilastollinen malli, jolla voidaan ennustaa kokonaiskustannuksia. Toisena tavoitteena on löytää yksittäisten potilaiden kustannuksiin sopiva jakauma. Työn alussa esitellään todennäköisyysteoriaa ja tilastollisia menetelmiä, joita hyödynnetään tutkimuksessa. Näistä tärkeimmät ovat keskineliövirhe, aikasarjamalli ja tilastolliset testit. Näiden teorioiden avulla luodaan mallit kokonaiskustannuksille ja yksittäisen potilaan kustannuksille. Kokonaiskustannusten analysointi aloitetaan erottelemalla suurimmat kustannuslajit, jotta niiden tutkiminen olisi selkeämpää. Näihin isoimpiin kustannuslajeihin valitaan tärkeimmät selittävät muuttujat käyttämällä lineaarista regressiomallia ja informaatiokriteeriä. Näin saatujen muuttujien avulla voidaan muodostaa moniulotteinen aikasarjamalli kokonaiskustannuksille ja tärkeimmille muuttujille. Tämän mallin avulla voidaan luoda ennuste tulevaisuuden kustannuksista, kun se on validoitu muun aineiston avulla. Tutkielman viimeisessä osiossa tutustutaan tarkemmin paksuhäntäisiin jakaumiin, ja esitellään niiden tärkeimpiä ominaisuuksia. Paksuhäntäisillä jakaumilla suurien havaintojen todennäköisyys on merkittävästi suurempi kuin kevythäntäisillä. Tämä vuoksi niiden tunnistaminen on tärkeää, sillä paksuhäntäiset jakaumat voivat aiheuttaa merkittäviä kustannuksia. Termien esittelyn jälkeen tehdään visuaalista tarkastelua potilaiden kustannuksista. Tavoitteena on selvittää, mikä jakauma kuvaisi parhaiten potilaiden kustannuksia. Tutkimuksessa verrataan erilaisten teoreettisten jakaumien kuvaajia aineistosta laskettuun empiiriseen jakaumaan. Erilaisista kuvaajista voidaan päätellä, että kustannusten jakauma on paksuhäntäinen. Lisäksi huomataan, että havainnot sopisivat yhteen sen oletuksen kanssa, että jakauman häntä muistuttaa ainakin asymptoottisesti potenssihäntää. Työn lopussa perustellaan ääriarvoteoriaan nojaten, miksi potenssihännät ovat luonnollinen malli suurimmille kustannuksille.
  • Heikkilä, Tommi (2019)
    Computed tomography (CT) is an X-ray based imaging modality utilized not only in medicine but also in other scientific fields and industrial applications. The imaging process can be mathematically modelled as a linear equation and finding its solution is a typical example of an inverse problem. It is ill-posed especially if the number of projections is sparse. One approach is to combine the data mismatch term with a regularization one, and look for the minimizer of such a functional. The regularization is a penalty term that introduces prior information that might be available on the solution. Numerous algorithms exist to solve a problem of this type. For example the iterative primaldual fixed point algorithm (PDFP) is well suited for reconstructing CT images when the functional to minimize includes a non-negativity constraint and the prior information is expressed by an l1-norm of the shearlet transformed target. The motivation of this thesis stems from CT imaging of plants perfused with a liquid contrast agent aimed at increasing the contrast of the images and studying the ow of liquid in the plant over time. Therefore the task is to reconstruct dynamic CT images. The main idea is to apply 3D shearlets as a prior, treating time as the third dimension. For comparison, both Haar wavelet transform as well as 2D shearlet transform were tested. In addition a recently proposed technique based on the sparsity levels of the target was used to ease the non-trivial choice of the regularization parameter. The quality of di erent set-ups were assessed for said problem with simulated measurements, a real life scenario where the contrast agent is applied to a gel and, finally, to real data where the contrast agent is perfused to a real plant. The results indicate that the 3D shearlet-based approach produce suitable reconstructions for observing the changes in the contrast agent even though there are no drastic improvements to the quality of reconstructions compared to using the Haar transform.
  • Koskela, Olli (2012)
    Röntgentomografia, (computed tomography, CT) on laajasti sovellettu työkalu lääketieteessä. Kreikan kielen tomos tarkoittaa siivun leikkaamista. Röntgensäteiden avulla kohteesta voidaan mitata poikkileikkauksen yli viivaintegraalit. Tämän Radon muunnoksen avulla voidaan laskennallisesti määrittää poikkileikkauksen rakenne. Tässä työssä lähestytään kahta ongelmaa CT-kuvantamisessa: metalliartifaktien pois- toa ja kuvan rekonstruointimenetelmiä. MAR (metal arfifact reduction) -algoritmien kehittäminen ja teollisessa tuotannossa olevat sovellukset ovat keskittyneet filtered back-projection (FBP) tekniikan soveltamiseen kuvan rekonstruoinnissa. Tutkimuksen tavoite oli verrata rekonstuktiomenetelmiä metallia sisältävissä kuvissa ja tutkia kuinka algo ritmit toimivat Tikhonovin regularisointia tai totaalivariaatioregularisointia käyttäen. Tutkimuksessa verrattiin kolmea metalliartifakteja vähentävää MAR-algoritmia numeerista simuloinnin ja reaalidatan avulla. MAR algoritmit olivat interpolointi lineaarisesti (LI) ja Dirichlet’n raja-arvo-ongelman (DDISC) avulla sekä MDT, joka yhdistää sinogrammien muokkausta ja lineaarista interpolointia. Tikhonovin regularisointi osoittautui toimimattomaksi sekä simulaatioissa että reaalidatan yhteydessä. ATV tuotti reaalidatan ja harvan kulman simuloinneissa vähemmän artifakteja. Tuloksella on merkitystä röntgenannoksen vähentämiseksi potilastutkimuksessa. MAR-algoritmit jakautuivat kahteen: MDT toimi paremmin harvan kulman simuloinneissa, LI sekä DDISC paremmin kun mittauskulmia on enemmän. Raja on noin 50 mittauskulmaa. Reaalidatan kanssa 60 ja 120 mittauskulmalla MAR-algoritmien suoriutumisissa ei ollut selkeitä eroja.
  • Kovanen, Ville (2021)
    Maxwell’s equations are a set of equations which describe how electromagnetic fields behave in a medium or in a vacuum. This means that they can be studied from the perspective of partial differential equations as different kinds of initial value problems and boundary value problems. Because often in physically relevant situations the media are not regular or there can be irregular sources such as point sources, it’s not always meaningful to study Maxwell’s equations with the intention of finding a direct solution to the problem. Instead in these cases it’s useful to study them from the perspective of weak solutions, making the problem easier to study. This thesis studies Maxwell’s equations from the perspective of weak solutions. To help understand later chapters, the thesis first introduces theory related to Hilbert spaces, weak derivates and Sobolev spaces. Understanding curl, divergence, gradient and their properties is important for understanding the topic because the thesis utilises several different Sobolev spaces which satisfy different kinds of geometrical conditions. After going through the background theory, the thesis introduces Maxwell’s equations in section 2.3. Maxwell’s equations are described in both differential form and timeharmonic differential forms as both are used in the thesis. Static problems related to Maxwell’s equations are studied in Chapter 3. In static problems the charge and current densities are stationary in time. If the electric field and magnetic field are assumed to have finite energy, it follows that the studied problem has a unique solution. The thesis demonstrates conditions on what kind of form the electric and magnetic fields must have to satisfy the conditions of the problem. In particular it’s noted that the electromagnetic field decomposes into two parts, out of which only one arises from the electric and magnetic potential. Maxwell’s equations are also studied with the methods from spectral theory in Chapter 4. First the thesis introduces and defines a few concepts from spectral theory such as spectrums, resolvent sets and eigenvalues. After this, the thesis studies non-static problems related to Maxwell’s equations by utilising their time-harmonic forms. In time-harmonic forms the Maxwell’s equations do not depend on time but instead on frequencies, effectively simplifying the problem by eliminating the time dependency. It turns out that the natural frequencies which solve the spectral problem we study belong to the spectrum of Maxwell’s operator iA . Because the spectrum is proved to be discrete, the set of eigensolutions is also discrete. This gives the solution to the problem as the natural frequency solving the problem has a corresponding eigenvector with finite energy. However, this method does not give an efficient way of finding the explicit form of the solution.