Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by study line "Tillämpad matematik"

Sort by: Order: Results:

  • Apell, Kasperi (2023)
    Let L_N denote the maximal number of points in a rate 1 Poisson process on the plane which a piecewise linear increasing path can pass through while traversing from (0, 0) to (N, N). It is well-known that the expectation of L_N / N converges to 2 as N increases without bound. A perturbed version of this system can be introduced by superimposing an independent one-dimensional rate c > 0 Poisson process on the main diagonal line {x = y} of the plane. Given this modification, one asks whether and if so, how, the above limit might be affected. A particular question of interest has been whether this modified system exhibits a nontrivial phase transition in c. That is, whether there exists a threshold value c_0 > 0 such that the limit is preserved for all c < c_0 but lost outside this interval. Let L^c_N denote the maximal number of points in the system perturbed by c > 0 which an increasing piecewise linear path can pass through while traversing from (0, 0) to (N, N). In 2014, Basu, Sidoravicius, and Sly showed that there is no such phase transition and that, for all c > 0, the expectation of L^c_N / N converges to a number strictly greater than 2 as N increases without bound. This thesis gives an exposition of the arguments used to deduce this result.
  • Rannikko, Juho (2023)
    Tämä maisterintutkielma käsittelee jatkuvia sekä diskreettejä systeemejä, jotka johtavat differentiaaliyhtälöihin ja differenssiyhtälöihin. Tutkielmassa tarkastellaan ja tulkitaan populaatioita, joiden yksilöt kokevat häirintä- ja paikkakilpailua. Häirintäkilpailussa on käytetty esimerkkinä jänispopulaatiota ja paikkakilpailussa aavikkorottapopulaatiota. Populaatioiden kokoja määräävät lukuisat eri tekijät. Päästäksemme alkuun, ensin määritellään yksilötason tapahtumat, joista johdetaan yksilötason prosessit. On valittava paras mahdollinen malli kuvaamaan systeemin tärkeimpiä dynamiikkoja, joiden pohjalta tämä malli tehdään. Tässä vaiheessa on tehtävä rajauksia yksilöiden käytöksen vaikutuksesta populaatiotasoon. Tutkielmassa nähdään kuinka saadut mallit voivat erota huomattavasti toisistaan kun tulkitaan yksilötason käytöstä eri tavoilla. Yksilötason mallista muodostetaan populaatiotason prosesseja kuvaavat yhtälöt ja tulkitaan niitä. Tämä mahdollistaa populaation elinvoimaisuuden mallintamisen pitkän ajan päähän. Tässä on huomioitava, että mallin tarkkuutta voi heikentää paljonkin yksilötasolla tapahtuvat muutokset. Esimerkiksi ympäristön kantokyvyn muutokset tai vieraslajin saapuminen systeemiin vaikuttavat myös tarkasteltavien populaatioiden kokoihin. Tässä tutkielmassa ei käsitellä vieraslajien vaikutusta tarkasteltaviin populaatioihin. Populaatiotason mallin muodostamisen jälkeen, tarkastellaan paikkakilpailua kokevan populaation elinvoimaisuutta tasapainopisteissä ja tutkitaan niiden stabiilisuutta. Tästä tehdään faasikaaviot ja näytetään graaffisesti, miten populaatiotiheys kehittyy eri muuttujien arvoilla. Tutkielmassa on käyty läpi eri muuttujien arvoja, jolloin systeemin stabiilisuus muuttuu. Tutkielman lopussa käydään uudelleen läpi aiemmissa luvuissa esitettyjä malleja ja tehdään niistä uudet tulkinnat. Muodostetaan jatkuvien mallien sijasta diskreetit mallit. Havaitaan, että tulkinta erot tuottavat hyvinkin erilaisia malleja. Otetaan myös tarkempaan käsittelyyn logistinen differenssiyhtälö ja tarkastellaan sen stabiilisuuden muutoksia eli bifurkaatioita. Havaitaan, että käsitelty logistinen differenssiyhtälö voi ilmaista kaoottista käytöstä. Käydään graafisesti läpi syitä logistisen differenssiyhtälön kaaottiseen käytökseen.
  • Nurmela, Janne (2022)
    The quantification of carbon dioxide emissions pose a significant and multi-faceted problem for the atmospheric sciences as a part of the research regarding global warming and greenhouse gases. Emissions originating from point sources, referred to as plumes, can be simulated using mathematical and physical models, such as a convection-diffusion plume model and a Gaussian plume model. The convection-diffusion model is based on the convection-diffusion partial differential equation describing mass transfer in diffusion and convection fields. The Gaussian model is a special case or a solution for the general convection-diffusion equation when assumptions of homogeneous wind field, relatively small diffusion and time independence are made. Both of these models are used for simulating the plumes in order to find out the emission rate for the plume source. An equation for solving the emission rate can be formulated as an inverse problem written as y=F(x)+ε where y is the observed data, F is the plume model, ε is the noise term and x is an unknown vector of parameters, including the emission rate, which needs to be solved. For an ill-posed inverse problem, where F is not well behaved, the solution does not exist, but a minimum norm solution can be found. That is, the solution is a vector x which minimizes a chosen norm function, referred to as a loss function. This thesis focuses on the convection-diffusion and Gaussian plume models, and studies both the difference and the sensibility of these models. Additionally, this thesis investigates three different approaches for optimizing loss functions: the optimal estimation for linear model, Levenberg–Marquardt algorithm for non-linear model and adaptive Metropolis algorithm. A goodness of different fits can be quantified by comparing values of the root mean square errors; the better fit the smaller value the root mean square error has. A plume inversion program has been implemented in Python programming language using the version 3.9.11 to test the implemented models and different algorithms. Assessing the parameters' effect on the estimated emission rate is done by performing sensitivity tests for simulated data. The plume inversion program is also applied for the satellite data and the validity of the results is considered. Finally, other more advanced plume models and improvements for the implementation will be discussed.
  • Vuorenmaa, Kaisla (2024)
    Tämän maisterintutkielman ensisijaisena tarkoituksena on esitellä menetelmä riskihenkivakuutuksen yhden vuoden kokonaiskorvausmenon mallintamiseen ja viidentoista eri jälleenvakuutusratkaisun vertailuun VaR-riskimittarin avulla. Riskihenkivakuutuksella eli kuolemanvaravakuutuksella tarkoitetaan sellaista vakuutusta, jossa vakuutusyhtiö maksaa sovitun korvaussumman edunsaajalle, jos vakuutettu sattuu kuolemaan vakuutuskauden aikana. Tällöin vakuutettu riski on henkilön kuolema. Koska tutkielman koodi on liitteissä, esitettyjä menetelmiä on mahdollista soveltaa myös muille henkivakuutusaineistoille ja jälleenvakuutusratkaisuille. Tutkielmassa esitellään lisäksi menetelmät riskihenkivakuutusaineiston simuloimiseksi ja jälleenvakuutussopimusten hintojen arvioimiseksi, mutta ne eivät ole tutkielman keskeisimpiä osuuksia ja on toteutettu siitä syystä karkeilla tilastollisilla malleilla. Simulaatiotutkimuksen aineisto simuloitiin erään espanjalaisen vakuutusyhtiön anonymisoidun riskihenkivakuutusaineiston pohjalta, josta arvottiin vakuutetuille ikä, sukupuoli ja korvaussumma. Pseudoaineistosta simuloitiin Monte Carlo -menetelmällä yhden vuoden aikana tapahtuvat kuolemat 8000 kertaa. Vuosittaisista kuolemista eriteltiin ensi- ja jälleenvakuuttajan kokonaiskorvausmenon osuudet, joista määritettiin kvantiilit (VaR-luottamustasot 90 %, 95 %, 99 % ja 99,5 %) valituille jälleenvakuutusratkaisuille. VaR arvoihin lisättiin jälleenvakuutussopimusten hinta-arviot ja niitä vertailtiin toisiinsa kuvaajien avulla. Tutkielman ensisijainen tulos on riskihenkivakuutuksen mallintamisen ja jälleenvakuutussopimusten vertailun mahdollistavan mallin esittäminen. Lisäksi simulaatiotutkimuksessa lasketut VaR arvot voivat antaa suuntaa-antavan tuloksen siitä, miten eri jälleenvakuutussopimukset vertaantuvat keskenään, mutta ei vastaa suoraan kysymykseen, mikä on ensivakuuttajalle edullisin jälleenvakuutus.
  • Karsh, Roy (2023)
    Vakuutussopimuksen hinnoittelun tarkoituksena on löytää tasapaino vakuutuksenottajan ja -antajan välillä. Sen rakenne muodostuu karkeasti ottaen kolmesta osasta, joista suurin ja merkittävin osuus on riskimaksu, jolla tarkoitetaan maksettavan korvauksen odotusarvoa. Tässä maisterintutkielmassa riskimaksu määritetään credibility-teorian kahden tason hierarkkisen mallin avulla. Riskimaksu määritetään ensin yhden vakuutetun kohdalla nojautuen tämän yksittäisen vakuutetun vahinkohistoriaan. Tämän jälkeen riskimaksu määritetään samanaikaisesti kahdelle tai useammalle vakuutetulle, jotka muodostavat joukon, jossa nämä vakuutetut ovat samankaltaisesti vakuutettu. Tätä joukkoa kutsutaan heterogeeniseksi vakuutuskannaksi. Credibility-teoriassa riskimaksu määritetään siten, että selvitetään estimaattori, joka yhdistää yksittäisen vakuutetun oman vahinkohistorian ja sen tiedon, että tämä vakuutettu kuuluu johonkin tiettyyn vakuutuskantaan. Tämä estimaattori saadaan siten, että löydetään reaalilukuiset arvot painottamaan näitä kahta ominaisuutta. Vakuutustiedot sisältävät usein hierarkkisen rakenteen. Tasot kuvaavat epävarmuuden jakautumista vakuutustiedoissa eli mallin satunnaismuuttujien jakaumassa. Kahden tason hierarkkisessa mallissa kahden satunnaismuuttujan jakaumassa on epävarmuutta, kun mallin satunnaismuuttujat muodostavat mallin rakenteessa tietyn järjestyksen eli hierarkian. Kahden tason hierarkkisessa mallissa riskimaksu määritetään selvittämällä sitä vastaava estimaattori Hilbertin avaruuteen liittyvän teorian avulla. Riskimaksun selvittäminen kahden tason hierarkkisen mallin avulla on tämän maisterintutkielman keskeisin tavoite, kun tutkitaan vakuutetun kohdalla tasan yhtä vahinkohavaintoa tämän vakuutetun vahinkohistoriassa. Credibility-teorian avulla selvitettyä riskimaksua vastaavaa estimaattoria kutsutaan credibility-estimaattoriksi, jonka antamaa tulosta kutsutaan credibility-maksuksi. Credibility-maksu on siten credibility-teorian avulla määritetty riskimaksu. Credibility-teorian osalta esitetään malliin liittyviä parametreja ja erilaisia esimerkkitehtäviä sekä -kuvia.
  • Puumalainen, Aura (2022)
    Tässä tutkielmassa esitetään suojausmenetelmä monitilaisille sijoitussidonnaisille henkivakuutuksille. Sijoitussidonnaisissa henkivakuutussopimuksissa vakuutusyhtiön vakuutetulle maksamat korvaukset riippuvat sekä vakuutetun tilasta että arvopaperimarkkinoista. Arvopaperimarkkinat ovat jatkuva-aikaiset ja koostuvat yhdestä riskittömästä ja yhdestä riskillisestä arvopaperista, joita vakuutusyhtiöllä on portfoliossaan. Esiteltävässä suojausmenetelmässä tulevien kustannusten neliön ehdollinen odotusarvo minimoidaan portfolion suhteen kaikkina tarkasteltavina ajanhetkinä. Näin määritettyä yksikäsitteistä portfolioprosessia kutsutaan riskin minimoivaksi suojausstrategiaksi. Ensimmäisessä luvussa käydään läpi myöhempien lukujen kannalta välttämättömiä esitietoja. Todennäköisyysteoria oletetaan pääosin tunnetuksi, ja stokastisen analyysin asioiden kohdalla useimmat todistukset sivuutetaan. Tuloksista keskeisimpänä mainittakoon Galtchouk-Kunita-Watanabe-hajotelma, jonka todistus esitetään aputuloksiin vedoten. GKW-hajotelman mukaan neliöintegroituva martingaali voidaan esittää yksikäsitteisesti kolmen tietyt ehdot toteuttavan martingaalin summana. Toisessa luvussa esitellään lyhyesti tunnettu Black-Scholes-markkinamalli. Lisäksi määritellään maksuprosessi, jolla kuvataan henkivakuutussopimuksen generoimia maksuja vakuutusyhtiön näkökulmasta. Tämän jälkeen tutustutaan maksujen ehdollisen odotusarvoprosessin käsitteeseen ja määritetään yksikäsitteinen riskin minimoiva suojausstrategia sekä sitä vastaava riskiprosessi yleiselle maksuprosessille. Ratkaiseviksi tekijöiksi osoittautuvat maksujen ehdollisen odotusarvoprosessin GKW-hajotelmassa esiintyvä ennustettava prosessi ja riskittömällä arvopaperilla diskontatun riskillisen arvopaperin kanssa ortogonaalinen martingaali. Kolmas luku käsittelee monitilaisten henkivakuutusten mallintamista Markov-prosessien avulla ja niin kutsuttua yhdistettyä mallia. Yhdistetty malli koostuu sekä arvopaperimarkkinoiden että vakuutetun tilan kehitystä kuvaavan Markov-prosessin generoimista filtraatioista, jotka oletetaan riippumattomiksi. Luvun päätteeksi johdetaan esitys monitilaisen sijoitussidonnaisen henkivakuutussopimuksen maksuprosessille. Neljännessä luvussa määritetään riskin minimoiva suojausstrategia ja riskiprosessi edellä johdetulle maksuprosessille. Ensin todistetaan kuitenkin kyseistä maksuprosessia vastaavan maksujen ehdollisen odotusarvoprosessin GKW-hajotelma, jonka avulla suojausstrategia riskiprosesseineen löydetään. Lopussa suojausstrategiaa sovelletaan yksinkertaisten kaksi- ja kolmitilaisten Markov-prosesseilla mallinnettavien sijoitussidonnaisten henkivakuutussopimusten maksuprosesseihin.
  • Pyyhkälä, Lauri (2020)
    Työssä tutkitaan Hyvinkään sairaanhoitoalueen kustannuksia, sekä kokonaiskustannusten tasolla, että yksittäisen potilaan tasolla. Sairaanhoidon kustannukset ovat olennainen osa yhteiskunnan toimintaa ja ne vaikuttavat merkittävästi kuntien ja kaupunkien talouteen. Tämän takia on hyödyllistä pystyä ymmärtämään ja mallintamaan näitä kustannuksia. Aineistona on käytetty HUSilta saatua dataa kustannuslajeista, potilaista ja diagnoosiryhmistä. Tutkimuksen ensimmäinen tavoite on löytää tilastollinen malli, jolla voidaan ennustaa kokonaiskustannuksia. Toisena tavoitteena on löytää yksittäisten potilaiden kustannuksiin sopiva jakauma. Työn alussa esitellään todennäköisyysteoriaa ja tilastollisia menetelmiä, joita hyödynnetään tutkimuksessa. Näistä tärkeimmät ovat keskineliövirhe, aikasarjamalli ja tilastolliset testit. Näiden teorioiden avulla luodaan mallit kokonaiskustannuksille ja yksittäisen potilaan kustannuksille. Kokonaiskustannusten analysointi aloitetaan erottelemalla suurimmat kustannuslajit, jotta niiden tutkiminen olisi selkeämpää. Näihin isoimpiin kustannuslajeihin valitaan tärkeimmät selittävät muuttujat käyttämällä lineaarista regressiomallia ja informaatiokriteeriä. Näin saatujen muuttujien avulla voidaan muodostaa moniulotteinen aikasarjamalli kokonaiskustannuksille ja tärkeimmille muuttujille. Tämän mallin avulla voidaan luoda ennuste tulevaisuuden kustannuksista, kun se on validoitu muun aineiston avulla. Tutkielman viimeisessä osiossa tutustutaan tarkemmin paksuhäntäisiin jakaumiin, ja esitellään niiden tärkeimpiä ominaisuuksia. Paksuhäntäisillä jakaumilla suurien havaintojen todennäköisyys on merkittävästi suurempi kuin kevythäntäisillä. Tämä vuoksi niiden tunnistaminen on tärkeää, sillä paksuhäntäiset jakaumat voivat aiheuttaa merkittäviä kustannuksia. Termien esittelyn jälkeen tehdään visuaalista tarkastelua potilaiden kustannuksista. Tavoitteena on selvittää, mikä jakauma kuvaisi parhaiten potilaiden kustannuksia. Tutkimuksessa verrataan erilaisten teoreettisten jakaumien kuvaajia aineistosta laskettuun empiiriseen jakaumaan. Erilaisista kuvaajista voidaan päätellä, että kustannusten jakauma on paksuhäntäinen. Lisäksi huomataan, että havainnot sopisivat yhteen sen oletuksen kanssa, että jakauman häntä muistuttaa ainakin asymptoottisesti potenssihäntää. Työn lopussa perustellaan ääriarvoteoriaan nojaten, miksi potenssihännät ovat luonnollinen malli suurimmille kustannuksille.
  • Heikkilä, Tommi (2019)
    Computed tomography (CT) is an X-ray based imaging modality utilized not only in medicine but also in other scientific fields and industrial applications. The imaging process can be mathematically modelled as a linear equation and finding its solution is a typical example of an inverse problem. It is ill-posed especially if the number of projections is sparse. One approach is to combine the data mismatch term with a regularization one, and look for the minimizer of such a functional. The regularization is a penalty term that introduces prior information that might be available on the solution. Numerous algorithms exist to solve a problem of this type. For example the iterative primaldual fixed point algorithm (PDFP) is well suited for reconstructing CT images when the functional to minimize includes a non-negativity constraint and the prior information is expressed by an l1-norm of the shearlet transformed target. The motivation of this thesis stems from CT imaging of plants perfused with a liquid contrast agent aimed at increasing the contrast of the images and studying the ow of liquid in the plant over time. Therefore the task is to reconstruct dynamic CT images. The main idea is to apply 3D shearlets as a prior, treating time as the third dimension. For comparison, both Haar wavelet transform as well as 2D shearlet transform were tested. In addition a recently proposed technique based on the sparsity levels of the target was used to ease the non-trivial choice of the regularization parameter. The quality of di erent set-ups were assessed for said problem with simulated measurements, a real life scenario where the contrast agent is applied to a gel and, finally, to real data where the contrast agent is perfused to a real plant. The results indicate that the 3D shearlet-based approach produce suitable reconstructions for observing the changes in the contrast agent even though there are no drastic improvements to the quality of reconstructions compared to using the Haar transform.
  • Cosgaya Arrieta, Juan José (2024)
    In the field of insurance mathematics, it is critical to control the solvency of an insurance company. In particular, calculating the probability of ruin, which is the probability that the company’s surplus falls below zero. In this thesis a review of the fundamentals of ruin theory, the modelling process and some results and methods for the estimation of ruin probabilities is made. Most of the theorems are taken from different bibliographical sources, but a good amount of the proofs presented are original, in order to provide a more rigorous and detailed explanation. A central focus of this thesis is the Pollaczek-Khinchine formula. This formula provides a solution for the probability distribution of the maximum potential loss of an insurance company in terms of convolutions of a particular function related to the claim sizes. Apart from the theoretical results that may be derived from it and its elegance, its usefulness lies in the ideas underlying it. Specially, the idea to understand the maximum potential loss of the company as the biggest of the historical records in the loss process. Using these ideas, a recursive approach to estimating ruin probabilities is ex- plained. This approach results in an easy to program and efficient bounds method which allows for any type of claim sizes (that is, the random variables that model how big are the claims of the insureds). The only restrictions imposed come from the fact that this discussion takes place within the Poisson model. This framework allows for various claim size distributions and models the number of claims as a Poisson process. Finally, two examples of light and heavy-tailed claim size distributions are simu- lated using this recursive approach. This shows the applicability of the method and the differences between light and heavy-tailed distributions with regards to the ruin probabilities that emerge from them.
  • Koskela, Olli (2012)
    Röntgentomografia, (computed tomography, CT) on laajasti sovellettu työkalu lääketieteessä. Kreikan kielen tomos tarkoittaa siivun leikkaamista. Röntgensäteiden avulla kohteesta voidaan mitata poikkileikkauksen yli viivaintegraalit. Tämän Radon muunnoksen avulla voidaan laskennallisesti määrittää poikkileikkauksen rakenne. Tässä työssä lähestytään kahta ongelmaa CT-kuvantamisessa: metalliartifaktien pois- toa ja kuvan rekonstruointimenetelmiä. MAR (metal arfifact reduction) -algoritmien kehittäminen ja teollisessa tuotannossa olevat sovellukset ovat keskittyneet filtered back-projection (FBP) tekniikan soveltamiseen kuvan rekonstruoinnissa. Tutkimuksen tavoite oli verrata rekonstuktiomenetelmiä metallia sisältävissä kuvissa ja tutkia kuinka algo ritmit toimivat Tikhonovin regularisointia tai totaalivariaatioregularisointia käyttäen. Tutkimuksessa verrattiin kolmea metalliartifakteja vähentävää MAR-algoritmia numeerista simuloinnin ja reaalidatan avulla. MAR algoritmit olivat interpolointi lineaarisesti (LI) ja Dirichlet’n raja-arvo-ongelman (DDISC) avulla sekä MDT, joka yhdistää sinogrammien muokkausta ja lineaarista interpolointia. Tikhonovin regularisointi osoittautui toimimattomaksi sekä simulaatioissa että reaalidatan yhteydessä. ATV tuotti reaalidatan ja harvan kulman simuloinneissa vähemmän artifakteja. Tuloksella on merkitystä röntgenannoksen vähentämiseksi potilastutkimuksessa. MAR-algoritmit jakautuivat kahteen: MDT toimi paremmin harvan kulman simuloinneissa, LI sekä DDISC paremmin kun mittauskulmia on enemmän. Raja on noin 50 mittauskulmaa. Reaalidatan kanssa 60 ja 120 mittauskulmalla MAR-algoritmien suoriutumisissa ei ollut selkeitä eroja.
  • Kovanen, Ville (2021)
    Maxwell’s equations are a set of equations which describe how electromagnetic fields behave in a medium or in a vacuum. This means that they can be studied from the perspective of partial differential equations as different kinds of initial value problems and boundary value problems. Because often in physically relevant situations the media are not regular or there can be irregular sources such as point sources, it’s not always meaningful to study Maxwell’s equations with the intention of finding a direct solution to the problem. Instead in these cases it’s useful to study them from the perspective of weak solutions, making the problem easier to study. This thesis studies Maxwell’s equations from the perspective of weak solutions. To help understand later chapters, the thesis first introduces theory related to Hilbert spaces, weak derivates and Sobolev spaces. Understanding curl, divergence, gradient and their properties is important for understanding the topic because the thesis utilises several different Sobolev spaces which satisfy different kinds of geometrical conditions. After going through the background theory, the thesis introduces Maxwell’s equations in section 2.3. Maxwell’s equations are described in both differential form and timeharmonic differential forms as both are used in the thesis. Static problems related to Maxwell’s equations are studied in Chapter 3. In static problems the charge and current densities are stationary in time. If the electric field and magnetic field are assumed to have finite energy, it follows that the studied problem has a unique solution. The thesis demonstrates conditions on what kind of form the electric and magnetic fields must have to satisfy the conditions of the problem. In particular it’s noted that the electromagnetic field decomposes into two parts, out of which only one arises from the electric and magnetic potential. Maxwell’s equations are also studied with the methods from spectral theory in Chapter 4. First the thesis introduces and defines a few concepts from spectral theory such as spectrums, resolvent sets and eigenvalues. After this, the thesis studies non-static problems related to Maxwell’s equations by utilising their time-harmonic forms. In time-harmonic forms the Maxwell’s equations do not depend on time but instead on frequencies, effectively simplifying the problem by eliminating the time dependency. It turns out that the natural frequencies which solve the spectral problem we study belong to the spectrum of Maxwell’s operator iA . Because the spectrum is proved to be discrete, the set of eigensolutions is also discrete. This gives the solution to the problem as the natural frequency solving the problem has a corresponding eigenvector with finite energy. However, this method does not give an efficient way of finding the explicit form of the solution.