Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by master's degree program "Master 's Programme in Mathematics and Statistics"

Sort by: Order: Results:

  • Joutsela, Aili (2023)
    In my mathematics master's thesis we dive into the wave equation and its inverse problem and try to solve it with neural networks we create in Python. There are different types of artificial neural networks. The basic structure is that there are several layers and each layer contains neurons. The input goes to all the neurons in the first layer, the neurons do calculations and send the output to all the neurons in the next layer. In this way, the input data goes through all the neurons and changes and the last layer outputs this changed data. In our code we use operator recurrent neural network. The biggest difference between the standard neural network and the operator recurrent neural network is, that instead of matrix-vector multiplications we use matrix-matrix multiplications in the neurons. We teach the neural networks for a certain number of times with training data and then we check how well they learned with test data. It is up to us how long and how far we teach the networks. Easy criterion would be when a neural network has learned the inversion completely, but it takes a lot of time and might never happen. So we settle for a situation when the error, the difference between the actual inverse and the inverse calculated by the neural network, is as small as we wanted. We start the coding by studying the matrix inversion. The idea is to teach the neural networks to do the inversion of a given 2-by-2 real valued matrix. First we deal with networks that don't have the activation function ReLU in their layers. We seek a learning rate, a small constant, that speeds up the learning of a neural network the most. After this we start comparing networks that don't have ReLU layers to networks that do have ReLU layers. The hypothesis is that ReLU assists neural networks to learn quicker. After this we study the one-dimensional wave equation and we calculate its general form of solution. The inverse problem of the wave equation is to recover wave speed c(x) when we have boundary terms. Inverse problems in general do not often have a unique solution, but in real life if we have measured data and some additional a priori information, it is possible to find a unique solution. In our case we do know that the inverse problem of the wave equation has a unique solution. When coding the inverse problem of the wave equation we use the same approach as with the matrix inversion. First we seek the best learning rate and then start to compare neural networks with and without ReLU layers. The hypothesis once again is that ReLU supports the learning of the neural networks. This turns out to be true and happens more clearly with wave equation than with matrix inversion. All the teaching was run on one computer. There is a chance to get even better results if a more powerful computer is used.
  • Stowe, William (2023)
    Is it possible to color R^2 with 2 colors in such a way that the vertices of any unit equilateral triangle are not all the same color. This thesis seeks to answer questions of this kind in the field of Euclidean Ramsey Theory. We begin by defining that a finite configuration A is k-Ramsey in R^n if any k-coloring of R^n has a monochromatic set that is congruent to A. We both prove and disprove this property for various configurations, dimensions, and numbers of colors. This includes a discussion of the problem of finding the chromatic number of the plane, and the connection of k-Ramsey problems to immersion of unit distance graphs. We then attempt to generalize this property to different equivalence relations other than congruence and study how this affects which configurations are guaranteed monochromatic. Following from the Hales-Jewett Theorem, this line of inquiry peaks with a discussion of Gallai’s Theorem, which says that translation and scaling form a sufficient set of group actions to guarantee all configurations k-Ramsey for any k, in any dimension. We then turn our attention to the property of Ramsey-ness. A configuration A is said to be Ramsey if for any number of colors k, there exists a dimension n such that A is k-Ramsey in R^n . We show that if a configuration is Ramsey, then it must be embeddable in the surface of a sphere of some dimension. Further, we show that any brick, the Cartesian product of intervals, is Ramsey, and thus any subset of a brick is Ramsey. Finally, we prove that any triangle configuration is Ramsey.
  • Nyman, Valtteri (2022)
    Tässä tutkielmassa esitellään lyhyesti PCP-teoreema, minkä jälkeen tutkielmassa pala palalta käydään läpi teoreeman todistamiseen tarvittavia työkaluja. Tutkielman lopussa todistetaan PCP-teoreema. Vaativuusluokka PCP[O(log n), O(1)] sisältää ne ongelmat, joilla on olemassa todistus, josta vakio määrän bittejä lukien probabilistinen Turingin kone kykenee ratkaisemaan ongelman käyttäen samalla vain logaritmisen määrän satunnaisuutta suhteessa syötteen kokoon. PCP-teoreema väittää vaativuusluokan NP kuuluvan vaativuusluokkaan PCP[O(log n), O(1)]. Väritys on funktio, joka yhdistää kuhunkin joukon muuttujaan jonkin symbolin. Rajoite joillekin muuttujille on lista symboleista, joita rajoite sallii asetettavan muuttujille. Jos väritys asettaa muuttujille vain rajoitteen sallimia symboleja, rajoite on tyytyväinen väritykseen. Optimointi-ongelmat koskevat sellaisten väritysten etsimistä, että mahdollisimman moni rajoite joukosta rajoitteita on tyytyväinen väritykseen. PCP-teoreemalla on yhteys optimointi-ongelmiin, ja tätä yhteyttä hyödyntäen tutkielmassa todistetaan PCP-teoreema. Tutkielma seuraa I. Dinurin vastaavaa todistusta vuoden 2007 artikkelista The PCP Theorem by Gap Amplification. Rajoiteverkko on verkko, jonka kuhunkin kaareen liittyy jokin rajoite. Rajoiteverkkoon liittyy lisäksi aakkosto, joka sisältää ne symbolit, joita voi esiintyä verkon rajoitteissa ja värityksissä. Tutkielman päälauseen avulla kyetään kasvattamaan rajoiteverkossa olevien värityksiin tyytymättömien rajoitteiden suhteellista osuutta. Päälause takaa, että verkon koko säilyy samassa kokoluokassa, ja että verkon aakkoston koko ei muutu. Lisäksi jos verkon kaikki rajoitteet ovat tyytyväisiä johonkin väritykseen, päälauseen tuottaman verkon kaikki rajoitteet ovat edelleen tyytyväisiä johonkin väritykseen. Päälause koostetaan kolmessa vaiheessa, joita kutakin vastaa tutkielmassa yksi osio. Näistä ensimmäisessä, tutkielman osiossa 4, verkon rakenteesta muovataan sovelias seuraavia osioita varten. Toisessa vaiheessa, jota vastaa osio 6, verkon kävelyitä hyödyntäen kasvatetaan tyytymättömien rajoitteiden lukumäärää, mutta samalla verkon aakkosto kasvaa. Kolmannessa vaiheessa, osiossa 5, aakkoston koko saadaan pudotettua kolmeen sopivan algoritmin avulla. Osiossa 7 kootaan päälause ja todistetaan lausetta toistaen PCP-teoreema.
  • Laarne, Petri (2021)
    The nonlinear Schrödinger equation is a partial differential equation with applications in optics and plasma physics. It models the propagation of waves in presence of dispersion. In this thesis, we will present the solution theory of the equation on a circle, following Jean Bourgain’s work in the 1990s. The same techniques can be applied in higher dimensions and with other similar equations. The NLS equation can be solved in the general framework of evolution equations using a fixed-point method. This method yields well-posedness and growth bounds both in the usual L^2 space and certain fractional-order Sobolev spaces. The difficult part is achieving good enough bounds on the nonlinear term. These so-called Strichartz estimates involve precise Fourier analysis in the form of dyadic decompositions and multiplier estimates. Before delving into the solution theory, we will present the required analytical tools, chiefly related to the Fourier transform. This chapter also describes the complete solution theory of the linear equation and illustrates differences between unbounded and periodic domains. Additionally, we develop an invariant measure for the equation. Invariant measures are relevant in statistical physics as they lead to useful averaging properties. We prove that the Gibbs measure related to the equation is invariant. This measure is based on a Gaussian measure on the relevant function space, the construction and properties of which we briefly explain.
  • Moilanen, Eero (2022)
    In the thesis ”P-Fredholmness of Band-dominated Operators, and its Equivalence to Invertibility of Limit Operators and the Uniform Boundedness of Their Inverses”, we present the generalization of the classical Fredholm-Riesz theory with respect to a sequence of approximating projections on direct sums of spaces. The thesis is a progessive introduction to understanding and proving the core result in the generalized Fredholm-Riesz theory, which is stated in the title. The stated equivalence has been further improved and it can be generalized further by omitting either the initial condition of richness of the operator or the uniform boundedness criterion. Our focal point is on the elementary form of this result. We lay the groundwork for the classical Fredholm-Riesz theory by introducing compact operators and defining Fredholmness as invertibility on modulo compact operators. Thereafter we introduce the concept of approximating projections in infinite direct sums of Banach spaces, that is we operate continuous operators with a sequence of projections which approach the identity operator in the limit and examine whether we have convergence in the norm sense. This method yields us a way to define P-compactness, P-strong converngence and finally PFredholmness. We introduce the notion of limit operators operators by first shifting, then operating and then shifting back an operator with respect to an element in a sequence and afterwards investigating what happens in the P-strong limit of this sequence. Furthermore we define band-dominated operators as uniform limits of linear combinations of simple multiplication and shift operators. In this subspace of operators we prove that indeed for rich operators the core result holds true.
  • Apell, Kasperi (2023)
    Let L_N denote the maximal number of points in a rate 1 Poisson process on the plane which a piecewise linear increasing path can pass through while traversing from (0, 0) to (N, N). It is well-known that the expectation of L_N / N converges to 2 as N increases without bound. A perturbed version of this system can be introduced by superimposing an independent one-dimensional rate c > 0 Poisson process on the main diagonal line {x = y} of the plane. Given this modification, one asks whether and if so, how, the above limit might be affected. A particular question of interest has been whether this modified system exhibits a nontrivial phase transition in c. That is, whether there exists a threshold value c_0 > 0 such that the limit is preserved for all c < c_0 but lost outside this interval. Let L^c_N denote the maximal number of points in the system perturbed by c > 0 which an increasing piecewise linear path can pass through while traversing from (0, 0) to (N, N). In 2014, Basu, Sidoravicius, and Sly showed that there is no such phase transition and that, for all c > 0, the expectation of L^c_N / N converges to a number strictly greater than 2 as N increases without bound. This thesis gives an exposition of the arguments used to deduce this result.
  • Jylhä, Lotta (2022)
    Pólyan lauseen mukaan verkon Z^d symmetrinen satunnaiskävely on palautuva, jos d < 3 ja poistuva, jos d ≥ 3. Alunperin Georg Pólyan todistamalle lauseelle on ajan kuluessa muodostunut erilaisia todistusmenetelmiä. Tässä tutkielmassa syvennytään näistä kahteen toisiaan täydentävään menetelmään ja todistetaan Pólyan lause niiden avulla. Luvussa 5.1 Pólyan lauseelle esitetään laskennallinen todistus, joka tarjoaa yksinkertaisen ja konkreettisen tavan tutkia säännöllisen verkon satunnaiskävelyn käyttäytymistä. Luvussa 5.2 esitettävän virtauksen teorian avulla voidaan Pólyan lauseen lisäksi tutkia satunnaiskävelyn käyttäytymistä laajemmin eri verkoissa. Tarvittavat taustatiedot verkosta, Markovin ketjusta ja satunnaiskävelystä esitetään luvuissa 2 ja 3. Pólyan lauseen todistus on jaettu kahteen eri lukuun. Lauseen todistus alkaa luvusta 5.1, jossa verkon syklien ja polkujen lukumääriä tutkimalla Pólyan lause osoitetaan verkolle Z^d, missä d ≤ 3. Kombinatorinen todistus on idealtaan yksinkertainen, mutta siinä tehtävä arvio vaatii syvällisempää perustelua. Tutkielmassa tämä arvio toteutetaan Robbinsin kaavalla, joka on tarkempi arvio kirjallisuudessa useammin käytetylle Stirlingin kaavalle. Robbinsin kaava osoitetaan luvussa 4. Luvussa 5.2 esitetään verkon virtauksen teoria, jonka avulla Pólyan lause todistetaan verkolle Z^d, missä d > 3. Verkon virtauksen ja satunnaiskävelyn yhteys löytyy virtaukseen liittyvästä energian käsitteestä. Osoittautuu, että verkon virtauksista energialtaan pienimmän virtauksen energia riippuu verkon satunnaiskävelyn käyttäytymisestä. Tulos osoitetaan ensin äärelliselle verkolle, josta se johdetaan koskemaan ääretöntä verkkoa verkkoon liittyvän kontraktion käsitteen avulla. Luvussa 6 Pólyan lauseen merkitys korostuu, kun virtauslauseen avulla osoitetaan, että satunnaiskävelyn poistuvuus säilyy verkkojen kvasi-isometriassa. Tätä varten esitetään virtauslauseen seurauksia ja tarvittavat taustatiedot kvasi-isometriasta
  • Nurmela, Janne (2022)
    The quantification of carbon dioxide emissions pose a significant and multi-faceted problem for the atmospheric sciences as a part of the research regarding global warming and greenhouse gases. Emissions originating from point sources, referred to as plumes, can be simulated using mathematical and physical models, such as a convection-diffusion plume model and a Gaussian plume model. The convection-diffusion model is based on the convection-diffusion partial differential equation describing mass transfer in diffusion and convection fields. The Gaussian model is a special case or a solution for the general convection-diffusion equation when assumptions of homogeneous wind field, relatively small diffusion and time independence are made. Both of these models are used for simulating the plumes in order to find out the emission rate for the plume source. An equation for solving the emission rate can be formulated as an inverse problem written as y=F(x)+ε where y is the observed data, F is the plume model, ε is the noise term and x is an unknown vector of parameters, including the emission rate, which needs to be solved. For an ill-posed inverse problem, where F is not well behaved, the solution does not exist, but a minimum norm solution can be found. That is, the solution is a vector x which minimizes a chosen norm function, referred to as a loss function. This thesis focuses on the convection-diffusion and Gaussian plume models, and studies both the difference and the sensibility of these models. Additionally, this thesis investigates three different approaches for optimizing loss functions: the optimal estimation for linear model, Levenberg–Marquardt algorithm for non-linear model and adaptive Metropolis algorithm. A goodness of different fits can be quantified by comparing values of the root mean square errors; the better fit the smaller value the root mean square error has. A plume inversion program has been implemented in Python programming language using the version 3.9.11 to test the implemented models and different algorithms. Assessing the parameters' effect on the estimated emission rate is done by performing sensitivity tests for simulated data. The plume inversion program is also applied for the satellite data and the validity of the results is considered. Finally, other more advanced plume models and improvements for the implementation will be discussed.
  • Anni, Andelin (2023)
    Predator—prey models can be studied from several perspectives each telling its own story about real-life phenomena. For this thesis the perspective chosen, is to include prey—rescue to the standoff between the predator and the prey. Prey--rescue is seen in the nature for many species, but to point one occurrence out, the standoff between a hyena and a lion. When a lion attacks a hyena, the herd of the hyena try to frighten the lion away. The rescue attempt can either be successful or a failure. In this thesis the prey-rescue model is derived for an individual rescuer and for a group of prey. For both cases, the aim is to derive the functional and numerical responses of the predator, but the focus is on the deriving and studying of the functional responses. First, a brief background to motivate the study of this thesis is given. The indroduction goes through the most important aspects of predator—prey modelling and gives an example of a simple, but broadly known Lotka—Volterra predator-prey model. The study begins with the simplest case of prey-rescue, the individual prey—rescue. First, the individual level states, their processes and all the assumptions of the model are introduced. Then, the model is derived and reduced with timescale separation to achieve more interpretable results. The functional response is formed after solving the quasi-equilibrium of the model. It was found that this way of constructing the model gives the popular Holling Type II functional response. Then, it is examined what follows when more and more prey get involved to the standoff trying to rescue the individual being attacked by. This is studied in three different time-scales: ultra—fast, intermediate, and slow timescales. The process of deriving the model and the functional response is like in the simple case of individual prey rescue, but the calculations get more intense. The functional response was found to be uninteresting. In conclusion, the model was adjusted. One of the timescales is left out from the studies in hopes for more interesting results. The derivation came out similar as in the third chapter, but with more advanced calculations and different results of quasi-equilibrium and functional response. The functional response obtained, was found to be worth of studying in a detailed fashion. This detailed study of the functional response obtained, is done last. It was found that different parameter choices affect the shape of the functional response. The parameters were chosen to be biologically relevant. Assuming that the rescue is certain for the group size n = 2, it was found that the functional response took a humpback form for some choices of the other parameters. The parameter ranges, for which the functional response had a humpback shape, were found.
  • Ranimäki, Jimi (2023)
    It is important that the financial system retains its functionality throughout the macroeconomic cycle. When people lose their trust in banks the whole economy can face dire consequences. Therefore accurate and stable predictions of the expected losses of borrowers or loan facilities are vital for the preservation of a functioning economy. The research question of the thesis is: What effect does the choice of calibration type have on the accuracy of the probability of default values predictions. The research question is attempted to be answered through an elaborate simulation of the whole probability of default model estimation exercise, with a focus on the rank order model calibration to the macroeconomic cycle. Various calibration functions are included in the study to offer more diversity in the results. Furthermore, the thesis provides insight into the regulatory environment of financial institutions, presenting relevant articles from accords, regulations and guidelines by international and European supervisory agents. In addition, the thesis introduces statistical methods for model calibration to the long-run average default rate. Finally, the thesis studies the effect of calibration type on the probability of default parameter estimation. The investigation itself is done by first simulating the data and then by applying multiple different calibration functions, including two logit functions and two Bayesian models to the simulated data. The simulation exercise is repeated 1 000 times for statistically robust results. The predictive power was measured using mean squared error and mean absolute error. The main finding of the investigation was that the simple grades perform unexpectedly well in contrast to raw predictions. However, the quasi moment matching approach for the logit function generally resulted in higher predictive power for the raw predictions in terms of the error measures, besides against the captured probability of default. Overall, simple grades and raw predictions yielded similar levels of predictive power, while the master scale approach lead to lower numbers. It is reasonable to conclude that the best selection of approaches according to the investigation would be the quasi moment matching approach for the logit function either with simple grades or raw predictions calibration type, as the difference in the predictive power between these types was minuscule. The calibration approaches investigated were significantly simplified from actual methods used in the industry, for example, calibration exercises mainly focus on the derivation of the correct long-run average default rate over time and this study used only the central tendency of the portfolio as the value.
  • Halonen, Pyry (2022)
    Prostate cancer is the second most common cancer among men and the risk evaluation of the cancer prior the treatment can be critical. Risk evaluation of the prostate cancer is based on multiple factors such as clinical assessment. Biomarkers are studied as they would also be beneficial in the risk evaluation. In this thesis we assess the predictive abilities of biomarkers regarding the prostate cancer relapse. The statistical method we utilize is logistic regression model. It is used to model the probability of a dichotomous outcome variable. In this case the outcome variable indicates if the cancer of the observed patient has relapsed. The four biomarkers AR, ERG, PTEN and Ki67 form the explanatory variables. They are the most studied biomarkers in prostate cancer tissue. The biomarkers are usually detected by visual assessment of the expression status or abundance of staining. Artificial intelligence image analysis is not yet in common clinical use, but it is studied as a potential diagnostic assistance. The data contains for each biomarker a visually obtained variable and a variable obtained by artificial intelligence. In the analysis we compare the predictive power of these two differently obtained sets of variables. Due to the larger number of explanatory variables, we seek the best fitting model. When we are seeking the best fitting model, we use an algorithm glmulti for the selection of the explanatory variables. The predictive power of the models is measured by the receiver operating characteristic curve and the area under the curve. The data contains two classifications of the prostate cancer whereas the cancer was visible in the magnetic resonance imaging (MRI). The classification is not exclusive since a patient could have had both, a magnetic resonance imaging visible and an invisible cancer. The data was split into three datasets: MRI visible cancers, MRI invisible cancers and the two datasets combined. By splitting the data we could further analyze if the MRI visible cancers have differences in the relapse prediction compared to the MRI invisible cancers. In the analysis we find that none of the variables from MRI invisible cancers are significant in the prostate cancer relapse prediction. In addition, all the variables regarding the biomarker AR have no predictive power. The best biomarker for predicting prostate cancer relapse is Ki67 where high staining percentage indicates greater probabilities for the prostate cancer relapse. The variables of the biomarker Ki67 were significant in multiple models whereas biomarkers ERG and PTEN had significant variables only in a few models. Artificial intelligence variables show more accurate predictions compared to the visually obtained variables, but we could not conclude that the artificial intelligence variables are purely better. We learn instead that the visual and the artificial intelligence variables complement each other in predicting the cancer relapse.
  • Mattila, Mari (2023)
    Tilastokeskuksessa haluttiin kehittää omakotitalojen lämmitysöljyn käyttöä ja lämmitystapaa ku- vaavia tilastoja. Asumisen rahoitus- ja kehittämiskeskuksen ylläpitämä energiatodistusrekisteri näh- tiin yhdeksi mahdolliseksi aineistoksi, jota kehittämisessä voisi käyttää. Kun energiatodistusrekis- terin aineistoa alettiin tarkastella, huomattiin, että energiatodistusrekisteriin valikoituu keskimää- räistä suurempia ja uudempia rakennuksia. Valikoituneisuuden oletettiin muodostuvan keskeiseksi ongelmaksi energiatodistusrekisterin hyödyntämisessä. Tutkimuskysymykseksi muotoutui, ovatko rakennuskannan öljylämmitteisten omakotitalojen tiedot lämmitystavasta ja pinta-alasta energia- todistusrekisterissä yleistettävissä koko rakennuskantaan. Koska valikoituneisuus on yksi puuttuneisuuden ilmenemismuoto, tutkimuksen teoriaosuudessa pää- tettiin keskittyä puuttuneisuuteen. Puuttuneisuuden mekanismi on tutkimuksen teoriaosan kes- keisimpiä käsitteitä. Puuttuneisuuden mekanismi voi olla täysin satunnainen, satunnainen tai ei- satunnainen. Puuttuneisuuden mekanismi vaikuttaa siihen, mitä tilastollisia menetelmiä aineiston mallintamiseen soveltuu. Tässä tutkimuksessa puuttuneisuuden oletettiin olevan ei-satunnaista. Kun puuttuneisuuden mekanismi on ei-satunnainen, puuttuneisuutta käsitellään yleensä satunnai- silmiönä. Tutkimuksen aineistolle ja puuttuneisuutta kuvaavalle puuttuneisuusindikaattorille muo- dostetaan tilastollinen malli, johon voidaan soveltaa uskottavuuspäättelyä. Tutkimuksessa malliksi valittiin Heckmanin valintamalli. Malli on tarkoitettu käytettäväksi silloin, kun aineisto on valikoitunut tutkittavan ilmiön perusteella. Esimerkiksi öljyn kulutus voidaan esti- moida vain öljylämmittäjistä muodostetun aineiston perusteella. Hackmanin mallilla voidaan ottaa huomioon se, että ölyn kulutus puuttuu niiltä taloilta, jotka eivät lämmitä öljyllä. Kun Heckmanin malli oli estimoitu, sen hyvyyttä arvioitiin ristiinvalidoimalla. Ristiinvalidoinnissa ennustettiin öljylämmityksessä pysymistä. Malli ennusti vain noin 58 % tapauksista oikein. Tätä onnistumisprosenttia pidettiin liian pienenä, jotta mallia kannattaisi käyttää Tilastokeskuksessa energiankulutustietojen korjaamiseen. Syitä mallintamisen epäonnistumiselle voi olla esimerkiksi se, että öljylämmityksen vaihtaminen tapahtuu pitkän aikaikkunan sisällä. Mallin selittäjien vaikutus vasteeseen voi vaihdella eri ajan- kohtina. Malli ei ottanut aikaa huomioon, vaan kaikki asuntokunta kuvaavat muuttujat oli keskiar- voistettu. Malliyhtälö saattoi olla väärä myös siitä näkökulmasta, että siitä saattoi puuttua tärkeitä kotitalouskohtaisia selittäjiä, joita ei vain ollut rekisteriaineistosta saatavilla.
  • Karsh, Roy (2023)
    Vakuutussopimuksen hinnoittelun tarkoituksena on löytää tasapaino vakuutuksenottajan ja -antajan välillä. Sen rakenne muodostuu karkeasti ottaen kolmesta osasta, joista suurin ja merkittävin osuus on riskimaksu, jolla tarkoitetaan maksettavan korvauksen odotusarvoa. Tässä maisterintutkielmassa riskimaksu määritetään credibility-teorian kahden tason hierarkkisen mallin avulla. Riskimaksu määritetään ensin yhden vakuutetun kohdalla nojautuen tämän yksittäisen vakuutetun vahinkohistoriaan. Tämän jälkeen riskimaksu määritetään samanaikaisesti kahdelle tai useammalle vakuutetulle, jotka muodostavat joukon, jossa nämä vakuutetut ovat samankaltaisesti vakuutettu. Tätä joukkoa kutsutaan heterogeeniseksi vakuutuskannaksi. Credibility-teoriassa riskimaksu määritetään siten, että selvitetään estimaattori, joka yhdistää yksittäisen vakuutetun oman vahinkohistorian ja sen tiedon, että tämä vakuutettu kuuluu johonkin tiettyyn vakuutuskantaan. Tämä estimaattori saadaan siten, että löydetään reaalilukuiset arvot painottamaan näitä kahta ominaisuutta. Vakuutustiedot sisältävät usein hierarkkisen rakenteen. Tasot kuvaavat epävarmuuden jakautumista vakuutustiedoissa eli mallin satunnaismuuttujien jakaumassa. Kahden tason hierarkkisessa mallissa kahden satunnaismuuttujan jakaumassa on epävarmuutta, kun mallin satunnaismuuttujat muodostavat mallin rakenteessa tietyn järjestyksen eli hierarkian. Kahden tason hierarkkisessa mallissa riskimaksu määritetään selvittämällä sitä vastaava estimaattori Hilbertin avaruuteen liittyvän teorian avulla. Riskimaksun selvittäminen kahden tason hierarkkisen mallin avulla on tämän maisterintutkielman keskeisin tavoite, kun tutkitaan vakuutetun kohdalla tasan yhtä vahinkohavaintoa tämän vakuutetun vahinkohistoriassa. Credibility-teorian avulla selvitettyä riskimaksua vastaavaa estimaattoria kutsutaan credibility-estimaattoriksi, jonka antamaa tulosta kutsutaan credibility-maksuksi. Credibility-maksu on siten credibility-teorian avulla määritetty riskimaksu. Credibility-teorian osalta esitetään malliin liittyviä parametreja ja erilaisia esimerkkitehtäviä sekä -kuvia.
  • Puumalainen, Aura (2022)
    Tässä tutkielmassa esitetään suojausmenetelmä monitilaisille sijoitussidonnaisille henkivakuutuksille. Sijoitussidonnaisissa henkivakuutussopimuksissa vakuutusyhtiön vakuutetulle maksamat korvaukset riippuvat sekä vakuutetun tilasta että arvopaperimarkkinoista. Arvopaperimarkkinat ovat jatkuva-aikaiset ja koostuvat yhdestä riskittömästä ja yhdestä riskillisestä arvopaperista, joita vakuutusyhtiöllä on portfoliossaan. Esiteltävässä suojausmenetelmässä tulevien kustannusten neliön ehdollinen odotusarvo minimoidaan portfolion suhteen kaikkina tarkasteltavina ajanhetkinä. Näin määritettyä yksikäsitteistä portfolioprosessia kutsutaan riskin minimoivaksi suojausstrategiaksi. Ensimmäisessä luvussa käydään läpi myöhempien lukujen kannalta välttämättömiä esitietoja. Todennäköisyysteoria oletetaan pääosin tunnetuksi, ja stokastisen analyysin asioiden kohdalla useimmat todistukset sivuutetaan. Tuloksista keskeisimpänä mainittakoon Galtchouk-Kunita-Watanabe-hajotelma, jonka todistus esitetään aputuloksiin vedoten. GKW-hajotelman mukaan neliöintegroituva martingaali voidaan esittää yksikäsitteisesti kolmen tietyt ehdot toteuttavan martingaalin summana. Toisessa luvussa esitellään lyhyesti tunnettu Black-Scholes-markkinamalli. Lisäksi määritellään maksuprosessi, jolla kuvataan henkivakuutussopimuksen generoimia maksuja vakuutusyhtiön näkökulmasta. Tämän jälkeen tutustutaan maksujen ehdollisen odotusarvoprosessin käsitteeseen ja määritetään yksikäsitteinen riskin minimoiva suojausstrategia sekä sitä vastaava riskiprosessi yleiselle maksuprosessille. Ratkaiseviksi tekijöiksi osoittautuvat maksujen ehdollisen odotusarvoprosessin GKW-hajotelmassa esiintyvä ennustettava prosessi ja riskittömällä arvopaperilla diskontatun riskillisen arvopaperin kanssa ortogonaalinen martingaali. Kolmas luku käsittelee monitilaisten henkivakuutusten mallintamista Markov-prosessien avulla ja niin kutsuttua yhdistettyä mallia. Yhdistetty malli koostuu sekä arvopaperimarkkinoiden että vakuutetun tilan kehitystä kuvaavan Markov-prosessin generoimista filtraatioista, jotka oletetaan riippumattomiksi. Luvun päätteeksi johdetaan esitys monitilaisen sijoitussidonnaisen henkivakuutussopimuksen maksuprosessille. Neljännessä luvussa määritetään riskin minimoiva suojausstrategia ja riskiprosessi edellä johdetulle maksuprosessille. Ensin todistetaan kuitenkin kyseistä maksuprosessia vastaavan maksujen ehdollisen odotusarvoprosessin GKW-hajotelma, jonka avulla suojausstrategia riskiprosesseineen löydetään. Lopussa suojausstrategiaa sovelletaan yksinkertaisten kaksi- ja kolmitilaisten Markov-prosesseilla mallinnettavien sijoitussidonnaisten henkivakuutussopimusten maksuprosesseihin.
  • Asikainen, Timo (2023)
    Tässä työssä esitetään ja todistetaan Seifertin--van Kampenin lause. Lauseen avulla voidaan muodostaa perusryhmä topologiselle avaruudelle, joka koostuu sopivalla tavalla kahdesta tai useammasta osa-avaruudesta, joiden perusryhmät oletetaan tunnetuksi. Yleisesti perusryhmän käsite kuuluu algebrallisen topologian alaan, jossa sovelletaan abstraktin algebran käsitteitä ja menetelmiä topologisiin avaruuksiin. Perusryhmä kuvaa tärkeällä tavalla topologisen avaruuden rakennetta: topologisen avaruuden rakenteen esitys algebrallisena rakenteena, ryhmänä, on tärkeä abstraktiokeino, joka avaa merkittäviä mahdollisuuksia topologisia avaruuksia koskevalle päättelylle. Seifertin--van Kampenin lause mahdollistaa tämän päättelyn soveltamisen myös sellaisiin avaruuksiin, joiden perusryhmän muodostaminen suoraan määritelmistä lähtien ei onnistu kohtuudella. \vspace{6pt} Johdantona Seifertin--van Kampenin lauseelle työssä esitetään lauseen kannalta keskeisten algebran ja topologian käsitteiden määritelmät. Lisäksi annetaan ja osin esitetään todistukset keskeisille lauseille, joita tarvitaan Seifertin--van Kampenin lauseen todistuksessa. \vspace{6pt} Esimerkkeinä Seifertin--van Kampenin lauseen sovelluksista johdetaan kiilasumman ja erään graafin perusryhmä. Laajempana sovelluksena määritellään monistojen ja niiden erikoistapauksena kompaktien pintojen käsite ja niiden monikulmioesitys. Lopuksi esitetään ja osin todistetaan Seifertin--van Kampenin lauseen avulla kompaktien pintojen luokittelulause, jonka mukainen jokainen kompakti pinta on homeomorfinen pallon, torusten yhtenäisen summan tai projektiivisten tasojen yhtenäisen summan ja vain yhden näistä kanssa.
  • Mäkelä, Antti (2023)
    This thesis follows a proof for Selberg’s Central Limit Theorem for log |ζ( 1/2 + it)|. The theorem states that the random variable ( 1/2 log log T )^(−1/2) log |ζ( 1/2 +it)| with T ≤ t ≤ 2T converges to N (0, 1) weakly as T → ∞. The proof we follow is by Kannan Soundararajan and Maxym Radziwill. The intention is to expand on the details that their original work leaves for the reader to fill in. Their proof is a four step approximation. The first step shifts the consideration right from the critical line Im(s) = 1/2. The second step is proving that a random variable based on a related Dirichlet polynomial converges weakly to N (0, 1). The third step ties another Dirichlet polynomial to the one from the previous step. The final step is to tie the Dirichlet polynomial from step 3 to the Riemann Zeta. One way to interpret Selberg’s Central Limit Theorem is that extreme ab- solute values of the Riemann Zeta become proportionally rarer when we look further on the critical line. The function does not linger long around its zeros and it does not stay close to its extreme values for long. Most of its values will have an absolute value close to √ (1/2 log log T) .
  • Satukangas, Eetu Aatos Elmeri (2023)
    In this thesis we prove a short time asymptotic formula for a path integral solution to the Fokker Planck heat equation on a Riemannian manifold. The result is inspired by multiple developments regarding the theory of stochastic differential equations on a Riemannian manifold. Most notably the papers by Itô (1962) which describes the stochastic differential equation, Graham (1985) which describes the probabilistic time development of the stochastic differential equation via a path integral and Anderson and Driver (1999) which proves that Graham's path integral converges to the correct notion of probability. The starting point of the thesis is a paper by R. Graham (1985) where a path integral formula for the solution of the heat equation on a Riemannian manifold is given in terms of a stochastic differential equation in Itô sense. The path integral formula contains an integrand of the exponential of an action function. The action function is defined by the given stochastic differential equation and additional integration variables denoted as the momenta of the paths appearing in the integral. The path integral is defined as the time continuum limit of a product of integrals on a discrete time lattice. The result obtained in this thesis is proven by considering the saddle point approximation of the action appearing in the finite version of Graham's path integral formula. The saddle point approximation gives a power series approximation of the action up to the second order by taking the first and second variations of the action and setting the first variation as zero. We say that the saddle point approximation is evaluated along the critical path of the action which is defined by taking the first variation as zero. The second variation of the action is called the Hessian matrix. With the saddle point approximation of the action, we obtain an asymptotic formula of the path integral which contains the exponential of the action evaluated along the critical path and the determinant of the Hessian. The main part of the proof is the evaluation of the determinant of the Hessian in the continuum limit. To this end we prove a finite dimensional version of a theorem due to R. Forman (1987), called Forman's theorem, which allows us to calculate the ratio of determinants of the Hessian parametrized by two different boundary conditions as a ratio of finite dimensional determinants. We then show that in the continuum limit the ratio of determinants of the Hessian can be written in terms of the Jacobi ow. With the Forman's theorem we then get the short time asymptotic formula by evaluating the determinants on a short time interval.
  • Uotila, Valter Johan Edvard (2022)
    In this work, I prove the theorem of Bröcker and Scheiderer for basic open semi-algebraic sets. The theorem provides an upper bound for a stability index of a real variety. The theory is based on real closed fields which generalize real numbers. A real variety is a subset of a real closed field that is defined by polynomial equalities. Every semi-algebraic set is defined by a boolean combination of polynomial equations and inequalities of the sign conditions involving a finite number of polynomials. The basic semi-algebraic sets are those semi-algebraic sets that are defined solely by the sign conditions. In other words, we can construct semi-algebraic sets from the basic semi-algebraic sets by taking the finite unions, intersections, and complements of the basic semi-algebraic sets. Then the stability index of a real variety indicates the upper bound of numbers of polynomials that are required to express an arbitrary semi-algebraic subset of the variety. The theorem of Bröcker and Scheiderer shows that such upper bound exists and is finite for basic open semi-algebraic subsets of a real variety. This work aims to be detailed in the proofs and represent sufficient prerequisites and references. The first chapter introduces the topic generally and motivates to study the theorem. The second chapter provides advanced prerequisites in algebra. One of such results is the factorial theorem of a total ring of fractions. Other advanced topics include radicals, prime ideals, associative algebras, a dimension of a ring, and various quotient structures. The third chapter defines real closed fields and semi-algebraic sets that are the fundamental building blocks of the theory. The third chapter also develops the theory of quadratic forms. The main result of this chapter is Witt’s cancellation theorem. We also shortly describe the Tsen-Lang theorem. The fourth chapter is about Pfister forms. Pfister forms are special kinds of quadratic forms that we extensively use in the proof of the main theorem. First, we define general Pfister forms over fields. Then we develop their theory over the fields of rational functions. Generally, Pfister forms share multiple similar properties as quadratic forms. The fifth chapter represents one- and two-dimensional examples of the main theorem. These examples are based on research that is done on constructive approaches to the theorem of Bröcker and Scheiderer. The examples clarify and motivate the result from an algorithmic perspective. Finally, we prove the main theorem of the work. The proof is heavily based on Pfister forms.
  • Talvensaari, Mikko (2022)
    Gaussiset prosessit ovat satunnaisprosesseja, jotka soveltuvat erityisen hyvin ajallista tai avaruudellista riippuvuutta ilmentävän datan mallintamiseen. Gaussisten prosessien helppo sovellettavuus on seurausta siitä, että prosessin äärelliset osajoukot noudattavat moniulotteista normaalijakaumaa, jonka määrittävät täydellisesti prosessin odotusarvofunktio ja kovarianssifunktio. Multinormaalijakaumaan perustuvan uskottavuusfunktion ongelma on heikko skaalautuvuus, sillä uskottavuusfunktion evaluoinnissa välttämätön kovarianssimatriisin kääntäminen on aikavaativuudeltaan aineiston koon kuutiollinen funktio. Tässä tutkielmassa kuvataan temporaalisille gaussisille prosesseille esitysmuoto, joka perustuu stokastisten differentiaaliyhtälöryhmien määrittämiin vektoriarvoisiin Markov-prosesseihin. Menetelmän aikatehokkuushyöty perustuu vektoriprosessin Markov-ominaisuuteen, eli siihen, että prosessin tulevaisuus riippuu vain matalaulotteisen vektorin nykyarvosta. Stokastisen differentiaaliyhtälöryhmän määrittämästä vektoriprosessista johdetaan edelleen diskreettiaikainen lineaaris-gaussinen tila-avaruusmalli, jonka uskottavuusfunktio voidaan evaluoida lineaarisessa ajassa. Tutkielman teoriaosuudessa osoitetaan stationaaristen gaussisten prosessien spektraaliesitystä käyttäen, että stokastisiin differentiaaliyhtälöjärjestelmiin ja kovarianssifunktihin perustuvat määritelmät ovat yhtäpitäviä tietyille stationaarisille gaussisille prosesseille. Tarkat tila-avaruusmuodot esitetään Matérn-tyypin kovarianssifunktioille sekä kausittaiselle kovarianssifunktiolle. Lisäksi teoriaosuudessa esitellään tila-avaruusmallien soveltamisen perusoperaatiot Kalman-suodatuksesta silotukseen ja ennustamiseen, sekä tehokkaat algoritmit operaatioiden suorittamiseen. Tutkielman soveltavassa osassa tila-avaruusmuotoisia gaussisia prosesseja käytettiin mallintamaan ja ennustamaan käyttäjädatan läpisyöttöä 3g-solukkoverkon tukiasemissa. Bayesiläistä käytäntöä noudattaen epävarmuus malliparametreistä ilmaistiin asettamalla parametreille priorijakaumat. Aineiston 15 aikasarjaa sovitettiin sekä yksittäisille aikasarjoille määriteltyyn malliin että moniaikasarjamalliin, jossa aikasarjojen väliselle kovarianssille johdettiin posteriorijakauma. Moniaikasarjamallin viiden viikon ennusteet olivat 15 aikasarjan aineistossa keskimäärin niukasti parempia kuin yksisarjamallin. Kummankin mallin ennusteet olivat keskimäärin parempia kuin laajalti käytettyjen ARIMA-mallien ennusteet.
  • Rautavirta, Juhana (2022)
    Comparison of amphetamine profiles is a task in forensic chemistry and its goal is to make decisions on whether two samples of amphetamine originate from the same source or not. These decisions help identifying and prosecuting the suppliers of amphetamine, which is an illicit drug in Finland. The traditional approach of comparing amphetamine samples involves computation of the Pearson correlation coefficient between two real-valued sample vectors obtained by gas chromatography-mass spectrometry analysis. A two-sample problem, such as the problem of comparing drug samples, can also be tackled with methods such as a t-test or Bayes factors. Recently, a newer method called predictive agreement (PA) has been applied in the comparison of amphetamine profiles, comparing the posterior predictive distributions induced by two samples. In this thesis, we did a statistical validation of the use of this newer method in amphetamine profile comparison. In this thesis, we compared the performance of the predictive agreement method to the traditional method involving computation of the Pearson correlation coefficient. Techniques such as simulation and cross-validation were used in the validation. In the simulation part, we simulated enough data to compute 10 000 PA and correlation values between sample pairs. Cross-validation was used in a case-study, where a repeated 5-fold group cross-validation was used to study the effect of changes in the data used in training of the model. In the cross-validation, performance of the models was measured with area under curve (AUC) values of receiver operating characteristics (ROC) and precision-recall (PR) curves. For the validation, two separate datasets collected by the National Bureau of Investigation of Finland (NBI), were available. One of the datasets was a larger collection of amphetamine samples, whereas the other dataset was a more curated group of samples, of which we also know which samples are somehow linked to each other. On top of these datasets, we simulated data representing amphetamine samples that were either from different or same source. The results showed that with the simulated data, predictive agreement outperformed the traditional method in terms of distinguishing sample pairs consisting of samples from different sources, from sample pairs consisting of samples from the same source. The case-study showed that changes in the training data have quite a marginal effect on the performance of the predictive agreement method, and also that with real world data, the PA method outperformed the traditional method in terms of AUC-ROC and AUC-PR values. Additionally, we concluded that the PA method has the benefit of interpretation, where the PA value between two samples can be interpreted as the probability of these samples originating from the same source.