Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by master's degree program "Master's Programme in Mathematics and Statistics"

Sort by: Order: Results:

  • Siurua, Joel (2023)
    Contacts between individuals play a central part in infectious disease modelling. Social or physical contacts are often determined through surveys. These types of contacts may not accurately represent the truly infectious contacts due to demographic differences in susceptibility and infectivity. In addition, surveyed data is prone to statistical biases and errors. For these reasons, a transmission model based on surveyed contact data may make predictions that are in conflict with real-life observations. The surveyed contact structure must be adjusted to improve the model and produce reliable predictions. The adjustment can be done in multiple different ways. We present five adjustment methods and study how the choice of method impacts a model’s predictions about vaccine effectiveness. The population is stratified into n groups. All five adjustment methods transform the surveyed contact matrix such that its normalised leading eigenvector (the model-predicted stable distribution of infections) matches the observed distribution of infections. The eigenvector method directly adjusts the leading eigenvector. It changes contacts antisymmetrically: if contacts from group i to group j increase, then contacts from j to i decrease, and vice versa. The susceptibility method adjusts the group-specific susceptibility of individuals. The changes in the contact matrix occur row-wise. Analogously, the infectivity method adjusts the group-specific infectivity; changes occur column-wise. The symmetric method adjusts susceptibility and infectivity in equal measure. It changes contacts symmetrically with respect to the main diagonal of the contact matrix. The parametrised weighting method uses a parameter 0 ≤ p ≤ 1 to weight the adjustment between susceptibility and infectivity. It is a generalisation of the susceptibility, infectivity and symmetric methods, which correspond to p = 0, p = 1 and p = 0.5, respectively. For demonstrative purposes, the adjustment methods were applied to a surveyed contact matrix and infection data from the COVID-19 epidemic in Finland. To measure the impact of the method on vaccination effectiveness predictions, the relative reduction of the basic reproduction number was computed for each method using Finnish COVID-19 vaccination data. We found that the eigenvector method has no impact on the relative reduction (compared to the unadjusted baseline case). As for the other methods, the predicted effectiveness of vaccination increased the more infectivity was weighted in the adjustment (that is, the larger the value of the parameter p). In conclusion, our study shows that the choice of adjustment method has an impact on model predictions, namely those about vaccination effectiveness. Thus, the choice should be considered when building infectious disease models. The susceptibility and symmetric methods seem the most natural choices in terms of contact structure. Choosing the ”optimal” method is a potential topic to explore in future research.
  • Parviainen, Katariina (2021)
    Tutkielmassa käsitellään avaruuden $\cc^n$ aitoja holomorfisia kuvauksia. Niiden määritelmät perustuvat aidon kuvauksen lauseeseen ja kuvausten holomorfisuuteen. Olkoon $\Omega,D\subset\cc^n$, ja olkoon $n>1$. Kuvaus $F:\Omega\to D$ on aito kuvaus, jos $F^{-1}(K)$ on kompakti $\Omega$:n osajoukko jokaiselle kompaktille joukolle $K\subset D$. Holomorfisuus tarkoittaa kuvauksen kompleksista analyyttisyyttä, kompleksista differentioituvuutta sekä sitä, että kuvaus toteuttaa Cauchy-Riemannin yhtälöt. Funktio $f$ on holomorfinen avaruuden $\cc^n$ avoimessa joukossa $\Omega$, jos sille pätee $f:\Omega\to\cc$, $f\in C^1(\Omega)$, ja jos se toteuttaa Cauchy-Riemannin yhtälöt $\overline{\partial}_jf=\frac{\partial f}{\partial\overline{z_j}}=0$ jokaiselle $j=1,\ldots,n$. Kuvaus $F=(f_1,\ldots,f_m):\Omega\to\cc^m$ on holomorfinen joukossa $\Omega$, jos funktiot $f_k$ ovat holomorfisia jokaisella $k=1,\ldots,m$. Jos $\Omega$ ja $D$ ovat kompleksisia joukkoja, ja jos $F:\Omega\to D$ on aito holomorfinen kuvaus, tällöin $F^{-1}(y_0)$ on joukon $\Omega$ kompakti analyyttinen alivaristo jokaiselle pisteelle $y_0\in D$. Aito kuvaus voidaan määritellä myös seuraavasti: Kuvaus $F:\Omega\to D$ on aito jos ja vain jos $F$ kuvaa reunan $\partial\Omega$ reunalle $\partial D$ seuraavalla tavalla: \[\text{jos}\,\{z_j\}\subset\Omega\quad\text{on jono, jolle}\,\lim_{j\to\infty}d(z_j,\partial\Omega)=0,\,\text{niin}\,\lim_{j\to\infty}d(F(z_j),\partial D)=0.\] Tämän määritelmän perusteella kuvausten $F:\Omega\to D$ tutkiminen johtaa geometriseen funktioteoriaan kuvauksista, jotka kuvaavat joukon $\partial\Omega$ joukolle $\partial D.$ Käy ilmi, että aidot holomorfiset kuvaukset laajenevat jatkuvasti määrittelyalueittensa reunoille. Holomorfisten kuvausten tutkiminen liittyy osaltaan Dirichlet-ongelmien ratkaisemiseen. Klassisessa Dirichlet-ongelmassa etsitään joukon $\partial\Omega\subset\mathbf{R}^m$ jatkuvalle funktiolle $f$ reaaliarvoista funktiota, joka on joukossa $\Omega$ harmoninen ja joukon $\Omega$ sulkeumassa $\overline{\Omega}$ jatkuva ja jonka rajoittuma joukon reunalle $\partial\Omega$ on kyseinen funktio $f$. Tutkielmassa käydään läpi määritelmiä ja käsitteitä, joista aidot holomorfiset kuvaukset muodostuvat, sekä avataan matemaattista struktuuria, joka on näiden käsitteiden taustalla. Tutkielmassa todistetaan aidolle holommorfiselle kuvaukselle $F:\Omega\to\Omega'$ ominaisuudet: $F$ on suljettu kuvaus, $F$ on avoin kuvaus, $F^{-1}(w)$ on äärellinen jokaiselle $w\in\Omega'$, on olemassa kokonaisluku $m$, jolle joukon $F^{-1}(w)$ pisetiden lukumäärä on $m$ jokaiselle $F$:n normaalille arvolle, joukon $F^{-1}(w)$ pisteiden lukumäärä on penempi kuin $m$ jokaiselle $F$:n kriittiselle arvolle, $F$:n kriittinen joukko on $\Omega'$:n nollavaristo, $F(V)$ on $\Omega'$:n alivaristo aina, kun $V$ on $\Omega$:n alivaristo, $F$ laajenee jatkuvaksi kuvaukseksi aidosti pseudokonveksien määrittelyjoukkojensa reunoille, $F$ kuvaa aidosti pseudokonveksin lähtöjoukkonsa jonon, joka suppenee epätangentiaalisesti kohti joukon reunaa, jonoksi joka suppenee hyväksyttävästi kohti kuvauksen maalijoukon reunaa, kuvaus $F$ avaruuden $\cc^n$ yksikköpallolta itselleen on automorfismi.
  • Saarinen, Tapio (2019)
    Tutkielman tarkoituksena on johdattaa lukija Ext-funktorin ja ryhmien kohomologian määritelmien ja teorian äärelle ja siten tutustuttaa lukija homologisen algebran keskeisiin käsitteisiin. Ensimmäisessä luvussa esitellään tutkielman olettamia taustatietoja, algebran ja algebrallisen topologian peruskurssien sisältöjen lisäksi. Toisessa luvussa esitellään ryhmien laajennosongelma ja ratkaistaan se tapauksessa, jossa annettu aliryhmä on vaihdannainen. Ryhmälaajennosten näytetään olevan yksi yhteen -vastaavuudessa tietyn ryhmän alkioiden kanssa, ja lisäksi tutkitaan erityisesti niitä ryhmälaajennoksia, jotka ovat annettujen ryhmien puolisuoria tuloja. Vastaan tulevien kaavojen todetaan vastaavan eräitä singulaarisen koketjukompleksin määritelmässä esiintyviä kaavoja. Kolmannessa luvussa määritellään viivaresoluutio sekä normalisoitu viivaresoluutio, sekä niiden pohjalta ryhmien kohomologia. Aluksi määritellään teknisenä sivuseikkana G-modulin käsite, jonka avulla ryhmien toimintoja voi käsitellä kuten moduleita. Luvun keskeisin tulos on se, että viivaresoluutio ja normalisoitu viivaresoluutio ovat homotopiaekvivalentit -- tuloksen yleistys takaa muun muassa, että Ext-funktori on hyvin määritelty. Luvun lopuksi lasketaan syklisen ryhmän kohomologiaryhmät. Neljännessä luvussa määritellään resoluutiot yleisyydessään, sekä projektiiviset että injektiiviset modulit ja resoluutiot. Viivaresoluutiot todetaan projektiivisiksi, ja niiden homotopiatyyppien samuuden todistuksen todetaan yleistyvän projektiivisille ja injektiivisille resoluutioille. Samalla ryhmien kohomologian määritelmä laajenee, kun viivaresoluution voi korvata millä tahansa projektiivisella resoluutiolla. Luvussa määritellään myös funktorien eksaktisuus, ja erityisesti tutkitaan Hom-funktorin eksaktiuden yhteyttä projektiivisiin ja injektiivisiin moduleihin. Viidennessä luvussa määritellään oikealta johdetun funktorin käsite, ja sen erikoistapauksena Ext-funktori, joka on Hom-funktorin oikealta johdettu funktori. Koska Hom-funktori on bifunktori, on sillä kaksi oikealta johdettua funktoria, ja luvun tärkein tulos osoittaa, että ne ovat isomorfiset. Ryhmien kohomologian määritelmä laajenee entisestään, kun sille annetaan määritelmä Ext-funktorin avulla, mikä mahdollistaa ryhmien kohomologian laskemisen myös injektiivisten resoluutioiden kautta. Viimeiseen lukuun on koottu aiheeseen liittyviä asioita, joita tekstissä hipaistaan, mutta joiden käsittely jäi rajaussyistä tutkielman ulkopuolelle.
  • Suominen, Henri (2021)
    Online hypothesis testing occurs in many branches of science. Most notably it is of use when there are too many hypotheses to test with traditional multiple hypothesis testing or when the hypotheses are created one-by-one. When testing multiple hypotheses one-by-one, the order in which the hypotheses are tested often has great influence to the power of the procedure. In this thesis we investigate the applicability of reinforcement learning tools to solve the exploration – exploitation problem that often arises in online hypothesis testing. We show that a common reinforcement learning tool, Thompson sampling, can be used to gain a modest amount of power using a method for online hypothesis testing called alpha-investing. Finally we examine the size of this effect using both synthetic data and a practical case involving simulated data studying urban pollution. We found that, by choosing the order of tested hypothesis with Thompson sampling, the power of alpha investing is improved. The level of improvement depends on the assumptions that the experimenter is willing to make and their validity. In a practical situation the presented procedure rejected up to 6.8 percentage points more hypotheses than testing the hypotheses in a random order.
  • Mustonen, Aleksi (2021)
    Electrical impedance tomography is a differential tomography method where current is injected into a domain and its interior distribution of electrical properties are inferred from measurements of electric potential around the boundary of the domain. Within the context of this imaging method the forward problem describes a situation where we are trying to deduce voltage measurements on a boundary of a domain given the conductivity distribution of the interior and current injected into the domain through the boundary. Traditionally the problem has been solved either analytically or by using numerical methods like the finite element method. Analytical solutions have the benefit that they are efficient, but at the same time have limited practical use as solutions exist only for a small number of idealized geometries. In contrast, while numerical methods provide a way to represent arbitrary geometries, they are computationally more demanding. Many proposed applications for electrical impedance tomography rely on the method's ability to construct images quickly which in turn requires efficient reconstruction algorithms. While existing methods can achieve near real time speeds, exploring and expanding ways of solving the problem even more efficiently, possibly overcoming weaknesses of previous methods, can allow for more practical uses for the method. Graph neural networks provide a computationally efficient way of approximating partial differential equations that is accurate, mesh invariant and can be applied to arbitrary geometries. Due to these properties neural network solutions show promise as alternative methods of solving problems related to electrical impedance tomography. In this thesis we discuss the mathematical foundation of graph neural network approximations of solutions to the electrical impedance tomography forward problem and demonstrate through experiments that these networks are indeed capable of such approximations. We also highlight some beneficial properties of graph neural network solutions as our network is able to converge to an arguably general solution with only a relatively small training data set. Using only 200 samples with constant conductivity distributions, the network is able to approximate voltage distributions of meshes with spherical inclusions.
  • Pyrylä, Atte (2020)
    In this thesis we will look at the asymptotic approach to modeling randomly weighted heavy-tailed random variables and their sums. The heavy-tailed distributions, named after the defining property of having more probability mass in the tail than any exponential distribution and thereby being heavy, are essentially a way to have a large tail risk present in a model in a realistic manner. The weighted sums of random variables are a versatile basic structure that can be adapted to model anything from claims over time to the returns of a portfolio, while giving the primary random variables heavy-tails is a great way to integrate extremal events into the models. The methodology introduced in this thesis offers an alternative to some of the prevailing and traditional approaches in risk modeling. Our main result that we will cover in detail, originates from "Randomly weighted sums of subexponential random variables" by Tang and Yuan (2014), it draws an asymptotic connection between the tails of randomly weighted heavy-tailed random variables and the tails of their sums, explicitly stating how the various tail probabilities relate to each other, in effect extending the idea that for the sums of heavy-tailed random variables large total claims originate from a single source instead of being accumulated from a bunch of smaller claims. A great merit of these results is how the random weights are allowed for the most part lack an upper bound, as well as, be arbitrarily dependent on each other. As for the applications we will first look at an explicit estimation method for computing extreme quantiles of a loss distributions yielding values for a common risk measure known as Value-at-Risk. The methodology used is something that can easily be adapted to a setting with similar preexisting knowledge, thereby demonstrating a straightforward way of applying the results. We then move on to examine the ruin problem of an insurance company, developing a setting and some conditions that can be imposed on the structures to permit an application of our main results to yield an asymptotic estimate for the ruin probability. Additionally, to be more realistic, we introduce the approach of crude asymptotics that requires little less to be known of the primary random variables, we formulate a result similar in fashion to our main result, and proceed to prove it.
  • Rautio, Siiri (2019)
    Improving the quality of medical computed tomography reconstructions is an important research topic nowadays, when low-dose imaging is pursued to minimize the X-ray radiation afflicted on patents. Using lower radiation doses for imaging leads to noisier reconstructions, which then require postprocessing, such as denoising, in order to make the data up to par for diagnostic purposes. Reconstructing the data using iterative algorithms produces higher quality results, but they are computationally costly and not quite powerful enough to be used as such for medical analysis. Recent advances in deep learning have demonstrated the great potential of using convolutional neural networks in various image processing tasks. Performing image denoising with deep neural networks can produce high-quality and virtually noise-free predictions out of images originally corrupted with noise, in a computationally efficient manner. In this thesis, we survey the topics of computed tomography and deep learning for the purpose of applying a state-of-the-art convolutional neural network for denoising dental cone-beam computed tomography reconstruction images. We investigate how the denoising results of a deep neural network are affected if iteratively reconstructed images are used in training the network, as opposed to using traditionally reconstructed images. The results show that if the training data is reconstructed using iterative methods, it notably improves the denoising results of the network. Also, we believe these results can be further improved and extended beyond the case of cone-beam computed tomography and the field of medical imaging.
  • Pyry, Silomaa (2024)
    This thesis is an empirical comparison of various methods of statistical matching applied to Finnish income and consumption data. The comparison is performed in order to map out some possible matching strategies for Statistics Finland to use in this imputation task and compare the applicability of the strategies within specific datasets. For Statistics Finland, the main point of performing these imputations is in assessing consumption behaviour in years when consumption-related data is not explicitly collected. Within this thesis I compared the imputation of consumption data by imputing 12 consumption variables as well as their sum using the following matching methods: draws from the conditional distribution distance hot deck, predictive mean matching, local residual draws and a gradient boosting approach. The used donor dataset is a sample of households collected for the 2016 Finnish Household Budget Survey (HBS). The recipient dataset is a sample of households collected for the 2019 Finnish Survey of Income and Living Conditions (EU-SILC). In order to assess the quality of the imputations, I used numerical and visual assessments concerning the similarity of the weighted distributions of the consumption variables. The applied numerical assessments were the Kolmogorov-Smirnov (KS) test statistic as well as the Hellinger Distance (HD), the latter of which was calculated for a categorical transformation of the consumption variables. Additionally, the similarities of the correlation matrices were assessed using correlation matrix distance. Generally, distance hot deck and predictive mean matching fared relatively well in the imputation tasks. For example, in the imputation of transport-related expenditure, both produced KS test statistics of approximately 0.01-0.02 and HD of approximately 0.05, whereas the next best-performing method received scores of 0.04 and 0.09, thus representing slightly larger discrepancies. Comparing the two methods, particularly in the imputation of semicontinuous consumption variables, distance hot deck fared notably better than the predictive mean matching approach. As an example, in the consumption expenditure of alcoholic beverages and tobacco, distance hot deck produced values of the KS test statistic and HD of approximately 0.01 and 0.02 respectively whereas the corresponding scores for predictive mean matching were 0.21 and 0.16. Eventually, I would recommend for further application a consideration of both predictive mean matching and distance hot deck depending on the imputation task. This is because predictive mean matching can be applied more easily in different contexts but in certain kinds of imputation tasks distance hot deck clearly outperforms predictive mean matching. Further assessment for this data should be done, in particular the results should be validated with additional data.
  • Järvinen, Vili (2024)
    Työ käsittelee tunnettujen virtausdynamiikan yhtälöiden, Navier-Stokesin yhtälöiden ja Eulerin yhtälöiden välistä yhteyttä ja näiden ratkaisujen välisiä suppenemisehtoja. Työn ensimmäisessä kappaleessa esitellään työlle tärkeät perustiedot sisältäen esimerkiksi heikon derivaatan ja Sobolev-avaruuksien määritelmät ja useamman tärkeän funktioavaruuden ja jälkilauseiden määritelmät. Työn toinen kappale käsittelee tarkemmin Navier-Stokesin yhtälöitä ja Eulerin yhtälöitä. Kappaleessa esitellään ensin Navier-Stokesin yhtälöiden määritelmät ja sen jälkeen esitellään määritelmä ratkaisun olemassaololle. Kappaleen päätteeksi esitellään myös Eulerin yhtälön määritelmä. Neljännessä kappaleessa esitellään tutkielman pääaihe, eli Navier-Stokesin ja Eulerin yhtälöiden ratkaisujen välinen yhteys viskositeettitermin lähestyessä nollaa. Kappaleessa esitellään Tosio Katon tulos, jossa annetaan ekvivalentteja ehtoja sille, että Navier-Stokesin yhtälön heikko ratkaisu suppenee viskositeetin supetessa kohti Eulerin yhtälön ratkaisua. Tämä tulos todistetaan tutkiel- massa yksityiskohtaisesti. Lopuksi työn viimeisessä kappaleessa esitellään James. P. Kelliherin lisäykset Katon tuloksiin, jotka näyttävät, että Navier-Stokesin yhtälön ratkaisun u gradientti ∇u voidaan korvata ratkaisun u pyörteisyydellä ω(u). Kuten aiemmassa kappaleessa, niin myös tämä tulos esitellään yksityiskohtaisesti työssä. Työssä on vaadittu laajaa ymmärrystä monelta eri matematiikan osa-alueelta. Työn toinen kappale sisältää pitkälti analyysin metodeja sivuten muun muassa funktionaalianalyysiä ja funktioavaruuksien teoriaa. Kolmannessa ja neljännessä kappaleessa keskitytään pitkälti osittais- differentiaaliyhtälöiden teoriaan. Lisäksi työssä käsitellään laajalti myös reaalianalyysin aiheita. Päälähteinä työssä on käytetty Lawrence C. Evansin ”Partial Differential Equations” -teosta, Tosio Katon artikkelia ”Remarks on Zero Viscosity Limit” ja James P. Kelliherin artikkelia ”On Kato’s conditions for vanishing viscosity limit”.
  • Takanen, Emilia (2023)
    Työssä todistetaan Delignen–Mumfordin kompaktifikaatiolause. Delignen–Mumfordin kompaktifikaatiolause sanoo, että tietyillä ehdolla jonolle saman signaturen hyperbolisia pintoja on olemassa rajapinta, josta on olemassa diffeomorfismit jokaiseen tämän jonon jäseneen ja että näillä diffeomorfismeilla nykäistyt metriikat suppenevat rajapinnalla rajametriikkaan. Työssä Delignen–Mumfordin kompaktifikaatiolause todistetaan osoittamalla vastaava tulos ensin hyperbolisten pintojen yksinkertaisille rakennuspalikoille. Työ todistaa vastaavan tuloksen ensin Y -palan kanonisille kauluksille ja käyttää tätä tulosta todistamaan vastaavan tuloksen Y -paloille. Tämän jälkeen työ todistaa jokaisen hyperbolisen pinnan olevan rakennettavissa Y -paloista antaen välittömästi tuloksen kaikille hyperbolisille pinnoille.
  • Virri, Maria (2021)
    Bonus-malus systems are used globally to determine insurance premiums of motor liability policy-holders by observing past accident behavior. In these systems, policy-holders move between classes that represent different premiums. The number of accidents is used as an indicator of driving skills or risk. The aim of bonus-malus systems is to assign premiums that correspond to risks by increasing premiums of policy-holders that have reported accidents and awarding discounts to those who have not. Many types of bonus-malus systems are used and there is no consensus about what the optimal system looks like. Different tools can be utilized to measure the optimality, which is defined differently according to each tool. The purpose of this thesis is to examine one of these tools, elasticity. Elasticity aims to evaluate how well a given bonus-malus system achieves its goal of assigning premiums fairly according to the policy-holders’ risks by measuring the response of the premiums to changes in the number of accidents. Bonus-malus systems can be mathematically modeled using stochastic processes called Markov chains, and accident behavior can be modeled using Poisson distributions. These two concepts of probability theory and their properties are introduced and applied to bonus-malus systems in the beginning of this thesis. Two types of elasticities are then discussed. Asymptotic elasticity is defined using Markov chain properties, while transient elasticity is based on a concept called the discounted expectation of payments. It is shown how elasticity can be interpreted as a measure of optimality. We will observe that it is typically impossible to have an optimal bonus-malus system for all policy-holders when optimality is measured using elasticity. Some policy-holders will inevitably subsidize other policy-holders by paying premiums that are unfairly large. More specifically, it will be shown that, for bonus-malus systems with certain elasticity values, lower-risk policy-holders will subsidize the higher-risk ones. Lastly, a method is devised to calculate the elasticity of a given bonus-malus system using programming language R. This method is then used to find the elasticities of five Finnish bonus-malus systems in order to evaluate and compare them.
  • Sohkanen, Pekka (2021)
    The fields of insurance and financial mathematics require increasingly intricate descriptors of dependency. In the realm of financial mathematics, this demand arises from globalisation effects over the past decade, which have caused financial asset returns to exhibit increasingly intricate dependencies between each other. Of particular interest are measurements describing the probabilities of simultaneous occurrences between unusually negative stock returns. In insurance mathematics, the ability to evaluate probabilities associated with the simultaneous occurrence of unusually large claim amounts can be crucial for both the solvency and the competitiveness of an insurance company. These sorts of dependencies are referred to by the term tail dependence. In this thesis, we introduce the concept of tail dependence and the tail dependence coefficient, a tool for determining the amount of tail dependence between random variables. We also present statistical estimators for the tail dependence coefficient. Favourable properties of these estimators are investigated and a simulation study is executed in order to evaluate and compare estimator performance under a variety of distributions. Some necessary stochastics concepts are presented. Mathematical models of dependence are introduced. Elementary notions of extreme value theory and empirical processes are touched on. These motivate the presented estimators and facilitate the proofs of their favourable properties.
  • Kelomäki, Tuomas (2020)
    This thesis provides a proof and some applications for the famous result in topology called the Borsuk-Ulam theorem. The standard formulation of the Borsuk-Ulam theorem states that for every continuous map from an n-sphere to n-dimensional Euclidean space there are antipodal points that map on top of each other. Even though the claim is quite elementary, the Borsuk-Ulam theorem is surprisingly difficult to prove. There are many different kinds of proofs to the Borsuk-Ulam theorem and nowadays the standard method of proof uses heavy algebraic topology. In this thesis a more elementary, geometric proof is presented. Some fairly fundamental geometric objects are presented at the start. The basics of affine and convex sets, simplices and simplicial complexes are introduced. After that we construct a specific simplicial complex and present a method, iterated barycentric subdivision, to make it finer. In addition to simplicial complexes, the theory we are using revolves around general positioning and perturbations. Both of these subjects are covered briefly. A major part in our proof of the Borsuk-Ulam theorem is to show that a certain homotopy function F from a specific n + 1-manifold to the n-dimensional Euclidean space can be by approximated another map G. Moreover this approximation can be done in a way so that the kernel of G is a symmetric 1-manifold. The foundation for approximating F is laid with iterated barycentric subdivision. The approximation function G is obtained by perturbating F on the vertices of the simplicial complex and by extending it locally affinely. The perturbation is done in a way so that the image of vertices is in a general position. After proving the Borsuk-Ulam theorem, we present a few applications of it. These examples show quite nicely how versatile the Borsuk-Ulam theorem is. We prove two formulations of the Ham Sandwich theorem. We also deduce the Lusternik-Schnirelmann theorem from the Borsuk- Ulam theorem and with that we calculate the chromatic numbers of the Kneser graphs. The final application we prove is the Topological Radon theorem.
  • Bazaliy, Viacheslav (2019)
    This thesis provides an analysis of Growth Optimal Portfolio (GOP) in discrete time. Growth Optimal Portfolio is a portfolio optimization method that aims to maximize expected long-term growth. One of the main properties of GOP is that, as time horizon increases, it outperforms all other trading strategies almost surely. Therefore, when compared with the other common methods of portfolio construction, GOP performs well in the long-term but might provide riskier allocations in the short-term. The first half of the thesis considers GOP from a theoretical perspective. Connections to the other concepts (numeraire portfolio, arbitrage freedom) are examined and derivations of optimal properties are given. Several examples where GOP has explicit solutions are provided and sufficiency and necessity conditions for growth optimality are derived. Yet, the main focus of this thesis is on the practical aspects of GOP construction. The iterative algorithm for finding GOP weights in the case of independently log-normally distributed growth rates of underlying assets is proposed. Following that, the algorithm is extended to the case with non-diagonal covariance structure and the case with the presence of a risk-free asset on the market. Finally, it is shown how GOP can be implemented as a trading strategy on the market when underlying assets are modelled by ARMA or VAR models. The simulations with assets from the real market are provided for the time period 2014-2019. Overall, a practical step-by-step procedure for constructing GOP strategies with data from the real market is developed. Given the simplicity of the procedure and appealing properties of GOP, it can be used in practice as well as other common models such as Markowitz or Black-Litterman model for constructing portfolios.
  • Hellsten, Kirsi (2023)
    Triglycerides are a type of lipid that enters our body with fatty food. High triglyceride levels are often caused by an unhealthy diet, poor lifestyle, poorly treated diseases such as diabetes and too little exercise. Other risk factors found in various studies are HIV, menopause, inherited lipid metabolism disorder and South Asian ancestry. Complications of high triglycerides include pancreatitis, carotid artery disease, coronary artery disease, metabolic syndrome, peripheral artery disease, and strokes. Migration has made Singapore diverse, and it contains several subpopulations. One third of the population has genetic ancestry in China. The second largest group has genetic ancestry in Malaysia, and the third largest has genetic ancestry in India. Even though Singapore has one of the highest life expectancies in the world, unhealthy lifestyles such as poor diet, lack of exercise and smoking are still visible in everyday life. The purpose of this thesis was to introduce GWAS-analysis for quantitative traits and apply it to real data, and also to see if there are associations between some variants and triglycerides in three main subpopulations in Singapore and compare the results to previous studies. The research questions that this thesis answered are: what is GWAS analysis and what is it used for, how can GWAS be applied to data containing quantitative traits, and is there associations between some SNPs and triglycerides in three main populations in Singapore. GWAS stands for genome-wide association studies designed to identify statistical association between genetic variants and phenotypes or traits. One reason for developing GWAS was to learn to identify different genetic factors which have an impact on significant phenotypes, for instance susceptibility to certain diseases Such information can eventually be used to predict the phenotypes of individuals. GWAS have been globally used in, for example, anthropology, biomedicine, biotechnology, and forensics. The studies enhance the understanding of human evolution and natural selection and helps forward many areas of biology. The study used several quality control methods, linear models, and Bayesian inference to study associations. The research results were examined, among other things, with the help of various visual methods. The dataset used in this thesis was an open data used by Saw, W., Tantoso, E., Begum, H. et al. in their previous study. This study showed that there are associations between 6 different variants and triglycerides in the three main subpopulations in Singapore. The study results were compared with the results of two previous studies, which differed from the results of this study, suggesting that the results are significant. In addition, the thesis reviewed the ethics of GWAS and the limitations and benefits of GWAS. Most of the studies like this have been done in Europe, so more research is needed in different parts of the world. This research can also be continued with different methods and variables.
  • Hanninen, Elsa (2020)
    Vakuutussopimusten tappion arvioiminen on tärkeää vakuutusyhtiön riskienhallinnan kannalta. Tässä työssä esitellään Hattendorffin lause vakuutussopimuksen tappion odotusarvon ja varianssin arvioimiseksi sekä sovelletaan sen tuloksia monitilaisella Markov-prosessilla mallinnettavalle henkivakuutussopimukselle. Hattendorffin lauseen nojalla ekvivalenssiperiaatteen mukaan hinnoitellun vakuutussopimuksen erillisillä aikaväleillä syntyneiden tappioiden odotusarvo on nolla, ja tappiot ovat korreloimattomia, jonka seurauksena tappion varianssi voidaan laskea erillisillä aikaväleillä muodostuneiden tappioiden varianssien summana. Työn soveltavana osana simuloidaan Markov-prosesseja sopivassa monitilaisessa mallissa mallintamaan henkivakuutussopimuksien realisaatioita. Tutkitaan, onko simuloitujen polkujen tuottamien vuosittaisten tappioiden keskiarvo lähellä nollaa, ja onko koko sopimusajan tappioiden varianssin arvo lähellä summaa vuosittaisten tappioiden variansseista. Lisäksi lasketaan simulaation asetelmalle Hattendorffin lauseen avulla teoreettiset vastineet ja verrataan näitä simuloituihin arvoihin. Vakuutussopimus pitää karkeasti sisällään kahdenlaisia maksuja: vakuutusyhtiön maksamat korvausmaksut ja vakuutetun maksamat vakuutusmaksut. Vakuutussopimuksen kassavirta on jollain aikavälillä tapahtuvien vakuutuskorvausten ja -maksujen erotuksen hetkeen nolla diskontattu arvo. Vastuuvelka on määrittelyhetken jälkeen syntyvän, määrittelyhetkeen diskontatun, kassavirran odotusarvo. Vakuutussopimuksen tappio jollain aikavälillä määritellään kyseisen aikavälin kassavirran ja vastuuvelan arvonmuutoksen summana. Kun määritellään stokastinen prosessi, joka laskee tietyllä hetkellä siihen mennessä kumuloituneet kustannukset sekä tulevan vastuuvelan nykyarvon, voidaan tappio ilmaista tämän prosessin arvonmuutoksena. Kyseinen prosessi on neliöintegroituva martingaali, jolloin Hattendorffin lauseen tulokset ovat seurausta neliöintegroituvien martingaalien arvonmuutoksen ominaisuuksista. Hattendorffin lauseen tulokset löydettiin jo 1860-luvulla, mutta martingaaliteorian hyödyntäminen on moderni lähestymistapa ongelmaan. Esittämällä monitilaisella Markov-prosessilla mallinnettavan sopimuksen kustannukset Lebesgue-Stieltjes integraalina, saadaan tappion varianssille laskukelpoiset muodot. Markov-prosessilla mallinnettavilla sopimuksille voidaan johtaa erityistapaus Hattendorffin tuloksesta, missä tappiot voidaan allokoida eri vuosien lisäksi eri tiloihin liittyviksi tappioiksi. Soveltavassa osiossa nähdään, että yksittäisinä sopimusvuosina syntyneiden tappioiden odotusarvot ovat lähellä nollaa, ja otosvarianssien summa lähestyy koko sopimusajan tappion otosvarianssia, mikä on yhtäpitävää Hattendorffin lauseen väitteiden kanssa. Simuloidut otosvarianssit eivät täysin vastaa teoreettisia vastineitaan.
  • Holopainen, Jonathan (2021)
    Perinteisesti henkivakuutusten hinnoittelutekijöihin lisätään turvamarginaali. Diskonttauskorko on markkinakorkoa matalampi ja kuolevuuteen on lisätty turvamarginaali. Kuolemanvaraturvassa hinnoittelukuolevuus on korkeampi ja annuiteettivakuutuksessa(eläkevakuutus) matalampi kuin havaittu kuolevuus. Koska henkivakuutukset ovat usein pitkäkestoisia, on turvaavuudella hyvin tärkeä rooli tuotteen kannattavuuden ja henkivakuutusyhtiön vakavaraisuuden kannalta. Monesti myös laki määrää henkivakuutusyhtiöt hinnoittelemaan tuotteensa turvaavasti jotta yhtiöt voivat huonossakin tilanteessa edelleen turvata etuudet vakuutuksenottajille. Henkivakuutusyhtiöt ovat myös kehittäneet monimutkaisempia tuotteita, jossa voi olla useampia riskitekijöitä, joiden kehittymistä pitkällä aikavälillä voi olla vaikea ennustaa. Turvaavat hinnoittelutekijät tarkoittavat, että keskimäärin vakuutusyhtiöille kertyy tuottoja yli ajan. Tässä työssä tutkitaan vakuutusyhtiöön kertyvän tuoton tai tappion satunnaisuuden ominaisuuksia. Jätämme tämän työn ulkopuolelle vakuutusyhtiön sijoitustuoton, liikekulut sekä vakuutusyhtiöiden tavat jakaa ylijäämää vakuutetuille bonuksina. Työssä seurataan Henrik Ramlau-Hansenin artikkelia 'The emergence of profit in life insurance' keskittyen kuitenkin yleiseen tuoton odotusarvoon, odotusarvoon liittyen tiettyyn tilaan sekä määritetyn ajan sisällä kertyneeseen tuoton odotusarvoon. Tuloksia pyritään myös avaamaan niin, että ne olisi helpompi ymmärtää. Henkivakuutusyhtiön tuotto määritellään matemaattisesti käyttäen Markov prosesseja. Määritelmää käyttäen lasketaan tietyn aikavälin kumulatiivisen tuoton odotusarvo ja hajonta. Tulokseksi saadaan, että tuoton odotusarvo on Markov prosessin eri tilojen tuottaman ensimmäisen kertaluvun prospektiivisen vastuuvelan ja toisen kertaluvun retrospektiivisen vastuuvelan erotuksien summa kerrottuna todennäköisyyksillä, joilla ollaan kyseisessä tilassa aikavälin lopussa. Lopuksi työssä lasketaan vielä 10 vuoden kertamaksuisen kuolemanvaravakuutuksen odotettu tuotto käyttäen työn tuloksia. Lisäksi sama vakuutus simuloitiin myös 10 000 000 kertaa päästen hyvin lähelle kaavan antamaa lopputulosta.
  • Lankinen, Petra (2021)
    Vahinkovakuutusyhtiöiden on Suomen lainsäädännön nojalla kyettävä arvioimaan vakavaraisuuttaan. Jotta arvion voi tehdä, tulee yhtiöiden tunnistaa ja pyrkiä hallitsemaan liiketoiminta-alueeseensa liittyviä riskejä. Taloudelliset riskit ovat eri vakuutuslajeilla erilaisia, sillä tulokseen liittyvät todennäköisyysjakaumat voivat olla keskenään hyvin erilaisia — toisilla vakuutuslajeilla vahingot ovat tyypillisesti pieniä ja niitä tulee yhtiön korvattavaksi vuosittain paljon, kun taas joidenkin vakuutusten riskit realisoituvat harvoin, mutta myös korvaussummat voivat olla todella suuria. Tutkielman tavoitteena on tarkastella, kuinka vahinkovakuutusyhtiön vakavaraisuuslaskentaa voidaan käsitellä teoreettisessa viitekehyksessä. Tutkielmassa tarkastellaan vuosittaista kokonaistappiota, eli korvausvaateiden yhteissumman ja asiakkailta saatavan maksutulon välistä erotusta silloin, kun korvaukset ovat keskenään samoin jakautuneita ja riippumattomia. Kun yhden vuoden tappion jakauma on tiedossa, on tietyissä tapauksissa mahdollista arvioida vararikon todennäköisyyttä pitkällä aikavälillä. Tutkielmassa todistetaan Cramérin lause ja Cramér-Lundbergin approksimaatio, joiden avulla kevythäntäistä todennäköisyysjakaumaa noudattavalle satunnaismuuttujalle voidaan löytää vararikon todennäköisyyden paras mahdollinen yläraja tiettyjen oletusten vallitessa. Paksuhäntäisten jakaumien osalta tutustutaan vararikkotodennäköisyyden arviointiin simuloinnin kautta. Jotta tässä tutkielmassa esitettyjä tuloksia voidaan soveltaa, on hyödyllistä tuntea erilaisia menetelmiä tunnistaa jakauman kevyt- tai paksuhäntäisyysominaisuus havaintoaineistosta. Tätä varten tutkielmassa esitellään kolme visuaalista menetelmää jakauman tunnistamiseen sekä niiden teoreettiset perustat. Lisäksi näitä keinoja testataan aineistolla, joka on otos Pohjola Vakuutuksen korvausdataa vuodelta 2015. Menetelmien perusteella voidaan ajatella, että molemmissa aineistoissa korvaukset vaikuttavat noudattavan jotakin paksuhäntäistä jakaumaa, mutta aineistojen välillä oli merkittäviä eroja.
  • Närhi, Marianne (2020)
    Henkivakuutusyhtiöt tarjoavat asiakkailleen monenlaisia tuotteita. Vakuutuksia on erityyppisiä, mutta usein ne ovat liitoksissa vakuutetun elinaikaan. Mainittakoon näistä esimerkiksi kuolemanvara- ja elämänvaravakuutus. Ensimmäisessä korvaus maksetaan mikäli vakuutettu kuolee vakuutusaikana ja toisessa mikäli vakuutettu on elossa ennalta sovittuna ajanhetkenä. Vakuutetun elinaika ei kuitenkaan ole tiedossa sopimusta tehdessä, joten vakuutusyhtiön pitää pystyä estimoimaan vakuutettujen kuolevuutta. Riittävän tarkalla estimoinnilla pyritään estämään tilanne, jossa korvausten määrä ylittää vakuutusyhtiön varat. Kuolevuusennustetta voidaan käyttää muun muassa vakuutusten hinnoitteluun. Estimointi on kuitenkin haastavaa, sillä kuolevuuden kehitykseen tulevaisuudessa vaikuttavat muun muassa mahdolliset lääketieteelliset läpimurrot tai populaation elintapojen muutokset. Kuolevuus ei pysy samana sukupolvesta toiseen, vaan pääsääntöisesti monissa maissa uusi sukupolvi elää edellistä sukupolvea keskimäärin pidempään. Kuolevuutta onkin helpompi ennustaa lyhyellä kuin pitkällä aikavälillä. Tutkielman alussa määrittelemme tämän työn kannalta oleellisia esitietoja, jotka liittyvät sekä elinaikaan ja kuolevuuteen että yleisesti stokastisiin prosesseihin. Erityisen tärkeitä ovat elinajan ja kuolevuusfunktion käsite. Näiden lisäksi martingaali, laskuriprosessi ja kompensaattori ovat tämän työn avainkäsitteitä. Tutustumme määritelmien lisäksi Doob-Meierin hajotelmaan, jonka perusteella alimartingaali voidaan kirjoittaa systemaattisen ja täysin satunnaisen osan summana. Systemaattisesta osasta puhutaan kompensaattorina ja satunnaisen osan muodostaa martingaali. Tutkielman tarkoituksena on johtaa kumulatiivista kuolevuutta estimoiva Nelson-Aalen estimaattori tilanteessa, jossa vakuutettuja on n kappaletta ja vakuutetun mahdollisia eri kuolinsyitä k kappaletta. Oletamme parametrin n arvon olevan suhteellisen suuri ja parametrin k arvon suhteellisen pieni. Johdamme lisäksi estimaattorin odotusarvon sekä varianssin. Havaitaan, että estimaattori on hieman harhainen, mutta kuitenkin asymptoottisesti harhaton. Teemme lisäksi lyhyen sovelluksen R:llä, jonka tarkoituksena on auttaa lukijaa hahmottamaan miltä todellisen otoksen pohjalta laaditut Nelson-Aalen estimaatit voisivat näyttää ja tutkitaan kuinka hyvin ne vastaavat todellisia arvoja. Tutkielman loppupuolella tarkastellaan tilannetta, jossa vakuutettujen määrä kasvaa rajatta ja huomataan, että normalisoitu Nelson-Aalen estimaattori alkaa muistuttaa Gaussista martingaalia. Erityisesti kiinteällä ajanhetkellä estimaattori on asymptoottisesti normaalijakautunut. Todistuksessa käytämme Rebolledon keskeistä raja-arvolausetta martingaaleille. Tulosta käyttämällä olisi mahdollista määrittää luottamusrajat estimoitavalle kumulatiiviselle kuolevuudelle. Lopuksi käymme läpi vaihtoehtoisia tapoja estimoida kuolevuutta.
  • Hankala, Teemu (2021)
    Säilymislauseina tunnetut tulokset kuvailevat malliteoriassa erilaisia yhteyksiä kaavojen syntaktisen rakenteen ja kaavat toteuttavien mallien semanttisten ominaisuuksien välillä. Esimerkiksi jokainen ensimmäisen kertaluvun logiikan eksistentiaalis-positiivinen kaava säilyy homomorfismien suhteen. Käänteiseen suuntaan jokainen homomorfismeissa säilyvä ensimmäisen kertaluvun kaava voidaan loogisesti yhtäpitävästi esittää myös eksistentiaalis-positiivisessa muodossa. Parannuksena tähän on Benjamin Rossman osoittanut, että jokainen funktiosymboleja sisältämätön ja homomorfismeissa säilyvä ensimmäisen kertaluvun kaava voidaan esittää eksistentiaalis-positiivisessa muodossa ilman tarvetta kaavan kvanttoriasteen kasvamiselle. Tässä tutkielmassa Rossmanin menetelmää kehitetään hieman eteenpäin osoittamalla, että jokainen funktiosymboleja sisältämätön ja homomorfismien suhteen säilyvä kaava on mahdollista muuttaa eksistentiaalis-positiiviseen muotoon sellaisella tavalla, että tuloksena olevan kaavan syntaktista rakennetta saadaan rajattua alkuperäisen kaavan rakenteen avulla ja että tuloksena olevan kaavan kvanttoriasteeksi riittää pelkkä alkuperäisen kaavan eksistenssikvanttoreista laskettu kvanttoriaste. Todistuksen työvälineenä esitellään eräs yleistys malliteoriassa perinteisesti käytetyistä ja erilaisten mallirakenteiden vertailuun soveltuvista kahden pelaajan peleistä.