Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by master's degree program "Matematiikan ja tilastotieteen maisteriohjelma"

Sort by: Order: Results:

  • Williams Moreno Sánchez, Bernardo (2022)
    The focus of this work is to efficiently sample from a given target distribution using Monte Carlo Makov Chain (MCMC). This work presents No-U-Turn Sampler Lagrangian Monte Carlo with the Monge metric. It is an efficient MCMC sampler, with adaptive metric, fast computations and with no need to hand-tune the hyperparameters of the algorithm, since the parameters are automatically adapted by extending the No-U-Turn Sampler (NUTS) to Lagrangian Monte Carlo (LMC). This work begins by giving an introduction of differential geometry concepts. The Monge metric is then constructed step by step, carefully derived from the theory of differential geometry giving a formulation that is not restricted to LMC, instead, it is applicable to any problem where a Riemannian metric of the target function comes into play. The main idea of the metric is that it naturally encodes the geometric properties given by the manifold constructed from the graph of the function when embedded in higher dimensional Euclidean space. Hamiltonian Monte Carlo (HMC) and LMC are MCMC samplers that work on differential geometry manifolds. We introduce the LMC sampler as an alternative to Hamiltonian Monte Carlo (HMC). HMC assumes that the metric structure of the manifold encoded in the Riemannian metric to stay constant, whereas LMC allows the metric to vary dependent on position, thus, being able to sample from regions of the target distribution which are problematic to HMC. The choice of metric affects the running time of LMC, by including the Monge metric into LMC the algorithm becomes computationally faster. By generalizing the No-U-Turn Sampler to LMC, we build the NUTS-LMC algorithm. The resulting algorithm is able to estimate the hyperparameters automatically. The NUTS algorithm is constructed with a distance based stopping criterion, which can be replaced by another stopping criteria. Additionally, we run LMC-Monge and NUTS-LMC for a series of traditionally challenging target distributions comparing the results with HMC and NUTS-HMC. The main contribution of this work is the extension of NUTS to generalized NUTS, which is applicable to LMC. It is found that LMC with Monge explores regions of target distribution which HMC is unable to. Furthermore, generalized NUTS eliminates the need to choose the hyperparameters. NUTS-LMC makes the sampler ready to use for scientific applications since the only need is to specify a twice differentiable target function, thus, making it user friendly for someone who does not wish to know the theoretical and technical details beneath the sampler.
  • Kelomäki, Tuomas (2020)
    This thesis provides a proof and some applications for the famous result in topology called the Borsuk-Ulam theorem. The standard formulation of the Borsuk-Ulam theorem states that for every continuous map from an n-sphere to n-dimensional Euclidean space there are antipodal points that map on top of each other. Even though the claim is quite elementary, the Borsuk-Ulam theorem is surprisingly difficult to prove. There are many different kinds of proofs to the Borsuk-Ulam theorem and nowadays the standard method of proof uses heavy algebraic topology. In this thesis a more elementary, geometric proof is presented. Some fairly fundamental geometric objects are presented at the start. The basics of affine and convex sets, simplices and simplicial complexes are introduced. After that we construct a specific simplicial complex and present a method, iterated barycentric subdivision, to make it finer. In addition to simplicial complexes, the theory we are using revolves around general positioning and perturbations. Both of these subjects are covered briefly. A major part in our proof of the Borsuk-Ulam theorem is to show that a certain homotopy function F from a specific n + 1-manifold to the n-dimensional Euclidean space can be by approximated another map G. Moreover this approximation can be done in a way so that the kernel of G is a symmetric 1-manifold. The foundation for approximating F is laid with iterated barycentric subdivision. The approximation function G is obtained by perturbating F on the vertices of the simplicial complex and by extending it locally affinely. The perturbation is done in a way so that the image of vertices is in a general position. After proving the Borsuk-Ulam theorem, we present a few applications of it. These examples show quite nicely how versatile the Borsuk-Ulam theorem is. We prove two formulations of the Ham Sandwich theorem. We also deduce the Lusternik-Schnirelmann theorem from the Borsuk- Ulam theorem and with that we calculate the chromatic numbers of the Kneser graphs. The final application we prove is the Topological Radon theorem.
  • Bazaliy, Viacheslav (2019)
    This thesis provides an analysis of Growth Optimal Portfolio (GOP) in discrete time. Growth Optimal Portfolio is a portfolio optimization method that aims to maximize expected long-term growth. One of the main properties of GOP is that, as time horizon increases, it outperforms all other trading strategies almost surely. Therefore, when compared with the other common methods of portfolio construction, GOP performs well in the long-term but might provide riskier allocations in the short-term. The first half of the thesis considers GOP from a theoretical perspective. Connections to the other concepts (numeraire portfolio, arbitrage freedom) are examined and derivations of optimal properties are given. Several examples where GOP has explicit solutions are provided and sufficiency and necessity conditions for growth optimality are derived. Yet, the main focus of this thesis is on the practical aspects of GOP construction. The iterative algorithm for finding GOP weights in the case of independently log-normally distributed growth rates of underlying assets is proposed. Following that, the algorithm is extended to the case with non-diagonal covariance structure and the case with the presence of a risk-free asset on the market. Finally, it is shown how GOP can be implemented as a trading strategy on the market when underlying assets are modelled by ARMA or VAR models. The simulations with assets from the real market are provided for the time period 2014-2019. Overall, a practical step-by-step procedure for constructing GOP strategies with data from the real market is developed. Given the simplicity of the procedure and appealing properties of GOP, it can be used in practice as well as other common models such as Markowitz or Black-Litterman model for constructing portfolios.
  • Hellsten, Kirsi (2023)
    Triglycerides are a type of lipid that enters our body with fatty food. High triglyceride levels are often caused by an unhealthy diet, poor lifestyle, poorly treated diseases such as diabetes and too little exercise. Other risk factors found in various studies are HIV, menopause, inherited lipid metabolism disorder and South Asian ancestry. Complications of high triglycerides include pancreatitis, carotid artery disease, coronary artery disease, metabolic syndrome, peripheral artery disease, and strokes. Migration has made Singapore diverse, and it contains several subpopulations. One third of the population has genetic ancestry in China. The second largest group has genetic ancestry in Malaysia, and the third largest has genetic ancestry in India. Even though Singapore has one of the highest life expectancies in the world, unhealthy lifestyles such as poor diet, lack of exercise and smoking are still visible in everyday life. The purpose of this thesis was to introduce GWAS-analysis for quantitative traits and apply it to real data, and also to see if there are associations between some variants and triglycerides in three main subpopulations in Singapore and compare the results to previous studies. The research questions that this thesis answered are: what is GWAS analysis and what is it used for, how can GWAS be applied to data containing quantitative traits, and is there associations between some SNPs and triglycerides in three main populations in Singapore. GWAS stands for genome-wide association studies designed to identify statistical association between genetic variants and phenotypes or traits. One reason for developing GWAS was to learn to identify different genetic factors which have an impact on significant phenotypes, for instance susceptibility to certain diseases Such information can eventually be used to predict the phenotypes of individuals. GWAS have been globally used in, for example, anthropology, biomedicine, biotechnology, and forensics. The studies enhance the understanding of human evolution and natural selection and helps forward many areas of biology. The study used several quality control methods, linear models, and Bayesian inference to study associations. The research results were examined, among other things, with the help of various visual methods. The dataset used in this thesis was an open data used by Saw, W., Tantoso, E., Begum, H. et al. in their previous study. This study showed that there are associations between 6 different variants and triglycerides in the three main subpopulations in Singapore. The study results were compared with the results of two previous studies, which differed from the results of this study, suggesting that the results are significant. In addition, the thesis reviewed the ethics of GWAS and the limitations and benefits of GWAS. Most of the studies like this have been done in Europe, so more research is needed in different parts of the world. This research can also be continued with different methods and variables.
  • Huynh, Inchuen (2023)
    Hawkes processes are a special class of inhomogenous Poisson processes used to model events exhibiting interdependencies. Initially introduced in Hawkes [1971], Hawkes processes have since found applications in various fields such as seismology, finance, and criminology. The defining feature of Hawkes processes lies in their ability to capture self-exciting behaviour, where the occurrence of an event increases the risk of experiencing subsequent events. This effect is quantified in their conditional intensity function which takes into account the history of the process in the kernel. This thesis focuses on the modeling of event histories using Hawkes processes. We define both the univariate and multivariate forms of Hawkes processes and discuss the selection of kernels, which determine whether the process is a jump or a non-jump process. In a jump Hawkes process, the conditional intensity spikes at an occurrence of an event and the risk of experiencing new events is the highest immediately after an event. For non-jump processes, the risk increases more gradually and can be more flexible. Additionally, we explore the choice of baseline intensity and the inclusion of covariates in the conditional intensity of the process. For parameter estimation, we derive the log-likelihood functions and discuss goodness of fit methods. We show that by employing the time-rescaling theorem to transform event times, assessing the fit of a Hawkes process reduces to that of an unit rate Poisson process. Finally, we illustrate the application of Hawkes processes by exploring whether an exponential Hawkes process can be used to model occurrences of diabetes-related comorbidities using data from the Diabetes Register of the Finnish Institute for Health and Welfare (THL). Based on our analysis, the process did not adequately describe our data, however, exploring alternative kernel functions and incorporating time-varying baseline intensities hold potential for improving the compatibility.
  • Schauman, Julia (2022)
    In this thesis, we explore financial risk measures in the context of heavy-tailed distributions. Heavy-tailed distributions and the different classes of heavy-tailed distributions will be defined mathematically in this thesis but in more general terms, heavy-tailed distributions are distributions that have a tail or tails that are heavier than the exponential distribution. In other words, distributions which have tails that go to zero more slowly than the exponential distribution. Heavy-tailed distributions are much more common than we tend to think and can be observed in everyday situations. Most extreme events, such as large natural phenomena like large floods, are good examples of heavy-tailed phenomena. Nevertheless, we often expect that most phenomena surrounding us are normally distributed. This probably arises from the beauty and effortlessness of the central limit theorem which explains why we can find the normal distribution all around us within natural phenomena. The normal distribution is a light-tailed distribution and essentially it assigns less probability to the extreme events than a heavy-tailed distribution. When we don’t understand heavy tails, we underestimate the probability of extreme events such as large earthquakes, catastrophic financial losses or major insurance claims. Understanding heavy-tailed distributions also plays a key role when measuring financial risks. In finance, risk measuring is important for all market participants and using correct assumptions on the distribution of the phenomena in question ensures good results and appropriate risk management. Value-at-Risk (VaR) and the expected shortfall (ES) are two of the best-known financial risk measures and the focus of this thesis. Both measures deal with the distribution and more specifically the tail of the loss distribution. Value-at-Risk aims at measuring the risk of a loss whereas ES describes the size of a loss exceeding the VaR. Since both risk measures are focused on the tail of the distribution, mistaking a heavy-tailed phenomena for a light-tailed one can lead to drastically wrong conclusions. The mean excess function is an important mathematical concept closely tied to VaR and ES as the expected shortfall is mathematically a mean excess function. When examining the mean excess function in the context of heavy-tails, it presents very interesting features and plays a key role in identifying heavy-tails. This thesis aims at answering the questions of what heavy-tailed distributions are and why are they are so important, especially in the context of risk management and financial risk measures. Chapter 2 of this thesis provides some key definitions for the reader. In Chapter 3, the different classes of heavy-tailed distributions are defined and described. In Chapter 4, the mean excess function and the closely related hazard rate function are presented. In Chapter 5, risk measures are discussed on a general level and Value-at-Risk and expected shortfall are presented. Moreover, the presence of heavy tails in the context of risk measures is explored. Finally, in Chapter 6, simulations on the topics presented in previous chapters are shown to shed a more practical light on the presentation of the previous chapters.
  • Hanninen, Elsa (2020)
    Vakuutussopimusten tappion arvioiminen on tärkeää vakuutusyhtiön riskienhallinnan kannalta. Tässä työssä esitellään Hattendorffin lause vakuutussopimuksen tappion odotusarvon ja varianssin arvioimiseksi sekä sovelletaan sen tuloksia monitilaisella Markov-prosessilla mallinnettavalle henkivakuutussopimukselle. Hattendorffin lauseen nojalla ekvivalenssiperiaatteen mukaan hinnoitellun vakuutussopimuksen erillisillä aikaväleillä syntyneiden tappioiden odotusarvo on nolla, ja tappiot ovat korreloimattomia, jonka seurauksena tappion varianssi voidaan laskea erillisillä aikaväleillä muodostuneiden tappioiden varianssien summana. Työn soveltavana osana simuloidaan Markov-prosesseja sopivassa monitilaisessa mallissa mallintamaan henkivakuutussopimuksien realisaatioita. Tutkitaan, onko simuloitujen polkujen tuottamien vuosittaisten tappioiden keskiarvo lähellä nollaa, ja onko koko sopimusajan tappioiden varianssin arvo lähellä summaa vuosittaisten tappioiden variansseista. Lisäksi lasketaan simulaation asetelmalle Hattendorffin lauseen avulla teoreettiset vastineet ja verrataan näitä simuloituihin arvoihin. Vakuutussopimus pitää karkeasti sisällään kahdenlaisia maksuja: vakuutusyhtiön maksamat korvausmaksut ja vakuutetun maksamat vakuutusmaksut. Vakuutussopimuksen kassavirta on jollain aikavälillä tapahtuvien vakuutuskorvausten ja -maksujen erotuksen hetkeen nolla diskontattu arvo. Vastuuvelka on määrittelyhetken jälkeen syntyvän, määrittelyhetkeen diskontatun, kassavirran odotusarvo. Vakuutussopimuksen tappio jollain aikavälillä määritellään kyseisen aikavälin kassavirran ja vastuuvelan arvonmuutoksen summana. Kun määritellään stokastinen prosessi, joka laskee tietyllä hetkellä siihen mennessä kumuloituneet kustannukset sekä tulevan vastuuvelan nykyarvon, voidaan tappio ilmaista tämän prosessin arvonmuutoksena. Kyseinen prosessi on neliöintegroituva martingaali, jolloin Hattendorffin lauseen tulokset ovat seurausta neliöintegroituvien martingaalien arvonmuutoksen ominaisuuksista. Hattendorffin lauseen tulokset löydettiin jo 1860-luvulla, mutta martingaaliteorian hyödyntäminen on moderni lähestymistapa ongelmaan. Esittämällä monitilaisella Markov-prosessilla mallinnettavan sopimuksen kustannukset Lebesgue-Stieltjes integraalina, saadaan tappion varianssille laskukelpoiset muodot. Markov-prosessilla mallinnettavilla sopimuksille voidaan johtaa erityistapaus Hattendorffin tuloksesta, missä tappiot voidaan allokoida eri vuosien lisäksi eri tiloihin liittyviksi tappioiksi. Soveltavassa osiossa nähdään, että yksittäisinä sopimusvuosina syntyneiden tappioiden odotusarvot ovat lähellä nollaa, ja otosvarianssien summa lähestyy koko sopimusajan tappion otosvarianssia, mikä on yhtäpitävää Hattendorffin lauseen väitteiden kanssa. Simuloidut otosvarianssit eivät täysin vastaa teoreettisia vastineitaan.
  • Holopainen, Jonathan (2021)
    Perinteisesti henkivakuutusten hinnoittelutekijöihin lisätään turvamarginaali. Diskonttauskorko on markkinakorkoa matalampi ja kuolevuuteen on lisätty turvamarginaali. Kuolemanvaraturvassa hinnoittelukuolevuus on korkeampi ja annuiteettivakuutuksessa(eläkevakuutus) matalampi kuin havaittu kuolevuus. Koska henkivakuutukset ovat usein pitkäkestoisia, on turvaavuudella hyvin tärkeä rooli tuotteen kannattavuuden ja henkivakuutusyhtiön vakavaraisuuden kannalta. Monesti myös laki määrää henkivakuutusyhtiöt hinnoittelemaan tuotteensa turvaavasti jotta yhtiöt voivat huonossakin tilanteessa edelleen turvata etuudet vakuutuksenottajille. Henkivakuutusyhtiöt ovat myös kehittäneet monimutkaisempia tuotteita, jossa voi olla useampia riskitekijöitä, joiden kehittymistä pitkällä aikavälillä voi olla vaikea ennustaa. Turvaavat hinnoittelutekijät tarkoittavat, että keskimäärin vakuutusyhtiöille kertyy tuottoja yli ajan. Tässä työssä tutkitaan vakuutusyhtiöön kertyvän tuoton tai tappion satunnaisuuden ominaisuuksia. Jätämme tämän työn ulkopuolelle vakuutusyhtiön sijoitustuoton, liikekulut sekä vakuutusyhtiöiden tavat jakaa ylijäämää vakuutetuille bonuksina. Työssä seurataan Henrik Ramlau-Hansenin artikkelia 'The emergence of profit in life insurance' keskittyen kuitenkin yleiseen tuoton odotusarvoon, odotusarvoon liittyen tiettyyn tilaan sekä määritetyn ajan sisällä kertyneeseen tuoton odotusarvoon. Tuloksia pyritään myös avaamaan niin, että ne olisi helpompi ymmärtää. Henkivakuutusyhtiön tuotto määritellään matemaattisesti käyttäen Markov prosesseja. Määritelmää käyttäen lasketaan tietyn aikavälin kumulatiivisen tuoton odotusarvo ja hajonta. Tulokseksi saadaan, että tuoton odotusarvo on Markov prosessin eri tilojen tuottaman ensimmäisen kertaluvun prospektiivisen vastuuvelan ja toisen kertaluvun retrospektiivisen vastuuvelan erotuksien summa kerrottuna todennäköisyyksillä, joilla ollaan kyseisessä tilassa aikavälin lopussa. Lopuksi työssä lasketaan vielä 10 vuoden kertamaksuisen kuolemanvaravakuutuksen odotettu tuotto käyttäen työn tuloksia. Lisäksi sama vakuutus simuloitiin myös 10 000 000 kertaa päästen hyvin lähelle kaavan antamaa lopputulosta.
  • Karjalainen, Topias (2022)
    In recent years, there has been a great interest in modelling financial markets using fractional Brownian motions. It has been noted in studies that ordinary diffusion based stochastic volatility models cannot reproduce certain stylized facts that are observed in financial markets, such as the fact that the at the money (ATM) volatility skew tends to infinity at short maturities. Rough stochastic volatility models, where the spot volatility process is driven by a fractional Brownian motion, can reproduce these effects. Although the use of long memory processes in finance has been advocated since the 1970s, it has taken until now for fractional Brownian motion to gain widespread attention. This thesis serves as an introduction to the subject. We begin by presenting the mathematical definition of fractional Brownian motion and its basic mathematical properties. Most importantly, we show that fractional Brownian motion is not a semimartingale, which means that the theory of Itô calculus cannot be applied to stochastic integrals with fractional Brownian motion as integrator. We also present important representations of fractional Brownian motion as moving average process of a Brownian motion. In the subsequent chapter, we show that we can define a Wiener integral with respect to fractional Brownian motion as a Wiener integral with respect to Brownian motion with transformed integrand. We also present divergence type integrals with respect to fractional Brownian motion and an Itô type formula for fractional Brownian motion. In the last chapter, we introduce rough volatility. We derive the so called rough Bergomi model model that can be seen as an extension of the Bergomi stochastic volatility model. We then show that for a general stochastic volatility model, there is an exact analytical expression for the ATM volatility skew, defined as the derivative of the volatility smile slope with respect to strike price evaluated at the money. We then present an expression for the short time limit of the ATM volatility skew under general assumptions which shows that in order to reproduce the observed short time limit of infinity, the volatility must be driven by a fractional process. We conclude the thesis by comparing the rough Bergomi model to SABR- and Heston stochastic volatility models.
  • Lankinen, Petra (2021)
    Vahinkovakuutusyhtiöiden on Suomen lainsäädännön nojalla kyettävä arvioimaan vakavaraisuuttaan. Jotta arvion voi tehdä, tulee yhtiöiden tunnistaa ja pyrkiä hallitsemaan liiketoiminta-alueeseensa liittyviä riskejä. Taloudelliset riskit ovat eri vakuutuslajeilla erilaisia, sillä tulokseen liittyvät todennäköisyysjakaumat voivat olla keskenään hyvin erilaisia — toisilla vakuutuslajeilla vahingot ovat tyypillisesti pieniä ja niitä tulee yhtiön korvattavaksi vuosittain paljon, kun taas joidenkin vakuutusten riskit realisoituvat harvoin, mutta myös korvaussummat voivat olla todella suuria. Tutkielman tavoitteena on tarkastella, kuinka vahinkovakuutusyhtiön vakavaraisuuslaskentaa voidaan käsitellä teoreettisessa viitekehyksessä. Tutkielmassa tarkastellaan vuosittaista kokonaistappiota, eli korvausvaateiden yhteissumman ja asiakkailta saatavan maksutulon välistä erotusta silloin, kun korvaukset ovat keskenään samoin jakautuneita ja riippumattomia. Kun yhden vuoden tappion jakauma on tiedossa, on tietyissä tapauksissa mahdollista arvioida vararikon todennäköisyyttä pitkällä aikavälillä. Tutkielmassa todistetaan Cramérin lause ja Cramér-Lundbergin approksimaatio, joiden avulla kevythäntäistä todennäköisyysjakaumaa noudattavalle satunnaismuuttujalle voidaan löytää vararikon todennäköisyyden paras mahdollinen yläraja tiettyjen oletusten vallitessa. Paksuhäntäisten jakaumien osalta tutustutaan vararikkotodennäköisyyden arviointiin simuloinnin kautta. Jotta tässä tutkielmassa esitettyjä tuloksia voidaan soveltaa, on hyödyllistä tuntea erilaisia menetelmiä tunnistaa jakauman kevyt- tai paksuhäntäisyysominaisuus havaintoaineistosta. Tätä varten tutkielmassa esitellään kolme visuaalista menetelmää jakauman tunnistamiseen sekä niiden teoreettiset perustat. Lisäksi näitä keinoja testataan aineistolla, joka on otos Pohjola Vakuutuksen korvausdataa vuodelta 2015. Menetelmien perusteella voidaan ajatella, että molemmissa aineistoissa korvaukset vaikuttavat noudattavan jotakin paksuhäntäistä jakaumaa, mutta aineistojen välillä oli merkittäviä eroja.
  • Lehtonen, Sasu (2023)
    Brennanin konjektuuri on matemaattinen hypoteesi, jonka muotoili J. E. Brennan vuonna 1978. Hypoteesissa on tarkoitus arvioida konformikuvauksen derivaatan moduulin integraalin potenssia avoimessa yksikkökiekossa. Brennan onnistui myöhemmin löytämään rajoja tälle potenssille, ja vuonna 1999 Daniel Bertilsson onnistui löytämään väitöskirjassaan lisää rajoja kyseiselle potenssille, mutta päähypoteesi pysyy avoimena. Tässä tutkielmassa esitellään määritelmiä, lauseita ja muita matemaattisia tuloksia, joita hyödyntämällä konjektuurin integraalin potenssille on onnistuttu löytämään rajoja. Johdantokappaleessa esitellään mielenkiinnon kohteena oleva matemaattinen ongelma, ja lisäksi siinä mainitaan muutama matemaattinen käsite, jotka ovat oleellisia tämän tutkielman kannalta. Nämä käsitteet ovat Koeben distortiolause, analyyttinen funktio ja universaali integraalikeskiarvojen spektri. Toisessa kappaleessa käydään läpi taustatietoja, jotka on hyvä tietää tässä tutkielmassa. Ensiksi kyseisessä kappaleessa palautetaan mieleen mikä on kompleksiluku ja kerrotaan niiden kahdesta ilmaisutavasta. Ensimmäinen tapa ilmaista kompleksiluku on ilmaista se luvun reaali- ja imaginaariosan avulla, ja toinen tapa esittää kompleksiluku on käyttämällä moduulia, siniä ja kosinia. Tässä toisessa tavassa käytetään myös kompleksiluvun argumenttia, joka on moduulin ja reaaliakselin välinen kulma. Toisessa kappaleessa esitellään myös kompleksisen differentioituvuuden ja analyyttisen funktion käsitteet, jotka molemmat ovat hyvin tärkeitä kompleksianalyysissa. Kyseisessä kappaleessa mainitaan myös Cauchy-Riemannin yhtälöt, biholomorfinen funktio ja joitain topologisia käsitteitä. Lisäksi myös siinä käydään läpi yksi kompleksiseen differentioituvuuteen ja Cauchy-Riemannin yhtälöihin liittyvä lause. Kappaleen lopussa tutustutaan myös Koebe funktioon ja yhteen lauseeseen, jossa yleistä juurifunktiota ja funktion jatkuvia haaroja. Kolmannessa kappaleessa tutustutaan S- ja Sigma- luokkiin, jotka ovat tutkielmassa käsiteltäviä kuvausluokkia. S-luokan alkiot ovat kuvauksia, jotka ovat analyyttisia ja injektioita, niiden arvo pisteessä 0 on 0 ja derivaatan arvo pisteessä 0 on 1. Sigma-luokan alkiot ovat puolestaan kuvauksia, jotka ovat analyyttisia ja injektioita sellaisten kompleksilukujen joukossa, joiden moduuli on suurempi kuin 1. Lisäksi tämän luokan funktioiden raja-arvo äärettömyyspisteessä on ääretön, ja derivaatan arvo äärettömyyspisteessä on 1. Sigma-luokan alkiot voidaan myös ilmaista suppenevana sarjana. Kappaleessa 3 käydään myös läpi Alue lause, Bieberbachin lause ja Koebe ¼- lause, ja kappaleen lopussa tutustutaan paremmin esimerkkeihin funktiosta, jotka kuuluvat kuvausluokkaan S. Neljännessä kappaleessa käydään läpi distrotiolauseita, joita ovat hyvin tärkeitä tämän tutkielman kannalta. Lisäksi kappaleessa tutustutaan Kasvulauseeseen, Yhdistettyyn kasvudistortiolauseeseen, Säteittäiseen distortiolauseeseen ja näiden todistuksiin. Viidennessä eli viimeisessä kappaleessa palataan Brennanin konjektuurin määritelmään ja käydään läpi derivaattafunktion integraalikeskiarvojen spektri ja universaali integraalikeskiarvojen spektri. Kappaleen lopussa kerrotaan myös Koebe derivaattafunktion integraalikeskiarvojen spektri.
  • Lassila, Mira (2023)
    Tutkielma keskittyy algebralliseen topologiaan ja vielä tarkemmin homologian ja kohomologian tutkimiseen. Tutkielman tavoite on todistaa Künnethin kaava tulokohomologialle, jota varten ensin esitellään homologia ja siitä johdettuna dualisaation kautta kohomologia. Homologia ja kohomologia tutkielmassa esitellään singulaarisessa muodossa. Johdannon jälkeen tutkielma aloitetaan esittelemällä kategoriateorian perusteet. Kategoria kappaleessa annetaan esimerkkejä kategorioista, joita käytetään pitkin tutkielmaa. Kategoria käsitteen esittelyn jälkeen jatketaan määrittelemään kuvaus jolla pystytään siirtymään kategoriasta toiseen eli funktorit. Funktorit jaetaan kovariantteihin ja kontravariantteihin riippuen siitä säilyttääkö se morfismien suunnan. Funktoreista esille nostetaan Hom-funktori, jonka kontravarianttia muotoa hyödyntämällä saadaan myöhemmin muodostettua kohomologia. Funktoreiden käsittelyn myötä pystytään niiden välille muodostamaan kuvauksia, jonka vuoksi esitellään luonnollinen transformaatio. Toisen luvun viimeisimpänä aihealueena käsitellään eksakteja jonoja. Toinen kappale kokoaa tarvittavat esitiedot, jotta voidaan siirtyä käsittelemään homologiaa ja kohomologiaa. Kolmas kappale käy läpi homologian ja kohomologian käsitteistöä. Homologia ja kohomologia esitellään pääasiassa singulaarisessa muodossa. Homologiasta käydään läpi peruskäsitteet, jonka jälkeen siirrytään singulaariseen homologiaan. Tässä yhteydessä määritelmään muun muassa simpleksi, jotta voidaan avata singulaarisen homologian perusteita. Singulaarisesta homologiasta edetään singulaariseen kohomologiaan, joka saadaan aiemmin esitellyn Hom-funktorin avulla homologiasta. Singulaarisen kohomologia kappaleen lopuksi esitellään vielä uusi laskutoimitus kohomologiaryhmille eli kuppitulo. Tutkielman viimeinen kappale käsittelee itse Künnethin kaavan ja sen todistuksen. Lisäksi käydään läpi muita tarvittavia esitietoja kaavan todistuksen ymmärtämiselle, jotka eivät ole vielä nousseet esille aikaisemmissa luvuissa. Tutkielma päättyy Künnethin kaavan todistukseen.
  • Närhi, Marianne (2020)
    Henkivakuutusyhtiöt tarjoavat asiakkailleen monenlaisia tuotteita. Vakuutuksia on erityyppisiä, mutta usein ne ovat liitoksissa vakuutetun elinaikaan. Mainittakoon näistä esimerkiksi kuolemanvara- ja elämänvaravakuutus. Ensimmäisessä korvaus maksetaan mikäli vakuutettu kuolee vakuutusaikana ja toisessa mikäli vakuutettu on elossa ennalta sovittuna ajanhetkenä. Vakuutetun elinaika ei kuitenkaan ole tiedossa sopimusta tehdessä, joten vakuutusyhtiön pitää pystyä estimoimaan vakuutettujen kuolevuutta. Riittävän tarkalla estimoinnilla pyritään estämään tilanne, jossa korvausten määrä ylittää vakuutusyhtiön varat. Kuolevuusennustetta voidaan käyttää muun muassa vakuutusten hinnoitteluun. Estimointi on kuitenkin haastavaa, sillä kuolevuuden kehitykseen tulevaisuudessa vaikuttavat muun muassa mahdolliset lääketieteelliset läpimurrot tai populaation elintapojen muutokset. Kuolevuus ei pysy samana sukupolvesta toiseen, vaan pääsääntöisesti monissa maissa uusi sukupolvi elää edellistä sukupolvea keskimäärin pidempään. Kuolevuutta onkin helpompi ennustaa lyhyellä kuin pitkällä aikavälillä. Tutkielman alussa määrittelemme tämän työn kannalta oleellisia esitietoja, jotka liittyvät sekä elinaikaan ja kuolevuuteen että yleisesti stokastisiin prosesseihin. Erityisen tärkeitä ovat elinajan ja kuolevuusfunktion käsite. Näiden lisäksi martingaali, laskuriprosessi ja kompensaattori ovat tämän työn avainkäsitteitä. Tutustumme määritelmien lisäksi Doob-Meierin hajotelmaan, jonka perusteella alimartingaali voidaan kirjoittaa systemaattisen ja täysin satunnaisen osan summana. Systemaattisesta osasta puhutaan kompensaattorina ja satunnaisen osan muodostaa martingaali. Tutkielman tarkoituksena on johtaa kumulatiivista kuolevuutta estimoiva Nelson-Aalen estimaattori tilanteessa, jossa vakuutettuja on n kappaletta ja vakuutetun mahdollisia eri kuolinsyitä k kappaletta. Oletamme parametrin n arvon olevan suhteellisen suuri ja parametrin k arvon suhteellisen pieni. Johdamme lisäksi estimaattorin odotusarvon sekä varianssin. Havaitaan, että estimaattori on hieman harhainen, mutta kuitenkin asymptoottisesti harhaton. Teemme lisäksi lyhyen sovelluksen R:llä, jonka tarkoituksena on auttaa lukijaa hahmottamaan miltä todellisen otoksen pohjalta laaditut Nelson-Aalen estimaatit voisivat näyttää ja tutkitaan kuinka hyvin ne vastaavat todellisia arvoja. Tutkielman loppupuolella tarkastellaan tilannetta, jossa vakuutettujen määrä kasvaa rajatta ja huomataan, että normalisoitu Nelson-Aalen estimaattori alkaa muistuttaa Gaussista martingaalia. Erityisesti kiinteällä ajanhetkellä estimaattori on asymptoottisesti normaalijakautunut. Todistuksessa käytämme Rebolledon keskeistä raja-arvolausetta martingaaleille. Tulosta käyttämällä olisi mahdollista määrittää luottamusrajat estimoitavalle kumulatiiviselle kuolevuudelle. Lopuksi käymme läpi vaihtoehtoisia tapoja estimoida kuolevuutta.
  • Kallama, Konsta (2023)
    Suomen lakisääteisissä työeläkevakuutuksissa yrittäjien ja palkansaajien eläkkeet on jaoteltu erillisiin järjestelmiin. Näiden vakuutusten ehdot ovat pitkälti samanlaiset, mutta yrittäjien järjestelmä on varsinkin viime vuosina tuottanut huomattavasti huonompaa tulosta. Yksi merkittävä tekijä eläkevakuutustoiminnan kannattavuudessa on kuolevuusmallin soveltuvuus, ja tämän tutkielman tavoitteena on selvittää, selittävätkö mahdolliset kuolevuuserot YEL- ja TyEL-vakuutusten eriävää kannattavuutta. Kuolevuuden arviointiongelman ratkaisemiseksi esittelemme tutkielman ensimmäisessä osassa yleistä selviytymisanalyysin teoriaa. Tässä määrittelemme laskuprosessien, martingaalien sekä Lebesgue-Stieltjes-integraalien avulla Nelson-Aalen-estimaattorin kumulatiiviselle kuolevuudelle. Toisessa osassa sovellamme ensimmäisen osan työkaluja Eläketurvakeskuksen vuosien 2007–2020 kuolevuusdataan. Arvioimme näin TyEL- ja YEL-vakuutuksissa käytetyn teoreettisen kuolevuusmallin soveltuvuutta sekä vakuutuskantojen kuolevuuseroja. Saamme selville, että kuolevuusmalli kuvaa hyvin toteutunutta kuolevuutta, ja että YEL-kuolevuus on maltillisesti TyEL-kuolevuutta alhaisempaa. Tärkeämpää roolia kannattavuuseron kannalta näyttelee kuitenkin ero populaatioiden ikärakenteissa.
  • Hankala, Teemu (2021)
    Säilymislauseina tunnetut tulokset kuvailevat malliteoriassa erilaisia yhteyksiä kaavojen syntaktisen rakenteen ja kaavat toteuttavien mallien semanttisten ominaisuuksien välillä. Esimerkiksi jokainen ensimmäisen kertaluvun logiikan eksistentiaalis-positiivinen kaava säilyy homomorfismien suhteen. Käänteiseen suuntaan jokainen homomorfismeissa säilyvä ensimmäisen kertaluvun kaava voidaan loogisesti yhtäpitävästi esittää myös eksistentiaalis-positiivisessa muodossa. Parannuksena tähän on Benjamin Rossman osoittanut, että jokainen funktiosymboleja sisältämätön ja homomorfismeissa säilyvä ensimmäisen kertaluvun kaava voidaan esittää eksistentiaalis-positiivisessa muodossa ilman tarvetta kaavan kvanttoriasteen kasvamiselle. Tässä tutkielmassa Rossmanin menetelmää kehitetään hieman eteenpäin osoittamalla, että jokainen funktiosymboleja sisältämätön ja homomorfismien suhteen säilyvä kaava on mahdollista muuttaa eksistentiaalis-positiiviseen muotoon sellaisella tavalla, että tuloksena olevan kaavan syntaktista rakennetta saadaan rajattua alkuperäisen kaavan rakenteen avulla ja että tuloksena olevan kaavan kvanttoriasteeksi riittää pelkkä alkuperäisen kaavan eksistenssikvanttoreista laskettu kvanttoriaste. Todistuksen työvälineenä esitellään eräs yleistys malliteoriassa perinteisesti käytetyistä ja erilaisten mallirakenteiden vertailuun soveltuvista kahden pelaajan peleistä.
  • McCann, Robin (2022)
    Large deviations theory is a branch of probability theory which studies the exponential decay of probabilities for extremely rare events in the context of sequences of probability distributions. The theory originates from actuaries studying risk and insurance from a mathematical perspective, but today it has become its own field of study, and is no longer as tightly linked to insurance mathematics. Large deviations theory is nowadays frequently applied in various fields, such as information theory, queuing theory, statistical mechanics and finance. The connection to insurance mathematics has not grown obsolete, however, and these new results can also be applied to develop new results in the context of insurance. This paper is split into two main sections. The first presents some basic concepts from large deviations theory as well as the Gärtner-Ellis theorem, the first main topic of this thesis, and then provides a fairly detailed proof of this theorem. The Gärtner-Ellis theorem is an important result in large deviations theory, as it gives upper and lower bounds relating to asymptotic probabilities, while allowing for some dependence structure in the sequence of random variables. The second main topic of this thesis is the presentation of two large deviations results developed by H. Nyrhinen, concerning the random time of ruin as a function of the given starting capital. This section begins with introducing the specifics of this insurance setting of Nyrhinen’s work as well as the ruin problem, a central topic of risk theory. Following this are the main results, and the corresponding proofs, which rely to some part on convex analysis, and also on a continuous version of the Gärtner-Ellis theorem. Recommended preliminary knowledge: Probability Theory, Risk Theory.
  • McBride, Kiana (2024)
    Machine learning is by no means a novel field, but a recent boom in interest has led to a rapid increase in funding for related research. Because of this, many pure-mathematicians may find themselves trying to transition to this currently lucrative area of research. Thus, there is some demand for literature which helps ease this transition for mathematicians with a geometry or topology background. In this thesis we provide an introduction to contemporary machine learning research for a geometrically or topologically inclined individual. We do so by tracing the study of manifolds from their inception to modern machine learning. The thesis begins with a brief history of manifolds to motivate the examination of a proof of the Whitney embedding theorem. The theorem is then proved in detail, following texts from Adachi and Mukherjee on differential geometry. Later, a brief introduction to manifold learning introduces the reader to the manifold hypothesis and connects the classical study with its machine learning counterpart. Then, we provide a canonical introduction to neural networks after which we share rigorous mathematical definitions. Finally, we introduce the necessary preliminaries and subsequently prove the universal approximation theorem with injective neural networks. While we consider the Whitney embedding theorem as having applications in machine learning research, the universal approximation theorem with injective neural networks has clearer uses beyond mathematics. The studies of inverse problems and compressed sensing are two areas for which injectivity is a necessary condition for the well-posedness of common questions. Both fields have many deep applications to scientific and medical imaging. Injectivity is also a prerequisite for a function to preserve the topological properties of its domain.
  • Kulmala, Johanna (2022)
    Työn päätarkoitus on esittää Lindemannin-Weierstrassin lause todistuksineen. Todistusta varten tarvitsemme erinäisiä tietoja algebrallisista luvuista, transkendenttisista luvuista sekä tässä työs sä Galois'n ryhmistä ja Galois'n laajennoksista. Lindemannin-Weierstrassin lauseen todistuksen jälkeen esitetään lauseesta seuraavia tuloksia. Historian saatossa matemaatikot ovat halunneet jakaa lukuja erilaisiin lukujoukkoihin, kuten kokonaislukuihin ja kompleksilukuihin. Luvut pystytään jakamaan myös transkendenttisiin lukuihin ja algebrallisiin lukuihin. Lukua kutsutaan algebralliseksi, jos se on jonkin kokonaislukukertoimisen polynomin juuri. Jos luku ei ole algebrallinen, niin se on transkendenttinen. Matemaatikkojen ongelmana oli pitkään kuinka luvun transkendenttisuus todistetaan. Lindemannin-Weierstrassin lause on ratkaisu tähän ongelmaan. Lindemannin-Weierstrassin lause on seuraava: Olkoot α1, α2, . . . , αn erillisiä algebrallisia lukuja, jotka ovat lineaarisesti riippumattomia rationaalilukujen suhteen. Tällöin luvut e^α1, e^α2, . . . , e^αn ovat algebrallisesti riippumattomia algebrallisten lukujen suhteen. Työn päälauseen avulla pystytään siis todistamaan joidenkin lukujen transkendenttisuus. Tälläisiä lukuja ovat esimerkiksi Neperin luku e ja π, joiden transkendenttisuuden todistan työn lopussa lauseen avulla. Työn päälähteessä käytetään lauseen todistuksessa Galois'n ryhmiä ja laajennoksia, minkä vuoksi käsittelen myös niitä työssäni.
  • Mäkinen, Otto (2021)
    Tutkielma käsittelee invariantin aliavaruuden ongelmaa. Päälähteenä toimii Isabelle Chalendarin ja Jonathan Partingtonin kirja Modern Approaches to the Invariant-Subspace Problem. Invariantin aliavaruuden ongelmassa kysytään, onko kompleksisessa Banachin avaruudessa X jokaisella jatkuvalla lineaarisella operaattorilla T olemassa suljettu aliavaruus A, joka on invariantti (T(A) ⊂ A) ja ei-triviaali (A 6= {0} ja A 6= X). Invariantin aliavaruuden ongelma on vielä avoin kompleksiselle ääretönulotteiselle separoituvalle Hilbertin avaruudelle. Tutkielma koostuu neljästä luvusta. Ensimmäisessä luvussa käydään läpi tarvittavia määritelmiä ja teorioita sekä pohjustetaan tulevia kappaleita. Toisessa luvussa määritellään Banachin algebra ja kompaktit operaattorit sekä esitetään Schauderin kiintopistelause ja päätuloksena Lomonosovin lause, jonka korollaarina saadaan, että kompaktilla operaattorilla, joka ei ole nollaoperaattori, on ei-triviaali invariantti aliavaruus. Lomonosovin lause on esitetty Chalendarin ja Partingtonin kirjan luvussa 6. Kolmannessa luvussa siirrytään Hilbertin avaruuksiin ja tutkitaan normaaleja operaattoreita. Päätuloksena todistetaan, että normaalilla operaattorilla, joka ei ole nollaoperaattori, on ei-triviaali hyperinvariantti aliavaruus. Tätä varten määritellään spektraalisäteen ja spektraalimitan käsitteet sekä näihin liittyviä tuloksia. Normaalit operaattorit löytyvät Chalendarin ja Partingtonin kirjan luvusta 3. Neljäs luku käsittelee minimaalisia vektoreita. Luvussa esitetään Hahn-Banachin, Eberlein-Smulyan ja Banach-Alaoglun lauseet sekä sovelletaan minimaalisia vektoreita invariantin aliavaruuden ongelmaan. Minimaalisten vektoreiden avulla saadaan esimerkiksi uusi ja erilainen todistus sille, että kompaktilla operaattorilla, joka ei ole nollaoperaattori, on ei-triviaali invariantti aliavaruus. Chalendarin ja Partingtonin kirja käsittelee minimaalisia vektoreita luvussa 7.
  • Laukkarinen, Aapo (2022)
    In this thesis we study the article by J. Bourgain and C. Demeter called A study guide for the l^2 decoupling theorem. In particular, we hope to give an in detail exposition to certain results from the aforementioned research article so that this text combined with the master’s thesis On the l^2 decoupling theorem by Jaakko Sinko covers the l^2 decoupling theorem comprehensively in the range 2 ≤ p ≤ 2n/(n−1). The results in this text also self-sufficiently motivate the use of the extension operator and explain why it is possible to prove linear decouplings with multilinear estimates. We begin the thesis by giving the basic notation and highlighting some useful results from analysis and linear algebra that are later used in the thesis. In the second chapter we introduce and prove a certain multilinear Kakeya inequality, which asserts an upper bound for the overlap of neighbourhoods of nearly axis parallel lines in R^n that point in different directions. In the next chapter this is applied to prove a multilinear cube inflation inequality, which is one of the main mechanisms in the proof of the l^2 decoupling theorem. In the fourth chapter we study two forms of linear decoupling. One that is defined by an extension operator and one that defined via Fourier restriction. The main result of this chapter is that the former is strong enough to produce decoupling inequalities that are of the latter form. The fifth chapter is reserved for comparing linear and multilinear decouplings. Here we use the main result of the previous chapter to prove that multilinear estimates can produce linear decouplings, if the lower dimensional decoupling constant is somehow contained. This paves the way for the induction proof of the l^2 decoupling theorem.