Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by master's degree program "Master's Programme in Mathematics and Statistics"

Sort by: Order: Results:

  • Kelomäki, Tuomas (2020)
    This thesis provides a proof and some applications for the famous result in topology called the Borsuk-Ulam theorem. The standard formulation of the Borsuk-Ulam theorem states that for every continuous map from an n-sphere to n-dimensional Euclidean space there are antipodal points that map on top of each other. Even though the claim is quite elementary, the Borsuk-Ulam theorem is surprisingly difficult to prove. There are many different kinds of proofs to the Borsuk-Ulam theorem and nowadays the standard method of proof uses heavy algebraic topology. In this thesis a more elementary, geometric proof is presented. Some fairly fundamental geometric objects are presented at the start. The basics of affine and convex sets, simplices and simplicial complexes are introduced. After that we construct a specific simplicial complex and present a method, iterated barycentric subdivision, to make it finer. In addition to simplicial complexes, the theory we are using revolves around general positioning and perturbations. Both of these subjects are covered briefly. A major part in our proof of the Borsuk-Ulam theorem is to show that a certain homotopy function F from a specific n + 1-manifold to the n-dimensional Euclidean space can be by approximated another map G. Moreover this approximation can be done in a way so that the kernel of G is a symmetric 1-manifold. The foundation for approximating F is laid with iterated barycentric subdivision. The approximation function G is obtained by perturbating F on the vertices of the simplicial complex and by extending it locally affinely. The perturbation is done in a way so that the image of vertices is in a general position. After proving the Borsuk-Ulam theorem, we present a few applications of it. These examples show quite nicely how versatile the Borsuk-Ulam theorem is. We prove two formulations of the Ham Sandwich theorem. We also deduce the Lusternik-Schnirelmann theorem from the Borsuk- Ulam theorem and with that we calculate the chromatic numbers of the Kneser graphs. The final application we prove is the Topological Radon theorem.
  • Bazaliy, Viacheslav (2019)
    This thesis provides an analysis of Growth Optimal Portfolio (GOP) in discrete time. Growth Optimal Portfolio is a portfolio optimization method that aims to maximize expected long-term growth. One of the main properties of GOP is that, as time horizon increases, it outperforms all other trading strategies almost surely. Therefore, when compared with the other common methods of portfolio construction, GOP performs well in the long-term but might provide riskier allocations in the short-term. The first half of the thesis considers GOP from a theoretical perspective. Connections to the other concepts (numeraire portfolio, arbitrage freedom) are examined and derivations of optimal properties are given. Several examples where GOP has explicit solutions are provided and sufficiency and necessity conditions for growth optimality are derived. Yet, the main focus of this thesis is on the practical aspects of GOP construction. The iterative algorithm for finding GOP weights in the case of independently log-normally distributed growth rates of underlying assets is proposed. Following that, the algorithm is extended to the case with non-diagonal covariance structure and the case with the presence of a risk-free asset on the market. Finally, it is shown how GOP can be implemented as a trading strategy on the market when underlying assets are modelled by ARMA or VAR models. The simulations with assets from the real market are provided for the time period 2014-2019. Overall, a practical step-by-step procedure for constructing GOP strategies with data from the real market is developed. Given the simplicity of the procedure and appealing properties of GOP, it can be used in practice as well as other common models such as Markowitz or Black-Litterman model for constructing portfolios.
  • Hellsten, Kirsi (2023)
    Triglycerides are a type of lipid that enters our body with fatty food. High triglyceride levels are often caused by an unhealthy diet, poor lifestyle, poorly treated diseases such as diabetes and too little exercise. Other risk factors found in various studies are HIV, menopause, inherited lipid metabolism disorder and South Asian ancestry. Complications of high triglycerides include pancreatitis, carotid artery disease, coronary artery disease, metabolic syndrome, peripheral artery disease, and strokes. Migration has made Singapore diverse, and it contains several subpopulations. One third of the population has genetic ancestry in China. The second largest group has genetic ancestry in Malaysia, and the third largest has genetic ancestry in India. Even though Singapore has one of the highest life expectancies in the world, unhealthy lifestyles such as poor diet, lack of exercise and smoking are still visible in everyday life. The purpose of this thesis was to introduce GWAS-analysis for quantitative traits and apply it to real data, and also to see if there are associations between some variants and triglycerides in three main subpopulations in Singapore and compare the results to previous studies. The research questions that this thesis answered are: what is GWAS analysis and what is it used for, how can GWAS be applied to data containing quantitative traits, and is there associations between some SNPs and triglycerides in three main populations in Singapore. GWAS stands for genome-wide association studies designed to identify statistical association between genetic variants and phenotypes or traits. One reason for developing GWAS was to learn to identify different genetic factors which have an impact on significant phenotypes, for instance susceptibility to certain diseases Such information can eventually be used to predict the phenotypes of individuals. GWAS have been globally used in, for example, anthropology, biomedicine, biotechnology, and forensics. The studies enhance the understanding of human evolution and natural selection and helps forward many areas of biology. The study used several quality control methods, linear models, and Bayesian inference to study associations. The research results were examined, among other things, with the help of various visual methods. The dataset used in this thesis was an open data used by Saw, W., Tantoso, E., Begum, H. et al. in their previous study. This study showed that there are associations between 6 different variants and triglycerides in the three main subpopulations in Singapore. The study results were compared with the results of two previous studies, which differed from the results of this study, suggesting that the results are significant. In addition, the thesis reviewed the ethics of GWAS and the limitations and benefits of GWAS. Most of the studies like this have been done in Europe, so more research is needed in different parts of the world. This research can also be continued with different methods and variables.
  • Hanninen, Elsa (2020)
    Vakuutussopimusten tappion arvioiminen on tärkeää vakuutusyhtiön riskienhallinnan kannalta. Tässä työssä esitellään Hattendorffin lause vakuutussopimuksen tappion odotusarvon ja varianssin arvioimiseksi sekä sovelletaan sen tuloksia monitilaisella Markov-prosessilla mallinnettavalle henkivakuutussopimukselle. Hattendorffin lauseen nojalla ekvivalenssiperiaatteen mukaan hinnoitellun vakuutussopimuksen erillisillä aikaväleillä syntyneiden tappioiden odotusarvo on nolla, ja tappiot ovat korreloimattomia, jonka seurauksena tappion varianssi voidaan laskea erillisillä aikaväleillä muodostuneiden tappioiden varianssien summana. Työn soveltavana osana simuloidaan Markov-prosesseja sopivassa monitilaisessa mallissa mallintamaan henkivakuutussopimuksien realisaatioita. Tutkitaan, onko simuloitujen polkujen tuottamien vuosittaisten tappioiden keskiarvo lähellä nollaa, ja onko koko sopimusajan tappioiden varianssin arvo lähellä summaa vuosittaisten tappioiden variansseista. Lisäksi lasketaan simulaation asetelmalle Hattendorffin lauseen avulla teoreettiset vastineet ja verrataan näitä simuloituihin arvoihin. Vakuutussopimus pitää karkeasti sisällään kahdenlaisia maksuja: vakuutusyhtiön maksamat korvausmaksut ja vakuutetun maksamat vakuutusmaksut. Vakuutussopimuksen kassavirta on jollain aikavälillä tapahtuvien vakuutuskorvausten ja -maksujen erotuksen hetkeen nolla diskontattu arvo. Vastuuvelka on määrittelyhetken jälkeen syntyvän, määrittelyhetkeen diskontatun, kassavirran odotusarvo. Vakuutussopimuksen tappio jollain aikavälillä määritellään kyseisen aikavälin kassavirran ja vastuuvelan arvonmuutoksen summana. Kun määritellään stokastinen prosessi, joka laskee tietyllä hetkellä siihen mennessä kumuloituneet kustannukset sekä tulevan vastuuvelan nykyarvon, voidaan tappio ilmaista tämän prosessin arvonmuutoksena. Kyseinen prosessi on neliöintegroituva martingaali, jolloin Hattendorffin lauseen tulokset ovat seurausta neliöintegroituvien martingaalien arvonmuutoksen ominaisuuksista. Hattendorffin lauseen tulokset löydettiin jo 1860-luvulla, mutta martingaaliteorian hyödyntäminen on moderni lähestymistapa ongelmaan. Esittämällä monitilaisella Markov-prosessilla mallinnettavan sopimuksen kustannukset Lebesgue-Stieltjes integraalina, saadaan tappion varianssille laskukelpoiset muodot. Markov-prosessilla mallinnettavilla sopimuksille voidaan johtaa erityistapaus Hattendorffin tuloksesta, missä tappiot voidaan allokoida eri vuosien lisäksi eri tiloihin liittyviksi tappioiksi. Soveltavassa osiossa nähdään, että yksittäisinä sopimusvuosina syntyneiden tappioiden odotusarvot ovat lähellä nollaa, ja otosvarianssien summa lähestyy koko sopimusajan tappion otosvarianssia, mikä on yhtäpitävää Hattendorffin lauseen väitteiden kanssa. Simuloidut otosvarianssit eivät täysin vastaa teoreettisia vastineitaan.
  • Holopainen, Jonathan (2021)
    Perinteisesti henkivakuutusten hinnoittelutekijöihin lisätään turvamarginaali. Diskonttauskorko on markkinakorkoa matalampi ja kuolevuuteen on lisätty turvamarginaali. Kuolemanvaraturvassa hinnoittelukuolevuus on korkeampi ja annuiteettivakuutuksessa(eläkevakuutus) matalampi kuin havaittu kuolevuus. Koska henkivakuutukset ovat usein pitkäkestoisia, on turvaavuudella hyvin tärkeä rooli tuotteen kannattavuuden ja henkivakuutusyhtiön vakavaraisuuden kannalta. Monesti myös laki määrää henkivakuutusyhtiöt hinnoittelemaan tuotteensa turvaavasti jotta yhtiöt voivat huonossakin tilanteessa edelleen turvata etuudet vakuutuksenottajille. Henkivakuutusyhtiöt ovat myös kehittäneet monimutkaisempia tuotteita, jossa voi olla useampia riskitekijöitä, joiden kehittymistä pitkällä aikavälillä voi olla vaikea ennustaa. Turvaavat hinnoittelutekijät tarkoittavat, että keskimäärin vakuutusyhtiöille kertyy tuottoja yli ajan. Tässä työssä tutkitaan vakuutusyhtiöön kertyvän tuoton tai tappion satunnaisuuden ominaisuuksia. Jätämme tämän työn ulkopuolelle vakuutusyhtiön sijoitustuoton, liikekulut sekä vakuutusyhtiöiden tavat jakaa ylijäämää vakuutetuille bonuksina. Työssä seurataan Henrik Ramlau-Hansenin artikkelia 'The emergence of profit in life insurance' keskittyen kuitenkin yleiseen tuoton odotusarvoon, odotusarvoon liittyen tiettyyn tilaan sekä määritetyn ajan sisällä kertyneeseen tuoton odotusarvoon. Tuloksia pyritään myös avaamaan niin, että ne olisi helpompi ymmärtää. Henkivakuutusyhtiön tuotto määritellään matemaattisesti käyttäen Markov prosesseja. Määritelmää käyttäen lasketaan tietyn aikavälin kumulatiivisen tuoton odotusarvo ja hajonta. Tulokseksi saadaan, että tuoton odotusarvo on Markov prosessin eri tilojen tuottaman ensimmäisen kertaluvun prospektiivisen vastuuvelan ja toisen kertaluvun retrospektiivisen vastuuvelan erotuksien summa kerrottuna todennäköisyyksillä, joilla ollaan kyseisessä tilassa aikavälin lopussa. Lopuksi työssä lasketaan vielä 10 vuoden kertamaksuisen kuolemanvaravakuutuksen odotettu tuotto käyttäen työn tuloksia. Lisäksi sama vakuutus simuloitiin myös 10 000 000 kertaa päästen hyvin lähelle kaavan antamaa lopputulosta.
  • Lankinen, Petra (2021)
    Vahinkovakuutusyhtiöiden on Suomen lainsäädännön nojalla kyettävä arvioimaan vakavaraisuuttaan. Jotta arvion voi tehdä, tulee yhtiöiden tunnistaa ja pyrkiä hallitsemaan liiketoiminta-alueeseensa liittyviä riskejä. Taloudelliset riskit ovat eri vakuutuslajeilla erilaisia, sillä tulokseen liittyvät todennäköisyysjakaumat voivat olla keskenään hyvin erilaisia — toisilla vakuutuslajeilla vahingot ovat tyypillisesti pieniä ja niitä tulee yhtiön korvattavaksi vuosittain paljon, kun taas joidenkin vakuutusten riskit realisoituvat harvoin, mutta myös korvaussummat voivat olla todella suuria. Tutkielman tavoitteena on tarkastella, kuinka vahinkovakuutusyhtiön vakavaraisuuslaskentaa voidaan käsitellä teoreettisessa viitekehyksessä. Tutkielmassa tarkastellaan vuosittaista kokonaistappiota, eli korvausvaateiden yhteissumman ja asiakkailta saatavan maksutulon välistä erotusta silloin, kun korvaukset ovat keskenään samoin jakautuneita ja riippumattomia. Kun yhden vuoden tappion jakauma on tiedossa, on tietyissä tapauksissa mahdollista arvioida vararikon todennäköisyyttä pitkällä aikavälillä. Tutkielmassa todistetaan Cramérin lause ja Cramér-Lundbergin approksimaatio, joiden avulla kevythäntäistä todennäköisyysjakaumaa noudattavalle satunnaismuuttujalle voidaan löytää vararikon todennäköisyyden paras mahdollinen yläraja tiettyjen oletusten vallitessa. Paksuhäntäisten jakaumien osalta tutustutaan vararikkotodennäköisyyden arviointiin simuloinnin kautta. Jotta tässä tutkielmassa esitettyjä tuloksia voidaan soveltaa, on hyödyllistä tuntea erilaisia menetelmiä tunnistaa jakauman kevyt- tai paksuhäntäisyysominaisuus havaintoaineistosta. Tätä varten tutkielmassa esitellään kolme visuaalista menetelmää jakauman tunnistamiseen sekä niiden teoreettiset perustat. Lisäksi näitä keinoja testataan aineistolla, joka on otos Pohjola Vakuutuksen korvausdataa vuodelta 2015. Menetelmien perusteella voidaan ajatella, että molemmissa aineistoissa korvaukset vaikuttavat noudattavan jotakin paksuhäntäistä jakaumaa, mutta aineistojen välillä oli merkittäviä eroja.
  • Närhi, Marianne (2020)
    Henkivakuutusyhtiöt tarjoavat asiakkailleen monenlaisia tuotteita. Vakuutuksia on erityyppisiä, mutta usein ne ovat liitoksissa vakuutetun elinaikaan. Mainittakoon näistä esimerkiksi kuolemanvara- ja elämänvaravakuutus. Ensimmäisessä korvaus maksetaan mikäli vakuutettu kuolee vakuutusaikana ja toisessa mikäli vakuutettu on elossa ennalta sovittuna ajanhetkenä. Vakuutetun elinaika ei kuitenkaan ole tiedossa sopimusta tehdessä, joten vakuutusyhtiön pitää pystyä estimoimaan vakuutettujen kuolevuutta. Riittävän tarkalla estimoinnilla pyritään estämään tilanne, jossa korvausten määrä ylittää vakuutusyhtiön varat. Kuolevuusennustetta voidaan käyttää muun muassa vakuutusten hinnoitteluun. Estimointi on kuitenkin haastavaa, sillä kuolevuuden kehitykseen tulevaisuudessa vaikuttavat muun muassa mahdolliset lääketieteelliset läpimurrot tai populaation elintapojen muutokset. Kuolevuus ei pysy samana sukupolvesta toiseen, vaan pääsääntöisesti monissa maissa uusi sukupolvi elää edellistä sukupolvea keskimäärin pidempään. Kuolevuutta onkin helpompi ennustaa lyhyellä kuin pitkällä aikavälillä. Tutkielman alussa määrittelemme tämän työn kannalta oleellisia esitietoja, jotka liittyvät sekä elinaikaan ja kuolevuuteen että yleisesti stokastisiin prosesseihin. Erityisen tärkeitä ovat elinajan ja kuolevuusfunktion käsite. Näiden lisäksi martingaali, laskuriprosessi ja kompensaattori ovat tämän työn avainkäsitteitä. Tutustumme määritelmien lisäksi Doob-Meierin hajotelmaan, jonka perusteella alimartingaali voidaan kirjoittaa systemaattisen ja täysin satunnaisen osan summana. Systemaattisesta osasta puhutaan kompensaattorina ja satunnaisen osan muodostaa martingaali. Tutkielman tarkoituksena on johtaa kumulatiivista kuolevuutta estimoiva Nelson-Aalen estimaattori tilanteessa, jossa vakuutettuja on n kappaletta ja vakuutetun mahdollisia eri kuolinsyitä k kappaletta. Oletamme parametrin n arvon olevan suhteellisen suuri ja parametrin k arvon suhteellisen pieni. Johdamme lisäksi estimaattorin odotusarvon sekä varianssin. Havaitaan, että estimaattori on hieman harhainen, mutta kuitenkin asymptoottisesti harhaton. Teemme lisäksi lyhyen sovelluksen R:llä, jonka tarkoituksena on auttaa lukijaa hahmottamaan miltä todellisen otoksen pohjalta laaditut Nelson-Aalen estimaatit voisivat näyttää ja tutkitaan kuinka hyvin ne vastaavat todellisia arvoja. Tutkielman loppupuolella tarkastellaan tilannetta, jossa vakuutettujen määrä kasvaa rajatta ja huomataan, että normalisoitu Nelson-Aalen estimaattori alkaa muistuttaa Gaussista martingaalia. Erityisesti kiinteällä ajanhetkellä estimaattori on asymptoottisesti normaalijakautunut. Todistuksessa käytämme Rebolledon keskeistä raja-arvolausetta martingaaleille. Tulosta käyttämällä olisi mahdollista määrittää luottamusrajat estimoitavalle kumulatiiviselle kuolevuudelle. Lopuksi käymme läpi vaihtoehtoisia tapoja estimoida kuolevuutta.
  • Hankala, Teemu (2021)
    Säilymislauseina tunnetut tulokset kuvailevat malliteoriassa erilaisia yhteyksiä kaavojen syntaktisen rakenteen ja kaavat toteuttavien mallien semanttisten ominaisuuksien välillä. Esimerkiksi jokainen ensimmäisen kertaluvun logiikan eksistentiaalis-positiivinen kaava säilyy homomorfismien suhteen. Käänteiseen suuntaan jokainen homomorfismeissa säilyvä ensimmäisen kertaluvun kaava voidaan loogisesti yhtäpitävästi esittää myös eksistentiaalis-positiivisessa muodossa. Parannuksena tähän on Benjamin Rossman osoittanut, että jokainen funktiosymboleja sisältämätön ja homomorfismeissa säilyvä ensimmäisen kertaluvun kaava voidaan esittää eksistentiaalis-positiivisessa muodossa ilman tarvetta kaavan kvanttoriasteen kasvamiselle. Tässä tutkielmassa Rossmanin menetelmää kehitetään hieman eteenpäin osoittamalla, että jokainen funktiosymboleja sisältämätön ja homomorfismien suhteen säilyvä kaava on mahdollista muuttaa eksistentiaalis-positiiviseen muotoon sellaisella tavalla, että tuloksena olevan kaavan syntaktista rakennetta saadaan rajattua alkuperäisen kaavan rakenteen avulla ja että tuloksena olevan kaavan kvanttoriasteeksi riittää pelkkä alkuperäisen kaavan eksistenssikvanttoreista laskettu kvanttoriaste. Todistuksen työvälineenä esitellään eräs yleistys malliteoriassa perinteisesti käytetyistä ja erilaisten mallirakenteiden vertailuun soveltuvista kahden pelaajan peleistä.
  • McBride, Kiana (2024)
    Machine learning is by no means a novel field, but a recent boom in interest has led to a rapid increase in funding for related research. Because of this, many pure-mathematicians may find themselves trying to transition to this currently lucrative area of research. Thus, there is some demand for literature which helps ease this transition for mathematicians with a geometry or topology background. In this thesis we provide an introduction to contemporary machine learning research for a geometrically or topologically inclined individual. We do so by tracing the study of manifolds from their inception to modern machine learning. The thesis begins with a brief history of manifolds to motivate the examination of a proof of the Whitney embedding theorem. The theorem is then proved in detail, following texts from Adachi and Mukherjee on differential geometry. Later, a brief introduction to manifold learning introduces the reader to the manifold hypothesis and connects the classical study with its machine learning counterpart. Then, we provide a canonical introduction to neural networks after which we share rigorous mathematical definitions. Finally, we introduce the necessary preliminaries and subsequently prove the universal approximation theorem with injective neural networks. While we consider the Whitney embedding theorem as having applications in machine learning research, the universal approximation theorem with injective neural networks has clearer uses beyond mathematics. The studies of inverse problems and compressed sensing are two areas for which injectivity is a necessary condition for the well-posedness of common questions. Both fields have many deep applications to scientific and medical imaging. Injectivity is also a prerequisite for a function to preserve the topological properties of its domain.
  • Mäkinen, Otto (2021)
    Tutkielma käsittelee invariantin aliavaruuden ongelmaa. Päälähteenä toimii Isabelle Chalendarin ja Jonathan Partingtonin kirja Modern Approaches to the Invariant-Subspace Problem. Invariantin aliavaruuden ongelmassa kysytään, onko kompleksisessa Banachin avaruudessa X jokaisella jatkuvalla lineaarisella operaattorilla T olemassa suljettu aliavaruus A, joka on invariantti (T(A) ⊂ A) ja ei-triviaali (A 6= {0} ja A 6= X). Invariantin aliavaruuden ongelma on vielä avoin kompleksiselle ääretönulotteiselle separoituvalle Hilbertin avaruudelle. Tutkielma koostuu neljästä luvusta. Ensimmäisessä luvussa käydään läpi tarvittavia määritelmiä ja teorioita sekä pohjustetaan tulevia kappaleita. Toisessa luvussa määritellään Banachin algebra ja kompaktit operaattorit sekä esitetään Schauderin kiintopistelause ja päätuloksena Lomonosovin lause, jonka korollaarina saadaan, että kompaktilla operaattorilla, joka ei ole nollaoperaattori, on ei-triviaali invariantti aliavaruus. Lomonosovin lause on esitetty Chalendarin ja Partingtonin kirjan luvussa 6. Kolmannessa luvussa siirrytään Hilbertin avaruuksiin ja tutkitaan normaaleja operaattoreita. Päätuloksena todistetaan, että normaalilla operaattorilla, joka ei ole nollaoperaattori, on ei-triviaali hyperinvariantti aliavaruus. Tätä varten määritellään spektraalisäteen ja spektraalimitan käsitteet sekä näihin liittyviä tuloksia. Normaalit operaattorit löytyvät Chalendarin ja Partingtonin kirjan luvusta 3. Neljäs luku käsittelee minimaalisia vektoreita. Luvussa esitetään Hahn-Banachin, Eberlein-Smulyan ja Banach-Alaoglun lauseet sekä sovelletaan minimaalisia vektoreita invariantin aliavaruuden ongelmaan. Minimaalisten vektoreiden avulla saadaan esimerkiksi uusi ja erilainen todistus sille, että kompaktilla operaattorilla, joka ei ole nollaoperaattori, on ei-triviaali invariantti aliavaruus. Chalendarin ja Partingtonin kirja käsittelee minimaalisia vektoreita luvussa 7.
  • Salow, Olga-Tuulia (2021)
    Tässä tutkielmassa esitetään logistisen regressiomallin teoriaa sekä havainnollistetaan sen soveltuvuutta terveystieteelliseen tutkimukseen. Tutkielman tarkoituksena on tarkastella logistisen regressiomallin parametrin estimaattien tulkintaa. Mallin estimaatteja voidaan tulkita kolmen eri metriikan avulla mutta usein tarkastelut rajoittuu vain yhteen. Tutkielmassa käydään läpi kaikki kolme metriikkaa, eli todennäköisyys-, logit- sekä ristisuhdemetriikka ja tarkastelaan näitä teorian ja empiirisen esimerkin avulla. Esimerkissä käytetty aineisto koostuu THL:n Kouluterveyskyselyyn vastanneiden vantaalaisten 8. ja 9. luokan oppilaiden vastauksista ja on tehty yhteistyössä Vantaan kaupungin kanssa. Tutkielman analyysit on tehty Stata ohjelmistolla minkä käytöstä esitetään muutama esimerkki. Tutkielman alussa käydään läpi logistisen regressiomallin teoriaa kuten yleistettyjen lineaaristen mallien teoriaa sekä mallin sovitus suurimman uskottavuuden menetelmällä. Tämän jälkeen käydään läpi metriikan valintaa ja tulkintaa sekä nostetaan esiin myös mallin yhteisvaikutustermin tulkintaan liittyviä huomioita. Tutkielman lopussa havainnollistetaan logistisen regressiomallin soveltuvuutta laadullisiin tutkimuskysymyksiin. Analyyseissä keskitytään tarkastelemaan ilmeneekö terveyden kokemuksessa eroja ulkomaalaistaustaisten ja suomalaistaustaisten nuorten välillä ja muuttaako perheen resursseihin ja elintapoihin liittyvien muuttujien lisääminen malleihin näitä havaintoja. Mallin kolmen eri metriikan teoreettinen sekä empiirinen tarkastelu osoittavat, että tulkinta on riippuvainen metriikan valinnasta mutta tehtävät johtopäätökset eivät välttämättä ole riippuvaisia metriikasta. Erityisesti laadullisen tulkinnan kannalta on haastavaa muuttujien yhteyksien suuruuden tulkinta sekä tilastollisen merkitsevyyden toteamisessa ilmenee eroja. Vaikka tulkinta on riippuvainen metriikan valinnasta oli tutkielmassa laadulliset johtopäätökset kuitenkin lopulta samankaltaiset. Logistisen regressiomallin analyysit toivat siis esiin samankaltaiset päätelmät, riippumatta käytettävästä metriikasta. Analyysit osoittavat, että Vantaalla nuoren ulkomaalaistausta ei ole vahva selittävä tekijä nuoren terveyden kokemukselle. Kuitenkin sukupolvien välillä ilmenee merkitseviä eroja suomalaistaustaisiin nuoriin verratuna. Nuorten kokemus perheen huonosta taloudellisesta tilanteesta sekä arkeen kuuluvien terveyteen positiivisesti vaikuttavien elintapojen puuttuminen selittivät merkitsevän osan nuorten terveyden kokemuksesta.
  • Nuutinen, Joonas (2021)
    Tässä tutkielmassa käsitellään log-optimaalisen salkun käsitettä jatkuvassa markkinamallissa. Jatkuva markkinamalli koostuu instrumenteista, joiden arvoja mallinnetaan jatkuvilla stokastisilla prosesseilla. Mahdollisia sijoitusstrategioita kuvataan salkuilla, jotka ovat instrumenttien määristä koostuvia moniulotteisia stokastisia prosesseja. Log-optimaalinen salkku määritellään siten, että se jokaisella hetkellä maksimoi salkun arvon logaritmin lyhyen aikavälin muutoksen odotusarvon. Lokaalisti optimaalinen salkku puolestaan maksimoi jokaisella hetkellä salkun arvon lyhyen aikavälin muutoksen odotusarvon valitulla varianssilla. Tutkielmassa todistetaan, että jokainen lokaalisti optimaalinen salkku voidaan esittää yhdistelmänä log-optimaalista salkkua ja pankkitalletusta vastaavaa instrumenttia. Saman osoitetaan pätevän myös log-optimaalisen salkun ja instrumenttien kokonaismääristä koostuvan markkinasalkun välillä, jos jokaisella markkinoilla toimivista sijoittajista on jokin lokaalisti optimaalinen salkku. Tutkielmassa käsitellään lisäksi minimaalista markkinamallia, joka on eräs yksinkertainen malli log-optimaaliseksi oletettavan markkinasalkun arvolle. Tähän liittyen johdetaan myös yksittäisten instrumenttien arvoja mallintava jatkuva markkinamalli, jossa instrumentteja vakiomäärät sisältävä markkinasalkku on minimaalisen markkinamallin mukainen log-optimaalinen salkku.
  • Heikkinen, Niilo (2024)
    In this thesis, we prove the existence of a generalization of the matrix product state (MPS) decomposition in infinite-dimensional separable Hilbert spaces. Matrix product states, as a specific type of tensor network, are typically applied in the context of finite-dimensional spaces. However, as quantum mechanics regularly makes use of infinite-dimensional Hilbert spaces, it is an interesting mathematical question whether certain tensor network methods can be extended to infinite dimensions. It is a well-known result that an arbitrary vector in a tensor product of finite-dimensional Hilbert spaces can be written in MPS form by applying repeated singular value or Schmidt decompositions. In this thesis, we use an analogous method in the infinitedimensional context based on the singular value decomposition of compact operators. In order to acquire sufficient theoretical background for proving the main result, we first discuss compact operators and their spectral theory, and introduce Hilbert-Schmidt operators. We also provide a brief overview of the mathematical formulation of quantum mechanics. Additionally, we introduce the reader to tensor products of Hilbert spaces, in both finite- and infinite-dimensional contexts, and discuss their connection to Hilbert-Schmidt operators and quantum mechanics. We also prove a generalization of the Schmidt decomposition in infinite-dimensional Hilbert spaces. After establishing the required mathematical background, we provide an overview of matrix product states in finite-dimensional spaces. The thesis culminates in the proof of the existence of an MPS decomposition in infinite-dimensional Hilbert spaces.
  • Hackman, Axel; Hackman, Axel (2024)
    The question of how much one logic can express compared to another can be measured with formula size, and important results have been reached with formula size games. These games can separate two classes of structures from each other within a given number of moves. Since formula size can also be expressed through extended syntax trees, we are interested in seeing what attributes or benefits games or trees have in different situations. First-order logic and its fragments are particularly interesting. This thesis discusses formula size games and analyses their use in known succinctness results between fragments of first-order logic and also between first-order logic and modal logic. While extended syntax trees may be preferred for results between fragments of first-order logic, the formula size game can be easily constructed for different languages. We find that both methods have advantages depending on the two logics that are compared to each other.
  • Vuorenmaa, Elmo (2021)
    In topology, one often wishes to find ways to extract new spaces out of existing spaces. For example, the suspension of a space is a fundamental technique in homotopy theory. However, in recent years there has been a growing interest in extracting topological information out of discrete structures. In the field of topological data-analysis one often considers point clouds, which are finite sets of points embedded in some R^m. The topology of these sets is trivial, however, often these sets have more structure. For example, one might consider a uniformly randomly sampled set of points from a circle S1. Clearly, the resulting set of points has some geometry associated to it, namely the geometry of S1. The use of certain types of topological spaces called Vietoris-Rips and Cech complexes allows one to study the "underlying topology" of point clouds by standard topological means. This in turn enables the application of tools from algebraic topology, such as homology and cohomology, to be applied to point clouds. Vietoris-Rips and Cech complexes are often not metrizable, even though they are defined on metric spaces. The purpose of this thesis is to introduce a homotopy result of Adams and Mirth concerning Vietoris-Rips metric thickenings. In the first chapter, we introduce the necessary measure theory for the main result of the thesis. We construct the 1-Wasserstein distance, and prove that it defines a metric on Polish spaces. We also note, that the 1-Wasserstein distance is a metric on general metric spaces. In the sequel, we introduce various complexes on spaces. We study simplicial complexes on R^n and introduce the concept of a realization. We then prove a theorem on the metrizability of a realization of a simplicial complex. We generalize simplicial complexes to abstract simplicial complexes and study the geometric realization of some complexes. We prove a theorem on the existence of geometric realizations for abstract simplicial complexes. Finally, we define Vietoris-Rips and Cech complexes, which are complexes that are formed on metric spaces. We introduce the nerve lemma for Cech complexes, and prove a version of it for finite CW-complexes. The third chapter introduces the concept of reach, which in a way measures the curvature of the boundary of a subset of R^n. We prove a theorem that characterizes convex, closed sets of R^n by their reach. We also introduce the nearest point projection map π, and prove its continuity. In the final chapter, we present some more measure theory, which leads to the definitions of Vietoris-Rips and Cech metric thickenings. The chapter culminates in constructing an explicit homotopy equivalence between a metric space X of positive reach and its Vietoris-Rips metric thickening.
  • Aarnos, Mikko (2023)
    A major innovation in statistical mechanics has been the introduction of conformal field theory in the mid 1980’s. The theory postulates the existence of conformally invariant scaling limits for many critical 2D lattice models, and then uses representation theory of a certain algebraic object that can be associated to these limits to derive exact solvability results. Providing mathematical foundations for the existence of these scaling limits has been a major ongoing project ever since, and lead to the introduction of Schramm-Löwner evolution (or SLE for short) in the early 2000’s. The core insight behind SLE is that if a conformally invariant random planar curve can be described by Löwner evolution and fulfills a condition known as the domain Markov property, it must be driven by a Wiener process with no drift. Furthermore, the variance of the Wiener process can be used to define a family SLE𝜅 of random curves which are simple, self-touching or space-filling depending on 𝜅 ≥ 0. This combination of flexibility and rigidity has allowed the scaling limits of various lattice models, such as the loop-erased random walk, the harmonic explorer, and the critical Ising model with a single interface, to be described by SLE. Once we move (for example) to the critical Ising model with multiple interfaces it turns out that the standard theory of SLE is inadequate. As such we would like establish the existence of multiple SLE to handle these more general situations. However, conformal invariance and the domain Markov property no longer guarantee uniqueness of the object so the situation is more complicated. This has led to two main approaches to the study of multiple SLE, known as the global and local approaches. Global methods are often simpler, but they often do not yield explicit descriptions of the curves. On the other hand, local methods are far more involved but as a result give descriptions of the laws of the curves. Both approaches have lead to distinct proofs that the laws of the driv- ing terms of the critical Ising model on a finitely-connected domain are described by multiple SLE3 . The aim of this thesis is to provide a proof of this result on a simply-connected domain that is simpler than the ones found in the literature. Our idea is to take the proof by local approach as our base, simplify it after restricting to a simply-connected domain, and bypass the hard part of dealing with a martingale observable. We do this by defining a function as a ratio of what are known as SLE3 partition functions, and use it as a Radon-Nikodym derivative with respect to chordal SLE3 to construct a new measure. A convergence theorem for fermionic observables shows that this measure is the scaling limit of the law of the driving term of the critical Ising model with multiple interfaces, and due to our knowledge of the Radon-Nikodym derivative an application of Girsanov’s theorem shows that the measure we constructed is just local multiple SLE3.
  • Bernardo, Alexandre (2020)
    In insurance and reinsurance, heavy-tail analysis is used to model insurance claim sizes and frequencies in order to quantify the risk to the insurance company and to set appropriate premium rates. One of the reasons for this application comes from the fact that excess claims covered by reinsurance companies are very large, and so a natural field for heavy-tail analysis. In finance, the multivariate returns process often exhibits heavy-tail marginal distributions with little or no correlation between the components of the random vector (even though it is a highly correlated process when taking the square or the absolute values of the returns). The fact that vectors which are considered independent by conventional standards may still exhibit dependence of large realizations leads to the use of techniques from classical extreme-value theory, that contains heavy-tail analysis, in estimating an extreme quantile of the profit-and-loss density called value-at-risk (VaR). The need of the industry to understand the dependence between random vectors for very large values, as exemplified above, makes the concept of multivariate regular variation a current topic of great interest. This thesis discusses multivariate regular variation, showing that, by having multiple equivalent characterizations and and by being quite easy to handle, it is an excellent tool to address the real-world issues raised previously. The thesis is structured as follows. At first, some mathematical background is covered: the notions of regular variation of a tail distribution in one dimension is introduced, as well as different concepts of convergence of probability measures, namely vague convergence and $\mathbb{M}^*$-convergence. The preference in using the latter over the former is briefly discussed. The thesis then proceeds to the main definition of this work, that of multivariate regular variation, which involves a limit measure and a scaling function. It is shown that multivariate regular variation can be expressed in polar coordinates, by replacing the limit measure with a product of a one-dimensional measure with a tail index and a spectral measure. Looking for a second source of regular variation leads to the concept of hidden regular variation, to which a new hidden limit measure is associated. Estimation of the tail index, the spectral measure and the support of the limit measure are next considered. Some examples of risk vectors are next analyzed, such as risk vectors with independent components and risk vectors with repeated components. The support estimator presented earlier is then computed in some examples with simulated data to display its efficiency. However, when the estimator is computed with real-life data (the value of stocks for different companies), it does not seem to suit the sample in an adequate way. The conclusion is drawn that, although the mathematical background for the theory is quite solid, more research needs to be done when applying it to real-life data, namely having a reliable way to check whether the data stems from a multivariate regular distribution, as well as identifying the support of the limit measure.
  • Tiihonen, Iiro (2020)
    Työni aihe on Gaussisten prosessien (Gp) soveltaminen aikasarjojen analysointiin. Erityisesti lähestyn aikasarjojen analysointia verrattain harvinaisen sovellusalan, historiallisten aikasarja-aineistojen analysoinnin näkökulmasta. Bayesilaisuus on tärkeä osa työtä: parametreja itsessään kohdellaan satunnaismuuttujina, mikä vaikuttaa sekä mallinnusongelmien muotoiluun että uusien ennusteiden tekemiseen työssä esitellyillä malleilla. Työni rakentuu paloittain. Ensin esittelen Gp:t yleisellä tasolla, tilastollisen mallinnuksen työkaluna. Gp:eiden keskeinen idea on, että Gp-prosessin äärelliset osajoukot noudattavat multinormaalijakaumaa, ja havaintojen välisiä yhteyksiä mallinnetaan ydinfunktiolla (kernel), joka samaistaa havaintoja niihin liittyvien selittäjien ja parametriensa funktiona. Oikeanlaisen ydinfunktion valinta ja datan suhteen optimoidut parametrit mahdollistavat hyvinkin monimutkaisten ja heikosti ymmärrettyjen ilmiöiden mallintamisen Gp:llä. Esittelen keskeiset tulokset, jotka mahdollistavat sekä GP:n sovittamisen aineistoon että sen käytön ennusteiden tekemiseen ja mallinnetun ilmiön alatrendien erittelyyn. Näiden perusteiden jälkeen siirryn käsittelemään sitä, miten GP-malli formalisoidaan ja sovitetaan, kun lähestymistapa on Bayesilainen. Käsittelen sekä eri sovittamistapojen vahvuuksia ja heikkouksia, että mahdollisuutta liittää Gp osaksi laajempaa tilastollista mallia. Bayesilainen lähestymistapa mahdollistaa mallinnettua ilmiötä koskevan ennakkotiedon syöttämisen osaksi mallin formalismia parametrien priorijakaumien muodossa. Lisäksi se tarjoaa systemaattisen, todennäköisyyksiin perustuvan tavan puhua sekä ennakko-oletuksista että datan jälkeisistä parametreihin ja mallinnetun ilmiön tuleviin arvoihin liittyvistä uskomuksista. Seuraava luku käsittelee aikasarjoihin erityisesti liittyviä Gp-mallintamisen tekniikoita. Erityisesti käsittelen kolmea erilaista mallinnustilannetta: ajassa tapahtuvan Gp:n muutoksen, useammasta eri alaprosessista koostuvan Gp:n ja useamman keskenään korreloivan Gp:n mallintamista. Tämän käsittelyn jälkeen työn teoreettinen osuus on valmis: aikasarjojen konkreettinen analysointi työssä esitellyillä työkaluilla on mahdollista. Viimeinen luku käsittelee historiallisten ilmiöiden mallintamista aiemmissa luvuissa esitellyillä tekniikoilla. Luvun tarkoitus on ensisijaisesti esitellä lyhyesti useampi potentiaalinen sovelluskohde, joita on yhteensä kolme. Ensimmäinen luvussa käsitelty mahdollisuus on usein vain repalaisesti havaintoja sisältävien historiallisten aikasarja-aineistojen täydentäminen GP-malleista saatavilla ennusteilla. Käytännön tulokset korostivat tarvetta vahvoille prioreille, sillä historialliset aikasarjat ovat usein niin harvoja, että mallit ovat valmiita hylkäämän havaintojen merkityksen ennustamisessa. Toinen esimerkki käsittelee historiallisia muutoskohtia, esimerkkitapaus on Englannin sisällissodan aikana äkillisesti räjähtävä painotuotteiden määrä 1640-luvun alussa. Sovitettu malli onnistuu päättelemään sisällissodan alkamisen ajankohdan. Viimeisessä esimerkissä mallinnan painotuotteiden määrää per henkilö varhaismodernissa Englannissa, käyttäen ajan sijaan selittäjinä muita ajassa kehittyviä muuttujia (esim. urbanisaation aste), jotka tulkitaan alaprosesseiksi. Tämänkin esimerkin tekninen toteutus onnistui, mikä kannustaa sekä tilastollisesti että historiallisesti kattavampaan analyysiin. Kokonaisuutena työni sekä esittelee että demonstroi Gp-lähestymistavan mahdollisuuksia aikasarjojen analysoinnissa. Erityisesti viimeinen luku kannustaa jatkokehitykseen historiallisten ilmiöiden mallintamisen uudella sovellusalalla.
  • Vartiainen, Pyörni (2024)
    Sums of log-normally distributed random variables arise in numerous settings in the fields of finance and insurance mathematics, typically to model the value of a portfolio of assets over time. In particular, the use of the log-normal distribution in the popular Black-Scholes model allows future asset prices to exhibit heavy tails whilst still possessing finite moments, making the log-normal distribution an attractive assumption. Despite this, the distribution function of the sum of log-normal random variables cannot be expressed analytically, and has therefore been studied extensively through Monte Carlo methods and asymptotic techniques. The asymptotic behavior of log-normal sums is of especial interest to risk managers who wish to assess how a particular asset or portfolio behaves under market stress. This motivates the study of the asymptotic behavior of the left tail of a log-normal sum, particularly when the components are dependent. In this thesis, we characterize the asymptotic behavior of the left and right tail of a sum of dependent log-normal random variables under the assumption of a Gaussian copula. In the left tail, we derive exact asymptotic expressions for both the distribution function and the density of a log-normal sum. The asymptotic behavior turns out to be closely related to Markowitz mean-variance portfolio theory, which is used to derive the subset of components that contribute to the tail asymptotics of the sum. The asymptotic formulas are then used to derive expressions for expectations conditioned on log-normal sums. These formulas have direct applications in insurance and finance, particularly for the purposes of stress testing. However, we call into question the practical validity of the assumptions required for our asymptotic results, which limits their real-world applicability.
  • Flinck, Jens (2023)
    This thesis focuses on statistical topics that proved important during a research project involving quality control in chemical forensics. This includes general observations about the goals and challenges a statistician may face when working together with a researcher. The research project involved analyzing a dataset with high dimensionality compared to the sample size in order to figure out if parts of the dataset can be considered distinct from the rest. Principal component analysis and Hotelling's T^2 statistic were used to answer this research question. Because of this the thesis introduces the ideas behind both procedures as well as the general idea behind multivariate analysis of variance. Principal component analysis is a procedure that is used to reduce the dimension of a sample. On the other hand, the Hotelling's T^2 statistic is a method for conducting multivariate hypothesis testing for a dataset consisting of one or two samples. One way of detecting outliers in a sample transformed with principal component analysis involves the use of the Hotelling's T^2 statistic. However, using both procedures together breaks the theory behind the Hotelling's T^2 statistic. Due to this the resulting information is considered more of a guideline than a hard rule for the purposes of outlier detection. To figure out how the different attributes of the transformed sample influence the number of outliers detected according to the Hotelling's T^2 statistic, the thesis includes a simulation experiment. The simulation experiment involves generating a large number of datasets. Each observation in a dataset contains the number of outliers according to the Hotelling's T^2 statistic in a sample that is generated from a specific multivariate normal distribution and transformed with principal component analysis. The attributes that are used to create the transformed samples vary between the datasets, and in some datasets the samples are instead generated from two different multivariate normal distributions. The datasets are observed and compared against each other to find out how the specific attributes affect the frequencies of different numbers of outliers in a dataset, and to see how much the datasets differ when a part of the sample is generated from a different multivariate normal distribution. The results of the experiment indicate that the only attributes that directly influence the number of outliers are the sample size and the number of principal components used in the principal component analysis. The mean number of outliers divided by the sample size is smaller than the significance level used for the outlier detection and approaches the significance level when the sample size increases, implying that the procedure is consistent and conservative. In addition, when some part of the sample is generated from a different multivariate normal distribution than the rest, the frequency of outliers can potentially increase significantly. This indicates that the number of outliers according to Hotelling's T^2 statistic in a sample transformed with principal component analysis can potentially be used to confirm that some part of the sample is distinct from the rest.