Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by study line "Matematik och tillämpande matematik"

Sort by: Order: Results:

  • Heikkuri, Vesa-Matti (2022)
    This thesis studies equilibrium in a continuous-time overlapping generations (OLG) model. OLG models are used in economics to study the effect of demographics and life-cycle behavior on macroeconomic variables such as the interest rate and aggregate investment. These models are typically set in discrete time but continuous-time versions have also received attention recently for their desirable properties. Competitive equilibrium in a continuous-time OLG model can be represented as a solution to an integral equation. This equation is linear in the special case of logarithmic utility function. This thesis provides the necessary and sufficient conditions under which the linear equation is a convolution type integral equation and derives a distributional solution using Fourier transform. We also show that the operator norm of the integral operator is not generally less than one. Hence, the equation cannot be solved using Neumann series. However, in a special case the distributional solution is characterized by a geometric series on the Fourier side when the operator norm is equal to one.
  • Williams Moreno Sánchez, Bernardo (2022)
    The focus of this work is to efficiently sample from a given target distribution using Monte Carlo Makov Chain (MCMC). This work presents No-U-Turn Sampler Lagrangian Monte Carlo with the Monge metric. It is an efficient MCMC sampler, with adaptive metric, fast computations and with no need to hand-tune the hyperparameters of the algorithm, since the parameters are automatically adapted by extending the No-U-Turn Sampler (NUTS) to Lagrangian Monte Carlo (LMC). This work begins by giving an introduction of differential geometry concepts. The Monge metric is then constructed step by step, carefully derived from the theory of differential geometry giving a formulation that is not restricted to LMC, instead, it is applicable to any problem where a Riemannian metric of the target function comes into play. The main idea of the metric is that it naturally encodes the geometric properties given by the manifold constructed from the graph of the function when embedded in higher dimensional Euclidean space. Hamiltonian Monte Carlo (HMC) and LMC are MCMC samplers that work on differential geometry manifolds. We introduce the LMC sampler as an alternative to Hamiltonian Monte Carlo (HMC). HMC assumes that the metric structure of the manifold encoded in the Riemannian metric to stay constant, whereas LMC allows the metric to vary dependent on position, thus, being able to sample from regions of the target distribution which are problematic to HMC. The choice of metric affects the running time of LMC, by including the Monge metric into LMC the algorithm becomes computationally faster. By generalizing the No-U-Turn Sampler to LMC, we build the NUTS-LMC algorithm. The resulting algorithm is able to estimate the hyperparameters automatically. The NUTS algorithm is constructed with a distance based stopping criterion, which can be replaced by another stopping criteria. Additionally, we run LMC-Monge and NUTS-LMC for a series of traditionally challenging target distributions comparing the results with HMC and NUTS-HMC. The main contribution of this work is the extension of NUTS to generalized NUTS, which is applicable to LMC. It is found that LMC with Monge explores regions of target distribution which HMC is unable to. Furthermore, generalized NUTS eliminates the need to choose the hyperparameters. NUTS-LMC makes the sampler ready to use for scientific applications since the only need is to specify a twice differentiable target function, thus, making it user friendly for someone who does not wish to know the theoretical and technical details beneath the sampler.
  • McCann, Robin (2022)
    Large deviations theory is a branch of probability theory which studies the exponential decay of probabilities for extremely rare events in the context of sequences of probability distributions. The theory originates from actuaries studying risk and insurance from a mathematical perspective, but today it has become its own field of study, and is no longer as tightly linked to insurance mathematics. Large deviations theory is nowadays frequently applied in various fields, such as information theory, queuing theory, statistical mechanics and finance. The connection to insurance mathematics has not grown obsolete, however, and these new results can also be applied to develop new results in the context of insurance. This paper is split into two main sections. The first presents some basic concepts from large deviations theory as well as the Gärtner-Ellis theorem, the first main topic of this thesis, and then provides a fairly detailed proof of this theorem. The Gärtner-Ellis theorem is an important result in large deviations theory, as it gives upper and lower bounds relating to asymptotic probabilities, while allowing for some dependence structure in the sequence of random variables. The second main topic of this thesis is the presentation of two large deviations results developed by H. Nyrhinen, concerning the random time of ruin as a function of the given starting capital. This section begins with introducing the specifics of this insurance setting of Nyrhinen’s work as well as the ruin problem, a central topic of risk theory. Following this are the main results, and the corresponding proofs, which rely to some part on convex analysis, and also on a continuous version of the Gärtner-Ellis theorem. Recommended preliminary knowledge: Probability Theory, Risk Theory.
  • Kulmala, Johanna (2022)
    Työn päätarkoitus on esittää Lindemannin-Weierstrassin lause todistuksineen. Todistusta varten tarvitsemme erinäisiä tietoja algebrallisista luvuista, transkendenttisista luvuista sekä tässä työs sä Galois'n ryhmistä ja Galois'n laajennoksista. Lindemannin-Weierstrassin lauseen todistuksen jälkeen esitetään lauseesta seuraavia tuloksia. Historian saatossa matemaatikot ovat halunneet jakaa lukuja erilaisiin lukujoukkoihin, kuten kokonaislukuihin ja kompleksilukuihin. Luvut pystytään jakamaan myös transkendenttisiin lukuihin ja algebrallisiin lukuihin. Lukua kutsutaan algebralliseksi, jos se on jonkin kokonaislukukertoimisen polynomin juuri. Jos luku ei ole algebrallinen, niin se on transkendenttinen. Matemaatikkojen ongelmana oli pitkään kuinka luvun transkendenttisuus todistetaan. Lindemannin-Weierstrassin lause on ratkaisu tähän ongelmaan. Lindemannin-Weierstrassin lause on seuraava: Olkoot α1, α2, . . . , αn erillisiä algebrallisia lukuja, jotka ovat lineaarisesti riippumattomia rationaalilukujen suhteen. Tällöin luvut e^α1, e^α2, . . . , e^αn ovat algebrallisesti riippumattomia algebrallisten lukujen suhteen. Työn päälauseen avulla pystytään siis todistamaan joidenkin lukujen transkendenttisuus. Tälläisiä lukuja ovat esimerkiksi Neperin luku e ja π, joiden transkendenttisuuden todistan työn lopussa lauseen avulla. Työn päälähteessä käytetään lauseen todistuksessa Galois'n ryhmiä ja laajennoksia, minkä vuoksi käsittelen myös niitä työssäni.
  • Lehdonvirta, Otso (2022)
    Tutkielmassa annetaan teoreettinen oikeutus sille, että pörssiosakkeen tuotto on lognormaalijakautunut kunhan se täyttää tietyn tyyppiset ehdot. Kun oletamme, että pörssiosakkeen tuotto täyttää nämä ehdot, voimme todistaa Lindebergin-Fellerin raja-arvolauseen avulla, että silloin pörssiosakkeen tuotto lähenee lognormaalijakaumaa mitä useammin pörssiosakkeella tehdään kauppaa tarkastetun ajanjakson aikana. Kokeilemme Coca-Colan ja Freeport-McMoranin osakkeilla empiirisiesti, noudattavatko niiden pörssiosakeiden tuotot lognormaalijakaumaa käyttämällä Kolmogorovin-Smirnovin -testiä. Nämä kyseiset osakkeet edustavat eri teollisuudenaloja, joten niiden pörssiosakkeet käyttäytyvät eri lailla. Lisäksi ne ovat hyvin likvidejä ja niillä käydään kauppaa tiheästi. Testeistä käy ilmi, että emme voi poissulkea Coca-Colan pörssiosakkeen tuoton noudattavan lognormaalijakaumaa, mutta Freeport-McMoranin voimme. Usein kirjallisuudessa oletetaan, että pörssiosakkeen tuotto on lognormaalijakautunut. Esimerkiksi alkuperäisessä Black-Scholes-mallissa oletetaan, että pörssiosakkeentuotto on lognormaalijakautunut. Se miten pörssiosakkeen tuotto on jakautunut vaikuttaa siihen, miten Black-Scholes-mallin mallintamat osakejohdannaiset hinnoitellaan ja kyseistä hinnoittelumallia saatetaan käyttää yritysten kirjanpidossa. Black-Scholes-malli, jossa pörssiosakkeen tuotto on lognormaalijakautunut, esitetään tutkielmassa.
  • Andberg, Sari (2022)
    Tutkielman aiheena ovat Möbius-kuvaukset, jotka ovat olennainen osa kompleksianalyysia ja täten edelleen analyysia. Möbius-kuvauksiin tutustutaan yleensä matematiikan syventävällä kurssilla Kompleksianalyysi 1, jonka lisäksi lukijalta toivotaan analyysin perustulosten tuntemista. Möbius-kuvaukset ovat helposti lähestyttäviä ja mielenkiintoisia ensimmäisen asteen rationaalifunktioita. Kuvauksilla on useita hyödyllisiä geometrisia ominaisuuksia ja niillä voidaan ratkaista kätevästi erilaisia kuvaustehtäviä, minkä vuoksi ne ovatkin erityisen tärkeitä. Tutkielman luku 1 on lyhyt johdatus Möbius-kuvauksiin. Luvussa 2 tutustutaan Möbius-kuvausten kannalta olennaisiin kompleksianalyysin käsitteisiin, kuten laajennettu kompleksitaso, Riemannin pallo sekä alkeisfunktiot. Kolmannessa luvussa määritellään itse Möbius-kuvaukset ja esitetään esimerkkejä erilaisista Möbius-kuvauksista. Luvussa näytetään lisäksi muun muassa, että Möbius-kuvaukset ovat bijektioita sekä konformisia, ja tutkitaan kuvausten analyyttisuutta. Luvussa 4 tutustutaan kaksoissuhteen käsitteeseen ja todistetaan Möbius-kuvausten myös säilyttävän kaksoisuhteet. Luvussa määritellään lisäksi kompleksitason erilaisia puolitasoja sekä ratkaistaan kaksoissuhteen avulla erilaisia kuvaustehtäviä tätä myös kuvin havainnollistaen. Viidennessä luvussa tutustutaan kvasihyperboliseen metriikkaan ja näytetään Möbius-kuvaukset hyperbolisiksi isometrioiksi. Aineistonani tutkielmassa on käytetty pääsääntöisesti Ritva Hurri-Syrjäsen Kompleksianalyysi 1- kurssin sisältöä. Lisäksi luvussa 5 pohjataan Paula Rantasen työhön Uniformisista alueista sekä F. W. Gehringin ja B. P. Palkan teokseen Quasiformally homogeneous domains.
  • Kolehmainen, Ilmari (2022)
    This thesis analyses the colonization success of lowland herbs in open tundra using Bayesian inference methods. This was done with four different models that analyse the the effects of different treatments, grazing levels and environmental covariates on the probability of a seed growing into a seedling. The thesis starts traditionally with an introduction chapter. The second chapter goes through the data; where and how it was collected, different treatments used and other relevant information. The third chapter goes through all the methods that you need to know to understand the analysis of this thesis, which are the basics of Bayesian inference, generalized linear models, generalized linear mixed models, model comparison and model assessment. The actual analysis starts in the fourth chapter that introduces the four models used in this thesis. All of the models are binomial generalized linear mixed models that have different variables. The first model only has the different treatments and grazing levels as variables. The second model also includes interactions between these treatment and grazing variables. The third and fourth models are otherwise the same as the first and the second but they also have some environmental covariates as additional variables. Every model also has the block number, where the seeds were sown as a random effect. The fifth chapter goes through the results of the models. First it shows the comparison of the predictive accuracy of all models. Then the gotten fixed effects, random effects and draws from posterior predictive distribution are presented for each model separately. Then the thesis ends with the sixth conclusions chapter
  • Wallin, Tiia (2021)
    Tämän tutkielman tarkoituksena on tutustuttaa lukija arvopaperimarkkinoihin, niiden yleiseen tasapainoon ja tasapainon olemassaoloon yhden periodin markkinamallissa, jossa toimijat käyvät kauppaa arvopapereista vaihtokauppamarkkinoilla. Yleinen tasapainoteoria on lähestymistapa talouden käyttäytymisen kuvaamiseen kokonaisuutena, jossa selvitetään talouden muodostavien toimijoiden kunkin jäsenen optimaalinen käyttäytyminen ja etsitään keskinäisen yhteensopivuuden pistettä. Tasapainoperiaatteen mukaan hinnat sopeutuvat, kunnes toimijoiden valinnat ovat yhteensopivat toistensa kanssa. Tasapaino voidaan määritellä systeemin tilaksi, jossa sillä ei ole syytä muuttua. Tutkielman toisessa kappaleessa esitetään tarpeellisia esitietoja ja apulauseita. Tutkielman lukijan oletetaan tuntevan tavallisimmat matemaattiset merkintätavat. Hänen tulee hallita peruskäsitteet matemaattisesta analyysistä, todennäköisyyslaskennasta, joukko-opista, lineaarialgebrasta ja topologiasta. Näiden lisäksi taloustieteen peruskäsitteiden tuntemus sekä opit auttavat ymmärtämään kokonaisuutta laajemmin. Tutkielman kolmannessa kappaleessa perehdytään lyhyesti arvopaperimarkkinoiden matemaattiseen esitystapaan, kuluttajan utiliteettiteoriaan sekä arbitraasikäsitteeseen. Kappaleessa esitetään myöhemmin tutkielmassa käytettävät talouden tärkeät standardiolettamukset ja todistetaan yhtenä tärkeimpänä tuloksena, milloin yhden periodin arvopaperimarkkinat ovat arbitraasivapaat. Neljännessä kappaleessa paneudutaan tasapainoon ja sen määrittelemiseen. Kappale lähtee liikkeelle tarkasta taloustieteellisestä näkökulmasta. Se perehtyy ehdollisten markkinoiden talouteen, eli toiselta nimeltä Arrow-Debreu-talouteen, sen merkitsemistapaan ja tasapainoon. Tämän jälkeen johdetaan seuraukset arvopaperimarkkinoille. Normalisoidun arbitraasivapaan tasapainon avulla pystytään näyttämään, että täydelliset arvopaperimarkkinat ovat Arrow-Debreu-markkinat. Kappaleen lopussa käydään läpi Pareto-tehokkuutta ja todistetaan, että täydellisillä arvopaperimarkkinoilla, joissa toimijoiden utiliteettifunktiot ovat kasvavia, jokainen kulutustasapaino on Pareto-tehokas. Tämä tarkoittaa sitä, että ei ole olemassa toista allokaatiota, joka parantaisi toisen toimijan utiliteettia huonontamatta jonkin toisen. Viidennessä kappaleessa esitellään tasapainon olemassaoloa ensiksi Arrow-Debreun taloudessa ja käydään esimerkkien avulla läpi, miksi tietyt oletukset ovat välttämättömiä tasapainon olemassaololle täydellisillä markkinoilla. Tämän jälkeen esitetään lause arvopaperimarkkinoiden tasapainolle, jossa markkinat saattavat olla epätäydelliset.
  • Westlin, Emilia (2022)
    The aim of this thesis was to 1) give an exposition of how topological data analysis (TDA) can be used to look for patterns in periodic data, 2) apply it to financial data and 3) visually explore how a topological analysis of credit data using landscape distances compared to looking directly at the change in credit data in the context of stock market crashes. TDA applies algebraic topology to data. It models data sets as various-dimensional surfaces, or manifolds, and studies their structure to find patterns of interconnectedness. It is a powerful tool for studying large, complex, multi-dimensional and noisy data sets. It is often able to capture subtle patterns in such data sets much better than other methods. It is known that stock market crashes are preceded by periods of credit expansion, but we have no reliable indicator of an imminent crash. Chapter 2 covers the algebraic topological theory needed. Key concepts are simplicial complexes, homology groups and persistent homology. The central theorem is the Nerve Theorem, which establishes an equivalence between the union of a collection of convex sets and the nerve of the collection. Chapter 3 describes the method of time delay embedding to pre-process periodic data. A Vietoris-Rips filtration was applied to sliding windows of credit data. From this persistence diagrams and their corresponding persistence landscapes were obtained. The normalised persistence landscape norms (L1) were plotted to visually explore how well TDA captured the connection between credit expansion and stock market crashes. It was compared to the discrete first derivative of the credit data. Visual inspection of the graphs suggested TDA to be as good, and possibly slightly better, at predicting stock market crashes from bank credit data, than looking at the discrete first derivative directly. No obvious new indicator of an imminent crash was found, however. To unlock the true potential of TDA in analysing large, multivariate data sets, further studies could look to triangulate a better indicator of stock market crashes by combining the credit data with other economic, social and political data. It would also be useful to establish a less subjective, more transparent method for choosing the thresholds used as crash indicators, and to quantify the predictions made by different indicators to better compare them with each other.
  • Rautiainen, Leo (2022)
    Tämän gradun keskeisin asia on uusiutumisteoria. Uusiutumisteoria on todennäköisyysteoriaa, ja siinä tarkastellaan tilanteita niin sanotusti takaperin. Eli voidaan vaikka simuloida tiettyä tilannetta erittäin monta kertaa, ja laskea tuloksen perusteella vastaus. Esimerkki tästä on tilanne, jossa tarkastellaan, kuinka monta kertaa olisi heitettävä noppaa, jotta saadaan sama lukuarvo viisi kertaa peräkkäin. Tällainen on haastavampaa laskea klassisen todennäköisyyslaskennan metodein, koska otannan kokoa ei ole tiedossa. Tutkielman tarkoituksena on, että tutkielman lukija joko saisi ymmärrystä siitä, mitä uusiutumisteoria on, tai hänen tietämyksensä syvenisi. Tämä on toteutettu niin, että tutkielman alussa on pyritty selittämään matemaattisia asioita, joita käytetään myöhemmin tutkielmassa, jotta tutkielma olisi luettavissa mahdollisimman monelle eri matematiikan osaamistasoiselle ihmiselle. Todistusten seuraaminen ihmiselle, joka on matematiikan opinnoissaan vasta alkuvaiheessa voi olla erittäin haastavaa, mutta esimerkit on pyritty kirjoittamaan niin, että ne olisivat kenelle vain luettavissa. Gradussa on kaksi matemaattisesti haastavampaa kappaletta. Toisessa johdetaan keskeinen uusiutumislause ja todistetaan se, ja toisessa johdetaan uusiutumislause epätäydelliseksi uusiutumislauseeksi, ja osoitetaan, kuinka uusiutumisteoria on mukana vakuutusmatematiikan riskiteoriassa. Keskeisen uusiutumislauseen todistus tehdään niin, että ensin johdetaan tämä lause yksinkertaisemmista uusiutumislauseista ja määritellään uusiutumisfunktio. Tämän jälkeen määritellään Blackwellin uusiutumislause ja todistetaan se. Tämän jälkeen voidaan osoittaa, että lauseet ovat matemaattisesti ekvivalentteja sopivin oletuksin, ja kun se on osoitettu, on keskeinen uusiutumislause todistettu. Työn lopussa käsitellään esimerkkejä. Yksi näistä on koneiden hajoamiseen liittyvä uusiutumisteoreettinen tehtävä, ja sen lisäksi esitetään kaksi uusiutumisteoriaan liittyvää paradoksia. Vaikka näissäkin voi olla haastaviakin todistuksen osia, erityisesti molempien paradoksien todistuksissa, on jokainen esimerkki muotoiltu jokaiselle luettavaan muotoon. Nämä kaksi kappaletta ovat ne kappaleet, jotka kannattaa lukea, jos ei ole ikinä kuullut uusiutumisteoriasta. Yllä mainitussa esimerkissä on tilanne, jossa on tehdas ja tehtaassa on kone, jossa on yksi kriittinen osa, joka hajoaa helposti. Jos osa huolletaan ennen hajoamista, maksaa se 200 euroa. Jos taas osa ehtii hajota ennen huoltoa ja se pitää korjata, hajottaa se samalla konetta, ja kustannukseksi tulee tällöin 2600. Koneen osan hajoaminen on tasajakautunutta kahden vuoden ajanjaksolle. Tällöin uusiutumisteorian avulla on mahdollista ratkaista, mikä on optimaalisin huoltoväli koneelle.
  • Uuksulainen, Heikki (2021)
    Tämän Pro gradu- tutkielma aiheena on valokuvien tarkentamiseen käytetyt algoritmit. Algoritmien tavoitteena on poistaa valokuvista esimerkiksi liikkeestä tai huonosta tarkennuksesta johtuvia epätarkkuuksia ja kohinaa. Työssä esiteltävissä algoritmeissä ongelmaa käsitellään tilastollisena inversio-ongelmana, jonka parametrien estimointiin käytetään erilaisia numeerisia menetelmiä. Tutkielman rakenne koostuu kolmesta osiosta; yleisestä teoriaosuudesta, työssä käytettävien algoritmien esittelystä sekä algoritmien soveltamisesta data aineistoihin ja tulosten vertailusta. Teoriaosuudessa käydään lyhyesti läpi inversio-ongelmien yleistä teoriaa, keskittyen erityisesti valokuvien tarkentamisen kannalta olennaiseen diskreettiin lineaariseen tapaukseen ja tämän tilastolliseen muotoiluun. Algoritmien puolestaan voidaan ajatella koostuvan kahdesta osasta: (i) tilastollisen mallin määrittämisestä ja (ii) mallin parametrien numeerisesta optimoinnista. Tutkielmassa esitellään kaksi klassista analyyttistä menetelmää nimiltään Richardson-Lucy ja ROF -algoritmit sekä syväoppimista ratkaisussa hyödyntävä iRestNet. Lopuksi algoritmeja sovelletaan kahdelle eri aineistoille: ohjelmallisesti generoidulle datalle ja vuonna 2021 järjestetyn Helsinki Deblur Challenge -haastekilpailun kuva-aineistolle. Tarkoituksena on selvittää algoritmien toteutuksessa tehtävien valintojen vaikutusta lopputuloksiin ja vertailla esiteltyjen algoritmien antamia tuloksia keskenään.