Browsing by study line "Matematiikka ja soveltava matematiikka"
Now showing items 1-20 of 22
-
(2023)Both descriptive combinatorics and distributed algorithms are interested in solving graph problems with certain local constraints. This connection is not just superficial, as Bernshteyn showed in his seminal 2020 paper. This thesis focuses on that connection by restating the results of Bernshteyn. This work shows that a common theory of locality connects these fields. We also restate the results that connect these findings to continuous dynamics, where they found that solving a colouring problem on the free part of the subshift 2^Γ is equivalent to there being a fast LOCAL algorithm solving this problem on finite sections of the Cayley graph of Γ. We also restate the result on the continuous version of Lovász Local Lemma by Bernshteyn. The LLL is a powerful probabilistic tool used throughout combinatorics and distributed computing. They proved a version of the lemma that, under certain topological constraints, produces continuous solutions.
-
(2022)This thesis studies equilibrium in a continuous-time overlapping generations (OLG) model. OLG models are used in economics to study the effect of demographics and life-cycle behavior on macroeconomic variables such as the interest rate and aggregate investment. These models are typically set in discrete time but continuous-time versions have also received attention recently for their desirable properties. Competitive equilibrium in a continuous-time OLG model can be represented as a solution to an integral equation. This equation is linear in the special case of logarithmic utility function. This thesis provides the necessary and sufficient conditions under which the linear equation is a convolution type integral equation and derives a distributional solution using Fourier transform. We also show that the operator norm of the integral operator is not generally less than one. Hence, the equation cannot be solved using Neumann series. However, in a special case the distributional solution is characterized by a geometric series on the Fourier side when the operator norm is equal to one.
-
(2022)The focus of this work is to efficiently sample from a given target distribution using Monte Carlo Makov Chain (MCMC). This work presents No-U-Turn Sampler Lagrangian Monte Carlo with the Monge metric. It is an efficient MCMC sampler, with adaptive metric, fast computations and with no need to hand-tune the hyperparameters of the algorithm, since the parameters are automatically adapted by extending the No-U-Turn Sampler (NUTS) to Lagrangian Monte Carlo (LMC). This work begins by giving an introduction of differential geometry concepts. The Monge metric is then constructed step by step, carefully derived from the theory of differential geometry giving a formulation that is not restricted to LMC, instead, it is applicable to any problem where a Riemannian metric of the target function comes into play. The main idea of the metric is that it naturally encodes the geometric properties given by the manifold constructed from the graph of the function when embedded in higher dimensional Euclidean space. Hamiltonian Monte Carlo (HMC) and LMC are MCMC samplers that work on differential geometry manifolds. We introduce the LMC sampler as an alternative to Hamiltonian Monte Carlo (HMC). HMC assumes that the metric structure of the manifold encoded in the Riemannian metric to stay constant, whereas LMC allows the metric to vary dependent on position, thus, being able to sample from regions of the target distribution which are problematic to HMC. The choice of metric affects the running time of LMC, by including the Monge metric into LMC the algorithm becomes computationally faster. By generalizing the No-U-Turn Sampler to LMC, we build the NUTS-LMC algorithm. The resulting algorithm is able to estimate the hyperparameters automatically. The NUTS algorithm is constructed with a distance based stopping criterion, which can be replaced by another stopping criteria. Additionally, we run LMC-Monge and NUTS-LMC for a series of traditionally challenging target distributions comparing the results with HMC and NUTS-HMC. The main contribution of this work is the extension of NUTS to generalized NUTS, which is applicable to LMC. It is found that LMC with Monge explores regions of target distribution which HMC is unable to. Furthermore, generalized NUTS eliminates the need to choose the hyperparameters. NUTS-LMC makes the sampler ready to use for scientific applications since the only need is to specify a twice differentiable target function, thus, making it user friendly for someone who does not wish to know the theoretical and technical details beneath the sampler.
-
(2022)In this thesis, we explore financial risk measures in the context of heavy-tailed distributions. Heavy-tailed distributions and the different classes of heavy-tailed distributions will be defined mathematically in this thesis but in more general terms, heavy-tailed distributions are distributions that have a tail or tails that are heavier than the exponential distribution. In other words, distributions which have tails that go to zero more slowly than the exponential distribution. Heavy-tailed distributions are much more common than we tend to think and can be observed in everyday situations. Most extreme events, such as large natural phenomena like large floods, are good examples of heavy-tailed phenomena. Nevertheless, we often expect that most phenomena surrounding us are normally distributed. This probably arises from the beauty and effortlessness of the central limit theorem which explains why we can find the normal distribution all around us within natural phenomena. The normal distribution is a light-tailed distribution and essentially it assigns less probability to the extreme events than a heavy-tailed distribution. When we don’t understand heavy tails, we underestimate the probability of extreme events such as large earthquakes, catastrophic financial losses or major insurance claims. Understanding heavy-tailed distributions also plays a key role when measuring financial risks. In finance, risk measuring is important for all market participants and using correct assumptions on the distribution of the phenomena in question ensures good results and appropriate risk management. Value-at-Risk (VaR) and the expected shortfall (ES) are two of the best-known financial risk measures and the focus of this thesis. Both measures deal with the distribution and more specifically the tail of the loss distribution. Value-at-Risk aims at measuring the risk of a loss whereas ES describes the size of a loss exceeding the VaR. Since both risk measures are focused on the tail of the distribution, mistaking a heavy-tailed phenomena for a light-tailed one can lead to drastically wrong conclusions. The mean excess function is an important mathematical concept closely tied to VaR and ES as the expected shortfall is mathematically a mean excess function. When examining the mean excess function in the context of heavy-tails, it presents very interesting features and plays a key role in identifying heavy-tails. This thesis aims at answering the questions of what heavy-tailed distributions are and why are they are so important, especially in the context of risk management and financial risk measures. Chapter 2 of this thesis provides some key definitions for the reader. In Chapter 3, the different classes of heavy-tailed distributions are defined and described. In Chapter 4, the mean excess function and the closely related hazard rate function are presented. In Chapter 5, risk measures are discussed on a general level and Value-at-Risk and expected shortfall are presented. Moreover, the presence of heavy tails in the context of risk measures is explored. Finally, in Chapter 6, simulations on the topics presented in previous chapters are shown to shed a more practical light on the presentation of the previous chapters.
-
(2022)In recent years, there has been a great interest in modelling financial markets using fractional Brownian motions. It has been noted in studies that ordinary diffusion based stochastic volatility models cannot reproduce certain stylized facts that are observed in financial markets, such as the fact that the at the money (ATM) volatility skew tends to infinity at short maturities. Rough stochastic volatility models, where the spot volatility process is driven by a fractional Brownian motion, can reproduce these effects. Although the use of long memory processes in finance has been advocated since the 1970s, it has taken until now for fractional Brownian motion to gain widespread attention. This thesis serves as an introduction to the subject. We begin by presenting the mathematical definition of fractional Brownian motion and its basic mathematical properties. Most importantly, we show that fractional Brownian motion is not a semimartingale, which means that the theory of Itô calculus cannot be applied to stochastic integrals with fractional Brownian motion as integrator. We also present important representations of fractional Brownian motion as moving average process of a Brownian motion. In the subsequent chapter, we show that we can define a Wiener integral with respect to fractional Brownian motion as a Wiener integral with respect to Brownian motion with transformed integrand. We also present divergence type integrals with respect to fractional Brownian motion and an Itô type formula for fractional Brownian motion. In the last chapter, we introduce rough volatility. We derive the so called rough Bergomi model model that can be seen as an extension of the Bergomi stochastic volatility model. We then show that for a general stochastic volatility model, there is an exact analytical expression for the ATM volatility skew, defined as the derivative of the volatility smile slope with respect to strike price evaluated at the money. We then present an expression for the short time limit of the ATM volatility skew under general assumptions which shows that in order to reproduce the observed short time limit of infinity, the volatility must be driven by a fractional process. We conclude the thesis by comparing the rough Bergomi model to SABR- and Heston stochastic volatility models.
-
(2023)Tutkielma keskittyy algebralliseen topologiaan ja vielä tarkemmin homologian ja kohomologian tutkimiseen. Tutkielman tavoite on todistaa Künnethin kaava tulokohomologialle, jota varten ensin esitellään homologia ja siitä johdettuna dualisaation kautta kohomologia. Homologia ja kohomologia tutkielmassa esitellään singulaarisessa muodossa. Johdannon jälkeen tutkielma aloitetaan esittelemällä kategoriateorian perusteet. Kategoria kappaleessa annetaan esimerkkejä kategorioista, joita käytetään pitkin tutkielmaa. Kategoria käsitteen esittelyn jälkeen jatketaan määrittelemään kuvaus jolla pystytään siirtymään kategoriasta toiseen eli funktorit. Funktorit jaetaan kovariantteihin ja kontravariantteihin riippuen siitä säilyttääkö se morfismien suunnan. Funktoreista esille nostetaan Hom-funktori, jonka kontravarianttia muotoa hyödyntämällä saadaan myöhemmin muodostettua kohomologia. Funktoreiden käsittelyn myötä pystytään niiden välille muodostamaan kuvauksia, jonka vuoksi esitellään luonnollinen transformaatio. Toisen luvun viimeisimpänä aihealueena käsitellään eksakteja jonoja. Toinen kappale kokoaa tarvittavat esitiedot, jotta voidaan siirtyä käsittelemään homologiaa ja kohomologiaa. Kolmas kappale käy läpi homologian ja kohomologian käsitteistöä. Homologia ja kohomologia esitellään pääasiassa singulaarisessa muodossa. Homologiasta käydään läpi peruskäsitteet, jonka jälkeen siirrytään singulaariseen homologiaan. Tässä yhteydessä määritelmään muun muassa simpleksi, jotta voidaan avata singulaarisen homologian perusteita. Singulaarisesta homologiasta edetään singulaariseen kohomologiaan, joka saadaan aiemmin esitellyn Hom-funktorin avulla homologiasta. Singulaarisen kohomologia kappaleen lopuksi esitellään vielä uusi laskutoimitus kohomologiaryhmille eli kuppitulo. Tutkielman viimeinen kappale käsittelee itse Künnethin kaavan ja sen todistuksen. Lisäksi käydään läpi muita tarvittavia esitietoja kaavan todistuksen ymmärtämiselle, jotka eivät ole vielä nousseet esille aikaisemmissa luvuissa. Tutkielma päättyy Künnethin kaavan todistukseen.
-
(2023)Suomen lakisääteisissä työeläkevakuutuksissa yrittäjien ja palkansaajien eläkkeet on jaoteltu erillisiin järjestelmiin. Näiden vakuutusten ehdot ovat pitkälti samanlaiset, mutta yrittäjien järjestelmä on varsinkin viime vuosina tuottanut huomattavasti huonompaa tulosta. Yksi merkittävä tekijä eläkevakuutustoiminnan kannattavuudessa on kuolevuusmallin soveltuvuus, ja tämän tutkielman tavoitteena on selvittää, selittävätkö mahdolliset kuolevuuserot YEL- ja TyEL-vakuutusten eriävää kannattavuutta. Kuolevuuden arviointiongelman ratkaisemiseksi esittelemme tutkielman ensimmäisessä osassa yleistä selviytymisanalyysin teoriaa. Tässä määrittelemme laskuprosessien, martingaalien sekä Lebesgue-Stieltjes-integraalien avulla Nelson-Aalen-estimaattorin kumulatiiviselle kuolevuudelle. Toisessa osassa sovellamme ensimmäisen osan työkaluja Eläketurvakeskuksen vuosien 2007–2020 kuolevuusdataan. Arvioimme näin TyEL- ja YEL-vakuutuksissa käytetyn teoreettisen kuolevuusmallin soveltuvuutta sekä vakuutuskantojen kuolevuuseroja. Saamme selville, että kuolevuusmalli kuvaa hyvin toteutunutta kuolevuutta, ja että YEL-kuolevuus on maltillisesti TyEL-kuolevuutta alhaisempaa. Tärkeämpää roolia kannattavuuseron kannalta näyttelee kuitenkin ero populaatioiden ikärakenteissa.
-
(2022)Large deviations theory is a branch of probability theory which studies the exponential decay of probabilities for extremely rare events in the context of sequences of probability distributions. The theory originates from actuaries studying risk and insurance from a mathematical perspective, but today it has become its own field of study, and is no longer as tightly linked to insurance mathematics. Large deviations theory is nowadays frequently applied in various fields, such as information theory, queuing theory, statistical mechanics and finance. The connection to insurance mathematics has not grown obsolete, however, and these new results can also be applied to develop new results in the context of insurance. This paper is split into two main sections. The first presents some basic concepts from large deviations theory as well as the Gärtner-Ellis theorem, the first main topic of this thesis, and then provides a fairly detailed proof of this theorem. The Gärtner-Ellis theorem is an important result in large deviations theory, as it gives upper and lower bounds relating to asymptotic probabilities, while allowing for some dependence structure in the sequence of random variables. The second main topic of this thesis is the presentation of two large deviations results developed by H. Nyrhinen, concerning the random time of ruin as a function of the given starting capital. This section begins with introducing the specifics of this insurance setting of Nyrhinen’s work as well as the ruin problem, a central topic of risk theory. Following this are the main results, and the corresponding proofs, which rely to some part on convex analysis, and also on a continuous version of the Gärtner-Ellis theorem. Recommended preliminary knowledge: Probability Theory, Risk Theory.
-
(2022)Työn päätarkoitus on esittää Lindemannin-Weierstrassin lause todistuksineen. Todistusta varten tarvitsemme erinäisiä tietoja algebrallisista luvuista, transkendenttisista luvuista sekä tässä työs sä Galois'n ryhmistä ja Galois'n laajennoksista. Lindemannin-Weierstrassin lauseen todistuksen jälkeen esitetään lauseesta seuraavia tuloksia. Historian saatossa matemaatikot ovat halunneet jakaa lukuja erilaisiin lukujoukkoihin, kuten kokonaislukuihin ja kompleksilukuihin. Luvut pystytään jakamaan myös transkendenttisiin lukuihin ja algebrallisiin lukuihin. Lukua kutsutaan algebralliseksi, jos se on jonkin kokonaislukukertoimisen polynomin juuri. Jos luku ei ole algebrallinen, niin se on transkendenttinen. Matemaatikkojen ongelmana oli pitkään kuinka luvun transkendenttisuus todistetaan. Lindemannin-Weierstrassin lause on ratkaisu tähän ongelmaan. Lindemannin-Weierstrassin lause on seuraava: Olkoot α1, α2, . . . , αn erillisiä algebrallisia lukuja, jotka ovat lineaarisesti riippumattomia rationaalilukujen suhteen. Tällöin luvut e^α1, e^α2, . . . , e^αn ovat algebrallisesti riippumattomia algebrallisten lukujen suhteen. Työn päälauseen avulla pystytään siis todistamaan joidenkin lukujen transkendenttisuus. Tälläisiä lukuja ovat esimerkiksi Neperin luku e ja π, joiden transkendenttisuuden todistan työn lopussa lauseen avulla. Työn päälähteessä käytetään lauseen todistuksessa Galois'n ryhmiä ja laajennoksia, minkä vuoksi käsittelen myös niitä työssäni.
-
(2022)Tutkielmassa annetaan teoreettinen oikeutus sille, että pörssiosakkeen tuotto on lognormaalijakautunut kunhan se täyttää tietyn tyyppiset ehdot. Kun oletamme, että pörssiosakkeen tuotto täyttää nämä ehdot, voimme todistaa Lindebergin-Fellerin raja-arvolauseen avulla, että silloin pörssiosakkeen tuotto lähenee lognormaalijakaumaa mitä useammin pörssiosakkeella tehdään kauppaa tarkastetun ajanjakson aikana. Kokeilemme Coca-Colan ja Freeport-McMoranin osakkeilla empiirisiesti, noudattavatko niiden pörssiosakeiden tuotot lognormaalijakaumaa käyttämällä Kolmogorovin-Smirnovin -testiä. Nämä kyseiset osakkeet edustavat eri teollisuudenaloja, joten niiden pörssiosakkeet käyttäytyvät eri lailla. Lisäksi ne ovat hyvin likvidejä ja niillä käydään kauppaa tiheästi. Testeistä käy ilmi, että emme voi poissulkea Coca-Colan pörssiosakkeen tuoton noudattavan lognormaalijakaumaa, mutta Freeport-McMoranin voimme. Usein kirjallisuudessa oletetaan, että pörssiosakkeen tuotto on lognormaalijakautunut. Esimerkiksi alkuperäisessä Black-Scholes-mallissa oletetaan, että pörssiosakkeentuotto on lognormaalijakautunut. Se miten pörssiosakkeen tuotto on jakautunut vaikuttaa siihen, miten Black-Scholes-mallin mallintamat osakejohdannaiset hinnoitellaan ja kyseistä hinnoittelumallia saatetaan käyttää yritysten kirjanpidossa. Black-Scholes-malli, jossa pörssiosakkeen tuotto on lognormaalijakautunut, esitetään tutkielmassa.
-
(2023)Predator-prey models are mathematical models widely used in ecology to study the dynamics of predator and prey populations, to better understand the stability of such ecosystems and to elucidate the role of various ecological factors in these dynamics. An ecologically important phenomenon studied with these models is the so-called Allee effect, which refers to populations where individuals have reduced fitness at low population densities. If an Allee effect results in a critical population threshold below which a population cannot sustain itself it is called a strong Allee effect. Although predator-prey models with strong Allee effects have received a lot of research attention, most of the prior studies have focused on cases where the phenomenon directly impacts the prey population rather than the predator. In this thesis, the focus is placed on a particular predator-prey model where a strong Allee effect occurs in the predator population. The studied population-level dynamics are derived from a set of individual-level behaviours so that the model parameters retain their interpretation at the level of individuals. The aim of this thesis is to investigate how the specific individual-level processes affect the population dynamics and how the population-level predictions compare to other models found in the literature. Although the basic structure of the model precedes this paper, until now there has not been a comprehensive analysis of the population dynamics. In this analysis, both the mathematical and biological well-posedness of the model system are established, the feasibility and local stability of coexistence equilibria are examined and the bifurcation structure of the model is explored with the help of numerical simulations. Based on these results, the coexistence of both species is possible either in a stable equilibrium or in a stable limit cycle. Nevertheless, it is observed that the presence of the Allee effect has an overall destabilizing effect on the dynamics, often entailing catastrophic consequences for the predator population. These findings are largely in line with previous studies of predator-prey models with a strong Allee effect in the predator.
-
(2022)Tutkielman aiheena ovat Möbius-kuvaukset, jotka ovat olennainen osa kompleksianalyysia ja täten edelleen analyysia. Möbius-kuvauksiin tutustutaan yleensä matematiikan syventävällä kurssilla Kompleksianalyysi 1, jonka lisäksi lukijalta toivotaan analyysin perustulosten tuntemista. Möbius-kuvaukset ovat helposti lähestyttäviä ja mielenkiintoisia ensimmäisen asteen rationaalifunktioita. Kuvauksilla on useita hyödyllisiä geometrisia ominaisuuksia ja niillä voidaan ratkaista kätevästi erilaisia kuvaustehtäviä, minkä vuoksi ne ovatkin erityisen tärkeitä. Tutkielman luku 1 on lyhyt johdatus Möbius-kuvauksiin. Luvussa 2 tutustutaan Möbius-kuvausten kannalta olennaisiin kompleksianalyysin käsitteisiin, kuten laajennettu kompleksitaso, Riemannin pallo sekä alkeisfunktiot. Kolmannessa luvussa määritellään itse Möbius-kuvaukset ja esitetään esimerkkejä erilaisista Möbius-kuvauksista. Luvussa näytetään lisäksi muun muassa, että Möbius-kuvaukset ovat bijektioita sekä konformisia, ja tutkitaan kuvausten analyyttisuutta. Luvussa 4 tutustutaan kaksoissuhteen käsitteeseen ja todistetaan Möbius-kuvausten myös säilyttävän kaksoisuhteet. Luvussa määritellään lisäksi kompleksitason erilaisia puolitasoja sekä ratkaistaan kaksoissuhteen avulla erilaisia kuvaustehtäviä tätä myös kuvin havainnollistaen. Viidennessä luvussa tutustutaan kvasihyperboliseen metriikkaan ja näytetään Möbius-kuvaukset hyperbolisiksi isometrioiksi. Aineistonani tutkielmassa on käytetty pääsääntöisesti Ritva Hurri-Syrjäsen Kompleksianalyysi 1- kurssin sisältöä. Lisäksi luvussa 5 pohjataan Paula Rantasen työhön Uniformisista alueista sekä F. W. Gehringin ja B. P. Palkan teokseen Quasiformally homogeneous domains.
-
(2022)This thesis analyses the colonization success of lowland herbs in open tundra using Bayesian inference methods. This was done with four different models that analyse the the effects of different treatments, grazing levels and environmental covariates on the probability of a seed growing into a seedling. The thesis starts traditionally with an introduction chapter. The second chapter goes through the data; where and how it was collected, different treatments used and other relevant information. The third chapter goes through all the methods that you need to know to understand the analysis of this thesis, which are the basics of Bayesian inference, generalized linear models, generalized linear mixed models, model comparison and model assessment. The actual analysis starts in the fourth chapter that introduces the four models used in this thesis. All of the models are binomial generalized linear mixed models that have different variables. The first model only has the different treatments and grazing levels as variables. The second model also includes interactions between these treatment and grazing variables. The third and fourth models are otherwise the same as the first and the second but they also have some environmental covariates as additional variables. Every model also has the block number, where the seeds were sown as a random effect. The fifth chapter goes through the results of the models. First it shows the comparison of the predictive accuracy of all models. Then the gotten fixed effects, random effects and draws from posterior predictive distribution are presented for each model separately. Then the thesis ends with the sixth conclusions chapter
-
(2023)''Don't put all your eggs in one basket'' is a common saying that applies particularly well to investing. Thus, the concept of portfolio diversification exists and is generally accepted to be a good principle. But is it always and in every situation preferable to diversify one's investments? This Master's thesis explores this question in a restricted mathematical setting. In particular, we will examine the profit-and-loss distribution of a portfolio of investments using such probability distributions that produce extreme values more frequently than some other probability distributions. The theoretical restriction we place for this thesis is that the random variables modelling the profits and losses of individual investments are assumed to be independent and identically distributed. The results of this Master's thesis are originally from Rustam Ibragimov's article Portfolio Diversification and Value at Risk Under Thick-Tailedness (2009). The main results concern two particular cases. The first main result concerns probability distributions which produce extreme values only moderately often. In the first case, we see that the accepted wisdom of portfolio diversification is proven to make sense. The second main result concerns probability distributions which can be considered to produce extreme values extremely often. In the second case, we see that the accepted wisdom of portfolio diversification is proven to increase the overall risk of the portfolio, and therefore it is preferable to not diversify one's investments in this extreme case. In this Master's thesis we will first formally introduce and define heavy-tailed probability distributions as these probability distributions that produce extreme values much more frequently than some other probability distributions. Second, we will introduce and define particular important classes of probability distributions, most of which are heavy-tailed. Third, we will give a definition of portfolio diversification by utilizing a mathematical theory that concerns how to classify how far apart or close the components of a vector are from each other. Finally, we will use all the introduced concepts and theory to answer the question is portfolio diversification always preferable. The answer is that there are extreme situations where portfolio diversification is not preferable.
-
(2023)This thesis follows a proof for Selberg’s Central Limit Theorem for log |ζ( 1/2 + it)|. The theorem states that the random variable ( 1/2 log log T )^(−1/2) log |ζ( 1/2 +it)| with T ≤ t ≤ 2T converges to N (0, 1) weakly as T → ∞. The proof we follow is by Kannan Soundararajan and Maxym Radziwill. The intention is to expand on the details that their original work leaves for the reader to fill in. Their proof is a four step approximation. The first step shifts the consideration right from the critical line Im(s) = 1/2. The second step is proving that a random variable based on a related Dirichlet polynomial converges weakly to N (0, 1). The third step ties another Dirichlet polynomial to the one from the previous step. The final step is to tie the Dirichlet polynomial from step 3 to the Riemann Zeta. One way to interpret Selberg’s Central Limit Theorem is that extreme ab- solute values of the Riemann Zeta become proportionally rarer when we look further on the critical line. The function does not linger long around its zeros and it does not stay close to its extreme values for long. Most of its values will have an absolute value close to √ (1/2 log log T) .
-
(2022)Tutkielmassa sijoitusportfolion valinnan ongelmaa lähestytään stokastisen dominanssin näkökulmasta. Stokastinen dominanssi yleisesti on tapa antaa satunnaismuuttujille osittainen suuruusjärjestys niiden jakauman perusteella. Lähtökohdaksi portfolion valintaan esitellään Markowitzin odotusarvo-varianssi-optimointi, missä sijoittamiseen kelvollisten portfolioiden joukon määräävät vain portfolioiden tuottojen odotusarvo ja varianssi. Stokastinen dominanssi perustuu sen sijaan odotetun utiliteetin teoriaan, missä sijoittamiseen kelvollisten portfolioiden joukon määräävät sekä sijoittajan mieltymykset, eli niin sanottu utiliteettifunktio, että portfolioiden tuottojen koko todennäköisyysjakauma. Tutkielmassa saadaan stokastisen dominanssin perusteella portfolioiden optimointisääntö, kun sijoittajan utiliteettifunktiolle oletetaan vain kasvavuus. Tässä tapauksessa esimerkin kautta nähdään, että kelvollisten portfolioiden joukko on hyvin laaja, ja siten voi sisältää portfolioita, johon minkään tosielämän sijoittajan ei voi kuvitella sijoittavan. Stokastisella dominanssilla johdetaan myös portfolioiden optimointisääntö, kun sijoittajan oletetaan olevan riskinvastainen, tai toisin sanoen, kun sijoittajan utiliteettifunktio on konkaavi. Tutkielmassa johdetaan myös stokastisen dominanssin antama portfolion optimointisääntö, jos portfolioiden tuottojen oletetaan olevan normaalijakautuneita. Sääntö johdetaan sekä kasvavan että konkaavin utiliteettifunktion tapauksessa. Konkaavissa tapauksessa huomataan, että oletus tuottojen normaalijakautuneisuudesta johtaa samaan optimointisääntöön, kuin Markowitzin odotusarvo-varianssi-optimoinnissa. Lopuksi tutkielmassa pohditaan stokastisen dominanssin antamien optimointisääntöjen käyttöä käytännön tilanteissa ja annetaan esimerkkejä tutkimuksista, joissa stokastisen dominanssin optimointisääntöjä on käytetty oikeaan markkinadataan.
-
(2023)Ranskalainen Jean-Michel Bismut esitteli vuonna 1973 stokastisen version niin kutsutusta Pontryagin maksimiperiaatteesta käyttäen ensimmäisenä takaperoisia stokastisia differentiaaliyhtälöitä lineaarisessa tapauksessa. Seuraava harppaus TSDY:n tutkimisessa tapahtui kun kiinalainen Peng Shige ja ranskalainen Ètienne Pardoux julkaisivat vuonna 1990 artikkelin takaperoisten stokastisten differentiaaliyhtälöiden yleisestä teoriasta. Tutkimus keskittyi tuolloin jatkuva-aikaisiin yhtälöihin, ja diskreettiaikaisia yhtälöitä tarkasteltiin lähinnä apuvälineenä simuloimaan ja approksimoimaan jatkuva-aikaisia yhtälöitä. Tammikuussa 2010 ilmestyneessä artikkelissa Samuel N. Cohen ja Robert J. Elliott tarkastelevat diskreettiaikaisia yhtälöitä sinänsä, ei approksimoinnin välineenä. Vuonna 2018 julkaistussa artikkelissa edellä mainitut Cohen ja Elliott yhdessä Tak Kuen Siun kanssa esittelevät Malliavin laskennan sovelluksia takaperoisiin stokastisiin differenssiyhtälöihin liittyen diskreettiaikaisessa binomimallissa. Tässä työssä esittelen takaperoisten stokastisten differenssiyhtälöiden, lyh. TSDY, teoriaa ja lyhyesti myös stokastisen kontrollin teoriaa. Lähden liikkeelle perusteista; toisen luvun aluksi esittelen sigma-algebran, mitallisen avaruuden, mitallisen kuvauksen, mitan ja mitta-avaruuden käsitteet. Näiden avulla on helppo määritellä todennäköisyysteorian käsitteet todennäköisyysmitta, todennäköisyysavaruus ja satunnaismuuttuja. Siirryn odotusarvon pariin ja yritän hahmotella ajatusta siitä että odotusarvo on aina integraali, myös diskreetissä tapauksessa. Ehdollisen odotusarvon määrittelen Hilbertin avaruuden ortogonaaliprojektiona, luvun päätteeksi määrittelen martingaalin käsitteen. Kolmannessa luvussa käyn läpi arbitraasin käsitteen, ja määrittelen sitä varten salkun, strategian ja omavaraisen strategian käsitteet. Käyn läpi myös martingaalimitan ja binomimallin käsitteet ja lasken esimerkiksi erään riskineutraalin todennäköisyyden. Neljännessä luvussa käyn lyhyesti läpi TSDY:n historiaa ja esittelen olemassaolo- ja yksikäsitteisyyslauseen ja vertailuteoreeman. Lisäksi näytän miten TSDY:tä voi käyttää option arvostukseen, sitä varten näytän myös mitanvaihdon näille yhtälöille. Luvun lopuksi tarkastelen vielä niin kutsuttua ajurifunktiota useampitilaisessa viitekehyksessä ja esittelen epälineaarisen odotusarvon käsitteen. Viimeisessä luvussa kirjoitan myös hieman stokastisesta kontrollista ja käyn lyhyellä esimerkillä läpi näiden liitoskohtaa.
-
(2021)Tämän tutkielman tarkoituksena on tutustuttaa lukija arvopaperimarkkinoihin, niiden yleiseen tasapainoon ja tasapainon olemassaoloon yhden periodin markkinamallissa, jossa toimijat käyvät kauppaa arvopapereista vaihtokauppamarkkinoilla. Yleinen tasapainoteoria on lähestymistapa talouden käyttäytymisen kuvaamiseen kokonaisuutena, jossa selvitetään talouden muodostavien toimijoiden kunkin jäsenen optimaalinen käyttäytyminen ja etsitään keskinäisen yhteensopivuuden pistettä. Tasapainoperiaatteen mukaan hinnat sopeutuvat, kunnes toimijoiden valinnat ovat yhteensopivat toistensa kanssa. Tasapaino voidaan määritellä systeemin tilaksi, jossa sillä ei ole syytä muuttua. Tutkielman toisessa kappaleessa esitetään tarpeellisia esitietoja ja apulauseita. Tutkielman lukijan oletetaan tuntevan tavallisimmat matemaattiset merkintätavat. Hänen tulee hallita peruskäsitteet matemaattisesta analyysistä, todennäköisyyslaskennasta, joukko-opista, lineaarialgebrasta ja topologiasta. Näiden lisäksi taloustieteen peruskäsitteiden tuntemus sekä opit auttavat ymmärtämään kokonaisuutta laajemmin. Tutkielman kolmannessa kappaleessa perehdytään lyhyesti arvopaperimarkkinoiden matemaattiseen esitystapaan, kuluttajan utiliteettiteoriaan sekä arbitraasikäsitteeseen. Kappaleessa esitetään myöhemmin tutkielmassa käytettävät talouden tärkeät standardiolettamukset ja todistetaan yhtenä tärkeimpänä tuloksena, milloin yhden periodin arvopaperimarkkinat ovat arbitraasivapaat. Neljännessä kappaleessa paneudutaan tasapainoon ja sen määrittelemiseen. Kappale lähtee liikkeelle tarkasta taloustieteellisestä näkökulmasta. Se perehtyy ehdollisten markkinoiden talouteen, eli toiselta nimeltä Arrow-Debreu-talouteen, sen merkitsemistapaan ja tasapainoon. Tämän jälkeen johdetaan seuraukset arvopaperimarkkinoille. Normalisoidun arbitraasivapaan tasapainon avulla pystytään näyttämään, että täydelliset arvopaperimarkkinat ovat Arrow-Debreu-markkinat. Kappaleen lopussa käydään läpi Pareto-tehokkuutta ja todistetaan, että täydellisillä arvopaperimarkkinoilla, joissa toimijoiden utiliteettifunktiot ovat kasvavia, jokainen kulutustasapaino on Pareto-tehokas. Tämä tarkoittaa sitä, että ei ole olemassa toista allokaatiota, joka parantaisi toisen toimijan utiliteettia huonontamatta jonkin toisen. Viidennessä kappaleessa esitellään tasapainon olemassaoloa ensiksi Arrow-Debreun taloudessa ja käydään esimerkkien avulla läpi, miksi tietyt oletukset ovat välttämättömiä tasapainon olemassaololle täydellisillä markkinoilla. Tämän jälkeen esitetään lause arvopaperimarkkinoiden tasapainolle, jossa markkinat saattavat olla epätäydelliset.
-
(2022)The aim of this thesis was to 1) give an exposition of how topological data analysis (TDA) can be used to look for patterns in periodic data, 2) apply it to financial data and 3) visually explore how a topological analysis of credit data using landscape distances compared to looking directly at the change in credit data in the context of stock market crashes. TDA applies algebraic topology to data. It models data sets as various-dimensional surfaces, or manifolds, and studies their structure to find patterns of interconnectedness. It is a powerful tool for studying large, complex, multi-dimensional and noisy data sets. It is often able to capture subtle patterns in such data sets much better than other methods. It is known that stock market crashes are preceded by periods of credit expansion, but we have no reliable indicator of an imminent crash. Chapter 2 covers the algebraic topological theory needed. Key concepts are simplicial complexes, homology groups and persistent homology. The central theorem is the Nerve Theorem, which establishes an equivalence between the union of a collection of convex sets and the nerve of the collection. Chapter 3 describes the method of time delay embedding to pre-process periodic data. A Vietoris-Rips filtration was applied to sliding windows of credit data. From this persistence diagrams and their corresponding persistence landscapes were obtained. The normalised persistence landscape norms (L1) were plotted to visually explore how well TDA captured the connection between credit expansion and stock market crashes. It was compared to the discrete first derivative of the credit data. Visual inspection of the graphs suggested TDA to be as good, and possibly slightly better, at predicting stock market crashes from bank credit data, than looking at the discrete first derivative directly. No obvious new indicator of an imminent crash was found, however. To unlock the true potential of TDA in analysing large, multivariate data sets, further studies could look to triangulate a better indicator of stock market crashes by combining the credit data with other economic, social and political data. It would also be useful to establish a less subjective, more transparent method for choosing the thresholds used as crash indicators, and to quantify the predictions made by different indicators to better compare them with each other.
-
(2022)Tämän gradun keskeisin asia on uusiutumisteoria. Uusiutumisteoria on todennäköisyysteoriaa, ja siinä tarkastellaan tilanteita niin sanotusti takaperin. Eli voidaan vaikka simuloida tiettyä tilannetta erittäin monta kertaa, ja laskea tuloksen perusteella vastaus. Esimerkki tästä on tilanne, jossa tarkastellaan, kuinka monta kertaa olisi heitettävä noppaa, jotta saadaan sama lukuarvo viisi kertaa peräkkäin. Tällainen on haastavampaa laskea klassisen todennäköisyyslaskennan metodein, koska otannan kokoa ei ole tiedossa. Tutkielman tarkoituksena on, että tutkielman lukija joko saisi ymmärrystä siitä, mitä uusiutumisteoria on, tai hänen tietämyksensä syvenisi. Tämä on toteutettu niin, että tutkielman alussa on pyritty selittämään matemaattisia asioita, joita käytetään myöhemmin tutkielmassa, jotta tutkielma olisi luettavissa mahdollisimman monelle eri matematiikan osaamistasoiselle ihmiselle. Todistusten seuraaminen ihmiselle, joka on matematiikan opinnoissaan vasta alkuvaiheessa voi olla erittäin haastavaa, mutta esimerkit on pyritty kirjoittamaan niin, että ne olisivat kenelle vain luettavissa. Gradussa on kaksi matemaattisesti haastavampaa kappaletta. Toisessa johdetaan keskeinen uusiutumislause ja todistetaan se, ja toisessa johdetaan uusiutumislause epätäydelliseksi uusiutumislauseeksi, ja osoitetaan, kuinka uusiutumisteoria on mukana vakuutusmatematiikan riskiteoriassa. Keskeisen uusiutumislauseen todistus tehdään niin, että ensin johdetaan tämä lause yksinkertaisemmista uusiutumislauseista ja määritellään uusiutumisfunktio. Tämän jälkeen määritellään Blackwellin uusiutumislause ja todistetaan se. Tämän jälkeen voidaan osoittaa, että lauseet ovat matemaattisesti ekvivalentteja sopivin oletuksin, ja kun se on osoitettu, on keskeinen uusiutumislause todistettu. Työn lopussa käsitellään esimerkkejä. Yksi näistä on koneiden hajoamiseen liittyvä uusiutumisteoreettinen tehtävä, ja sen lisäksi esitetään kaksi uusiutumisteoriaan liittyvää paradoksia. Vaikka näissäkin voi olla haastaviakin todistuksen osia, erityisesti molempien paradoksien todistuksissa, on jokainen esimerkki muotoiltu jokaiselle luettavaan muotoon. Nämä kaksi kappaletta ovat ne kappaleet, jotka kannattaa lukea, jos ei ole ikinä kuullut uusiutumisteoriasta. Yllä mainitussa esimerkissä on tilanne, jossa on tehdas ja tehtaassa on kone, jossa on yksi kriittinen osa, joka hajoaa helposti. Jos osa huolletaan ennen hajoamista, maksaa se 200 euroa. Jos taas osa ehtii hajota ennen huoltoa ja se pitää korjata, hajottaa se samalla konetta, ja kustannukseksi tulee tällöin 2600. Koneen osan hajoaminen on tasajakautunutta kahden vuoden ajanjaksolle. Tällöin uusiutumisteorian avulla on mahdollista ratkaista, mikä on optimaalisin huoltoväli koneelle.
Now showing items 1-20 of 22