Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by discipline "Applied Mathematics"

Sort by: Order: Results:

  • Puustinen, Anu (2016)
    Työn tavoitteena on tuottaa yksinkertainen prosessi vahinkovakuutusten omavastuiden hinnoitteluun. Tutkitaan, kuinka omavastuun muutos vaikuttaa yhtiön vastuulle jäävän kokonaisvahinkomäärän suuruuteen ja tuotetaan kokonaisvahinkomäärän muutosta kuvaava kerroin. Tutkielman alussa esitellään yleisesti kaksi erilaista omavastuujärjestelyä ja osoitetaan, että toinen niistä on vakuutuksenottajan kannalta aina parempi, mikäli vakuutusmaksu määräytyy vain yhtiön vastuulle jäävän kokonaisvahinkomäärän odotusarvosta. Lisäksi todetaan esimerkin avulla, että tilanne voi muuttua, jos vakuutusmaksussa otetaan huomioon vakuutuksen hoito- ja käsittelykuluja. Omavastuun muutoksen vaikutukseen liittyvissä tarkasteluissa käytetään erään henkilöasiakkaiden vahinkovakuutusturvan vahinkoaineistoa ja esitetään menetelmä muutoskertoimen tuottamiseen suoraan aineistosta. Analyyttisen tarkastelun pohjana käytetään oletusta, että kokonaisvahinkomäärä on yhdistetty Poisson-muuttuja ja selvitetään, mikä tunnettu jakauma sopisi parhaiten kuvaamaan yksittäisten vahinkojen suuruutta. Kun sopiva jakauma on löydetty, määritetään omavastuusta riippuvat vahinkojen suuruutta sekä vahinkojen lukumäärää kuvaavat jakaumat. Lopuksi tuotetaan omavastuun muutoksen vaikutusta kuvaava kerroin yhtiön vastuulle jäävien kokonaisvahinkomäärien odotusarvojen avulla.
  • Kujanpää, Antti (2016)
    In this master's thesis we explore the mathematical model of classical Lagrangian mechanics with constraints. The main focus is on the nonholonomic case which is obtained by letting the constraint distribution to be nonintegrable. Motivation for the study arises from various physical examples, such as a rolling rigid body or a snakeboard. In Chapter 2, we introduce the model and derive the associated equations of motion in several different forms while using the Lagrangian variational principle as a basis for the kinematics. We also show how nonintegrability of the constraint distribution is linked to some external forces via the Frobenius theorem. Symmetric mechanical systems are discussed in Chapter 3. We define the concept for a Lagrangian system with constraints and show how any free and proper Lie group action induces an intrinsic vertical structure to the tangent bundle of the configuration manifold. The associated bundle is used to define the nonholonomic momentum which is a constrained version of the form that appears in the modern formulation of the classical Noether's theorem. One applies the classical Noether's theorem to a symmetric system with integrable constraints by restricting observation to an integral submanifold. This procedure, however, is not always possible. In nonholonomic mechanics, a Lie group symmetry implies only an additional equation of motion rather than actual conservation law. In Chapter 4, we introduce a coordinate free technique to split the Lagrangian variational principle in two equations, based on the Lie group invariance. The equations are intrinsic, that is to say, independent of the choice of connections, related parallel transports and covariant differentiation. The vertical projection, associated to the symmetry, may be varied to alter the representation and shift balance between the two equations. In Chapter 5, the results are applied to the rattleback which is a Lagrangian model for a rigid, convex object that rolls without sliding on a plane. We calculate the nonholonomic momentum and state the equations of motion for a pair of simple connections. One of the equation is also solved with respect to a given solution for the other one. The thesis is mainly based on the articles 'Nonholonomic Mechanical Systems with Symmetry' (A.M. Bloch, P.S. Krishnaprasad, J.E. Marsden, and R M. Murray, 1996), 'Lagrangian reduction by stages' (H. Cendra, J.E. Marsden, and T.S. Ratiu, 2001), 'Geometric Mechanics, Lagrangian Reduction and Nonholonomic Systems' (H. Cendra, J.E. Marsden, and T.S. Ratiu, 2001) and the book 'Nonholonomic mechanics and control' (A.M. Bloch, 2003).
  • Kauria-Kojo, Minna (2017)
    Pohjoinen sähkömarkkina-alue, Nord Pool, toimii usein esimerkkinä sähkömarkkinasta, joka on sääntelystä vapaa ja vastaa teorian näkökulmasta useita muita hyödykemarkkinoita, joissa hinnat määräytyvät kysynnän ja tarjonnan mukaan. Pohjoinen sähkömarkkina jaetaan fyysiseen markkinaan ja finanssimarkkinaan, joista finanssimarkkinalla käydään kauppaa sähkön hintaan liittyvillä rahoitusinstrumenteilla. Noteeratut instrumentit on listattu NASDAQ OMX Commodities-markkinapaikalla. Tässä työssä keskitytään noteeratuista instrumenteista optioiden hinnoitteluun analyyttisten menetelmien avulla. Vaihtoehtoinen lähestymistapa olisi voinut olla esimerkiksi numeeristen menetelmien käyttö sähköoptioiden hinnoittelussa, mutta numeeriset menetelmät on rajattu tämän työn ulkopuolelle. NASDAQ OMX Commodities-markkinapaikalla optioiden alla olevina arvopapereina ovat sähköfutuurit. Tässä työssä käydään läpi sähköfutuurien dynamiikan mallintaminen ja tämän jälkeen siirrytään Mertonin-Blackin-Scholesin mallin käyttöön optioiden hinnoittelussa. Optioiden hinnoittelun yhteydessä tullaan tekemään oletukset markkinoiden arbitraasivapaudesta ja täydellisyydestä, kun ajatellaan, että futuureja on saatavilla jokaiselle ajanhetkelle. Tutkielma on jaettu viiteen lukuun seuraavasti. Ensimmäinen luku on johdanto, jossa esitellään työn tausta, motivaatio, tavoitteet ja työn rajaus. Lisäksi käydään läpi tutkielman rakenne tiivistelmää tarkemmin. Toisessa luvussa kuvataan yleisesti Pohjoista sähkömarkkinaa ja sen rakennetta. Sähkön finanssimarkkinalla tarjolla olevista instrumenteista forwardit, futuurit, aluehintatuotteet ja optiot esitellään tässä luvussa. Seuraavassa eli kolmannessa luvussa muodostetaan käsitystä johdannaisten hinnoittelun taustalla olevasta teoreettisesta viitekehyksestä. Omiksi kappaleikseen on eriytetty Brownin liike, Lèvy-prosessi, Itôn kaava ja mitan vaihto ja mitan vaihtoon liittyen erityisesti Esscherin ja Girsanovin muunnos. Lisäksi kolmannessa luvussa käydään läpi teoreettinen markkina-asetelma. Neljäs luku esittelee matemaattisten työkalujen käyttöä Pohjoisella sähkömarkkinalla. Kyseisessä luvussa keskitytään futuurisopimusten hinnan dynamiikkaan ja hinnoitteluun ja tämän jälkeen siirrytään optioiden hinnoitteluun Merton-Black-Scholes-mallin avulla. Viimeinen eli viides luku on varattu pohdinnalle.
  • Juvonen, Markus (2017)
    This thesis strives to familiarize the ideas behind the success of patch-based image representations in image processing applications in recent years. Furthermore we show how to restore images using the idea of patch-based dictionary learning and the k-means clustering algorithm. In chapter 1 we introduce the notion of patch-based image processing and take a look at why dictionary learning using sparsity is a hot topic and useful in processing natural images. The second chapter aims to formulate the different methods and approaches used in this thesis mathematically. Dictionary learning, the k-means algorithm and the Structural similarity index (SSIM) are in the main focus. Chapter 3 goes into the details of the experiments. We present and discuss the results as well. The fourth and final chapter summarizes the main ideas of the thesis and introduces development suggestions for further investigation based on the methods used. Using a fairly simplistic patch-based image processing method we manage to reconstruct images from a set of similar images to a reasonable extent. As the main result we see how the size of the patches as well as the size of the learned dictionary effects the quality of the restored image. We also detect the limitations and problems of this approach such as the appearance of patch artifacts which is an issue to attack and resolve in following studies.
  • Lintusaari, Jarno (2014)
    This thesis proposes a generalization for the model class of labeled directed acyclic graphs (LDAGs) introduced in Pensar et al. (2013), which themselves are a generalization of ordinary Bayesian networks. LDAGs allow encoding of a more refined dependency structure compared to Bayesian networks with a single DAG augmented with labels. The labels correspond to context-specific independencies (CSIs) which must be present in every parameterization of an LDAG. The generalization of LDAGs developed in this thesis allows placement of partial context-specific independencies (PCSIs) into labels of an LDAG model, further increasing the space of encodable dependency structures. PCSIs themselves allow a set of random variables to be independent of another when restricted to a subset of their outcome space. The generalized model class is named PCSI-labeled directed acyclic graph (PLDAG). Several properties of PLDAGs are studied, including PCSI-equivalence of two distinct models, which corresponds to Markov-equivalence of ordinary DAGs. The efficient structure learning algorithm introduced for LDAGs is extended to learn PLDAG models. This algorithm uses a non-reversible Markov chain Monte Carlo (MCMC) method for ordinary DAG structure learning combined with a greedy hill climbing approach. The performance of PLDAG learning is compared against LDAG and traditional DAG learning using three different measures: Kullback-Leibler divergence, number of free parameters in the model and the correctness of the learned DAG structure. The results show that PLDAGs further decreased the number of free parameters needed in the learned model compared to LDAGs yet maintaining the same level of performance with respect to Kullback-Leibler divergence. Also PLDAG and LDAG structure learning algorithms were able to learn the correct DAG structure with less data in traditional DAG structure learning task compared to the base MCMC algorithm.
  • Toivonen, Karoliina (2016)
    Multiple testing is a statistical inference problem, applied widely in the fields of genomic studies, QTL mapping and national security, where large number of hypotheses is being tested simultaneously. However, it is not always straightforward whether multiple testing can successfully be carried out for a specific dataset. To measure whether multiple testing works as desired, the error rate, defined as P ( Type I error ) + P ( Type II error ) , for investigating performance of different frequentist and Bayesian testing methods is considered. In a grid of all possible combinations of p (proportion of signal in the data) and τ^2 /σ^2 (variance), a simulation study is conducted, testing a set of hypotheses with Benjamini-Hochberg procedure and its modified versions, as well as with Parametric Empirical and Full Bayes methods. As a result, a sharp phase transition phenomenon for the error rate of each of the inference schemes is noticed, indicating the existence of a phase boundary defining regions of p and τ^2 /σ^2 for which multiple testing is feasible and for which it isn't. This discovery is then also discussed from the point of view of variable selection; Bayesian methods in variable selection are expected to show similar results due to the well known connections between multiple testing and model selection. Furthermore, the outcome of the simulation yields differences between the performance of full Bayes and empirical Bayes methods noted before from asymptotic point of view. This finding is then contemplated from the perspective of phase boundary, resulting in new ideas of how to avoid conflict when using parametric Bayes approaches as an approximation of full Bayes analysis.
  • Ollikainen, Jyri (2018)
    Topic: - This thesis addresses the problem of comparing payoffs from iterated games of varying lengths in a meaningful way. Shorter games can be played more often than longer games in same amount of time. Direct comparison of payoffs per game therefore leads to systematic error for the shorter games. On the other hand if it is difficult to find a playing partner, shorter games have extra disadvantage and per game payoff calculation is more accurate. This thesis calculates payoffs as time averages instead of per game averages taking into account rate of finding a new playing partner. - Games can be of different lengths because of random termination of the game or by a strategic choice of the player. Latter case is known as quitting strategy, which is given in the form of a quitting rule as a part of a players strategy, e.g. ""quit after two subsequent rounds with low payoff"". Quitting can prevent further losses in a single iterated game, but becomes more effective when a player can start a new game with another opponent after quitting in a game. Opponents are randomly chosen from a pool of potential players and after the termination of a game they are returned to the pool to be paired off randomly again. This is called ""pooling"". The strategies utilized by the players in the pool change over time as strategies with longer games become more rare in the pool. - Quitting traditionally has not been considered a strategic choice. Method: This thesis constructs a model for iterated games with quitting and pooling. Then it is explored further with an example of iterated Hawk-Dove-Bully-Retaliator (HDBR) game. Results: - Strategies that tend to lead to long games become less frequent in the pool than strategies with shorter games. - Greedy strategies, when pooled with quitting strategies, will eventually spend most of their time playing against each other or in the pool. This reduces their payoffs to the point that they are no longer competitive compared to more altruistic strategies. - High termination rate increases the relevance of the first few rounds. This causes more greedy strategies to benefit from high termination rate when more naive or altruistic strategies cannot play in beneficial games for long.
  • Jälkö, Joonas (2017)
    This thesis focuses on privacy-preserving statistical inference. We use a probabilistic point of view of privacy called differential privacy. Differential privacy ensures that replacing one individual from the dataset with another individual does not affect the results drastically. There are different versions of the differential privacy. This thesis considers the ε-differential privacy also known as the pure differential privacy, and also a relaxation known as the (ε, δ)-differential privacy. We state several important definitions and theorems of DP. The proofs for most of the theorems are given in this thesis. Our goal is to build a general framework for privacy preserving posterior inference. To achieve this we use an approximative approach for posterior inference called variational Bayesian (VB) methods. We build the basic concepts of variational inference with certain detail and show examples on how to apply variational inference. After giving the prerequisites on both DP and VB we state our main result, the differentially private variational inference (DPVI) method. We use a recently proposed doubly stochastic variational inference (DSVI) combined with Gaussian mechanism to build a privacy-preserving method for posterior inference. We give the algorithm definition and explain its parameters. The DPVI method is compared against the state-of-the-art method for DP posterior inference called the differentially private stochastic gradient Langevin dynamics (DP-SGLD). We compare the performance on two different models, the logistic regression model and the Gaussian mixture model. The DPVI method outperforms DP-SGLD in both tasks.
  • Leppä-aho, Janne Lauri Antero (2014)
    Multivariate Gaussian distribution is an often encountered continuous distribution in applied mathematics and statistics due to its well known properties and wide applicability. In the graphical models framework, we make use of graphs to compactly represent the conditional independences between a set of random variables. Combining these two together leads to the class of Gaussian graphical models. This thesis discusses learning of Gaussian graphical models from multivariate data. Given the data, our goal is to identify the graphical structure that specifies the conditional independence statements between the variables under consideration. Following the footsteps of Pensar et al [10], we adopt a Bayesian, score-based approach for learning graphical models. Using pseudo-likelihood to approximate the true likelihood allows us to apply results of Consonni et al [4] to compute marginal likelihood integrals in closed form. This results in a method that can be used to make objective comparisons among Gaussian graphical models. We test the method numerically and show that it can be readily applied in high-dimensional settings. According to our tests, the method presented here outperforms the widely used graphical LASSO method in accuracy. The structure of this thesis is as follows. The chapters 2-4 discuss graphical models, multivariate Normal distribution and Bayesian model comparison in general. The fifth chapter goes through the results derived by Consonni, which are utilised in the next chapter to develop a scoring function and a learning algorithm for Gaussian graphical model selection. In the sixth chapter, we test the method in practice and present the obtained numerical results. The last appendix chapter is dedicated to the consistency proof, which gives the theoretical justification for the presented method.
  • Sirviö, Robert (2016)
    Measuring risk is mandatory in every form of responsible asset management; be it mitigating losses or maximizing performance, the level of risk dictates the magnitude of the effect of the strategy the asset manager has chosen to execute. Many common risk measures rely on simple statistics computed from historic data. In this thesis, we present a more dynamic risk measure explicitly aimed at the commodity futures market. The basis of our risk measure is built on a stochastic model of the commodity spot price, namely the Schwartz two-factor model. The model is essentially determined by a system of stochastic differential equations, where the spot price and the convenience yield of the commodity are modelled separately. The spot price is modelled as a Geometric Brownian Motion with a correction factor (the convenience yield) applied to the drift of the process, whereas the convenience yield is modelled as an Ornstein-Uhlenbeck process. Within this framework, we show that the price of a commodity futures contract has a closed form solution. The pricing of futures contracts works as a coupling between the unobservable spot price and the observable futures contract price, rendering model fitting and filtering techniques applicable to our theoretic model. The parameter fitting of the system parameters of our model is done by utilizing the prediction error decomposition algorithm. The core of the algorithm is actually obtained from a by-product of a filtering algorithm called Kalman filter; the Kalman filter enables the extraction of the likelihood of a single parameter set. By subjecting the likelihood extraction process to numerical optimization, the optimal parameter set is acquired, given that the process converges. Once we have attained the optimal parameter sets for all of the commodity futures included in the portfolio, we are ready to perform the risk measurement procedure. The first phase of the process is to generate multiple future trajectories of the commodity spot prices and convenience yields. The trajectories are then subjected to the trading algorithm, generating a distribution of the returns for every commodity. Finally, the distributions are aggregated, resulting in a returns distribution on a portfolio level for a given target time frame. We show that the properties of this distribution can be used as an indicator for possible anomalies in the returns within the given time frame.
  • Hemminki, Olli (2012)
    Sijoitustuotot ajatellaan usein normaalijakautuneiksi. Tällöin riskiä mitataan keskihajonnalla eli volatiliteetilla. Kun luovutaan normaalijakaumaoletuksesta, mitä tukee havainnot historiallisista sijoitustuotoista, voidaan rakentaa sijoitusten riskin mittamiseen tarkoitettujen riskimittojen teoriaa. Riskimittojen toivottavia ominaisuuksia ovat mm. monotonisuus, käteisinvarianssi, positiivinen homogeenius ja konveksisuus. Mikäli riskimitalla on nämä ominaisuudet, sanomme, että se on koherentti. Volatiliteetti ei ole monotoninen tai käteisinvariantti, joten sitä ei voida pitää kovin hyvänä riskimittana. Lisäksi se on symmetrinen, jolloin myös erityisen suuret tuotot lisäävät sijoituksen riskillisyyttä volatiliteetin mielessä. Volatiliteetin symmetrisyysongelman ratkaiseva value-at-risk on monotoninen, käteisinvariantti ja positiivisesti homogeeni, mutta se ei ole konveksi. Tällöin se voi rankaista hajauttamisesta. Sen sijaan maksimaalinen riskimitta sekä odotettu vaje ovat esimerkkejä koherenteista riskimitoista. Sijoituksen itsenäinen riski ei kuitenkaan ole vielä erityisen kiinnostava, kun siirrytään portfoliokontekstiin. Tässä yhteydessä voidaan soveltaa erilaisia riskinallokointimenetelmiä sen selvittämiseen, mikä on yksittäisten portfoliossa olevien sijoitusten kontribuutio portfolion kokonaisriskiin valitun riskimitan suhteen. Tällaisia menetelmiä on useita, mutta yksikään niistä ei toteuta kaikkia kolmea riskinallokointimenetelmiltä toivottua ominaisuutta. Nämä ominaisuudet ovat yhtäläisen kohtelun ominaisuus, vahvan monotonisuuden ominaisuus sekä ydinyhteensopivuuden ominaisuus. Sovelluksena edellä esitetystä teoriasta tutustutaan Eufex Eläkevarainhoito -erikoissijoitusrahaston riskiprofiiliin. Tutkimuksessa esitetty teoria pyrkii vastaamaan esimerkiksi seuraaviin kysymyksiin: - Paljonko tulee varata käteisvaroja, että johonkin sijoitukseen liittyvä riski on hyväksyttävä? - Minkä sijoituksen painoa tulisi vähentää portfoliosta, mikäli halutaan vähentää portfolion riskitasoa? - Kuinka suuren osan pankin kokonaisriskistä kukin sen osasto tuottaa?
  • Kilpiainen, Marko (2017)
    Tutkielmassa tarkastellaan vajaavaisilla tari tekijöillä säädellyn vakuutuksen hinnoittelun vaikutusta vakuutettavien hyvinvointiin. Tutkielmassa esitetään malli vakuutusmarkkinoiden mallintamiseen eri markkina ja hinnoittelun tilanteissa. Hinnoittelun tapauksista käsitellään vakuutuksen riskivastaava hinnoittelu ja säätelyn seurauksena riskivastaavuudesta tingitty hinnoittelu. Tutkittavat markkinatilanteet ovat vapaan kilpailun markkina ja monopolimarkkina. Vapaan kilpailun markkinoilla vakuutusyhtiöt kilpailevat vakuutettavista hinta- tai hinta-määrä-kilpailun keinoin. Vajaavaisilla tari tekijöillä hinnoiteltujen vakuutuksien tuomaa hyvinvointia verrataan riskivastaavien vakuutusten tuomaan hyvinvointiin eri markkinatilanteissa. Riskivastaavasta hinnoittelusta tinkiminen heikentää vakuutuksen mahdollisuuden tuomaa hyvinvointia.
  • Pylvänäinen, Annika (2012)
    Tämän Pro gradun aiheena on satunnaismatriisien ominaisarvojen jakautuminen ja jakauman soveltaminen. Keskitytään erityisesti gaussisiin matriisiensembleihin, toisin sanoen matriisikokoelmiin, joiden alkiot noudattavat normaalijakaumaa. Tämän jakaumaoletuksen pätiessä teoriaa sovelletaan dffuusio-MRI tutkimukseen. Ensimmäisessä luvussa tarkastellaan matriisien ominaisuuksia, jotka ovat keskeisessä roolissa satunnaismatriisien teoriassa. Määritellään neliömatriisin ominaisuuksia kuten matriisin neliömuoto ja determinantti. Määritellään lisäksi matriisiarvoinen satunnaismuuttuja ja sen seurauksena keskitytään satunnaismatriiseihin. Todennäköisyys on keskeinen työkalu satunnaisuutta käsiteltäessä ja määritelläänkin todennäköisyysteorian peruselementtejä. Niiden avulla voidaan laskea satunnaismatriisin multinormaalijakauma sekä sen ominaisarvot ja -vektorit. Luvussa 2 määritellään Wignerin reaalinen symmetrinen- ja Wignerin hermiittinen matriisi. Perehdytään ennen kaikkea gaussiseen ortogonaaliseen (GOE)- ja gaussiseen unitaariseen matriisiensembleen (GUE), jotka ovat Wignerin matriisien erikoistapauksia. Tarkastellaan gaussisten matriisien jakaumaa ja erityisesti lasketaan matriisin ominaisarvojen jakauma. Se on tämän Pro Gradun keskeisempiä tuloksia ja sitä voidaan luvussa 3 soveltaa myös magneettikuvauksen teoriaan. Määritetään lisäksi Mehtan ja Selbergin integraalit, joiden avulla voidaan määrittää jakauman normalisointivakio. Lopuksi tarkastellaan diffuusiotensori- ja diffuusiopainotteista magneettikuvausta. Kuvataan ensin veden di_uusiota toisen asteen tensoreiden ja diffuusiofunktion avulla. Tämä on kolmiulotteinen malli, joka kuvaa diffuusion suuntaa kudoksessa. Monimutkaisempien diffuusioprofiilien, kuten kudosten hienorakenteiden sekä kuitujen leikkauskohtien tarkastelemiseen tarvitaan korkeamman asteen tensoreita. Tutustutaan niiden käyttöön sekä käytön vaatimiin rajoituksiin. Tarkastellaan sekä vektorin että tensorin jakaumia. Määritellään lisäksi rajoitteet, jotka vaaditaan algebrallisten ja geometristen ominaisuuksien säilymiseen muuntautuessa vektori- ja tenroriarvoisten muuttujien välillä. Lasketaan myös jakauman normalisointivakio. Lopuksi tarkastellaan isotrooppisen tensorin ominaisarvojen jakaumaa.
  • Telivuo, Suvi (2018)
    Taloudellisten, institutionaalisten ja teknologisten ympäristöjen kiihtyvä muutostahti on luonut tarpeen tehdä oikeita valintoja menestymisen ja kehityksen takeeksi. Parhaimman valinnan tekee henkilö, jolla on eniten tietoa ja varmuutta tiedon paikkansapitävyydestä. Vaihtoehtoisesti päätöksenteon epävarmuustekijöitä voidaan hallita eliminointimenetelmillä, joiden hyödyntäminen voi myös johtaa parempiin päätöksiin. Epävarmuuden minimoimisen edellytyksenä on niin ikään pohjatietojen parantaminen. Tästä tarpeesta ovat nousseet tiedonlouhintamenetelmät. Tiedonlouhintamenetelmiä on kehittynyt valtava määrä vastaamaan kysynnän luomia tarpeita. Päätöksentekopuu on eräs tällainen analysointimenetelmä ja päätöksentekopuun pohjalta on luotu koneoppimismenetelmä satunnaismetsä. Satunnaismetsä on tutkimusten mukaan tällä hetkellä paras saatavilla oleva luokittelumenetelmä ja valikoitunut tämän tutkielman aiheeksi. Luvussa 2 luomme pohjaa satunnaismetsä-menetelmän ymmärtämiseksi. Lähdemme liikkeelle koneoppimisesta ja datalouhintamenetelmistä, joilla alustamme päätöksentekopuutyökalun. Käy ilmi, että on olemassa luokittelu-, regressio- ja luokitteluregressiopuita, ja että tässä tutkielmassa keskitymme luokittelupuihin. Tämän jälkeen esittelemme päätöksentekopuun metodologiaa. Luvussa 3 esittelemme tutkielman kannalta päätöksentekopuiden tärkeimmät validointimenetelmät, sillä datalouhinnassa analysointimenetelmien validoiminen on yhtä tärkeää kuin itse analysoiminen. Esittelemme mallien validointiin liittyviä käsitteitä, kuten tarkkuus, yleistysvirhe ja ylisovittuminen. Käymme läpi yleisimpiä tapoja validoida malleja, sekä näytämme esimerkkien kautta työkalut, joita käytämme tutkielmassa. Näitä ovat tarkkuus, väärinluokittelumatriisi, ROC-, kumulatiivinen saanti- ja nostokäyrä. Luvussa 4 esittelemme satunnaismetsä-koneoppimismenetelmän. Käymme ensiksi läpi joukko-oppimisen metodologiaa, jonka jälkeen käsittelemme satunnaismetsän algoritmin. Osoitamme teoreettisesti, miksi satunnaismetsä on parempi luokittelija kuin esimerkiksi päätöksentekopuu näyttämällä, että satunnaismetsän puumäärän kasvaessa satunnaismetsän yleistysvirhe suppenee kohti nollaa. Analysoimme teoreettisesti satunnaismetsän hyötyjä ja haittoja. Satunnaismetsän hyötyjä ovat sen tarkkuus, nopeus, ymmärrettävyys, toimivuus valtavilla datamäärillä, sekä kykeneväisyys analysoida tietojoukon merkittävimpiä muuttujia. Haittoja ovat, että satunnaismetsä ei suoriudu yhtä hyvin regressio-ongelmissa kuin esimerkiksi logistinen regressiomalli, sekä huono sovellettavuus pieniin tietojoukkoihin. Luvussa 5 sovellamme opittuja taitoja suppeaan tietojoukkoon. Tarkoituksenamme on arvioida RStudion ja SAS Enterprise Minerin satunnaismetsä-pakettien toimivuutta tunnetulla syötejoukolla. Analysoimme satunnaismetsäin suoriutumista luokittelutehtävässä ja vertailemme tuloksia päätöksentekopuuhun ja regressiomalliin. Hyödynnämme luvussa 3 opittuja validointimenetelmiä. Käy ilmi, että RStudion ja SAS Enterprise Minerin satunnaismetsä-paketit toimivat hyvin, ja että satunnaismetsä suoriutuu pienenkin tietojoukon luokittelussa malleista parhaiten. Luvussa 6 sovellamme satunnaismetsää yrityksen tarjoamaan haasteeseen, jossa tarkoitus on selittää ja ennustaa uusien asiakkaiden tietyn asiakassegmentin asiakasvaihtuvuutta. Käytämme yhtiön tarjoamia tietokantoja ja SAS Enterprise Miner-työkalua. Suoritamme vertailun satunnaismetsä- ja päätöksentekopuu-mallien välillä käyttämällä luvussa 3 esiteltyjä validointimenetelmiä ja analysoimme tulokset. Käy ilmi, että ROC-käyrien ja tarkkuuden perusteella satunnaismetsä suoriutuu sekä luokittelussa että ennustamisessa paremmin kuin päätöksentekopuu. Luvussa 7 pohdimme, millaisissa puitteissa satunnaismetsä soveltuu yrityksen liiketoimintaprosessiin. Käymme läpi vaatimuksia, joita satunnaismetsän soveltaminen asettaa, sekä mitä lisäarvoa satunnaismetsä menetelmänä tuo yritykselle. Tulos on, että satunnaismetsä soveltuu hyvin yrityksille, jotka hyödyntävät SAS-työkaluja ja tuo lisäarvoa analysointitehtäviin olemalla ymmärrettävä malli, mutta kuitenkin monipuolinen, nopea ja tarkka.
  • Kilponen, Simo (2015)
    Tutkielmassa tarkastellaan semi-Markov-prosessin hyödyntämistä keskeyttämistapahtuman mallintamiseksi vapaaehtoisessa henkivakuutuksessa. Vakuutetun riskin kehitys mallinnetaan monitilaisena semi-Markov-prosessina ja keskeyttämisintensiteetti määritellään tähän pohjautuvan vakuutusmaksun ja klassisen henkivakuutusteorian mukaisen vakuutusmaksun funktiona. Keskeyttämisintensiteetti asetetaan riippumaan lisäksi lineaarisesti keskeyttämisherkkyydeksi tulkitusta vakiosta. Numeerisena esimerkkinä simuloidaan vakuutuskannan kehitystä eri keskeyttämisherkkyyksin ja tarkastellaan aktiivisen kannan koostumusta simulointijakson jälkeen.
  • Tornikoski, Paula (2017)
    Tutkielmassa tarkastellaan niitä asioita, joita vakuutusyhtiön tulisi ottaa huomioon hinnoitellessaan sijoitussidonnaisia vakuutustuotteita myytäviksi asiakkailleen. Pääkysymyksenä on, miten vakuutusyhtiö selviää tällaisistakin sopimuksista, vaikka sijoitusten ennustettavuus on heikkoa ja tuotot vaihtelevat satunnaisesti. Alussa käydään läpi kaavoja, joilla lasketaan sijoituksen arvoa vakuutetun kannalta sekä vakuutusyhtiön saamaa tuottoa sijoitussidonnaisesta henkivakuutuksesta. Sopimuksen tulee olla houkutteleva molempien osapuolten näkökulmasta, jotta sopimus syntyy. Todennäköisyys sille, että molemmat osapuolet hyötyvät taloudellisesti, tulee olla postitiivinen. Riskin mittaamisen näkökulmasta on valittu tarkemmin tarkasteltavaksi Monte Carlo -simulaatio sekä kaksi erilaista riskimittaria: Value at Risk –menetelmä sekä Conditional tail expectation –menetelmä. Tutkielmassa käydään läpi erilaisia mahdollisuuksia riskiltä suojautumiseen vakuutusyhtiön näkökulmasta katsottuna. Keinoja on useita ja tässä perehdytään tarkemmin jälleenvakuuttamiseen sekä riskin suojaamiseen sijoitusmarkkinoilla. Vakuutusyhtiö voi myös pitää suurta pääomareserviä tappioiden varalle, mutta tämä on kallista ja tehotonta. Sijoitusmarkkinoilla vakuutusyhtiö voi hyödyntää optioita, joita käydään laajemmin läpi. Optioiden hinnoittelussa keskeisiä malleja ovat binomimalli sekä Black-Scholes-Merton option hinnoittelumalli. Vakuutusyhtiö voi antaa asiakkailleen erilaisia tuottolupauksia korvauksista, joita asiakkaat saavat sijoitussidonnaisista henkivakuutuksista. Keskeisimmät korvaukset ovat kuolemantapauskorvaus sekä elämänvarakorvaus. Vakuutusyhtiön tulee selvitä näistä korvauksista ja lopussa käydäänkin läpi erilaisia näkökulmia vakuutusyhtiön strategiaksi. Möller, T. (2001) antaa pääasialliseksi vastaukseksi vakuutusyhtiön selviämiseen tällaisista sopimuksista suurten lukujen lain yhdistettynä oikeanlaiseen sijoitusstrategiaan. Käytetyimmät lähteet tutkielmassa ovat: Dickson, D., Hardy, M. and Waters, H. (2013). Actuarial Mathematics for Life Contingent Risks, 2nd edition, Campridge University Press, New York. Möller, T. (2001). Hedging Equity-Linked Life Insurance Contracts. North American Actuarial Journal 5: 79-95.
  • Eerola, Maiju (2017)
    Tutkielmassa käsitellään sitoumuksien suojausta ja etenkin sijoitussidonnaisten henkivakuutusten suojausta lokaalin riskin minimointiin perustuvalla menetelmällä diskreetissä ajassa. Sijoitussidonnaisen henkivakuutuksen tapauksessa vakuutuksenottaja sitoutuu maksamaan yhtiölle vakuutusmaksun yhdessä tai useammassa erässä ja vakuutusyhtiö vastaavasti sitoutuu maksamaan sovitulla hetkellä vakuutuksenottajalle korvauksen, jonka suuruus riippuu vakuutetun jäljellä olevasta elinajasta ja arvopaperimarkkinoiden kehityksestä. Markkinoilla oletetaan aina olevan yksi niin sanottu riskitön arvopaperi, jonka hinta on positiivinen jokaisella hetkellä. Muita arvopapereita kutsutaan riskillisiksi. Korvauksen määräämisperuste päätetään osapuolten välisessä sopimuksessa. Korvaus voisi esimerkiksi olla jonkin tietyn arvopaperin hinta korvaushetkellä, jos vakuutettu on tällöin elossa. Yhtiön tavoitteena on suojata tämä maksusitoumus sijoittamalla sopivasti markkinoilla oleviin arvopapereihin, jotka voivat olla esimerkiksi osakkeita tai valuuttoja. Tutkielmassa lähdetään tarkastelemaan sitoumuksen suojaamista lokaalin riskin minimointiin perustuvalla menetelmällä. Lokaalin riskin minimoinnilla tarkoitetaan tässä sijoitusvirheen keskineliöpoikkeaman minimointia, missä sijoitusvirhe on toiminnassa syntynyt kustannus kun sivukustannuksia kuten käsittelykustannuksia ei ole. Myös monia muita menetelmiä on olemassa, joten suojausmenetelmän valinnasta puhutaan lyhyesti. Tämän lisäksi esitellään lyhyesti myös muutama läheinen menetelmä muodostaa optimaalinen strategia sitoumukselle. Kaikki esiteltävät menetelmät ovat niin sanottuja kvadraattisia eli neliöllisiä suojausmenetelmiä. Työn päälähteenä on Hans Föllmerin ja Alexander Schiedin Stochastic Finance (2011), josta löytyy lisää tietoa kyseisistä menetelmistä ja sitoumuksien suojaamisesta. Ensimmäisessä luvussa esitellään arvopaperimarkkinamalli ja käydään läpi kyseessä olevan mallin oletukset sekä muutamia todennäköisyysteorian ja matriisilaskennan tietoja, joita tarvitaan myöhemmin toisessa luvussa, kun esitetään ja todistetaan lause, joka antaa samalla sekä riittävän että välttämättömän ehdon lokaalin riskin minimoivalle strategialle. Tämän lauseen avulla löydetään kaikki mahdolliset optimaaliset strategiat, kun optimaalisuuskriteeri on lokaalin riskin minimoiminen. Osoittautuu, että optimaalinen strategia on odotusarvoltaan omavarainen ja sen kustannusprosessi on vahvasti ortogonaalinen diskontatun hintaprosessin kanssa. Diskonttaustekijänä käytetään riskittömän arvopaperin hintaa. Kolmannessa luvussa esitellään sijoitussidonnaiset henkivakuutukset ja ratkaistaan lokaalin riskin minimoiva strategia sijoitussidonnaiselle elämänvaravakuutukselle siinä tapauksessa, että markkinoilla on vain yksi riskillinen arvopaperi. Viimeisessä luvussa käydään läpi yleinen tilanne, missä riskillisiä arvopapereita on mielivaltainen määrä ja suojattava sitoumus on sijoitussidonnainen henkivakuutus. Optimaalinen strategia saadaan tällöin helposti esitettävään muotoon.
  • Paavola, Miika (2015)
    Tutkielman aihe, Impedanssitomografia (engl. Electrical Impedance Tomography, EIT) perustuu tutkittavan kohteen rakenteiden sähkönjohtokykyyn. Ajatuksena on luoda rakenneosien toisistaan poikkeavien sähkönjohtavuuksien avulla kuva tutkittavasta kohteesta. Kappaleen pinnalla syötetään heikkoa virtaa erilaisin virransyöttökuvioin ja mitataan syntyneitä jännite-eroja. Näistä mittauksista pyritään ratkaisemaan tutkittavan kappaleen sähkönjohtavuusjakauma. Käytännössä joudutaan tyytymään jonkinlaiseen approksimaatioon todellisesta jakaumasta. Tutkittavan kappaleen mahdollisten rakenneosien johtavuus tunnetaan, joten johtavuusjakauman tunteminen tuottaa suoraan kuvan tutkittavasta kappaleesta. Ennen itse aiheeseen menemistä esitellään tarvittavia työkaluja, joita ovat Sobolev-avaruudet, Fourier-analyysi, Funktionaalianalyysi ja distribuutioteoria ja tavat approksimoida ääretönulotteisia operaattoreita äärellisulotteisilla matriiseilla. Lisäksi luodaan lyhyt katsaus inversio-ongelmiin yleisesti sekä luodaan teoreettinen kehys toimivalle rekonstruktiomenetelmälle. Myös tuotettujen rekonstruktioiden laadun arviointiin käytettävät mittarit määritellään. Tässä tutkielmassa esitellään nk. d-bar -rekonstruktiomenetelmä ääretönulotteisena matemaattisena mallina. Käytännön laskennallisessa menetelmässä ääretönulotteisuudesta joudutaan luopumaan. Tutkielmassa esitellään seuraavaksi tapa siirtyä äärellisulotteiseen malliin ja havaitaan, että menetelmä toimii edelleen siirryttäessä äärellisulotteiseen mittausdataan. Tutkielmassa esiteltävä menetelmä käyttää mittausdatassa olevan kohinan poistamiseksi menetelmässä esiintyvän kompleksitason funktion, sirontamuunnoksen, määrittelyjoukon katkaisua. Tutkielmassa esitellään vaihtoehtoisia tapoja tehdä sirontamuunnoksen katkaisu nykyistä mallia tehokkaammin - tavoitteena on päästä kohinasta eroon säästämällä aiempaa suurempi osa 'hyvästä datasta'. Tutkielman viimeisessä kappaleessa tehdään rekonstruktioita simuloidusta datasta käyttäen alkuperäistä sekä tutkielmassa esitettyjä uusia sirontamuunnoksen katkaisumenetelmiä. Vertailuun käytetään visuaalisten havaintojen lisäksi rekonstruktion virhettä todelliseen johtavuusjakaumaan verrattuna sekä rekonstruktion ja todellisen johtavuuden suurimman ja pienimmän arvon erotuksen suhdetta. Simuloidun datan etuna on se, että todellinen johtavuusjakauma on automaattisesti tiedossa. Lisäksi sirontamuunnoksen epälineaarisuutta tutkitaan numeerisesti.
  • Kaarnioja, Vesa (2013)
    This thesis is an introduction to the theoretical foundation and practical usage of the Smolyak quadrature rule, which is used to evaluate high-dimensional integrals over regions of Euclidean spaces. Given a sequence of univariate quadrature rules, the Smolyak construction is defined in terms of tensor products taken over the univariate rules' consecutive differences. The evaluation points of the resulting multivariate quadrature rule are distributed more sparsely than those of e.g. tensor product quadrature. It can be shown that a multivariate quadrature rule formulated in this way inherits many useful properties of the underlying sequence of univariate quadrature rules, such as the polynomial exactness. The original formulation of the Smolyak rule is prone to a copious amount of cancellation of terms in practice. This issue can be circumvented by isolating the occurrence of duplicates to a separate term, which can be computed a priori. The resulting combination method forms the basis for a numerical implementation of the Smolyak quadrature rule, which we have provided using the MATLAB scripting language. Our tests suggest that the Smolyak rule provides a competitive alternative in the realm of multidimensional integration routines saturated by the stochastic Monte Carlo method and the deterministic Quasi-Monte Carlo method. This statement is especially valid in the case of smooth integrands and it is backed by the error analysis developed in the second chapter of this thesis. The classical convergence rate is also derived for integrands of sufficient smoothness in the case of a bounded integration region. The third chapter serves as a qualitative approach to generalized sparse grid quadrature. Especially of interest is the dimension-adaptive construction. While it lacks the theoretical foundation of the Smolyak quadrature rule, it has the added benefit of adapting to the spatial structure of the integrand. A MATLAB implementation of this routine is presented vis-à-vis the Smolyak quadrature rule.
  • Lindroth, Meri Ida Johanna (2016)
    The concept of economic inequality necessarily encompasses a dimension of social welfare, for otherwise it is just the dispersion of values in a distribution. If we agree that inequality is a potential source of welfare loss in a society, our interest naturally turns towards measuring it and studying what causes or affects it. Dalton (1920) pointed out that underlying any measure of inequality is some concept of social welfare and as such, all measures imply a value judgment towards its very definition. The social welfare approach, however, is the only approach that makes this judgment explicit. This thesis begins by introducing central concepts of inequality measurement. A coverall term 'income' is typically used to compress a set of personal attributes, ones that contribute to the individual's economic status in the society, into a single parameter. All individuals are thought to hold preferences towards equality, which are then aggregated into a social welfare function. To give a useful presentation of these preferences, the social welfare function needs to satisfy a number of basic properties that are discussed later in the thesis. The inequality measurement literature takes interest, above all, in what causes inequality, how it develops in time and whether we can say that it is more prevalent in one society than in another. Two general objectives can be identified: that of ranking different distributions, and that of quantifying the degree of inequality in a given distribution. A well-known graphical representation of inequality in an income distribution, the Lorenz curve, gives a standard tool of comparing different distributions regarding their level of inequality. However, a 'one size fits all' approach to ranking distributions still does not exist. To begin the discussion on quantifying the amount of inequality in a given distribution, the basic axioms of inequality measurement are introduced. They form the basis of the so-called axiomatic approach to inequality measurement, and arguably any measure should satisfy these axioms. In contrast the so-called ad hoc measures of inequality are often bluntly borrowed from statistics to measure the dispersion in an income distribution, without justifying their validity as tools of inequality measurement. In closer inspection their use more often than not cannot be motivated from either a welfare theoretic or an axiomatic point of view. At last the approach of building inequality measures from 'scratch', based on social welfare theory, is introduced. The best known measures of this approach, the Dalton and Atkinson indices, are derived, followed by a discussion on their axiomatic properties.