Browsing by discipline "Soveltava matematiikka"
Now showing items 1-20 of 143
-
(2014)Työssä tarkastellaan ääriarvoteorian perusteiden pohjalta kahta tunnettua ääriarvojakaumaa ja niiden antamia häntätodennäköisyyksiä havaintoaineistolle, joka esittää osaketuottojen kuukausitappioita. Lukijalla oletetaan olevan hallussa todennäköisyysteorian -ja laskennan perustiedot. Ääriarvoteoriassa ollaan kiinnostuneita jonkin havaintoaineiston otosmaksimien käyttäytymisestä sekä niiden jakaumasta. Kiinnostuksen kohteena on siis harvoin sattuvien tapahtumien todennäköisyydet eli havaintojen häntätodennäköisyydet ja tarkoitus on analysoida tiettyyn hetkeen mennessä havaittuja tapahtumia suurempien tapahtumien todennäköisyyksiä. Tutkielman alussa käydään lävitse ääriarvoteorian muutamia olennaisia tuloksia. Käsiteltävä teoria on nimenomaan klassista ääriarvoteoriaa, jossa havaintojen oletetaan olevan riippumattomia ja samoin jakautuneita. Olennainen tulos ääriarvoteoriassa on se, että mikäli sopivilla vakioilla normeerattu otosmaksimi suppenee jakaumaltaan kohti jotain ei-degeneroitunutta jakaumaa, kun otoskoko kasvaa rajatta, niin tällöin tämän jakauman täytyy olla tyypiltään yksi kolmesta standardista ääriarvojakaumasta Fréchet, Weibull tai Gumbel. Tällöin sanotaan, että otosmaksimin jakauma kuuluu ääriarvojakauman vaikutuspiiriin maksimin suhteen. Teorian käsittelyn jälkeen esitellään ääriarvoteorian kaksi tunnetuinta ääriarvojakaumaa. Ensimmäinen niistä on standardi yleistetty ääriarvojakauma eli ns. GEV-jakauma, joka pitää sisällään nuo kolme edellä mainittua standardia ääriarvojakaumaa. Toinen esiteltävä jakauma on yleistetty Pareto-jakauma eli ns. GP-jakauma, jonka jakaumaperheen jäsenet niinikään kuuluvat GEV-jakauman antamien ääriarvojakaumien vaikutuspiiriin maksimin suhteen. Molempien jakaumien avulla pystytään vähän eri menetelmin tutkimaan ääriarvojen tapahtumista jonkin tietyn havaintoaineiston pohjalta ja ekstrapoloimaan havaintoaineiston alueelle, jota ei paljon tunneta eli ääriarvoalueelle. Teorian ja jakaumien konkretisoimiseksi tutkielmassa käydään esimerkin avulla läpi minkälaisia tuloksia ääriarvojakaumilla voidaan saavuttaa. GEV-jakauman sovitus havaintoaineistoon tapahtuu ns. blokkimaksimimenetelmällä. Siinä aineisto jaetaan vuoden blokkeihin ja kustakin blokista poimitaan suurin osaketappio. Tämän jälkeen GEV-jakauma sovitetaan ns. suurimman uskottavuuden menetelmällä havaintoihin. GP-jakauman sovitus aineistoon tapahtuu ns. ylitemenetelmällä, jossa havaintoihin otetaan mukaan tietyn korkean tason ylittävät havainnot. Tämän jälkeen myös GP-jakauma sovitetaan havaintoihin suurimman uskottavuuden menetelmällä. Tuloksista käy ilmi, että molemmat jakaumat vaikuttavat sopivan suhteellisen hyvin havaintoihin joskin GP-jakauma antaa monipuolisempia tuloksia. Lopuksi kerrataan vielä käsiteltyjä asioita sekä kurotetaan esitellyn teorian ohi kohti yleisempää teoriaa. Klassinen ääriarvoteoria ei riippumattomuus oletuksineen nimittäin sellaisenaan sovi reaalimaailman havaintoaineistoon. Asia on tutkielmassa kuitenkin pääosin sivuutettu esityksen helpottamiseksi.
-
(2015)We show that the embedding of a matrix game in a mechanistic population dynamical model can have important consequences for the evolution of how the game is played. In particular, we show that because of this embedding evolutionary branching and multiple evolutionary singular strategies can occur, which is not possible in the conventional theory of matrix games. We show that by means of the example of the hawk-dove game.
-
(2016)In this thesis we present an algorithm for doing mixture modeling for heterogeneous data collections. Our model supports using both Gaussian- and Bernoulli distributions, creating possibilities for analysis of many kinds of different data. A major focus is spent to developing scalable inference for the proposed model, so that the algorithm can be used to analyze even a large amount of data relatively fast. In the beginning of the thesis we review some required concepts from probability theory and then proceed to present the basic theory of an approximate inference framework called variational inference. We then move on to present the mixture modeling framework with examples of the Gaussian- and Bernoulli mixture models. These models are then combined to a joint model which we call GBMM for Gaussian and Bernoulli Mixture Model. We develop scalable and efficient variational inference for the proposed model using state-of-the-art results in Bayesian inference. More specifically, we use a novel data augmentation scheme for the Bernoulli part of the model coupled with overall algorithmic improvements such as incremental variational inference and multicore implementation. The efficiency of the proposed algorithm over standard variational inference is highlighted in a simple toy data experiment. Additionally, we demonstrate a scalable initialization for the main inference algorithm using a state-of-the-art random projection algorithm coupled with k-means++ clustering. The quality of the initialization is studied in an experiment with two separate datasets. As an extension to the GBMM model, we also develop inference for categorical features. This proves to be rather difficult and our presentation covers only the derivation of the required inference algorithm without a concrete implementation. We apply the developed mixture model to analyze a dataset consisting of electronic patient records collected in a major Finnish hospital. We cluster the patients based on their usage of the hospital's services over 28-day time intervals over 7 years to find patterns that help in understanding the data better. This is done by running the GBMM algorithm on a big feature matrix with 269 columns and more than 1.7 million rows. We show that the proposed model is able to extract useful insights from the complex data, and that the results can be used as a guideline and/or preprocessing step for possible further, more detailed analysis that is left for future work.
-
(2013)The subject of this Master's Thesis is Shannon-McMillan-Breiman theorem, a famous and important result in information theory. Since the theorem is a statement about ergodic stochastic processes and its proof utilises Birkho 's ergodic theorem, a whole chapter has been devoted to ergodic theory. Ergodic theory has developed into a large branch of mathematics, and so the Chapter 1 is only a brief glance at the subject. Nevertheless, we will prove one of the most important theorems in ergodic theory, the before-mentioned Birkho 's ergodic theorem. This theorem is a strong statement about the average behaviour of certain stochastic processes (or dynamical systems), and it can be seen as a generalisation of the Strong Law of Large Numbers. Chapter 2 discusses information theory and the Shannon-McMillan-Breiman theorem. No previous knowledge about information theory is assumed, and therefore the chapter starts with an introduction to information theory. All fundamental de nitions and theorems concerning the entropy of discrete random variables are provided. After this introduction, we study the entropy of stochastic processes, which in turn leads us to the Asymptotic Equipartition Property (the AEP). Informally, a stochastic process has the AEP if almost all sample paths belong to a rather thin set, called the set of typical sequences, which despite having few elements contains most of the probability mass. Then we prove that independent and identically distributed processes have the AEP, and consider its consequences and applications such as data compression. After this, we present the Shannon-McMillan-Theorem which states that stationary, ergodic processes with infite state space have the AEP. The rest of the thesis is then devoted to the rather long, but interesting proof of the theorem.
-
(2015)Often it would be useful to be able to calculate the 'shape' of a set of points even though it is not clear what is formally meant by the word 'shape.' The definitions of shapes presented in this thesis are generalizations of the convex hull of a set of points P which is the smallest convex set that contains all points of P. The k-hull of a point set P is a generalization of the convex hull. It is the complement of the union of all such halfplanes that contain at most k points of P. One application of the k-hull is measuring the data depth of an arbitrary point of the plane with respect to P. Another generalization of the convex hull is the α-hull of a point set P. It is the complement of the union of all α-disks (disks of radius α) that contain no points of the set P in their interior. The value of α controls the detail of the α-hull: 0-hull is P and ∞-hull is the convex hull of P. The α-shape is the 'straight-line' version of the α-hull. The α-hull and the α-shape reconstruct the shape in a more intuitive manner than the convex hull, recognizing that the set might have multiple distinct data clusters. However, α-hull and α-shape are very prone to outlier data that is often present in real-life datasets. A single outlier can drastically change the output shape. The k-order α-hull is a generalization of both the k-hull and the α-hull and as such it is a link between statistical data depth and shape reconstruction. The k-order α-hull of a point set P is the complement of the union of all such α-disks that contain at most k points of P. The k-order α-shape is the α-shape of those points of P that are not included in any of the α-disks. The k-order α-hull and the k-order α-shape can ignore a certain amount of the outlier data which the α-hull and the α-shape cannot. The detail of the shape can be controlled with the parameter α and the amount of outliers ignored with the parameter k. For example, the 0-order α-hull is the α-hull and the k-order ∞-hull is the k-hull. One possible application of the k-order α-shape is a visual representation of spatial data. Multiple k-order α-shapes can be drawn on a map so that shapes that are deeper in the dataset (larger values of k) are drawn with more intensive colors. Example datasets for geospatial visualization in this thesis include motor vehicle collisions in New York and unplanned stops of public transportation vehicles in Helsinki. Another application presented in this thesis is noise reduction from seismic time series using k-order α-disks. For each time tick, two disks of radius α are put above and below the data points. The upper disk is pulled downwards and the lower disk upwards until they contain exactly k data points inside. The algorithm's output for each time tick is the average of the centres of these two α-disks. With a good choice of parameters α and k, the algorithm successfully restores a good estimate of the original noiseless time series.
-
(2018)The past decade has brought about two key changes to the pricing of interest rate products in the European fixed income markets. In 2007, the Euribor-EONIA spread widened, which called into question the use of Euribor rates as a proxy for the risk-free rate. Nine years later, all of the main Euribor rates had fallen below zero. These changes forced market practitioners to reassess their assumptions, which resulted in the development of new models. The Heath-Jarrow-Morton (HJM) and Brace-Gatarek-Musiela (BGM) frameworks, which had gained popularity before the crisis, have served as a foundation for these models. In this thesis, we present two applications of Malliavin calculus to the pricing of interest rate derivatives within a multicurve BGM framework. Although the framework simplifies the pricing of interest rate derivatives, as it takes market rates as primitives, the pricing of exotic interest rate derivatives can pose a number of problems. The complexity of these products can lead to situations that require the use of computational techniques such as Monte Carlo simulation. This, in turn, provides an opening for the application of Malliavin calculus. We end this thesis by presenting a Malliavin-based formula for the price and the delta-sensitivity of a snowball, and discuss the merits of these representations in the context of Monte Carlo simulation. With reference to advances within the field during the last 5 years, we discuss the possible developments within the field that might garner further interest towards Malliavin calculus in the near future.
-
(Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2008)
-
(2018)Gaussian processes can be used through Bayesian models so that they are formed through a multidimensional Gaussian prior with a special covariance matrix structure and an arbitrary likelihood model. They often include a latent variable structure between the features and the response variable. Bayesian modeling's drawbacks are usually related to the normalizing constants that normalize the product of a prior probability density function and a likelihood function to a proper probability distribution. These integrals are hard or even impossible to calculate analytically and hence some approximations are required. One popular approximation is the Laplace approximation, which is a Gaussian approximation for the unnormalized log-posterior distribution. Reparametrization of the observation model can lead to changes in properties of the posterior distribution such as shape and convergence. The performance of approximations made for the posterior distribution also change along with the parametrization. The changes are often related to either computational complexity or the predictive performance of the approximation. This thesis presents the Gaussian processes starting from Bayes' formula and moves quickly towards key concepts in Bayesian modeling such as predictive distributions and hierarchy. An approximation of interest for the posterior distribution, the Laplace approximation, is derived. Traditional optimization algorithm for the Laplace approximation is the Newton method, which is replaced by an algorithm called natural gradient adaptation in this thesis. Then the focus is turned from general introduction of Gaussian processes to more specific treatment of them by choosing the Weibull distribution as an observation model. Two different parametrizations for the Weibull model are studied, one which acts as a baseline and can be thought as traditional parametrization for the model, and another one for which the parameters are orthogonal. The predictive performance of the Laplace approximation is then compared within the two parametrizations in two different kind of data sets. Finally the results show decrease in computation time required for the Laplace approximation but no improvement in the predictive performance for orthogonal parametrization.
-
(2013)Ett försäkringsbolag kan teckna en återförsäkring hos ett annat försäkringsbolag, ett så kallat återförsäkringsbolag, för att förhindra att de försäkrade skadorna överstiger försäkringsbolagets kapacitet. På så vis ansvarar både försäkringsbolaget och återförsäkringsbolaget för skadorna. Skyddet kan delas upp antingen proportionellt eller icke-proportionellt. Vid en proportionell återförsäkring ansvarar återförsäkraren för en viss andel av försäkringen, medan vid den icke-proportionella återförsäkringen ansvarar återförsäkraren för skadebelopp som överstiger en förhandsbestämd gräns. Försäkringsbolaget måste betala åt återförsäkraren en återförsäkringspremie. Med ett självbehåll menas det högsta försäkrings- eller skadebelopp som ett försäkringsbolag behåller för egen räkning, dvs. utan återförsäkring. Vi kommer att bestämma den optimala självbehållsnivån för försäkringsgivaren vid en kvot- och en excess of loss återförsäkring. Skadevärderingskoefficienten R(a,M) används för att mäta effektiviteten av återförsäkringen. Skadevärderingskoefficienten är en funktion av gränsen för självbehållen a och M. Vi kommer att maximera skadevärderingskoefficienten över olika gränser.
-
(2018)Tässä työssä tutustumme adaptiiviseen optiikkaan ja ilmakehätomografiaan liittyviin matemaattisiin ongelmiin. Adaptiivinen optiikka on menetelmä, joka pyrkii vähentämään ilmakehän turbulenssista aiheutuvia valon vaiheen vääristymiä ja näin parantamaan suurten optisten teleskooppien suorituskykyä. Adaptiivinen optiikka on tieteenala, joka yhdistää matematiikkaa, fysiikkaa ja insinööritieteitä. Ilmakehätomografialla taas tarkoitamme tiettyä matemaattista kuvantamisongelmaa, joka esiintyy seuraavan sukupolven teleskooppien adaptiivista optiikkaa käyttävissä systeemeissä. Tässä työssä esittelemme tavan mallintaa ilmakehätomografiaa matemaattisesti. Käsittelemme ilmakehän turbulenssia satunnaisfunktioiden avulla sekä esittelemme algoritmin, joka kattaa ilmakehätomografian sekä optisen systeemin kontrolloinnin. Lisäksi tutkimme tämän algoritmin toimintaa yhdessä alan tarkimmista simulointiympäristöistä. Erityisesti testasimme algoritmin vakautta olosuhteissa, joissa kohinataso datassa on korkea. Tutkimustulokset osoittavat, että työssä johdetut regularisointia käyttävät ratkaisumenetelmät parantavat systeemin suorituskykyä verrattuna yksinkertaisempaan ei-regularisoituun menetelmään.
-
(2016)This study is part of the TEKES funded Electric Brain -project of VTT and University of Helsinki where the goal is to develop novel techniques for automatic big data analysis. In this study we focus on studying potential methods for automated land cover type classification from time series satellite data. Developing techniques to identify different environments would be beneficial in monitoring the effects of natural phenomena, forest fires, development of urbanization or climate change. We tackle the arising classification problem with two approaches; with supervised and unsupervised machine learning methods. From the former category we use a technique called support vector machine (SVM), while from the latter we consider Gaussian mixture model clustering technique and its simpler variant, k-means. We introduce the techniques used in the study in chapter 1 as well as give motivation for the work. The detailed discussion of the data available for this study and the methods used for analysis is presented in chapter 2. In that chapter we also present the simulated data that is created to be a proof of concept for the methods. The obtained results for both the simulated data and the satellite data are presented in chapter 3 and discussed in chapter 4, along with the considerations for possible future works. The obtained results suggest that the support vector machines could be suitable for the task of automated land cover type identification. While clustering methods were not as successful, we were able to obtain as high as 93 % accuracy with the data available for this study with the supervised implementation.
-
(2019)In this thesis we present a new likelihood-free inference method for simulator-based models. A simulator-based model is a stochastic mechanism that specifies how data are generated. Simulator-based models can be as complex as needed, but they must allow exact sampling. One common difficulty with simulator-based models is that learning model parameters from observed data is generally challenging, because the likelihood function is typically intractable. Thus, traditional likelihood-based Bayesian inference is not applicable. Several likelihood-free inference methods have been developed to perform inference when a likelihood function is not available. One popular approach is approximate Bayesian computation (ABC), which relies on the fundamental principle of identifying parameter values for which summary statistics of simulated data are close to those of observed data. However, traditional ABC methods tend have high computational cost. The cost is largely due to the need to repeatedly simulate data sets, and the absence of knowledge of how to specify the discrepancy between the simulated and observed data. We consider speeding up the earlier method likelihood-free inference by ratio estimation (LFIRE) by replacing the computationally intensive grid evaluation with Bayesian optimization. The earlier method is an alternative to ABC that relies on transforming the original likelihood-free inference problem into a classification problem that can be solved using machine learning. This method is able to overcome two traditional difficulties with ABC: it avoids using a threshold value that controls the trade-off between computational and statistical efficiency, and combats the curse of dimensionality by offering an automatic selection of relevant summary statistics when using a large number of candidates. Finally, we measure the computational and statistical efficiency of the new method by applying it to three different real-world time series models with intractable likelihood functions. We demonstrate that the proposed method can reduce the computational cost by some orders of magnitude while the statistical efficiency remains comparable to the earlier method.
-
(2020)Most of the standard statistical inference methods rely on the evaluating so called likelihood functions. But in some cases the phenomenon of interest is too complex or the relevant data inapplicable and as a result the likelihood function cannot be evaluated. Such a situation blocks frequentist methods based on e.g. maximum likelihood estimation and Bayesian inference based on estimating posterior probabilities. Often still, the phenomenon of interest can be modeled with a generative model that describes supposed underlying processes and variables of interest. In such scenarios, likelihood-free inference, such as Approximate Bayesian Computation (ABC), can provide an option for overcoming the roadblock. Creating a simulator that implements such a generative model provides a way to explore the parameter space and approximate the likelihood function based on similarity between real world data and the data simulated with various parameter values. ABC provides well defined and studied framework for carrying out such simulation-based inference with Bayesian approach. ABC has been found useful for example in ecology, finance and astronomy, in situations where likelihood function is not practically computable but models and simulators for generating simulated data are available. One such problem is the estimation of recombination rates of bacterial populations from genetic data, which often is unsuitable for typical statistical methods due to infeasibly massive modeling and computation requirements. Overcoming these hindrances should provide valuable insight into evolution of bacteria and possibly aid in tackling significant challenges such as antimicrobial resistance. Still, ABC inference is not without its limitations either. Often considerable effort in defining distance functions, summary statistics and threshold for similarity is required to make the comparison mechanism successful. High computational costs can also be a hindrance in ABC inference; As increasingly complex phenomena and thus models are studied, the computations that are needed for sufficient exploration of parameter space with the simulation-comparison cycles can get too time- and resource-consuming. Thus efforts have been made to improve the efficiency of ABC inference. One improvement here has been the Bayesian Optimization for Likelihood-Free Inference algorithm (BOLFI), which provides efficient method to optimize the exploration of parameter space, reducing the amount of needed simulation-comparison cycles by up to several magnitudes. This thesis aims to describe some of the theoretical and applied aspects of the complete likelihood-free inference pipelines using both Rejection ABC and BOLFI methods. The thesis presents also use case where the neutral evolution recombination rate in Streptococcus pneumoniae population is inferred from well-studied real world genome data set. This inference task is used to provide context and concrete examples for the theoretical aspects, and demonstrations for numerous applied aspects. The implementations, experiments and acquired results are also discussed in some detail.
-
(2020)Tutkielma kartoittaa bayesiläisen lähestymistavan soveltamista joukkoliikenteen lipunmyynnin dynaamiseen hinnoitteluun. Dynaamisessa hinnoittelussa muutetaan tuotteen hintaa taajaan pyrkimyksenä hiljaisempina aikoina houkutella lisää asiakkaita alemmilla hinnoilla ja hyödyntää suuremman kysynnän jaksot nostamalla hintoja. Tutkittavassa tilanteessa pyritään maksimoimaan pitkän matkan linja-autovuoron lipunmyynnistä syntyvä liikevaihto. Oletetaan lippujen myynnin odotusarvon määräytyvän jonkin kysyntäfunktion perusteella, ja että kysyntä riippuu myyntihinnasta sekä muista muuttujista. Hinnoittelija valitsee kullekin myyntijaksolle hinnan, joka tuottaa jonkin myyntitulon, ja tavoite on siis tietylle linja-autolähdölle maksimoida sen lipunmyynnin kokonaisliikevaihdon odotusarvo yli myyntijaksojen etsimällä parhaat hinnat. Hinnoittelussa esitetään noudatettavaksi seuraavaa lähestymistapaa. Oletetaan kysynnän noudattavan log-lineaarista mallia. Käytetään sen parametreille priorijakaumaa, jonka hyperparametreille lasketaan suurimman uskottavuuden estimaatit aiemmin kerätyn datan perusteella. Kussakin yksittäisessä hinnoittelujaksossa kysyntäfunktion parametreille muodostetaan myyntikauden edellisten hinnoittelujaksojen toteutuneiden myyntien perusteella uskottavuus. Sitten parametrien uskottavuuden ja priorijakauman perusteella muodostetaan parametrien posteriorijakauma, jota arvioidaan Markovin ketju -- Monte Carlo -menetelmin. Viimein posteriorijakauman antamaa tietoa kysynnästä käytetään myyntijakson hinnan optimoimiseen varmuutta vastaavan hinnoittelustrategian mukaisesti, eli olettaen parametriestimaatit virheettömiksi.
-
(2018)Tutkielma perehdyttää lukijan Steinin menetelmään normaaliapproksimaatiolle sekä esittää tämän avulla todistuksen Berry-Esseen-lauseelle. Steinin menetelmä on todennäköisyysteorian piiriin kuuluva nykyaikainen ja tehokas tapa tuottaa ylärajoja kahden eri todennäköisyysjakauman väliselle etäisyydelle. Tutkielmassa esitetään todennäköisyysjakaumien etäisyydelle kolme eniten käytettyä mittaa, jotka ovat Total variation, Kolmogorov sekä Wasserstein-mitat. Tämän jälkeen käydään läpi Steinin menetelmä aloittaen Steinin lemmasta, joka karakterisoi normaalijakauman Steinin operaattorin avulla siten, että operaattorin arvon ollessa nolla, on tarkasteltava jakauma normaali. Seuraavaksi esitetään Steinin yhtälöt, joiden ratkaisujen avulla saadaan Steinin rajoitukset jokaiselle käytetylle kolmelle mitalle. Näiden rajoitusten avulla voidaan päätellä asymptoottinen normaalijakautuneisuus myös silloin, kun Steinin operaattorin arvo on lähellä nollaa. Berry-Esseen-lause on keskeinen raja-arvolause, johon on erityisesti lisätty suppenemisnopeus Kolmogorov-etäisyyden suhteen. Tämä suppenemisnopeus todistetaan tutkielmassa käyttäen hyväksi Steinin menetelmää. Lopuksi käsitellään vielä ylimalkaisesti Steinin menetelmää moniulotteisen jakauman tapauksessa. Huomataan sen olevan hyvin paljon samankaltaista kuin yksiulotteisessa tapauksessa.
-
(2015)Tutkielmassani käsitellään Burgersin yhtälön nimellä tunnettua kvasilineaarista osittaisdifferentiaaliyhtälöä, sekä paneudutaan osittaisdifferentiaaliyhtälöiden teoriaan yleisemmin. Fyysikko Johannes Martinus Burgersin mukaan nimetyllä yhtälöllä voidaan kuvata häiriöiden etenemistä fluideissa, ja sitä voidaan soveltaa myös vaikkapa liikenneruuhkien kehittymisen analysointiin. Burgersin yhtälö on esimerkki yleisemmästä säilymislaista. Matemaattisessa fysiikassa säilymislakien mukaan eristetyssä systeemissä vuorovaikutustapahtumissa tiettyjen suureiden kokonaismäärät pysyvät muuttumattomina. Tunnetuin esimerkki säilymislakeihin liittyen on Noetherin lause, jonka mukaan suurella on vastaavuus tietyn systeemin symmetriaominaisuuden kanssa. Esimerkiksi nestedynamiikan Navier-Stokesin yhtälö on esimerkki epähomogeenisesta versiosta säilymislakia. Tutkimukseni alussa esitellään Hamilton-Jakobin yhtälö, sekä sivutaan variaatiolaskentaa, Legendren muunnosta ja Euler-Lagrangen yhtälöitä. Näytetään, miten annettu osittaisdifferentiaaliyhtälö voidaan samaistaa karakteristiseen yhtälöryhmään, joka koostuu tavallisista differentiaaliyhtälöistä. Karakteristinen yhtälöryhmä johdetaan kvasilineaarisen osittaisdifferentiaaliyhtälön tapauksessa ja sille annetaan geometrinen tulkinta. Ensimmäisen luvun lopussa Hamilton-Jacobin yhtälö ratkaistaan Hopf-Lax kaavan avulla. Toisessa ja kolmannessa luvussa esitellään Burgersin yhtälö ja ratkaistaan se karakteristisen yhtälöryhmän avulla. Saatu ratkaisu ei kuitenkaan päde kaikkialla, vaan tapauksissa, joissa karakteristiset käyrät kohtaavat ('shokkikäyrä'), Burgersin yhtälön ratkaisu vaatii ratkaisufunktion ehtojen heikentämistä ja ingraaliratkaisun määrittelemistä. Rankine-Hugoniot-ehto johdetaan ja sen avulla voidaan löytää ratkaisuja tilanteessa, jossa karakteristiset käyrät leikkaavat. Esittelen myös entropia-ehdon, jonka avulla karsitaan 'epäfysikaaliset' ratkaisut pois ja täten saadaan yksikäsitteinen ja yleinen ratkaisu Burgersin yhtälölle. Lopuksi todistan Lax-Oleinikin kaavan, joka antaa ratkaisun yleisemmälle ongelmalle. Lopuksi tälle ratkaisulle räätälöidään entropia-ehto, jotta siitä saadaan yksikäsitteinen.
-
(2019)Tässä työssä esitellään klassinen matemaattisen rahoitusteorian aihe, Capital Asset Pricing-malli. Mallista on useita versiota, tässä työssä käsitellään Hilbertin avaruuksiin perustuvaa versiota. Yleisesti, erityisesti taloustieteen puolella, CAP-mallilla tarkoitetaan arvopapereiden hinnoittelumallia. Tässä työssä se kuitenkin määritellään tasapainotilaisten sijoituskohteiden tuottojen ominaisuutena. Hilbertin avaruudet ovat täydellisiä normiavaruuksia, jotka on varustettu sisätulolla. Esitellään Hilbertin avaruudet ja muita funktionaalianalyysin keskeisimpiä käsitteitä, kuten ortogonaalisuus ja Riesz-Frechetin teoreema, jotta CAP-mallin rakentaminen on mahdollista. Lisäksi esitellään arvopaperimarkkinat, sekä niiden toimijat. Tärkeimmät käsitteet ovat arvopapereiden tuotot ja hinnat, sekä toimijoiden kulutus ja utiliteetti. Termiä Capital Asset Pricing-malli käytetään silloin, kun markkinatuotto on odotusarvorintaman tuotto. Tällöin jokaiselle sijoituskohteelle voidaan johtaa arvopaperimarkkinasuoran yhtälö, joka on beta-hinnoittelun erikoistapaus. CAP-mallissa tuottoja mitataan odotusarvon avulla ja riskin mittarina toimii varianssi. Cap-mallin voimassaolo markkinoilla ei ole itsestäänselvyys ja liittyy läheisesti toimijoiden preferensseihin, sekä arvopapereiden voittojen jakaumaan. Lopuksi esitellään faktorimalli, joka on hyvin samankaltainen CAP-mallin kanssa.
-
(2016)Forecasting of solar power energy production would benefit from accurate sky condition predictions since the presence of clouds is a primary variable effecting the amount of radiation reaching the ground. Unfortunately the spatial and temporal resolution of often used satellite images and numerical weather prediction models can be too small for local, intra-hour estimations. Instead, digital sky images taken from the ground are used as data in this thesis. The two main building blocks needed to make sky condition forecasts are reliable cloud segmentation and cloud movement detection. The cloud segmentation problem is solved using neural networks, a double exposure imaging scheme, automatic sun locationing and a novel method to study the circumsolar region directly without the use of a sun occluder. Two different methods are studied for motion detection. Namely, a block matching method using cross-correlation as the similarity measure and the Lukas-Kanade method. The results chapter shows how neural networks overcome many of the situations labelled as difficult for other methods in the literature. Also, results by the two motion detection methods are presented and analysed. The use of neural networks and the Lukas-Kanade method show much promise for forming the cornerstone of local, intra-hour sky condition now-casting and prediction.
-
(2017)Copuloista on tullut yleinen työkalu finanssimaailman käyttötarkoituksiin. Tämän työn tavoitteena on esitellä copuloiden teoriaa ja sen soveltamista rahoitusriskien mallintamiseen. Copulat määritellään ja niihin liittyvää keskeistä teoriaa käydään läpi. Tärkeimpiä korrelaatiokonsepteja esitellään, muun muassa tunnusluvut Kendallin tau ja Spearmanin rho. Lisäksi copulaperheet, joihin eniten käytetyt copulat kuuluvat, määritellään. Copuloiden parametreja voi estimoida eri metodien avulla. Kolme tärkeintä loguskottavuusfunktioon perustuvaa metodia käydään läpi, samoin kuin Monte Carlo -menetelmä, jolla voidaan simuloida muuttujia copuloista. Esitellään häntäriippuvuus, joka on hyödyllinen käsite äärimmäisiä ilmiöitä mallinnettaessa. Value at Risk eli VaR on yksi tärkeimmistä sijoitusriskien riskimitoista. Uudelleenjärjestelyalgoritmiin perustuvan menetelmän avulla voidaan laskea huonoimmat ja parhaat VaR:n arvot. Menetelmän toimintaa havainnollistetaan järjestelemällä eräs matriisi algoritmin avulla niin, että nähdään huonoimman VaR:n yläraja. Menetelmää sovelletaan vielä kolmen eri osakkeen, Nokian, Samsungin ja Danske Bankin, useamman vuoden päivittäisistä tappioista koostetun matriisin uudelleenjärjestelyyn. Näin saatu huonoimman VaR:n yläraja on suurempi kuin historiallisen VaR:n arvo, joka laskettiin toisella menetelmällä. Tutkielman teorian käytännön soveltamista jatketaan vielä laskemalla osakkeiden tappioiden välisiä korrelaatioita. Nokian ja Deutsche Bankin tappioiden välisen korrelaatiokertoimen huomataan olevan arvoltaan suurin, ja todettaan, että niiden välistä riippuvuusrakennetta voidaan kuvata parhaiten t-copulalla.
-
(2014)Clustering is one of the core problems of unsupervised machine learning. In a clustering problem we are given a set of data points and asked to partition them into smaller subgroups, known as clusters, such that each point is assigned to exactly one cluster. The quality of the obtained partitioning (clustering) is then evaluated according to some objective measure dependent on the specific clustering paradigm. A traditional approach within the machine learning community to solving clustering problems has been focused on approximative, local search algorithms that in general can not provide optimality guarantees of the clusterings produced. However, recent advances in the field of constraint optimization has allowed for an alternative view on clustering, and many other data analysis problems. The alternative view is based on stating the problem at hand in some declarative language and then using generic solvers for that language in order to solve the problem optimally. This thesis contributes to this approach to clustering by providing a first study on the applicability of state-of-the-art Boolean optimization procedures to cost-optimal correlation clustering under constraints in a general similarity-based setting. The correlation clustering paradigm is geared towards classifying data based on qualitative--- as opposed to quantitative similarity information of pairs of data points. Furthermore, correlation clustering does not require the number of clusters as input. This makes it especially well suited to problem domains in which the true number of clusters is unknown. In this thesis we formulate correlation clustering within the language of propositional logic. As is often done within computational logic, we focus only on formulas in conjunctive normal form (CNF), a limitation which can be done without loss of generality. When encoded as a CNF-formula the correlation clustering problem becomes an instance of partial Maximum Satisfiability (MaxSAT), the optimization version of the Boolean satisfiability (SAT) problem. We present three different encodings of correlation clustering into CNF-formulas and provide proofs of the correctness of each encoding. We also experimentally evaluate them by applying a state-of-the-art MaxSAT solver for solving the resulting MaxSAT instances. The experiments demonstrate both the scalability of our method and the quality of the clusterings obtained. As a more theoretical result we prove that the assumption of the input graph being undirected can be done without loss of generality, this justifies our encodings being applicable to all variants of correlation clustering known to us. This thesis also addresses another clustering paradigm, namely constrained correlation clustering. In constrained correlation clustering additional constraints are used in order to restrict the acceptable solutions to the correlation clustering problem, for example according to some domain specific knowledge provided by an expert. We demonstrate how our MaxSAT-based approach to correlation clustering naturally extends to constrained correlation clustering. Furthermore we show experimentally that added user knowledge allows clustering larger datasets, decreases the running time of our approach, and steers the obtained clusterings fast towards a predefined ground-truth clustering.
Now showing items 1-20 of 143