Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by discipline "Applied Mathematics"

Sort by: Order: Results:

  • Ganzhinov, Mikhail (2013)
    Tutkielmassa tarkastellaan kompakteilla ja reunattomilla monistoilla määriteltyjä elliptisiä osittaisdifferentiaalioperaattoreita käyttäen hyväksi pseudodifferentiaalioperaattoreiden teoriaa. Tutkielman ensimmäisissä luvuissa määritellään tarvittavat pseudodifferentiaalioperaattoriluokat sekä esitetään joitakin osia näiden operaattoriluokkien teoriasta. Kahdessa viimeisessä luvussa määritellään elliptisten osittaisdifferentiaalioperaattoreiden kompleksiarvoiset potenssit ja tutkitaan näiden ominaisuuksia ensimmaisissä luvuissa esitetyn teorian valossa. Tärkeimpiä tavoitteita ovat operaattoriluokkien ja itseadjungoidussa tapauksessa myös spektraaliasymptotiikan selvittäminen.
  • Hawryluk, Iwona Ewa (2017)
    The aim of this project is to investigate the hydra effect occurring in a population infected by a disease. First, I will explain what exactly the hydra effect is. Intuitively, higher mortality rate applied to a population will decrease the size of that population, but this is not always the case. Under some circumstances the population size might increase with higher mortality, causing the phenomenon called by Abrams and Matsuda (2005) the 'hydra effect', after the mythological beast, who grew two heads in place of one removed. Abrams (2009) lists in a few mechanisms underlying the hydra effect from which the one I will focus onis a temporal separation of mortality and density dependence. Most work on the hydra effect involved explicit increase of a death rate, for example by harvesting. The idea of this thesis is to investigate the existence of the hydra effect due to mortality increased not explicitly, but through a lethal disease. Such an approach has not been shown in any published work so far. Instead of harvesting, we will have a virulence, the disease-induced mortality. In this project, I fi rst briefly explain some theory underlying my model. In chapter 2 I look at disease-free population and bifurcation analysis when varying the birth rate. In chapter 3 I propose the model and continue with population dynamics analysis. I look at bifurcations of equilibria when varying birth rate, virulence and transmission rate. Then in section 3.4 I investigate whether it is possible to observe the hydra effect if there exists a trade-off between virulence and transmission rate, and derive a condition for transcritical and fold bifurcation to occur. In chapter 4 I focus on evolution of traits. First I study evolution of the pathogen, assuming the same trade-off as earlier. Finally I look at evolution of host's traits, immunity and birth rate, using Adaptive Dynamics framework (Geritz et al. 1998). I compare two possible trade-off functions and show that with a concave trade-off, the host will evolve to getting rid of the disease despite increasing its immunity.
  • Klapuri, Jussa (2013)
    The research question in this thesis concerns how well can epileptic seizures be detected using a single triaxial accelerometer attached to the wrist. This work was done in collaboration with Vivago Oy, who provided the watch that is capable of recording accelerometer data, and HUS, the Hospital District of Helsinki and Uusimaa. HUS provided the real world epilepsy datasets consisting of several days worth of data recorded by several epilepsy patients. The research problem was divided into three subproblems: feature extraction, sensor fusion, and activity classification. For feature extraction, the original accelerometer signal is divided into 5s long windows and discrete cosine transform (DCT) is applied to each axis so that periodic components are detected, also removing the effect of gravity vector and compressing the signal. Next, the DCT features of each axis are combined and principal component analysis (PCA) is applied, further compressing the signal. At this step the PCA theorem is also proven. After DCT and PCA steps, the need to consider for different orientations of the accelerometer is effectively eliminated. The last step is the classification of the signal into a seizure or non-seizure by using a support vector machine (SVM) classifier on the features produced by PCA. The combined model is referred to as the DPS model (DCT-PCA-SVM). The experiments were run on two kinds of datasets: artificial datasets recorded by three test subjects and the epilepsy datasets. The principal reason for recording artificial datasets was that the labeling of the seizures in the epilepsy dataset was practically impossible to match to the accelerometer data, rendering the supervised training phase for any model impossible. The artificial datasets were created so that one test subject produced the training set, recording data of ordinary daily activities and labeling these activities as non seizures, and then imitating a seizure and labeling this as a seizure. The second test subject recorded the daily activities, including potential false positives such as brushing teeth and washing hands, and imitating a seizure several times during this period. This validation set was then used for fine-tuning the DPS model parameters so that all of the seizures were detected along with as few false positives as possible. Third test subject recorded the test set, including 13 imitated seizures, to test the DPS model's ability to generalize on new and previously unseen data. The conclusion is that for the artificial test set, 12 out of 13, or 92%, of seizures were detected along with a reasonably low number of false positives. For the epilepsy dataset the results are inconclusive, due to not being able to utilize any part of it as a training set, but there are reasonable indications that at least some real seizures were detected. In order to verify the results, the DPS model would need to be trained on a larger and better labeled real world epilepsy dataset.
  • Vitale, Caterina (2016)
    This thesis starts from the Matsuda and Abrams paper 'Timid Consumers: Self-Extinction Due to Adaptive Change in Foraging and Anti-predator Effort.' Matsuda and Abrams show an example of evolutionary suicide due to the evolution of prey timidity in a predator-prey model with a Holling type II functional response. The key assumption they use to obtain evolutionary suicide is that the predator population size is kept constant. In this thesis, we relax this assumption by introducing a second type of prey to the model and investigate whether evolutionary suicide may still occur according to the evolution of timidity in the first prey species. To study this in the long-term, we use the theory of adaptive dynamics. Firstly, we analyse the limit case where the predator dynamics depend only upon the second prey species. Predators still hunt the evolving prey either as a snack or for entertainment without gaining any energy. Under this hypothesis, our model reproduces Matsuda and Abrams' results both qualitatively and quantitatively. Moreover, the introduction of the second type of prey allows for the appearance of limit cycles as dynamical attractors. We detect a fold bifurcation in the stability of the limit cycles when the first type of prey timidity increases. Thus, we are able to construct an example of evolutionary suicide on a fold bifurcation of limit cycles. Furthermore, we perform critical function analysis on the birth rate of the evolving prey as a function of prey timidity. We derive general conditions for the birth rate function that assure the occurrence of evolutionary suicide. Secondly, we analyse the full model without making any simplifying assumptions. Because of the analytical complexity of the system we use numerical bifurcation analysis to study bifurcations of the internal equilibria. More specifically, we utilize the package MatCont to carry out equilibria continuation. In this way, we are able to estimate the range of parameters where the results of Matsuda and Abrams' model hold. Starting from the parameter set that reproduce Matsuda and Abrams' results quantitatively we track the fold bifurcation and show that evolutionary suicide occurs for a considerably wide range of parameters. Moreover, we find that in the full model evolutionary suicide may also occur through a subcritical Hopf bifurcation.
  • Karisto, Petteri (2016)
    Dispersal is a significant characteristic of life history of many species. Dispersal polymorphisms in nature propose that dispersal can have significant effect on species diversity. Evolution of dispersal is one probable reason to speciation. I consider an environment of well-connected and separate living sites and study how connectivity difference between different sites can affect the evolution of a two-dimensional dispersal strategy. Two-dimensionality means that the strategy consists of two separate traits. Adaptive dynamics is a mathematical framework for analysis of evolution. It assumes small phenotypic mutations and considers invasion possibility of a rare mutant. Generally invasion of a sufficiently similar mutant leads to substitution of the former resident. Consecutive invasion-substitution processes can lead to a singular strategy where directional evolution vanishes and evolution may stop or result in evolutionary branching. First I introduce some fundamental elements of adaptive dynamics. Then I construct a mathematical model for studying evolution. The model is created from the basis of the Hamilton-May model (1977). Last I analyse the model using tools I introduced previously. The analysis predicts evolution to a unique singular strategy in a monomorphic resident population. This singularity can be evolutionarily stable or branching depending on survival probabilities during different phases of dispersal. After branching the resident population becomes dimorphic. There seems to be always an evolutionarily stable dimorphic singularity. At the singularity one resident specializes fully to the well-connected sites while the other resides both types of sites. Connectivity difference of sites can lead to evolutionary branching in a monomorphic population and maintain a stable dimorphic population.
  • Sirén, Janne Sakari (2017)
    In this thesis we formulate and analyze a structured population model, with infectious disease dynamics, based on a similar life-cycle as with individuals of the Hamilton-May model. Each individual is characterized by a strategy vector (state dependent dispersal), and depending on the infectious status of the individual, it will use a strategy accordingly. We begin by assuming that every individual in the population has the same strategy, and as the population equilibriates we consider a mutant, with it's own strategy, entering the population, trying to invade. We apply the theory of Adaptive dynamics to model the invasion fitness of the mutant, and to analyze the evolution of dispersal. We show that evolutionary branching is possible, and when such an event happens, the evolutionary trajectories, described by the Canonical equation of Adaptive dynamics, of two strategies evolve into the extinction of one branch. The surviving branch then evolves to the extinction of the disease.
  • Rose, Brittany (2017)
    Recent biomathematical literature has suggested that, under the assumption of a trade-off between replication speed and fidelity, a pathogen can evolve to more than one optimal mutation rate. O'Fallon (2011) presents a particularly compelling case grounded in simulation. In this thesis, we treat the subject analytically, approaching it through the lens of adaptive dynamics. We formulate a within-host model of the pathogen load starting from assumptions at the genomic level, explicitly accounting for the fact that most mutations are deleterious and stunt growth. We single out the pathogen's mutation probability as the evolving trait that distinguishes strains from one another. Our between-host dynamics take the form of an SI model, first without superinfection and later with two types of non-smooth superinfection function. The pathogen's virulence and transmission rate are functions of the within-host equilibrium pathogen densities. In the case of our mechanistically defined superinfection function, we uncover evolutionary branching in conjunction with two transmission functions, one a caricatural (expansion) example, the other a more biologically realistic (logistic) one. Because of the non-smoothness of the mechanistic superinfection function, our branching points are actually one-sided ESSs à la Boldin and Diekmann (2014). When branching occurs, two strains with different mutation probabilities both ultimately persist on the evolutionary timescale.
  • Rimpeläinen, Juho (2018)
    X-ray computed tomography is an imaging method where the inner structure of an object is reconstructed from X-ray images taken from multiple directions around the object. When measurements from only a few measurement directions are available, the problem becomes severely ill-posed and requires regularization. This involves choosing a regularizer with desirable properties, as well as a value for the regularization parameter. In this thesis, sparsity promoting regularization with respect to the Haar wavelet basis is considered. The resulting minimization problem is solved using the iterative soft thresholding algorithm (ISTA). For the selection of the regularization parameter, it is assumed that an a priori known level of sparsity is available. The regularization parameter is then varied on each iteration of the algorithm so that the resulting reconstruction has the desired level of sparsity. This is achieved using variants of proportional-integral-derivative (PID) controllers. PID controllers require tuning to guarantee that the desired sparsity level is achieved. We study how different tunings affect the reconstruction process, and experiment with two adaptive variants of PID controllers: an adaptive integral controller, and a neural network based PID controller. The two adaptive methods are compared to each other, and additionally the adaptive integral controlled ISTA is compared to two classical reconstruction methods: filtered back projection and Tikhonov regularization. Computations are performed using both real and simulated X-ray data, with varying amounts of available measurement directions. The integral control is shown to be crucial for the regularization parameter selection while the proportional and derivative terms can be of use if additional control is required. Of the two adaptive variants, the adaptive integral control performs better with respect to all measured figures of merit. The adaptive integral controlled ISTA also outperforms the classical reconstruction methods both in terms of relative error and visual inspection when only a few measurement directions are available. The results indicate that variants of the PID controllers are effective for sparsity based regularization parameter selection. Adaptive variants are very end user friendly, avoiding the manual tuning of parameters. This makes it easier to use sparsity promoting regularization in real life applications. The PID control allows the regularization parameter to be selected during the iteration, thus making the overall reconstruction process relatively fast.
  • Lehtonen, Sini (2015)
    Tämän tutkielman tarkoituksena on esitellä focus stacking -algoritmien toimintaa. Focus stacking on digitaalinen kuvankäsittelymenetelmä, jossa yhdistetään useita eri kuvia, joissa jokaisessa eri osa kohteesta on tarkka. Kuvista erotetaan tarkat kohdat ja kootaan ne uudeksi kuvaksi. Näin saadaan muodostettua kuva, jossa koko kuvauksen kohde on mahdollisimman tarkka. Tässä tutkielmassa perehdytään kahteen eri tapaan tunnistaa kuvien tarkat kohdat, gradientin ja Fourier-muunnoksen avulla tapahtuvaan tunnistamiseen. Tutkielman alussa, luvussa kaksi, esitellään focus stacking -algoritmien toteuttamiseen tarvittavaa teoriaa. Luvun alussa selostetaan digitaaliseen kuvaan ja valokuvaukseen liittyvää termistöä. Tämän jälkeen esitellään gradientin teoriaa ja kerrotaan, miten gradientti voidaan laskea kuvalle erilaisten konvoluutioytimien avulla. Seuraavaksi selostetaan teoriaa Fourier-muunnoksesta, erityisesti diskreetissä tapauksessa. Lisäksi tarkastellaan nopeaa Fourier-muunnosta. Luvun lopuksi tarkastellaan vielä ali- ja ylipäästösuodatusta. Kolmannessa luvussa esitellään työssä käytettävä aineisto eli itse otetut kuvat, joiden kohteena on kolme laskettelevaa pupua. Jokaisessa kuvassa eri pupu on tarkka. Tavoitteena on saada muodostettua algoritmeja käyttäen kuva, jossa kaikki kolme pupua olisivat mahdollisimman tarkkoja. Luvussa neljä esitellään menetelmät, joista gradienttimenetelmässä vertaillaan tarkkoja ja epätarkkoja alueita gradienttien magnitudeista laskettujen normien avulla ja Fourier-muunnosmenetelmässä Fourier-muunnosten normien avulla. Luvussa viisi esitellään molemmilla menetelmillä eri parametrien arvoilla saatuja tuloksia. Käytettävissä algoritmeissa on kolme muutettavaa parametria, kerrallaan tarkasteltavan alueen koko, kynnys ja Fourier-muunnosmenetelmässä vielä ylipäästösuodatuksen rajataajuus. Kuvia vertaillaan siis aina tarkasteltavan alueen kokoinen pala kerrallaan. Kynnys tarkoittaa lukua, jonka alle jääviä normeja vastaavat alueet valitaan esimerkiksi ensimmäisestä kuvasta. Nämä alueet ovat siis kaikissa kuvissa epätarkkoja. Kynnyksen avulla varmistetaan, että epätarkasta alueesta saadaan tasainen. Johtopäätöksissä, luvussa kuusi, tarkastellaan saatuja tuloksia, jotka ovat yllättävän hyviä. Parhaan gradienttimenetelmällä ja parhaan Fourier-muunnosmenetelmällä saadun kuvan välillä ei ole suurta eroa. Kummassakin kuvassa on joitakin virheitä eli epätarkkoja pikseleitä. Gradienttimenetelmässä tarkkojen alueiden reunat tulevat helpommin tasaisemman näköisiksi kuin Fourier-muunnosmenetelmässä, mutta kuviin jää usein kokonaisia epätarkkoja alueita. Fourier-muunnosmenetelmässä reunoihin jää usein pieniä epäsäännöllisen muotoisia epätarkkoja alueita. Parametrien arvoista erityisesti tarkasteltavan alueen koolla ja ylipäästösuodatuksen rajataajuudella on suuri merkitys tuloksiin.
  • Aro, Antti (2017)
    Mendesin et. al. esittää julkaisussa No-arbitrage, leverage and completeness in a fractional volatility model (2015) markkinamallin, jossa osakkeen hinnan volatiliteettiprosessi on rakennettu fraktionaalisesta Brownin liikkeestä. Mendes et. al. todistaa tällaisen markkinamallin olevan arbiraasivapaa. Markkinamallin täydellisyys puolestaan riippuu siitä, onko log-hinnan ja volatiliteettiprosessin satunnaisuus luotu samasta vai kahdesta riippumattomasta prosessista. Tässä työssä käydään läpi nuo todistukset, ja niiden vaatima matematiikka: stokastinen integraali, Itôn kaava ja rahoitusteorian kaksi ensimmäistä päälausetta. Käsittelemme lisäksi Girsanovin lauseen sekä lukuisia ehtoja, joiden pätiessä lokaalista martingaalista muodostettu stokastinen eksponentiaali on martingaali.
  • Talvitie, Topi (2015)
    Finding shortest paths in planar domains bounded by polygons is a well-studied problem in computational geometry. However, in many applications, only finding the shortest path is not sufficient: we need to be able to generate a list of short paths among which we can choose the route. Simple detours to the shortest path are rarely better than the direct path, and therefore we should return paths that are essentially different. To ensure that, we limit our consideration to locally shortest paths, defined as the paths that cannot be made shorter by infinitesimal perturbations, or more intuitively, the paths that are 'pulled taut' around the obstacles of the domain. We use the first half of the thesis to present the definitions and the basic theory of locally shortest paths. We prove that they are always polygonal chains of certain type, and use this to describe a simple visibility graph based algorithm for finding the kth shortest path, i.e. the kth element in the list of locally shortest paths between given points ordered by length. We prove that there is a unique way to change a locally shortest path continuously by moving its endpoints while keeping the path locally shortest. This result is used to show that the set of locally shortest paths with one fixed endpoint forms a covering space of the planar domain. We use this to to prove a connection between homotopy theory and locally shortest paths: each homotopy class contains exactly one locally shortest path, and that path is the shortest path in its homotopy class. The covering space structure formed by locally shortest paths also gives rise to the idea of tracking the lengths of the locally shortest paths between a fixed point s and a point x, and drawing a map of the points x in which the order of lengths of the paths changes or the type of one of the locally shortest paths changes. The resulting map is the kth shortest path map, a subdivision of the domain into components such that the kth shortest path from s to any point within a single component is essentially the same. We analyze the structure and complexity of this map, concluding that we can use it for efficient queries of kth shortest paths from s to any point x.
  • Salminen, Samu (2016)
    Tämä Pro Gradu -tutkielma käsittelee työntekijän eläkelain (TyEL) nykyisin käytössä olevan Gompertz-kuolevuusmallin sopivuutta kuvaamaan TyEL:n selektiä kuolevuutta vanhuuseläkeliikkeessä. Tutkielman tarkoitus on nostaa esiin nykymallin ongelmakohdat ja esitellä Gompertz-kuolevuusmallin laajennus, joka ainakin osin korjaisi nykymallin puutteita pysymällä kuitenkin järjestelmätekniseltä kannalta tarpeeksi yksinkertaisena. Keskeisiksi teemoiksi tutkielmassa nousee elämänvaravakuutuksen yleisen teorian sekä työntekijän eläkelain vanhuuseläkeliikkeen vakuutustekniikan lisäksi toteutuvan kuolevuuden ennustaminen Lee-Miller-mallin sovelluksella ja laajennetun Gompertz-kuolevuusmallin parametrien estimointi havaintoaineistosta. Havaintoaineistona tutkielmassa käytetään sekä Tilastokeskuksen väestökuolevuuksia että TyEL:n riskiperusteanalyysien mukaisia toteutuneita rahapainotettuja kuolevuuksia. Ennustemalli on laadittu käyttäen R- ja Excel-ohjelmistoja (ml. VBA). Kuolevuusmallin laajennusta on kehitetty työeläkejärjestelmässä vuodesta 2014 laskuperusteasiain neuvottelukunnan alaisessa kuolevuusperustejaoksessa, jonka sihteerinä tutkielman kirjoittaja on toiminut vuosina 2014 ja 2015. Puheenjohtajayhtiönä kyseisinä vuosina on toiminut Keskinäinen Työeläkevakuutusyhtiö Elo ja puheenjohtajana tämän tutkielman toinen tarkastaja Tuomas Hakkarainen. Kuolevuusperustejaoksessa on edustus jokaisen työeläkeyhtiön lisäksi eläkekassoilla ja eläkesäätiöillä, Sosiaali- ja terveysministeriöllä, Eläketurvakeskuksella sekä Kevalla (julkisen puolen eläkkeet). Kuolevuusmallin valinnalla ja osuvuudella on merkitystä vanhuuseläkeliikkeessä, sillä se määrää pääoma-arvokertoimet, joilla varaudutaan vastaisten ja alkaneiden vanhuuseläkkeiden suorituksiin tulevaisuudessa. Tutkielmassa esitelty uusi kuolevuusmalli otetaan käyttöön vuoden 2017 eläkeuudistuksen yhteydessä, eli ensimmäisen kerran vanhuuseläkeliikkeen vanhuuseläkevastuut lasketaan sen mukaisina vuoden 2016 lopussa. Vanhuuseläkemaksu määräytyy uuden mallin mukaisesti vuodesta 2017 alkaen.
  • Hietaniemi, Manu (2014)
    Terästeollisuudessa teräsnauhojen valmistuksessa esiintyvät ongelmat tuotannossa aiheuttavat suuria taloudellisia tappioita, joten näiden ongelmien ennustaminen ennen niiden esiintymistä olisi taloudellisesti hyvin merkittävää. Olemassa olevien fysikaalisten mallien avulla ennustaminen ei ole ollut mahdollista, joten tutkimuksessa on hyödynnetty ennustavia matemaattisia luokittimia, joiden avulla näitä ongelmallisia tilanteita ollaan pyritty ennustamaan. Tutkielma käsittelee matemaattista teoriaa ja menetelmiä, joita on hyödynnetty aiemmin julkaistussa tutkimuksessa 'Defect prediction in hot strip rolling using ANN and SVM'. Keskeisinä menetelminä tutkimuksessa on käytetty erilaisia datan esikäsittelymenetelmiä, kuten klassisia tilastollista analyysiä, piirteiden valintamenetelmiä, esimerkikisi itsestäänjärjestäytyviä karttoja, sekä ennustukseen neuroverkkoa ja tukivektorikonetta. Tutkimuksen aineisto on peräisin teräsnauhojen lämpövalssausprosessista Ruukin terästehtaalta Raahesta. Alkuperäinen tutkimus toteutettiin Oulun Yliopiston tietokonetekniikan laboratoriossa yhteistyössä tutkimusryhmän ja Ruukin asiantuntijoiden kanssa. Tutkimuksen pohjalta ollaan pystytty osoittamaan, että tukivektorikoneen ja neuroverkon ennustetarkkuus on hyvin lähellä toisiaan kyseiselle aineistolle.
  • Nivukoski, Tapio Jere Matias (2013)
    Hintakuplat ja talousmarkkinoiden epätasapainot ovat pitkään kiinnostaneet ekonomisteja ja matemaatikoita. Tämän työn tavoitteena on esittää matemaattisia malleja, jotka auttavat mallintamaan näitä epäsäännöllisyyksiä. Työn pohjana on laaja ymmärrys martingaaliteoriasta ja rahoitusteoriasta. Aluksi esittelen keskeisimmät määritelmät ja tulokset martingaaliteoriasta alkaen martingaalin määritelmästä. Lisäksi esittelen Brownin liikkeen ja käytän sitä esimerkeissäni havainnollistaakseni joitain tuloksia. Kolmannessa kappaleessa esittelen matemaattista rahoitusteoriaa ja sen yleisimpiä käsitteitä. Rakennan pala palalta työssä käsiteltävän markkinamallin. Mallin tärkeimpinä osina on No Free Lunch with Vanishing Risk ja ei-dominoivia strategioita -oletukset. Näiden ominaisuuksien pohjalta esitän neljännessä kappaleessa määritelmän arvopaperin fundamentaaliselle hinnalle ja sen jälkeen pystyn määrittelemään hintakuplan käsitteen. Kun hintakupla on määritelty, esittelen sen ominaisuuksia ja siihen liittyviä tuloksia. Viimeisessä kappaleessa tarkastelen hintakuplia erilaisissa optioissa ja muissa johdannaisissa. Päälähteinä tutkielmassa on käytetty teoksia: Dario Gasbarra, Introduction to Stochastic Analysis; Tommi Sottinen, Rahoitustoiminnan matematiikka ja Robert A. Jarrow, Philip Protter, Kazuhiro Shimbo: Asset price bubbles in incomplete markets.
  • Kujala, Tuomas (2012)
    Tutkielmassa tutustutaan Markov-prosesseihin sekä niiden soveltamiseen vakuutusten hinnoittelussa. Sovellusvaiheessa tutkitaan erityisesti kolmitilaista työkyvyttömyysmallia sekä työkyvyttömyysvakuutuksen nettokertamaksua. Tutkielman aluksi on tarpeellista määritellä Markov-prosessi sekä siihen liittyvät siirtymäintensiteetit. Näiden avulla voimme tutkia tarkemmin Markov-prosessin ominaisuuksia sekä esitellä ja määritellä sovellusten kannalta tärkeitä ominaisuuksia kuten Kolmogorovin differentiaaliyhtälöt sekä polkutodennäköisyydet. Teoriaosuuden tavoitteena on konstruoida diskreettiaikaisen Markovketjun ja hyppyhetkien avulla stokastinen prosessi, joka osoitetaan lopulta olevan jatkuva-aikainen Markov-prosessi. Markov-prosesseille löytyy useita käyttömahdollisuuksia, mutta tässä tutkielmassa keskitytään vakuutusalaan ja sovelletaan niitä vakuutusten hinnoittelussa. Markov-prosessien soveltamisessa on kuitenkin oltava aina hyvin kriittinen, sillä Markov-prosesseille ainoastaan nykytila on relevantti ennustettaessa tulevaisuuden tilaa. Historian 'unohtaminen' vaikuttaa väistämättä saatuihin tuloksiin. Pohditaan sitä kuinka realistisia ennusteita saadaan ja kuinka niitä käyttää hyödyksi. Sovellusosiossa tutustutaan työkyvyttömyyseläkevakuutuksen hinnoitteluun nettokertamaksun avulla. Määritetään kolmitilainen markovilainen malli, jonka tiloina ovat 'työkykyinen', 'työkyvytön' ja 'kuollut'. Oletetaan, että vakuutettu on oikeutettu jatkuva-aikaiseen yhden rahayksikön suuruiseen korvaukseen joutuessaan työkyvyttömäksi. Määritellään tämän mallin avulla Kolmogorovin di erentiaaliyhtälöitä hyväksi käyttäen vakuutuksesta aiheutunut nettokertamaksu kahdella tavalla, vakioisten ja ei-vakioisten siirtymäintensiteettien avulla. Tutkitaan nettokertamaksun suuruutta eri pituisille vakuutussopimuksille. Simuloidaan vielä lopuksi nettokertamaksu vakioisten ja ei-vakioisten siirtymäintensiteettien tapauksessa. Tarkastellaan simuloitujen arvojen ja laskettujen tarkkojen arvojen erotuksen suhdetta tarkkoihin arvoihin. Tutkielmassa on tarpeellista esitellä lyhyesti myös simuloimiseen tarvittava teoria sekä simulointialgoritmi, jota on käytetty Markov-prosessien simuloimisessa. Simulointi on toteutettu Matlab-ohjelman avulla. Tutkielman lukemista helpottaa todennäköisyysteorian ja henkivakuutusmatematiikan perusteiden tuntemus. Toisaalta lukemista on yritetty helpottaa muutamilla merkinnöillä sekä havainnollistavilla kuvilla.
  • Selin, Johanna (2013)
    Tutkielmassa käsitellään informaatioteoriaa hevosraveissa ja osakemarkkinoilla. Hevosravien tapauksessa tutkitaan optimaalista vedonlyöntistrategiaa ja yritetään löytää paras tapa kasvattaa uhkapelaajan varallisuutta pitäen riskit mahdollisimman pieninä. Tällöin puhutaan tuplaantumisnopeudesta ja sen maksimoinnista. Tämän yhteydessä todetaan, että optimaalista on hajauttaa panokset samassa suhteessa, kuin mikä on hevosten voittotodennäköisyys. Vedonlyöjä tekee voittoa silloin, kun hänen estimaattinsa hevosten voittotodennäköisyyksille ovat paremmat kuin vedonvälittäjän tekemät estimaatit. Lisäksi tutkitaan, kuinka paljon vedonlyöjän varallisuus kasvaa, jos hänellä on tietoa aiempien kilpailujen tuloksista, eli sivuinformaatiota. Havaitaan, että tuplaantumisnopeuden kasvu on sama kuin ravien ja sivuinformaation yhteisinformaatio. Lopuksi osoitetaan, että entropian ja tuplaantumisnopeuden summa on vakio. Osakemarkkinoiden tapauksessa keskitytään sijoittajan varallisuuden kasvun ja markkinoiden entropian tason väliseen yhteyteen. Kuten ravien tapauksessa, käsitellään tässäkin tuplaantumisnopeutta ja sen maksimointia. Tällöin pyritään löytämään sekä kilpailun että kasvun suhteen optimaalinen osakesalkku. Havaitaan, että maksimoimalla asymptoottista kasvua maksimoituu myös sijoittajan suhteellinen varallisuus. Osakemarkkinoidenkin tapauksessa käsitellään sivuinformaation vaikutusta tuplaantumisnopeuteen, sekä investointistrategioita, jotka ovat riippuvaisia markkinoiden menneistä arvoista. Lopuksi löydetään asymptoottinen tuplaantumisnopeus ergodisille osakemarkkinaprosesseille.
  • Kiviniemi, Annemari (2017)
    Kun käytännön ongelmia kirjoitetaan matematiikan kielelle, törmätään usein integraaliyhtälöihin, eteenkin fysiikan ja tekniikan parissa työskennellessä. Integraaliyhtälössä tuntematon, ratkaistava funktio on integraalin sisällä. Tässä tutkielmassa käsitellään integraaliyhtälöiden teoriaa operaattoriyhtälöiden muodossa. Työskennellessä inversio-ongelmien parissa käytössä oleva informaatio, data voi olla heikkoa tai liian vähäistä, jotta alkuperäisestä, ratkaistavasta ilmiöstä tai asiasta saataisiin riittävän oikeanlainen kuva. Ratkaisu ei välttämättä ole yksikäsitteinen, jolloin ratkaisun löytämiseksi on käytettävä regularisointia. Tässä tutkielmassa johdetaan Tikhonovin regularisointimenetelmä ja esitellään lyhyesti sen käyttöä ilmakehän kaasukoostumuksen määrittämisessä. Tutkielma alussa on kertauksenomaisesti tärkeitä käsitteitä vektori- ja normiavaruuksissa. Sen jälkeen paneudutaan erilaisiin operaattoreihin vektoriavaruuksissa. Viimeisenä asiana operaattoreista esitellään duaalinen systeemi ja todistetaan Fredholmin alternatiivi. Toisessa puoliskossa johdatellaan lukija huonosti määriteltyjen inversio-ongelmien pariin ja johdetaan Tikhonovin regularisointi. Näytetään myös, miten Tikhonovin regularisoinnin avulla voidaan konstruktoida ensimmäinen derivaatta häiriöisistä mittaustuloksista muodostetulle funktiolle. Tutkielman lopussa kerrotaan, miten ilmakehän koostumusta mitataan satelliitissa. Näytetään myös, miten Tikhonovin regularisointia voidaan käyttää kyseisten mittaustulosten analysoinnin yhteydessä.
  • Oksama, Markus (2016)
    Tässä tutkielmassa tarkastellaan intensiteettiprosesseja ja näihin liittyvää estimointiteoriaa. Tarkastelu keskittyy erityisesti moniulotteisiin laskuriprosesseihin ja niiden tulomuotoa λ(t)= α(t)Y(t) oleviin intensiteettiprosesseihin. Tutkielma aloitetaan käymällä läpi todennäköisyyslaskennan perusmääritelmiä ja -tuloksia. Tämän jälkeen määritellään martingaalit ja kompensaattorit. Martingaaleja ja kompensaattoreita käsittelevässä luvussa esitellään joitain estimointiteoriassa hyödynnettäviä tuloksia. Seuraavaksi siirrytään estimointiin. Aluksi tarkastelun kohteena on funktion A(t) = \int_0^t α(s)ds estimointi. Tätä varten määritellään Nelson-Aalen -estimaattori ja osoitetaan estimaattorin asymptoottiseen käyttäytymiseen liittyviä tuloksia. Lopuksi tarkastellaan parametrista riippuvia intensiteettiprosesseja. Estimoinnissa käytetään suurimman uskottavuuden menetelmää. Tämän luvun päätulokset käsittelevät suurimman uskottavuuden estimaattorin tarkentuvuutta ja asymptoottista jakaumaa.
  • Sundius, Tom (1969)
    H. Weyl describes in his book “Gruppentheorie und Quantenmechanik” how the multidimensional representations of the unimodular unitary group in two dimensions can be constructed using polynomials in two complex variables. This “spinor method” was further developed by B. L. van der Waerden 1932 and was later frequently used by H.A. Kramers. In 1962 V. Bargmann showed that these polynomials generate a finite-dimensional subspace of a Hilbert space, which is constructed from analytical functions in two variables. However, using the spinor algebra of P. Kustaanheimo one can restrict the treatment to finite dimensional spinor spaces, and the existence of a Hilbert space need not be presumed. In the previously used spinor methods the spinor components were utilized, while the main point in this description lies on the spinor basis. In chapter I it is shown, how one in this way can construct symmetrical spinor spaces and the corresponding unitary representations. In addition, spinor polynomials with the same transformation properties as the basis spinors are constructed. They are analogous with the spin generating operators that formed the basis for J. Schwinger’s representation of the rotation group in 1952. In chapter II the Clebsch-Gordan series, which describes the complete reduction of two symmetric spinor spaces in irreducible subspaces, will be derived, and in the final chapter irreducible spinor operators are constructed using the spin generation operators.
  • Piilola, Vesa (2018)
    Tässä pro gradu --tutkielmassa perehdytään Calderónin ongelmaan dimension ollessa kolme tai suurempi. Tutkielman päätavoitteena on todistaa Calderónin ongelman yksikäsitteisyys ja stabiilisuus kaikilla positiivisilla ylhäältä ja alhaalta rajoitetuilla johtavuuksilla kun tutkittavan alueen reuna on riittävän sileä. Tutkielman toisessa luvusssa esitellään inversio-ongelmat yleisesti, sekä annetaan Hadamard'n määritelmä huonosti asetetulle ongelmalle. Kolmannessa luvussa esitellään Calderónin ongelma, joka johdetaan sähköstatistiikan perusteista. Luvussa annetaan myös tutkielmassa tarvittavien Sobolev-avaruuksien määritelmät. Lisäksi esitetään ja todistetaan trace-teoreema sekä määritellään Dirichlet-Neumann -kuvaus. Tutkielman neljännessä tutkitaan Calderónin ongelman yksikäsitteisyyttä kun käytettävissä on informaatiota tutkittavan alueen koko reunalta. Tässä luvussa esitellään ekspotentiaalisesti kasvavat ratkaisut, joita hyödynnettän niin Calderónin ongelman yksikäsitteisyyden kuin stabiilisuuden todistuksissa. Tutkielman viidennessä luvussa todistetaan Calderónin ongelman stabiilisuus. Todistusta varten tässä luvussa esitetään lyhyesti myös reunan rekonstruointia käsitteleviä tuloksia. Käänteistä menetelmää Calderónin ongelman ratkaisemiseksi kutsutaan impedanssitomografiaksi. Impedanssitomografialla on lukuisia sovelluskohteita erityisesti lääketieteellisissä kuvantamismenetelmissä. Sitä voidaan soveltaa esimerkiksi rintasyövän aikaisessa diagnostiikassa sekä sydämen ja keuhkojen toimintojen seurannassa. Teollisuudessa impedanssitomografiaa pystytään soveltamaan esimerkiksi maanalaisten vesi- tai öljyvarantojen paikallistamisessa. Tässä tutkielmassa ei tulla käsittelemään mahdollisia sovelluskohteita tämän laajemmin, eikä esitetä numeerista algoritmia ongelman ratkaisemiseksi.