Skip to main content
Login | Suomeksi | På svenska | In English

Browsing by department "Department of Mathematics and Statistics"

Sort by: Order: Results:

  • Ismail, Khadeeja (2012)
    Obesity is associated with life styles involving overconsumption of high-energy food and having low amount of physical activity but the heritability of obesity has also been shown to be high. Results from genome wide association studies (GWAS), however, could explain only 5% of this heritability. This evidence points towards epigenetics acting as a mediator that allows the environment to affect the phenotype without changing the genotype, and epigenetics as a factor that may explain the missing heritability. DNA methylation, which plays an important role in cell differentiation and which has already been associated with diseases such as cancer and diabetes, is the most studied epigenetic factor. DNA methylation is the addition of a methyl group to a cytosine occurring next to a guanine connected by the phosphate backbone, the positions known as CpG sites. This thesis is based on the study of DNA methylation in obesity, using monozygotic twins discordant for obesity where obesity discordance is defined as having a difference in body mass index (BMI) greater than 3m2/kg. MZ twin pairs share the same genome and are matched for age, sex, cohort effects, intrauterine environment and the environment in which they grow up after birth. This helps to cancel out many confounding factors that may affect the results otherwise. The samples for this analysis was obtained from 22 obesity-discordant pairs and 8 obesity-concordant pairs. DNA from whole-blood was bisulfite-converted and hybridized to the Infinium HumanMethylation450 BeadChip. The data was then preprocessed and analyzed for within-pair differences in twins discordant for BMI, and this showed no CpG sites as differentially methylated within pairs. The analysis was then repeated on twins discordant for both BMI and liver-fat and this showed 180 CpG sites as significantly differentially methylated within pairs. However, it was not possible to use these results for pathway analysis using the methods used in gene expression analysis, as too few of these CpG sites mapped to genes on pathways. Gene-set analysis (GSA) was then applied to the methylation data to identify interesting pathways, using predefined groups of CpG sites (probe-sets), each group representing a pathway in the KEGG database. The significant pathways were further analyzed to identify the CpG sites that were most discordant within twin pairs. The results from GSA and the initial paired analysis provided an interesting list of genes and pathways most of which had previously been associated with obesity. However, the analyses can be improved by using a normalization method that is more specific to the Infinium 450K array and also by increasing the sample size. This is listed as future work, together with the analysis of DNA from adipose tissue. The pipeline developed from this analysis will be used in the future analyses, but with modifications wherever necessary.
  • Lybeck, Lasse (2015)
    Speech is the most common form of human communication. An understanding of the speech production mechanism and the perception of speech is therefore an important topic when studying human communication. This understanding is also of great importance both in medical treatment regarding a patient's voice and in human-computer interaction via speech. In this thesis we will present a model for digital speech called the source-filter model. In this model speech is represented with two independent components, the glottal excitation signal and the vocal tract filter. The glottal excitation signal models the airflow created at the vocal folds, which works as the source for the created speech sound. The vocal tract filter describes how the airflow is filtered as it travels through the vocal tract, creating the sound radiated to the surrounding space from the lips, which we recognize as speech. We will also present two different parametrized models for the glottal excitation signal, the Rosenberg-Klatt model (RK-model) and the Liljencrants-Fant model (LF-model). The RK-model is quite simple, being parametrized with only one parameter in addition to the fundamental frequency of the signal, while the LF-model is more complex, taking in four parameters to define the shape of the signal. A transfer function for vocal tract filter is also derived from a simplified model of the vocal tract. Additionally, relevant parts of the theory of signal processing are presented before the presentation of the source-filter model. A relatively new model for glottal inverse filtering (GIF), called the Markov chain Monte Carlo method for glottal inverse filtering (MCMC-GIF) is also presented in this thesis. Glottal inverse filtering is a technique for estimating the glottal excitation signal from a recorded speech sample. It is a widely used technique for example in phoniatrics, when inspecting the condition of a patient's vocal folds. In practice the aim is to separate the measured signal into the glottal excitation signal and the vocal tract filter. The first method for solving glottal inverse filtering was proposed in the 1950s and since then many different methods have been proposed, but so far none of the methods have been able to yield robust estimates for the glottal excitation signal from recordings with a high fundamental frequency, such as women's and children's voices. Recently, using synthetic vowels, MCMC-GIF has been shown to produce better estimates for these kind of signals compared to other state of the art methods. The MCMC-GIF method requires an initial estimate for the vocal tract filter. This is obtained from the measurements with the iterative adaptive inverse filtering (IAIF) method. A synthetic vowel is then created with the RK-model and the vocal tract filter, and compared to the measurements. The MCMC method is then used to adjust the RK excitation parameter and the parameters for the vocal tract filter to minimize the error between the synthetic vowel and the measurements, and ultimately receive a new estimate for the vocal tract filter. The filter can then be used to calculate the glottal excitation signal from the measurements. We will explain this process in detail, and give numerical examples of the results of the MCMC-GIF method compared against the IAIF method.
  • Juopperi, Pasi (2013)
    Tämä pro gradu –tutkielma käsittelee Diofantoksen yhtälöitä. Diofantoksen yhtälöt on nimetty kreikkalaisen matemaatikon Diofantoksen mukaan. Diofantos eli 200 -luvulla ja häntä kutsutaan kreikkalaisen algebran isäksi. Tutkielman tarkoitus on laajentaa ja syventää lukion Lukuteoria ja logiikka -kurssin sisältöjä. Jotta tutkielman asiat voi käsittää, tarvitaan pohjatiedoiksi yllämainitun kurssin tiedot. Tarkoituksena on, että tätä tutkielmaa voi käyttää lisämateriaalina Lukuteoria ja logiikka -kurssilla. Diofanktoksen yhtälöt ovat kokonaislukukertoimisia kahden tai useamman muuttujan polynomiyhtälöitä. Keskeisiä matemaattisia käsitteitä tässä tutkielmassa ovat luonnolliset luvut ja kokonaisluvut, suurin yhteinen tekijä, pienin yhteinen jaettava, Diofantoksen yhtälö ja kongruenssi. Tutkielmassa käydään läpi joitain määritelmiä ja lauseita, joiden avulla Diofantoksen yhtälöitä voidaan ratkaista. Lauseiden teoriaa ja todistuksia selvennetään esimerkkien avulla. Osat todistuksista on hyvin suoraviivaisia ja osat todistuksista voivat olla lukiolaiselle haastavia, mutta esimerkkien kautta kaikki lauseet ovat helposti ymmärrettävissä. Tutkielmassa käydään aluksi läpi joitain määritelmiä, jotka voivat olla jo tuttuja lukio-opinnoista. Määritelmien jälkeen käydään pulmatehtävän avulla läpi Diofantoksen yhtälöihin liittyvää teoriaa ja lauseita, joiden avulla pulmatehtävä lopulta ratkeaa. Lopuksi tutkielmassa tarkastellaan lineaarisia kongruensseja ja niiden yhteyttä Diofantoksen yhtälöihin.
  • Varis, Jarno (2013)
    Tutkielmassa käydään läpi Dirichletin ja Bergmanin avaruuksien ominaisuuksia, ja tutkitaan niiden yhteyttä analyyttiseen Poincarén epäyhtälöön. Tämän lisäksi tutkitaan erilaisia yhdesti yhtenäisiä, rajoitettuja alueita, joissa ei päde analyyttinen Poincarén epäyhtälö. Dirichletin avaruus on niiden rajoitetussa alueessa määriteltyjen analyyttisten funktioiden joukko, joiden derivaattafunktion L2 normi kyseisen alueen yli on äärellinen, ja Bergmanin avaruus on niiden analyyttisten funktioiden joukko, joiden L2 normi vastaavan alueen yli on äärellinen. Tutkielman alussa annetaan karakterisaatio sille, milloin Dirichletin avaruus on Bergmanin avaruuden osajoukko yhdesti yhtenäisissä, rajoitetuissa alueissa. Käyttämällä suljetun kuvaajan teoreemaa, ja funktionaalianalyysin perustuloksia, todistetaan, että Dirichletin avaruuden sisältyminen Bergmanin avaruuteen rajoitetussa alueessa on ekvivalenttia sen kanssa, että kyseisessä alueessa pätee analyyttinen Poincarén epäyhtälö. Tämän tuloksen avulla todistetaan, että rajoitetuissa, tähtimäisissä alueissa pätee analyyttinen Poincarén epäyhtälö. Tästä edetään määrittelemällä paloittain tähtimäinen alue, ja todistamalla, että siinä pätee analyyttinen Poincarén epäyhtälö. Tutkielmassa etsitään myös kompleksitason origokeskisen kiekon analyyttiselle Poincarén epäyhtälölle konkreettinen vakio. Seuraavaksi esitetään kompleksitason rajoitettu, yhdesti yhtenäinen alue, jossa ei päde analyyttinen Poincarén epäyhtälö. Konstruktiossa hyödynnetään kompleksianalyysin ja analyyttisen geometrian perusideoita. Tätä aluetta muokkaamalla löydetään yhdesti yhtenäinen, rajoitettu alue, jossa pätee analyyttinen Poincarén (2, 2) epäyhtälö, mutta jos epäyhtälössä korvataan vasemmanpuoleisen funktion L2-normi oleellisella supremum-normilla, niin epäyhtälö ei enää päde. Tutkielman lopuksi esitetään erityisen yksinkertainen konstruktio spiraalimaisesta, rajoitetusta alueesta, jossa analyyttinen Poincarén epäyhtälö ei päde.
  • Sandoval Zárate, América Andrea (2015)
    Personalised medicine involves the use of individual information to determine the best medical treatment. Such information include the historical health records of the patient. In this thesis, the records used are part of the Finnish Hospital Discharge Register. This information is utilized to identify disease trajectories for individuals for the FINRISK cohorts. The techniques usually implemented to analyse longitudinal register data use Markov chains because of their capability to capture temporal relations. In this thesis a first order Markov chain is used to feed the MCL algorithm that identifies disease trajectories. These trajectories highlight the most prevalent diseases in the Finnish population: circulatory diseases, neoplasms and musculoskeletal disorders. Also, they defined high level interactions between other diseases, some of them showing an agreement with physiological interactions widely studied. For example, circulatory diseases and their thoroughly studied association with symptoms from the metabolic syndrome.
  • Linnoinen, Krista (2013)
    Mathematics teaching has been an active field of research and development at the Department of Mathematics and Systems Analysis at Aalto University. This research has been motivated by a desire to increase the number of students that pass compulsory basic mathematics courses without compromising on standards. The courses aim to provide the engineering students with the mathematical skills needed in their degree programmes so it is essential that a proper foundation is laid. Since 2006, a web-based automated assessment system called STACK has been used on basic mathematics courses for supplementary exercises to aid learning at Aalto University. In this thesis, computer-aided mathematics teaching and, in particular, automated assessment are studied to investigate what effect attempting to solve online exercises has on mathematical proficiency. This is done by using a Granger causality test. For this, the first two of three basic courses are examined. The concepts relating to learning and computer-aided mathematics teaching as well as the developments, including Mumie, made at Aalto University are first presented. Then, the statistical methodology, the theoretical framework and the test procedure for Granger causality are described. The courses and data, which was collected from STACK and used to quantify mathematical proficiency for the Granger causality test, are then reviewed. Finally, the results and implications are presented. The Granger causality tests show that there exists a Granger-causal relationship such that mathematical proficiency affects the desire to attempt to solve exercises. This holds for both of the interpretations used for quantifying mathematical profiency and all variations of the penalty deducted for incorrect attempts. The results imply that the exercises are too difficult for the students and that students tend to give up quickly. Thus, the Granger causality tests produced statistically significant results to back up what teachers have always known: students are discouraged by failure, but encouraged by success. The results provide teachers with valuable information about the students' abilities and enable teachers to alter the teaching accordingly to better support the students' learning.
  • Kainulainen, Henna (2015)
    In this thesis we consider dynamic X-ray computed tomography (CT) for a two dimensional case. In X-ray CT we take X-ray projection images from many different directions and compute a reconstruction from those measurements. Sometimes the change over time in the imaged object needs to be taken into account, for example in cardiac imaging or in angiography. This is why we're looking at the dynamic (something changing in time, while taking the measurements) case. At the beginning of the thesis in chapter 2 we present some necessary theory on the subject. We first go through some general theory about inverse problems and the concentrate on X-ray CT. We talk about ill-posedness of inverse problems, regularization and the measurement proses in CT. Different measurement settings and the discretization of the continuous case are introduced. In chapter 3 we introduce a solution method for the problem: total variation regularization with Barzilai-Borwein minimization method. The Barzilai-Borwein minimization method is an iterative method and well suited for large scale problems. We also explain two different methods, the multi-resolution parameter choice method and the S-curve method, for choosing the regularization parameter needed in the minimization process. The 4th chapter shows the materials used in the thesis. We have both simulated and real measured data. The simulated data was created using a rendering software and for the real data we took X-ray projection images of a Lego robot. The results of the tests done on the data are shown in chapter 5. We did tests on both the simulated and the measured data with two di erent measurement settings. First assuming we have 9 xed source-detector pairs and then that we only one source-detector pair. For the case where we have only one pair, we tested the implemented regularization method we begin by considering the change in the imaged object to be periodic. Then we assume can only use some number of consecutive moments, based on the rate the object is chancing, to collect the data. Here we only get one X-ray projection image at each moment and we combine measurements from multiple di erent moments. In the last chapter, chapter 6, we discuss the results. We noticed that the regularization method is quite slow, at least partly because of the functions used in the implementation. The results obtained were quite good, especially for the simulated data. The simulated data had less details than the measured data, so it makes sense that we got better results with less data. Already with only four angles, we cold some details with the simulated data, and for the measured data with 8 angles and with 16 angles details were also visible in the case of measured data.
  • Lindroos, Heidi Maria (2015)
    Eksponenttifunktiota käsitellään lukiomatematiikassa kaikille reaaliluvuille määriteltynä funktiona, vaikka matemaattisesti se kyetään määrittelemään vain rationaaliluvuille. Irrationaalilukuja vastaavien arvojen olemassaolo perustellaan ainoastaan kuvaajan perusteella. Tutkimustehtävänä on laatia pitkän matematiikan pohjalta opetuskokonaisuus esimerkiksi syventävälle kurssille, jossa käsitellään eksponenttifunktiota rakentamalla se pala palalta kaikille reaaliluvuille. Opetuskokonaisuuden sisällöt perustuvat eksponenttifunktion määritelmälle, jossa se määritellään integraalina määritellyn logaritmifunktion kautta. Kyseinen määritelmä esitetään tutkielmassa yksityiskohtaisesti. Ensimmäinen tutkimuskysymys koskee sitä, mitä määritelmästä tulisi ottaa opetuskokonaisuuden sisällöiksi ja minkälaiset tavoitteet näihin sisältöihin asetetaan. Toinen tutkimuskysymys on, kuinka tavoitteiden mukainen ymmärrys mahdollisesti saavutetaan. Tärkeimpänä työkaluna tutkimuskysymysten vastausten muodostamisessa on matemaattisten käsitteiden oppimista koskeva APOS – teoria. Työssä muodostetaan APOS – teorian mukainen malli eksponenttifunktiokäsitteen muodostuksesta tutkimuskysymysten pohtimisen avuksi. Se käsittelee eksponenttifunktion ymmärtämistä lähtien eksponenttifunktioon sisältyvästä lukujonosta aina eksponenttifunktion ymmärtämiseen siten, että käsittää eksponenttifunktion kaikille reaaliluvuille määriteltynä funktiona. Opetuskokonaisuuden tavoitteena on ymmärtää juoni määritelmästä, mikä edellyttää eksponenttifunktion ymmärtämistä objektina työssä tehdyn APOS -jäsennelmän perusteella. Eksponenttifunktio esiintyy määritelmässä objektina laskutoimituksissa, sekä funktiojoukkona. Opetuskokonaisuus sisältää ohjeistetun harjoituksen, jossa rakennetaan eksponenttifunktio GeoGebralla. Opetuskokonaisuus sisältää myös johdannon, jonka tavoitteena on ymmärtää eksponenttifunktio prosessina. Johdannossa esitellään eksponenttifunktion historiallista kehitystä. Erityisesti tutkitaan eksponentti- ja logaritmifunktion ominaisuutta samaistaa kertolasku ja yhteenlasku.
  • Angervuori, Ilari (2018)
    Purpose of the work is to give an elementary introduction to the Finite Element Method. We give an abstract mathematical formalization to the Finite Element Problem and work out how the method is a suitable method in approximating solutions of Partial Differential Equations. In Chapter 1 we give a concrete example code of Finite Element Method implementation with Matlab of a relatively simple problem. In Chapter 2 we give an abstract formulation to the problem. We introduce the necessary concepts in Functional Analysis. When Finite Element Method is interpreted in a suitable fashion, we can apply results of Functional Analysis in order to examine the properties of the solutions. We introduce the two equivalent formulations of weak formulation to differential equations: Galerkin’s formulation and minimizing problem. In addition we define necessary concepts regarding to certain function spaces. For example we define one crucial complete inner product space, namely Sobolev space. In Chapter 3 we define the building blocks of the element space: meshing and the elements. Elements consists of their geometric shape and of basis functions and functionals on the basis functions. We also introduce the concepts of interpolation and construct basis functions in one, two and three dimensions. In Chapter 4 we introduce implementation techniques in a rather broad sense. We introduce the crucial concepts of stiffness matrix and load vector. We introduce a procedure for implementing Poisson’s equation and Helmholt’z equation. We introduce one way of doing numerical integration by Gaussian quadrature points- and weights. We define the reference element and mathematical concepts relating to it. Reference element and Gaussian quadrature points are widely used techniques when implementing Finite Element Method with computer. In Chapter 5 we give a rigid analysis of convergence properties of Finite Element Method solution. We show that an arbitrary function in Sobolev space can be approximated arbitarily close by a certain polynomial, namely Sobolev polynomial. The accuracy of the approximation depends on the size of the mesh and degree of the polynomial. Polynomial approximation theory in Sobolev spaces have a connection to Finite Element Methods approximation properties through Cèa’s lemma. In Chapter 6 we give some examples of posteriori convergence properties. We compare Finite Element Method solution acquired with computer to the exact solution. Interesting convergence properties are found using linear- and cubic basis functions. Results seem to verify the properties acquired in Chapter 5.
  • Pommelin, Jukka (2014)
    Tämä pro gradu -työ käsittelee toisen asteen elliptisiä osittaisdifferentiaaliyhtälöitä sekä näiden ominaisarvo-ongelmia. Työssä määrittelemme aluksi Sobolev-avaruudet, joissa osittaisdifferentiaaliyhtälöiden ratkaisuja on luonnollista tutkia. Käymme läpi Sobolev-avaruuksien perusominaisuuksia ja todistamme muun muassa, että Sobolev-avaruus W^{k,p} on Banach-avaruus. Luvun 2 lopuksi esitellään kompaktit upotukset ja kompaktit operaattorit sekä näihin liittyviä tunnettuja lauseita ja tuloksia, joista tärkeimmät ovat Rellich-Kondrachovin upotuslause sekä Fredholmin alternatiivi. Luvussa 3 tarkastellaan elliptisiä osittaisdifferentiaaliyhtälöitä yleisesti. Määrittelemme yhtälön heikot ratkaisut ja todistamme heikon ja vahvan maksimiperiaatteen elliptiselle osittaisdifferentiaaliyhtälölle. Tämän jälkeen tutkimme, millaisilla ehdoilla yhtälöllä on olemassa ratkaisuja ja milloin ratkaisu on yksikäsitteinen. Yksikäsitteisyystodistuksissa hyödynnetään Lax-Milgramin teoriaa. Todistettuamme ratkaisujen olemassaoloa käsittelevän Lauseen 3.50 saamme syyn tutkia differentiaalioperaattorin spektriä, ominaisarvoja sekä ominaisfunktioita. Työn tärkeimmät tulokset ovat Luvussa 4, jossa todistetaan sekä symmetrisen että ei-symmetrisen operaattorin ominaisarvoja sekä ominaisfunktioita koskevia tuloksia.
  • Tevanlinna, Aapo Antero (2014)
    Elliptisillä osittaisdifferentiaaliyhtälöillä on tärkeä rooli eri ilmiöiden mallinnuksessa. Klassisesti ajatellen ilmiötä mallintavan differentiaaliyhtälön ratkaisun on vaadittu olevan klassisesti derivoituva. Tästä vaatimuksesta voidaan kuitenkin luopua. Ratkaisun kasite yleistetään Lp-avaruuksien, tarkemmin Sobolev-avaruuksien, teorioiden avulla. Yleistetylle ratkaisulle käytetään nimitystä heikko ratkaisu. Luvussa 1 käsitellään Sobolev-avaruudet, jotka tarjoavat pohjan heikkojen ratkaisujen käsitteelle. Painopiste Sobolev-avaruuksien teoriassa on upotuslauseissa, joilla osoitetaan elliptisen osittaisdifferentiaaliyhtälön määrittävän operaattorin spektri diskreetiksi. Lisäksi upotuslauseita voi käyttää osoittamaan heikon ratkaisun klassinen derivoituvuus tietyissä tapauksissa. Luvussa 2 esitellään miten elliptiset osittaisdifferentiaaliyhtälöiden ratkaisun käsite saadaan yleistettyä. Sen jälkeen osoitetaan Hilbert-avaruuksien teorian avulla, että heikkoja ratkaisuja on olemassa. Lopuksi tutkitaan heikkojen ratkaisujen säännöllisyyttä ja klassista derivoituvuutta riippuen annetun osttaisdifferentiaaliyhtälöprobleeman alkuasetelmista.
  • Ilmarinen, Heini (2016)
    Kryptografia, eli tiedon salaus, on nopeasti kehittyvä ala, joka on läsnä ihmisten päivittäisessä toiminnassa. Perinteisen tiedon salauksen lisäksi kryptografian avulla voidaan toteuttaa monipuolisia toiminnallisuuksia, kuten digitaaliset allekirjoitukset ja avaimenvaihto. Nämä toiminnallisuudet on mahdollista toteuttaa julkisen avaimen kryptografian avulla. Elliptiset käyrät ovat kuutiollisia tasokäyriä, joiden pisteiden välille voidaan määritellä yhteenlaskuoperaatio. Näin ollen elliptisen käyrän pisteet muodostavat Abelin ryhmän, joten niitä on mahdollista käyttää diskreetin logaritmin ongelmaan perustuvissa kryptosysteemeissä, eli julkisen avaimen kryptosysteemeissä. Elliptisten käyrien kryptografisten algoritmien suojaustaso perustuu elliptisen käyrän diskreetin logaritmin ongelmaan, jonka yleiselle muodolle ei olla löydetty subeksponentiaalista ratkaisua. Näin ollen elliptisten käyrien kryptografialla on mahdollista saavuttaa vastaava suojaustaso lyhyemmillä avaimilla, verrattuna muihin julkisen avaimen kryptografian metodeihin. Tutkielman ensimmäisessä osassa perehdytään elliptisten käyrien teoriaan keskittyen tärkeimpiin teemoihin kryptografian kannalta. Luvussa esitetään yhteenlasku elliptisen käyrän pisteille ja johdetaan ryhmälait. Erityisesti käsitellään kryptografiassa käytettäviä äärellisissä kunnissa määriteltyjä elliptisiä käyriä, joita on kaksi yleisintä luokkaa: alkulukukunnissa ja binäärikunnissa määritellyt käyrät. Tutkielman toisen osan keskiössä on kryptografia; julkisen avaimen kryptografia ja erityisesti elliptisen käyrän kryptografia ovat keskiössä. Luvussa tarkastellaan elliptisen käyrän diskreetin logaritmin ongelmaa ja elliptisen käyrän rakenteeseen liittyviä tuloksia. Tutkielman lopussa esitetään algoritmit kullekin julkisen avaimen kryptografian avulla toteutettavalle toiminnallisuudelle käyttäen elliptisten käyrien kryptografian algoritmeja. Avaimenvaihdosta käytetään esimerkkinä elliptisen käyrän Diffie-Hellman avaimenvaihtoa ja digitaalisesta allekirjoituksesta elliptisen käyrän digitaalista allekirjoitusalgoritmia. Salaus ja purku menetelmänä esitellään elliptisen käyrän integroitu salaus -skeema.
  • Ganzhinov, Mikhail (2013)
    Tutkielmassa tarkastellaan kompakteilla ja reunattomilla monistoilla määriteltyjä elliptisiä osittaisdifferentiaalioperaattoreita käyttäen hyväksi pseudodifferentiaalioperaattoreiden teoriaa. Tutkielman ensimmäisissä luvuissa määritellään tarvittavat pseudodifferentiaalioperaattoriluokat sekä esitetään joitakin osia näiden operaattoriluokkien teoriasta. Kahdessa viimeisessä luvussa määritellään elliptisten osittaisdifferentiaalioperaattoreiden kompleksiarvoiset potenssit ja tutkitaan näiden ominaisuuksia ensimmaisissä luvuissa esitetyn teorian valossa. Tärkeimpiä tavoitteita ovat operaattoriluokkien ja itseadjungoidussa tapauksessa myös spektraaliasymptotiikan selvittäminen.
  • Paakkari, Simo (2014)
    Tämä Pro gradu -tutkielma käsittelee ensimmäisen kertaluvun differentiaaliyhtälön ratkaisun olemassaolo- ja yksikäsitteisyyslausetta. Lause tullaan todistamaan topologian avulla. Tutkielman ensimmäinen ja toinen luku käsittelee topologisia peruskäsitteitä. Aluksi määritellään jono ja metrinen avaruus, jonka jälkeen tarkastellaan erilaisia jonoja kuten Cauchyn jonoja ja funktiojonoja. Eritysti ollaan kiinnostuneita suppenevista jonoista, sillä niillä on monia matemaattisesti mielenkiintoisia ominaisuuksia. Toisen luvun loppupuolella tutustutaan tutkielman kannalta tärkeään käsitteeseen täydellisyys. Täydellisyys on siinä mielessä tärkeä käsite, että sen avulla voidaan keskittää tarkastelu kaikkiin suppeneviin Cauchyn jonoihin. Kolmannessa luvussa tutustutaan käsitteeseen kiintopiste ja ennen kaikkea tarkastellaan Banachin kiintopistelausetta. Työssä esitettävä todistus lauseelle on melko suoraviivainen lasku. Lause itsessään on kuitenkin kovin mielenkiintoinen, sillä se takaa tietyn tyyppisille funktioille ratkaisun. Tutkielman kruununa on neljännessä luvussa esitettävä todistus ensimmäisen kertaluvun differentiaaliyhtälön ratkaisun olemassaolo- ja yksikäsitteisyyslauseelle. Todistuksen ideana on muokata differentiaaliyhtälöä siten, että voidaan hyödyntää Banachin kiintopistelausetta. Kun ratkaisun olemassaoloa tarkasteleva lause on saatu todistettua, tutkielmassa esitellään muutamia tapauksia, joissa olemassaololauseen antamaa tietoa on päästy hyödyntämään.
  • Karesvuori, Maija (2017)
    Derivaatta sisältyy kohtalaisen isoon osaan matematiikan opiskelua sekä lukiossa että yliopistossa. Derivaatan osaamista ja derivaattakäsityksiä onkin tutkittu vuosien varrella melko paljon. Tämän tutkimuksen tavoitteena on kuvata aineenopettajaopiskelijoiden derivaattakäsityksiä ja analysoida heidän käsitteellisiä mielikuvia derivaatasta. Tutkimuksessa haluttiin saada vastauksia siihen, mihin David Tallin teorian mukaisesta matematiikan kolmesta maailmasta opiskelijoiden derivaattakäsitykset sijoittuvat, miten heidän käsityksensä liikkuvat maailmojen välillä. Lisäksi selvitettiin mitkä Thurstonin seitsemästä derivaatan luokittelusta ilmenivät opiskelijoiden vastauksissa sekä käyttivätkö opiskelijat formaaleja vai informaaleja argumentoinnin keinoja vastauksissaan. Aineisto kerättiin Helsingin yliopiston kurssilla Johdatus matematiikan opetukseen, johon osallistuivat kaikki vuonna 2016 aloittaneet matematiikan aineenopetta jaopiskelijat. Paperisessa kyselylomakkeessa pyydettiin esitietoja sekä vastaukset neljään derivaattaa koskevaan tehtävään. Aineisto luokiteltiin ja analysoitiin laadullisin menetelmin. Tutkimusmetodina käytettiin teorialähtöistä sisällönanalyysiä. Suurin osa opiskelijoiden vastauksista sijoittuivat matematiikan kolmesta maailmasta visuaalisiin representaatioihin sekä havaintoihin perustuvaan ilmenevään maailmaan ja toisaalta matematiikan teoriaan perustuva formaali maailma jättäytyi vastauksissa hyvin vähäiselle. Myös symbolisiin proseduureihin perustuva symbolinen maailma ilmeni vastauksissa yllättävän vähän. Thurstonin luokittelusta geometrinen tapa ajatella derivaatta oli tutkittavalla ryhmällä yleisin. Tämä ei ollut yllättävää, sillä suurin osa vastauksista sijoittui muutenkin ilmenevään maailmaan. Tutkimuksen tulokset vastasivat pitkälti aikaisempien tutkimuksien tuloksia derivaattakäsityksistä. Monella opiskelijalla esimerkiksi sekoittuivat käsitteet derivaattafunktio ja funktio sekä käsitteet funktion ääriarvo ja ääriarvokohta. Lisäksi osa opiskelijoista ajatteli funktion jatkuvuuden olevan riittävä ehto derivoituvuudelle. Tutkimuksen tuloksissa näkyi myös, että opiskelijat liittävät funktion kasvavuuden vahvasti derivaattaan. Näyttäisi siis, että tutkittavilla opiskelijoilla ei ole kovinkaan eheä derivaattakäsitys. Tämä tutkimuksen perusteella voidaan ehdottaa muutoksia derivaatan opetukseen sekä lukiossa, että yliopistossa. Yliopisto-opettajien olisi hyvä tiedostaa, että hyvilläkin opiskelijoilla voi olla puutteita matematiikan peruskäsitteiden kanssa. Lisäksi opiskelijat eivät välttämättä pysty liikkumaan sujuvasti matematiikan kolmen eri maailman välillä. Siksi lukiossa ja yliopistossa derivaatan käsitteen opettamiseen tulisi sisällyttää erilaisia lähestymistapoja ja representaatioita. Tällöin voidaan edistää opiskelijan eheän derivaattakäsityksen muodostumista.
  • Pulkkinen, Olli (2013)
    Tutkielma koostuu epäeuklidista geometriaa käsittelevästä oppimateriaalista. Vaatimustasoltaan materiaali sopii lukiolaisille ja sen on tarkoitus syventää lukion pakollisen geometrian kurssin tietoja. Oppimateriaalia voisi hyödyntää syventävänä materiaalina pakollisen kurssin yhteydessä, jonka pääpaino on enemmän pinta-alojen, tilavuuksien ja kulmien laskemisessa. Materiaalissa lähdetään liikkeelle matemaattisesta todistamisesta ja geometrian peruskäsitteistä, joiden jälkeen edetään Eukleideen aksioomiin ja hyperboliseen sekä elliptiseen geometriaan. Materiaali sisältää myös eritasoisia tehtäviä ratkaisuineen opiskelua tukemaan. Epäeuklidisilla geometrioilla on ollut suuri merkitys muun muassa Albert Einsteinin yleisen suhteellisuusteorian synnyssä. Lisäksi epäeuklidisilla geometrioilla on myös runsaasti käytännön sovelluksia. Materiaali täydentää opetussuunnitelman yleisiä tavoitteita opettamalla ymmärtämään matemaattisen tiedon loogista, aksioomiin perustuvaa rakennetta. David Tall painottaa matematiikan opiskelussa henkisen ja fyysisen maailman yhteyttä. Epäeuklidisen geometrian opiskelu täydentää opiskelijan ilmenevää fyysistä kolmiulotteista maailmaa ja sen lainalaisuuksia niiltä osin, joilta kaksiulotteinen Euklidinen tasogeometria ei niitä selitä. Koulussa opiskeltava geometria perustuu Eukleides Aleksandrialaisen (n. 300 eKr.) teoksessa Alkeet julkaisemiin viiteen aksioomaan. Viidettä aksioomaa eli paralleeliaksioomaa yritettiin kahden tuhannen vuoden ajan todistaa riippumattomaksi muista aksioomista. Todistusyritykset eivät onnistuneet, mutta ne loivat pohjan epäeuklidisten geometrioiden kehittymiselle. Paralleeliaksiooma tunnetaan nykyään John Playfairin mukaan muodossa 'Suoran ulkopuolella olevan pisteen kautta kulkee tarkalleen yksi tämän suoran suuntainen suora.' Epäeuklidisissa geometrioissa paralleeliaksiooma korvataan sen negaatiolla. Hyperbolisessa geometriassa yhdensuuntaisia suoria voidaan muodostaa enemmän kuin yksi. Elliptisessä geometriassa yhdensuuntaisia suoria ei sen sijaan ole lainkaan. Muutkin Euklidisen geometrian teoriat poikkeavat epäeuklidisissa geometrioissa. Hyperbolisessa geometriassa kolmion kulmien summa on aina alle 180 astetta ja elliptisessä geometriassa aina yli 180 astetta. Kummassakaan geometriassa ei lisäksi ole pelkästään yhdenmuotoisia kolmioita, vaan jokainen yhdenmuotoinen kolmio on myös yhtenevä.
  • Hawryluk, Iwona Ewa (2017)
    The aim of this project is to investigate the hydra effect occurring in a population infected by a disease. First, I will explain what exactly the hydra effect is. Intuitively, higher mortality rate applied to a population will decrease the size of that population, but this is not always the case. Under some circumstances the population size might increase with higher mortality, causing the phenomenon called by Abrams and Matsuda (2005) the 'hydra effect', after the mythological beast, who grew two heads in place of one removed. Abrams (2009) lists in a few mechanisms underlying the hydra effect from which the one I will focus onis a temporal separation of mortality and density dependence. Most work on the hydra effect involved explicit increase of a death rate, for example by harvesting. The idea of this thesis is to investigate the existence of the hydra effect due to mortality increased not explicitly, but through a lethal disease. Such an approach has not been shown in any published work so far. Instead of harvesting, we will have a virulence, the disease-induced mortality. In this project, I fi rst briefly explain some theory underlying my model. In chapter 2 I look at disease-free population and bifurcation analysis when varying the birth rate. In chapter 3 I propose the model and continue with population dynamics analysis. I look at bifurcations of equilibria when varying birth rate, virulence and transmission rate. Then in section 3.4 I investigate whether it is possible to observe the hydra effect if there exists a trade-off between virulence and transmission rate, and derive a condition for transcritical and fold bifurcation to occur. In chapter 4 I focus on evolution of traits. First I study evolution of the pathogen, assuming the same trade-off as earlier. Finally I look at evolution of host's traits, immunity and birth rate, using Adaptive Dynamics framework (Geritz et al. 1998). I compare two possible trade-off functions and show that with a concave trade-off, the host will evolve to getting rid of the disease despite increasing its immunity.
  • Klapuri, Jussa (2013)
    The research question in this thesis concerns how well can epileptic seizures be detected using a single triaxial accelerometer attached to the wrist. This work was done in collaboration with Vivago Oy, who provided the watch that is capable of recording accelerometer data, and HUS, the Hospital District of Helsinki and Uusimaa. HUS provided the real world epilepsy datasets consisting of several days worth of data recorded by several epilepsy patients. The research problem was divided into three subproblems: feature extraction, sensor fusion, and activity classification. For feature extraction, the original accelerometer signal is divided into 5s long windows and discrete cosine transform (DCT) is applied to each axis so that periodic components are detected, also removing the effect of gravity vector and compressing the signal. Next, the DCT features of each axis are combined and principal component analysis (PCA) is applied, further compressing the signal. At this step the PCA theorem is also proven. After DCT and PCA steps, the need to consider for different orientations of the accelerometer is effectively eliminated. The last step is the classification of the signal into a seizure or non-seizure by using a support vector machine (SVM) classifier on the features produced by PCA. The combined model is referred to as the DPS model (DCT-PCA-SVM). The experiments were run on two kinds of datasets: artificial datasets recorded by three test subjects and the epilepsy datasets. The principal reason for recording artificial datasets was that the labeling of the seizures in the epilepsy dataset was practically impossible to match to the accelerometer data, rendering the supervised training phase for any model impossible. The artificial datasets were created so that one test subject produced the training set, recording data of ordinary daily activities and labeling these activities as non seizures, and then imitating a seizure and labeling this as a seizure. The second test subject recorded the daily activities, including potential false positives such as brushing teeth and washing hands, and imitating a seizure several times during this period. This validation set was then used for fine-tuning the DPS model parameters so that all of the seizures were detected along with as few false positives as possible. Third test subject recorded the test set, including 13 imitated seizures, to test the DPS model's ability to generalize on new and previously unseen data. The conclusion is that for the artificial test set, 12 out of 13, or 92%, of seizures were detected along with a reasonably low number of false positives. For the epilepsy dataset the results are inconclusive, due to not being able to utilize any part of it as a training set, but there are reasonable indications that at least some real seizures were detected. In order to verify the results, the DPS model would need to be trained on a larger and better labeled real world epilepsy dataset.
  • Kainulainen, Toni (2014)
    Oletetaan heti aluksi tilanne, jossa sijoittaja tekee sopimuksen, joka velvoittaa hänet maksamaan tietyn rahasumman X(w) sovittuna tulevaisuuden ajankohtana tilan w toteutuessa. Kyseessä voi olla esimerkiksi sijoittajan myymä Eurooppalainen osto-optio. Tällöin myyjän tavoitteena on muodostaa strategian siten, että salkun arvo vastaa osto-option hintaa X maksuhetkellä. Näin sijoittaja pyrkii suojautumaan sopimukseen liittyvien riskien aiheuttamilta mahdollisilta tappiolta. Riskiä voidaan kuitenkin mitata eri tavoin ja suojausmenetelmän valintakin on oma prosessinsa. Tässä tutkielmassa keskitytään keskineliöpoikkeaman minimointiin perustuvaan suojausmenetelmään, joka on dynaaminen suojausmenetelmä ja omaa tämän vuoksi mielenkiintoisia taipumuksia. Näistä tärkein on tappioiden ja voittojen symmetrinen kuvaustapa, joka tarkoittaa että kummastakin rangaistaan. Tuloksien saamiseksi keskineliöpoikkeaman minimointiin perustuvan suojauksen tehokkuudesta ja käytännöllisyydestä, tarkastellaan tutkielmassa sen toimivuutta sijoitussidonnaisille vakuutuksille. Kyseessä on siis henkivakuutus, jossa vakuutussäästön kehitys on sidottu tiettyjen ulkoisten instrumentien, kuten sijoitusrahastojen, kehitykseen. Tällöin vakuutuksenottaja joutuu kantamaan riskin instrumenttien mahdollisista epämieluisista arvonmuutoksista. Tutkielmassa kuitenkin keskitytään tutkimaan tilannetta, jossa koitetaan minimoida riskiä vakuutusyhtiön kannalta. Pyrkimyksenä on siis analysoida yhdeltä kantilta sijoitussidonnaisten vakuutusten suojausta otettaessa huomioon vakuuttajalle muodostuvat riskit sekä vakuutettujen elinajoista, että markkinoiden muutoksista. Ensimmäisessä kappaleessa keskitytään luomaan markkinamalli, jonka puitteissa toimitaan koko tutkielman läpi. Tämän lisäksi alustuksessa käydään läpi muutamia tärkeitä käsitteitä ja määritelmiä, jotka ovat hyödyllisiä tutkielman seuraamisen ja etenemisen kannalta. Toisessa kappaleessa paneudutaan tutkielmassa pääasiassa käsiteltävään suojausmalliin, eli keskineliöpoikkeaman minimointiin perustuvaan suojaukseen. Kappaleessa käydään läpi, miten tämä suojausmetodi vaikuttaa suojaajan pääomaan ja sijoituspäätöksiin neljässä yleisessä skenaariossa, joissa vaihdellaan riskillisten arvopapereiden määrää ja vaateen takaisin maksuhetkeä. Kolmannessa kappaleessa käydään lyhyesti läpi henkivakuutusmatematiikkaa, jota sijoitussidonnaisten vakuutusten tarkastatelu vaatii. Tämän jälkeen neljännessä kappaleessa päästään itseasiaan, eli sijoitussidonnaisten vakuutusten suojaukseen keskineliöpoikkeman minimointiin perustuvalla suojauksella. Tulosten saamiseksi käytetään vastametodina T. Möllerin väitöskirjan ensimmäisen kappaleen esimerkissä käytettyä kokonaiskustannusten varianssin minimointia.
  • Riihimäki, Minna (2013)
    Tutkimuksen ensimmäisen osan tarkoituksena oli selvittää erilaisia eriyttämisen tapoja ja käytänteitä, sekä eriyttämisen vaikuttavuutta. Lähteinä käytettiin aikaisempaa tutkimusta ja kirjallisuutta eriyttämisestä. Eriyttämisellä tarkoitetaan kaikkeen opetukseen kuuluvia keinoja huomioida oppilaiden ja opetusryhmien erilaiset tarpeet. Eriyttämisellä pyritään luomaan kaikille oppilaille tasa-arvoiset mahdollisuudet kehittää itseään ja oppia uutta. Opetusta voidaan eriyttää opetettavan sisällön valinnan, syvyyden ja laajuuden suhteen, opetusjärjestelyjen ja käytetyn ajan suhteen, opetusmenetelmien, työtapojen ja materiaalin suhteen, sekä arvioinnin ja palautteen antamisen muotojen suhteen. Lahjakkaiden eriyttämistä käsiteltiin myös erikseen: kuinka heidän opetustaan voi rikastuttaa luokkahuoneessa ja mitä mahdollisuuksia on lahjakkaiden koulun ulkopuoliseen eriyttämiseen. Tutkimuksen toisessa osassa tarkoituksena oli idea-tasolla antaa esimerkkejä seitsemännen luokan alun, lukuja ja laskutoimituksia jakson, opetuksen eriyttämiseen. Opetusta on hyvä muokata pienin askelin, ideat opittuaan ja omaksuttuaan eriyttämistä on helpompi soveltaa myös jatkossa. Käytäntö näyttää kullekin oppilaalle ja opetusryhmälle parhaiten toimivat eriyttämisen tavat. Eriyttämisen suunnittelussa korostuu jatkuvan arvioinnin merkitys sekä ydinasioiden tunnistaminen. Eriyttäminen on opetuksen väline, ei päätarkoitus. Opetusta eriyttämällä voidaan nostaa oppimismotivaatiota, vaikuttaa positiivisesti työrauhaan sekä suoda kaikille oppilaille oppimisen ilo. Opettajan positiivinen asenne eriyttämiseen vaikuttaa kokemukseen eriyttämisen haasteellisuudesta, myönteisellä asenteella eriyttämistä ei koeta liian haastavaksi. Opetuksen eriyttämisen tarpeen arvioimisen ja suunnittelun avuksi voi hyödyntää eriyttämisen laatukriteeristöä (Rock et al, liitteenä).