Browsing by department "Matematiikan ja tilastotieteen laitos"
Now showing items 21-40 of 514
-
(2016)Tässä Pro-gradu työssäni käsittelen ammatillisen matematiikan opettamisen haasteita Logistiikan opiskelijoille. He tähtäävät yhdistelmäajoneuvon kuljettajan pätevyyteen ja opetus on 3 vuotinen.Toisen asteen opiskelijat ovat se osa nuorisoa, joka ei koe teoriapainotteisen opetuksen sopivan heille tai eivät ole sopeutuneet suomen koulujärjestelmään. Mukana on suuri joukko erityisopiskelijoita, jotka ovat saaneet tämän leiman jo peruskoulussa. Erityisopiskelijoiden osuus opettamissani ryhmissä on ollut yli 40%. Tämä sisältö perustuu omakohtaisiin havaintoihin ja uusien opetusmenetelmien käyttöönottoon. Toiminnallisuus, pelillisyys, sulautuva oppiminen, työssäoppiminen ja ryhmän merkitys oppimisessa ovat tärkeimpiä kiinnostuksen kohteita. Tavoitteenani on löytää tälle kohderyhmälle soveltuva tapa hankkia ammattiin tarvittavat matemaattiset taidot. Oppiminen on yksilöllinen prosessi ja ison ryhmän keskellä oppija voi jäädä jalkoihin ja siksi ryhmän merkitys korostuu. Oppimisympäristön valinta on osoittautunut myös tärkeäksi motivaation ja jaksamisen kannalta.Yhteiskunta muuttuu ja digitalisoituu vauhdilla. Tieto ei ole enää kirjoissa vaan internetissä. Perinteinen luokka voi tänään olla virtuaalinen. Oppiminen on jatkuva yksilöllinen prosessi ja me opettajat olemme siinä hetken ohjaamassa oikean tiedon äärelle. Tehtävänä on kasvattaa tulevaisuuden kansalaisia tämän päivän keinoin. Ammatillisen koulutuksen tavoitteena on antaa opiskelijoille valmiuksia selvitä työelämän haasteista. Matematiikassa tämä tarkoittaa kykyä soveltaa matematiikkaa työelämässä esille tuleviin haasteisiin. Se voi olla kykyä annostella lääkkeitä, muokata keittiön reseptejä, tai kuorman painon laskemista.Eri ammateissa syntyy inhimillisten virheiden vuoksi vaaratilanteita, jotka voivat aikaansaada korvaamattomia seurauksia inhimillisten kärsimysten tai taloudellisten menetysten muodossa.Tutkimustietoa logistiikan alan virheistä kerätään satunnaisesti ja tiedossani ei ole yhtään tutkimusta, joka kohdistuisi juuri logistiikan laskuvirheisiin. Toisaalta sairaanhoidossa on runsaasti tutkimuksia, joilla pyritään ymmärtämään laskutaidon merkitystä riskien eliminoinnissa. Sairaanhoidossa lääkkeet ja niiden annostelu sisältää monia riskejä ja keskeisintä riskien hallinnassa on henkilöstön osaaminen eli laskutaito. Miksi osa nuorista ei menesty koulussa? Mitkä syyt ovat huonon menestyksen takana? Voiko koulujärjestelmä saada aikaan syrjäytymistä ja motivaation laskua? Mitä voisimme tehdä toisin? Yhteiskunta muuttuu ja sen yksi isoimmista ilmiöistä on sosiaalisen median rooli arjessa. Erityisesti nuoret ovat ottaneet sosiaalisen median omakseen. Tietotekniikka antaa monia mahdollisuuksia havainnollistaa opetettavaa asiaa. Opetettava asia voidaan pukea useaan eri pakettiin. Pelit, verkko-tehtävät, simulaattorit, taulukkolaskenta ja oppimisympäristöt ovat esimerkkejä tietotekniikan antamista mahdollisuuksista rikastaa luokassa tapahtuvaa oppimista. Ammatillinen matematiikka antaa hyvän lähtökohdan kohdistaa opetusta ammattiin liittyviin laskentatehtäviin. Haasteena on kuitenkin ammattien runsaus. Matematiikan opettajan on vaikea löytää valmiita eri ammatteihin nivoutuvia tehtäviä. Ratkaisuna tähän on yhteistyö ammatillisten opettajien kanssa. Heiltä saa tietoa eri ammatteihin liittyvistä 'kipukohdista' eli ammattiin liittyvistä riskeistä, joihin ennakoinnilla ja valmistautumisella voidaan vaikuttaa.
-
(2015)Työssä on pyritty kartoittamaan toimintaympäristö ja asetetut vaatimukset: aikuisoppilaitoksen opiskelija-aines, suomalainen näyttötutkintojärjestelmä, vallitsevat pedagogiset oppimiskäsitykset, sähköalan perustutkinnon osaamistaitovaatimukset matematiikan suhteen sekä sähkötekniikan matemaattisten lainalaisuuksien suhteen, aikuisoppilaitoksen opetussuunnitelman tarjoamat puitteet matematiikan opetukselle. Lisäksi on kuvattu, mitä on tehty opiskelijoiden parissa: opiskelijoiden motivointi, matematiikan tuntisuunnitelma, koejärjestelyt, esimerkkejä opetuksellisista tilanteista
-
Analysis of exome variant data for identifying causative SNVs of infantile mitochondrial disorders (2013)This thesis presents a workflow for analysis of exome sequencing data aiming at identification of single nucleotide variants (SNVs) causing recessively inherited mitochondrial disease in children. Several variant selection criteria that are consistent with such group of genetic disorders are applied along the workflow in relation to mode of inheritance, allele frequency and the Finnish ancestry of the patients. These are combined with knowledge of nuclear-encoded mitochondrial proteins and prediction of pathogenic variants, narrowing down the total set of SNVs found in a patient to those most likely to be causative. Patient exomes are analysed individually (n=1 studies). The bioinformatic resources used for implementation include public and in-house databases of mitochondrial nuclear genes, human genetic variation and exome controls, as well as software tools for prediction of pathogenic SNVs and mitochondria-targeting proteins. Exome variant data from a cohort of 49 molecularly undiagnosed children were analysed through the workflow, leading to the identification of mitochondrial disease-causing SNVs located in nuclear genes for 10 of the patients. Therefore, a success rate of 20% was achieved. The workflow has been an important element in the use of exome sequencing as a new research tool at the Wartiovaara group of the Research Program for Molecular Neurology, Faculty of Medicine, University of Helsinki.
-
(2013)The subject of this Master's Thesis is Shannon-McMillan-Breiman theorem, a famous and important result in information theory. Since the theorem is a statement about ergodic stochastic processes and its proof utilises Birkho 's ergodic theorem, a whole chapter has been devoted to ergodic theory. Ergodic theory has developed into a large branch of mathematics, and so the Chapter 1 is only a brief glance at the subject. Nevertheless, we will prove one of the most important theorems in ergodic theory, the before-mentioned Birkho 's ergodic theorem. This theorem is a strong statement about the average behaviour of certain stochastic processes (or dynamical systems), and it can be seen as a generalisation of the Strong Law of Large Numbers. Chapter 2 discusses information theory and the Shannon-McMillan-Breiman theorem. No previous knowledge about information theory is assumed, and therefore the chapter starts with an introduction to information theory. All fundamental de nitions and theorems concerning the entropy of discrete random variables are provided. After this introduction, we study the entropy of stochastic processes, which in turn leads us to the Asymptotic Equipartition Property (the AEP). Informally, a stochastic process has the AEP if almost all sample paths belong to a rather thin set, called the set of typical sequences, which despite having few elements contains most of the probability mass. Then we prove that independent and identically distributed processes have the AEP, and consider its consequences and applications such as data compression. After this, we present the Shannon-McMillan-Theorem which states that stationary, ergodic processes with infite state space have the AEP. The rest of the thesis is then devoted to the rather long, but interesting proof of the theorem.
-
(2017)In this work, an automated procedure for extracting chemical profiles of illicit drugs from chromatographic-mass spectrometric data is presented along with a method for comparison of the profiles using Bayesian inference. The described methods aim to ease the work of a forensic chemist who is tasked with comparing two samples of a drug, such as amphetamine, and delivering an answer to a question of the form 'Are these two samples from the same source?' Additionally, more statistical rigour is introduced to the process of comparison. The chemical profiles consist of the relative amounts of certain impurities present in seized drug samples. In order to obtain such profiles, the amounts of the target compounds must be recovered from chromatographic-mass spectrometric measurements, which amounts to searching the raw signals for peaks corresponding to the targets. The areas of these peaks must then be integrated and normalized by the sum of all target peak areas. The automated impurity profile extraction presented in this thesis works by first filtering the data corresponding to a sample, which includes discarding irrelevant parts of the raw data, estimating and removing signal baseline using the asymmetrical reweighed penalized least squares (arPLS) algorithm, and smoothing the relevant signals using a Savitzky-Golay (SG) filter. The SG filter is also used to estimate signal derivatives. These derivatives are used in the next step to detect signal peaks from which parameters are estimated for an exponential-Gaussian hybrid peak model. The signal is reconstructed using the estimated model peaks and optimal parameters are found by fitting the reconstructed signal to the measurements via non-linear least squares methods. In the last step, impurity profiles are extracted by integrating the areas of the optimized models for target compound peaks. These areas are then normalized by their sum to obtain relative amounts of the substances. In order to separate the peaks from noise, a model for noise dependency on signal level was fitted to replicate measurements of amphetamine quality control samples non-parametrically. This model was used to compute detection limits based on estimated baseline of the signals. Finally, the classical Pearson correlation based comparison method for these impurity profiles was compared to two Bayesian methods, the Bayes factor (BF) and the predictive agreement(PA). The Bayesian methods used a probabilistic model assuming normally distributed values with normal-gamma prior distribution for the mean and precision parameters. These methods were compared using simulation tests and application to 90 samples of seized amphetamine.
-
(2016)In this master's thesis we develop homological algebra using category theory. We develop basic properties of abelian categories, triangulated categories, derived categories, derived functors, and t-structures. At the end of most oft the chapters there is a short section for notes which guide the reader to further results in the literature. Chapter 1 consists of a brief introduction to category theory. We define categories, functors, natural transformations, limits, colimits, pullbacks, pushouts, products, coproducts, equalizers, coequalizers, and adjoints, and prove a few basic results about categories like Yoneda's lemma, criterion for a functor to be an equivalence, and criterion for adjunction. In chapter 2 we develop basics about additive and abelian categories. Examples of abelian categories are the category of abelian groups and the category of R-modules over any commutative ring R. Every abelian category is additive, but an additive category does not need to be abelian. In this chapter we also introduce complexes over an additive category, some basic diagram chasing results, and the homotopy category. Some well known results that are proven in this chapter are the five lemma, the snake lemma and functoriality of the long exact sequence associated to a short exact sequence of complexes over an abelian category. In chapter 3 we introduce a method, called localization of categories, to invert a class of morphisms in a category. We give a universal property which characterizes the localization up to unique isomorphism. If the class of morphisms one wants to localize is a localizing class, then we can use the formalism of roofs and coroofs to represent the morphisms in the localization. Using this formalism we prove that the localization of an additive category with respect to a localizing class is an additive category. In chapter 4 we develop basic properties of triangulated categories, which are also additive categories. We prove basic properties of triangulated categories in this chapter and show that the homotopy category of an abelian category is a triangulated category. Chapter 5 consists of an introduction to derived categories. Derived categories are special kind of triangulated categories which can be constructed from abelian categories. If A is an abelian category and C(A) is the category of complexes over A, then the derived category of A is the category C(A)[S^{-1}], where S is the class consisting of quasi-isomorphisms in C(A). In this chapter we prove that this category is a triangulated category. In chapter 6 we introduce right and left derived functors, which are functors between derived categories obtained from functors between abelian categories. We show existence of right derived functors and state the results needed to show existence of left derived functors. At the end of the chapter we give examples of right and left derived functors. In chapter 7 we introduce t-structures. T-structures allow one to do cohomology on triangulated categories with values in the core of a t-structure. At the end of the chapter we give an example of a t-structure on the bounded derived category of an abelian category.
-
Anna Karenina -periaate : Kohti matematiikan oppimisympäristössä toteutettua virheiden luokittelua (2016)Matemaattisten taitojen mittarina toimivat usein erilaiset tehtävät ja harjoitukset. Anna Karenina -periaatteen mukaisesti oikeat vastaukset eivät ole mielenkiintoisia, ne ovat kaikki samanlaisia. Sen sijaan väärä vastaus avaa mahdollisuuden oppimiselle, jos se osataan tulkita oikein. Opiskelijan käsitteenmuodostus ja taidot paljastuvat virheissä. Sähköiset oppimateriaalit mahdollistavat oppimateriaaleja, joita on ollut mahdoton tuottaa painetussa muodossa. Niiden avulla on mahdollista luoda vuorovaikutteisia aineistoja, jotka reagoivat opiskelijan toimintaan. Myös tehtävien automaattinen tarkastaminen ja henkilökohtainen palaute on mahdollista. Tällainen oppimisympäristö on Stack, josta on pitkät kokemukset Aalto-yliopiston insinöörimatematiikan opetuksessa. Sähköisten oppimisympäristöjen keräämää tietoa voidaan käyttää oppimisen analysointiin. Esimerkiksi virheluokittelua voidaan automatisoida. Tällöin luokittelumallin tulee olla luotettava. Jos mallin mukainen luokittelu ei onnistu ihmiseltä, ei kone suoriudu siitä sen paremmin. Tutkielmassa käsitellään lääkelaskennan opetukseen laaditun 4 Cs -mallin mukaan tehtyä virheluokittelumallia, jossa virheet jaetaan neljään luokkaan: 1) laskuvirhe, 2) yksikkömuunnosvirhe, 3) käsitteellinen virhe ja 4) virhettä ei voida luokitella. Tämän mallin luotettavuutta selvitetään antamalla luokittelijoiden käyttää sitä opiskelijoiden lääkelaskentakokeissa tuottamiin virheisiin. Luokitteluja analysoidaan k-means-klusterointialgoritmilla ja osoittautuu, että ne ovat lähellä toisiaan. Lisäksi luokittelu on stabiili, se toimii johdonmukaisesti vaikka käytössä olisi vain osa datasta. Näin ollen pedagoginen malli 4 Cs on mahdollinen perusta virheluokittelulle, joka voidaan toteuttaa esimerkiksi Stackin avulla. Tosin tässä on paljon haasteita, ja lisää tutkimusta ja kehitystä tarvitaan tämän kaltaisen tekoälyjärjestelmän rakentamiseksi.
-
(2013)Tässä työssä esitellään Apollonioksen ongelma. Alkuperäinen Apollonioksen ongelma oli löytää euklidisessa tasossa ympyrä, joka sivuaa kolmea annettua ympyrää. Yleensä kuitenkin sallitaan ympyröiden degeneroituminen pisteeksi tai suoraksi (ympyrä, jonka säde on nolla tai 'ääretön'). Tämän takia ongelma usein laajennetaan ongelmaksi löytää ympyrä, joka sivuaa kolmea kuviota, joista kukin voi olla piste, suora tai ympyrä. Ongelmassa on näin yhteensä kymmenen eri tapausta. Apollonios Pergalainen (n. 240-190 eaa) julkaisi ja ratkaisi ongelman teoksessaan Sivuamisista lukuunottamatta vaikeinta kolmen ympyrän tapausta. Ratkaisut eivät ole säilyneet, mutta ne on voitu rekonstruoida Pappos Aleksandrialaisen kuvausten perusteella. 1500-1600-luvulla monet matemaatikot yrittivät ratkaista Apollonioksen ongelman vaikeinta tapausta euklidisen geometrian hengessä harpilla ja viivottimella. Tässä työssä perehdytään yleisimpiin menetelmiin, joilla Apollonioksen ongelma saadaan ratkaistua. Erityisesti työssä perehdytään vaikeimpaan, kolmen ympyrän, tapaukseen. Tälle esitetään algebrallinen ratkaisumenetelmä sekä inversioon eli ympyräpeilaukseen ja hyperbeleihin perustuvat ratkaisumenetelmät. Lisäksi esitellään vielä Joseph Diaz Gergonnen keksimä konstruktio.
-
(2015)Often it would be useful to be able to calculate the 'shape' of a set of points even though it is not clear what is formally meant by the word 'shape.' The definitions of shapes presented in this thesis are generalizations of the convex hull of a set of points P which is the smallest convex set that contains all points of P. The k-hull of a point set P is a generalization of the convex hull. It is the complement of the union of all such halfplanes that contain at most k points of P. One application of the k-hull is measuring the data depth of an arbitrary point of the plane with respect to P. Another generalization of the convex hull is the α-hull of a point set P. It is the complement of the union of all α-disks (disks of radius α) that contain no points of the set P in their interior. The value of α controls the detail of the α-hull: 0-hull is P and ∞-hull is the convex hull of P. The α-shape is the 'straight-line' version of the α-hull. The α-hull and the α-shape reconstruct the shape in a more intuitive manner than the convex hull, recognizing that the set might have multiple distinct data clusters. However, α-hull and α-shape are very prone to outlier data that is often present in real-life datasets. A single outlier can drastically change the output shape. The k-order α-hull is a generalization of both the k-hull and the α-hull and as such it is a link between statistical data depth and shape reconstruction. The k-order α-hull of a point set P is the complement of the union of all such α-disks that contain at most k points of P. The k-order α-shape is the α-shape of those points of P that are not included in any of the α-disks. The k-order α-hull and the k-order α-shape can ignore a certain amount of the outlier data which the α-hull and the α-shape cannot. The detail of the shape can be controlled with the parameter α and the amount of outliers ignored with the parameter k. For example, the 0-order α-hull is the α-hull and the k-order ∞-hull is the k-hull. One possible application of the k-order α-shape is a visual representation of spatial data. Multiple k-order α-shapes can be drawn on a map so that shapes that are deeper in the dataset (larger values of k) are drawn with more intensive colors. Example datasets for geospatial visualization in this thesis include motor vehicle collisions in New York and unplanned stops of public transportation vehicles in Helsinki. Another application presented in this thesis is noise reduction from seismic time series using k-order α-disks. For each time tick, two disks of radius α are put above and below the data points. The upper disk is pulled downwards and the lower disk upwards until they contain exactly k data points inside. The algorithm's output for each time tick is the average of the centres of these two α-disks. With a good choice of parameters α and k, the algorithm successfully restores a good estimate of the original noiseless time series.
-
(2018)The past decade has brought about two key changes to the pricing of interest rate products in the European fixed income markets. In 2007, the Euribor-EONIA spread widened, which called into question the use of Euribor rates as a proxy for the risk-free rate. Nine years later, all of the main Euribor rates had fallen below zero. These changes forced market practitioners to reassess their assumptions, which resulted in the development of new models. The Heath-Jarrow-Morton (HJM) and Brace-Gatarek-Musiela (BGM) frameworks, which had gained popularity before the crisis, have served as a foundation for these models. In this thesis, we present two applications of Malliavin calculus to the pricing of interest rate derivatives within a multicurve BGM framework. Although the framework simplifies the pricing of interest rate derivatives, as it takes market rates as primitives, the pricing of exotic interest rate derivatives can pose a number of problems. The complexity of these products can lead to situations that require the use of computational techniques such as Monte Carlo simulation. This, in turn, provides an opening for the application of Malliavin calculus. We end this thesis by presenting a Malliavin-based formula for the price and the delta-sensitivity of a snowball, and discuss the merits of these representations in the context of Monte Carlo simulation. With reference to advances within the field during the last 5 years, we discuss the possible developments within the field that might garner further interest towards Malliavin calculus in the near future.
-
(2015)Efficient nearest neighbor search in high dimensional spaces is a problem that has numerous practical applications in the fields of statistics and machine learning, for example in robotics, computer vision, and natural language processing. In this thesis a multiple random projection trees (MRPT) algorithm for fast approximate nearest neighbor search is proposed. It is based on a variant of space partitioning trees called random projection trees (RP-trees). Both the pseudocode of the algorithm and the actual R and C++ implementations are presented. The space and time complexity of the algorithm are analyzed. The efficiency of the algorithm is demonstrated experimentally by comparing both to the basic linear search, and to another approach of using RP-tree in approximate nearest neighbor search with moderately high-dimensional image and word frequency data sets. Different split criteria are compared experimentally, and the optimal choice of tuning parameters of the algorithm is discussed both in theory, and demonstrated in practice with benchmark data sets.
-
(2013)Vuonna 1837 Peter Dirichlet todisti suuren alkulukuja koskevan tuloksen, jonka mukaan jokainen aritmeettinen jono {an + d}_{n=1}^{∞}, missä (a ,d) = 1, sisältää äärettömn monta alkulukua. Todistuksessa hän määritteli ns. Dirichlet'n karakterit joille löydettiin myöhemmin paljon käyttöä lukuteoriassa. Dirichlet'n karakteri χ (mod q) on jaksollinen (jakson pituutena q), täysin multiplikatiivinen aritmeettinen funktio, jolla on seuraava ominaisuus: χ(n) = 0 kun (n ,q) > 1 ja χ(n) \neq 0 kun (n ,q) = 1. Tässä Pro Gradu-tutkielmassa tutkitaan karakterisumman \mathcal{S}_χ(t) = \sum_{n ≤ t} χ(n) kokoa, missä t on positiivinen reaaliluku ja χ (mod q) on ei-prinsipaali Dirichlet'n karakteri. Triviaalisti jaksollisuudesta seuraa, että |\mathcal{S}_χ(t)| ≤ min(t, q). Ensimmäinen epätriviaali arvio on vuodelta 1918, jolloin George Pólya ja Ivan Vinogradov todistivat, toisistaan riippumatta, että |\mathcal{S}_χ(t)| << \sqrt qlog q uniformisti t:n suhteen. Tämä tunnetaan Pólya--Vinogradovin epäyhtälönä. Olettamalla yleistetyn Riemannin hypoteesin, Hugh Montgomery ja Robert Vaughan todistivat, että |\mathcal{S}_χ(t)| << \sqrt qloglog q vuonna 1977. Vuonna 2005 Andrew Granville ja Kannan Soundararajan osoittivat, että jos χ (mod q) on paritonta rajoitettua kertalukua g oleva primitiivinen karakteri, niin |\mathcal{S}_χ(t)|<<_g \sqrt q(log Q)^{1-\frac{δ_g}{2}+o(1)}, missä δ_g on g:stä riippuva vakio ja Q on q tai (log q)^{12} riippuen siitä oletetaanko yleistetty Riemannin hypoteesi. Todistus perustui teknisiin aputuloksiin, jotka saatiin muotoiltua teeskentelevyys-käsitteen avulla. Granville ja Soundararajan määrittelivät kahden multiplikatiivisen funktion, joiden arvot ovat yksikkökiekossa, välisen etäisyyden kaavalla \mathbb{D}(f, g; x) = \sqrt{\sum_{p≤ x}\frac{1-\Re(f(p) \overline g(p))}{p}}, ja sanoivat, että f on g-teeskentelevä jos \mathbb{D}(f, g; ∞) on äärellinen. Tällä etäisyydellä on paljon hyödyllisiä ominaisuuksia, ja niihin perustuvia menetelmiä kutsutaan teeskentelevyys-menetelmiksi. Johdannon jälkeen luvussa 2 esitetään määritelmiä ja perustuloksia. Luvun 3 tarkoitus on johtaa luvussa 6 tarvittavia aputuloksia. Luvussa 4 määritellään teeskentelevyys, todistetaan etäisyysfunktion \mathbb{D}(f, g; x) ominaisuuksia ja esitetään joitakin sovelluksia. Luvussa 5 johdetaan jälleen teknisiä aputuloksia, jotka seuraavat Montgomery--Vaughanin arviosta. Luvussa 6 tarkastellaan karakterisummia. Aloitamme todistamalla Pólya—Vinogradovin epäyhtälön ja Montgomery-Vaughanin vahvennoksen tälle. Päätuloksena johdamme arvion (1), jossa \frac{1}{2}δ_g on korvattu vakiolla δ_g. Tämän todisti alunperin Leo Goldmakher. Lopuksi käytämme teeskentelevyys-menetelmiä osoittamaan, että Pólya—Vinogradovin epäyhtälöä voi vahventaa jos karaktereista tehdään erilaisia oletuksia.
-
(2015)Plant viruses are a prominent subject of scientific research due to their ability to annually decimate agricultural crop yields. Amongst all of the groups of plant viruses, the potyvirus group is one of the largest and therefore contributes to a large portion of all plant virus-induced economic and agricultural deficiencies. The potyvirus field has become a relevant area of research, ultimately aiming to provide a more comprehensive understanding of the infection process in the hopes of yielding virus-resistant crops, subsequently increasing food production and reducing the plant virus-related economic burden. Potato Virus A (PVA) is a positive-sense, single-stranded RNA virus of the genus Potyvirus. It has a single open reading frame that is translated into a polyprotein and latterly cleaved into 10 mature proteins: P1, HC-Pro, P3, 6K1, CI, 6K2, VPg, NIa-Pro, NIb, and CP. Helper component-proteinase (HC-Pro) is a multifunctional viral protein and the main subject of this study. It is involved in many stages of the virus life cycle; however, its role as a suppressor of RNA silencing, an anti-viral defense mechanism employed by the host organism, makes it a particularly interesting candidate for protein interaction studies. Because viruses are heavily dependent on the host's cellular machinery for survival, understanding the interactions between viral and host proteins is crucial for elucidating the molecular mechanisms underlying infection. The goal of this thesis was to identify potentially novel interacting partners of potyviral HC-Pro. This study utilized a Twin-Strep-tag affinity purification method for isolating HC-Pro associated binding partners from the total cell lysate of PVA-infected plant leaves. The purified macromolecular complexes were then analyzed using mass spectrometry and numerous individual proteins were identified. Gene Ontology (GO) functional annotations were generated for the obtained proteome using several R scripts and their distributions visualized as graphs. This study identified a total of 190 proteins purified from specific HC-Pro-associated complexes. Two identified host proteins were of particular interest due to their potential involvement in the RNA interference pathway and are currently being studied in more detail. Overall, this study successfully yielded numerous potentially novel protein interactions and presents an effective approach to pinpointing host binding partners of particular interest for future studies.
-
(Helsingin yliopistoHelsingfors universitetUniversity of Helsinki, 2008)
-
(2013)Tutkielman tarkoituksena on tutkia aritmeettista derivaattaa. Aritmeettinen derivaatta on määritelty vasta muutamia kymmeniä vuosia sitten, vaikka sen alkuperä saattaa hyvinkin olla kaukana historiassa. Luvun aritmeettinen derivaatta perustuu luvun alkutekijöihin jakoon. Alun perin aritmeettisessa derivaatassa on ollut kyse juuri luonnollisten lukujen ominaisuuksista ja jaosta alkutekijöihin. Tekijöihin jaon avulla voidaan selvittää yksiselitteinen muoto derivaatan lausekkeelle ja laajentaa tätä koskemaan myös negatiivisia kokonaislukuja. Myöhemmin käsitettä on laajennettu koskemaan sekä rationaalilukuja, että joitain irrationaalilukuja. Tutkielman alussa esitellään yleisiä määritelmiä, joita käytetään myöhemmin hyväksi. Tämän jälkeen määritellään aritmeettinen derivaatta luonnollisilla luvuilla käyttäen hyväksi Leibnizin sääntöä tulon derivaatalle. Määrittelyn jälkeen tutkitaan aritmeettisen derivaatan ominaisuuksia. Luvussa tutkitaan myös osamäärän derivaattaa sekä laajennetaan määritelmä negatiivisille kokonaisluvuille. Seuraavassa luvussa on tarkoitus laajentaa aritmeettisen derivaatan määritelmää koskemaa myös rationaalilukuja. Luvussa löydetään yleinen laskukaava aritmeettisen derivaatan laskemiselle sekä pohditaan myös muutamien raja-arvojen olemassaoloa. Määritelmän laajennusta jatketaan logaritmin derivaattaan, potenssien derivaattaan sekä myös joidenkin irrationaalilukujen derivaattaan. Viimeisissä luvuissa keskitytään aritmeettisen derivaatan soveltamiseen. Ensin tutkitaan eräitä differentiaaliyhtälöitä ja keskitytään lähinnä ratkaisuiden lukumäärien selvittämiseen. Lopuksi esitellään kaksi käsitettä: Sophie Germainin alkuluku ja Cunninghamin ketju. Näiden kahden ominaisuuksia valotetaan hieman aritmeettisen derivaatan avulla. Viimeisenä tutkielmassa esitellään vielä muutama avoin tutkimusongelma.
-
(2016)Tavoitteet. Siirtyminen aritmeettisesta ajattelusta algebralliseen ajatteluun on yksi suurimmista muutoskohdista yläkoululaisten matematiikan opinnoissa. Useissa tutkimuksissa todetaankin algebran olevan oppilaille hankala aihe ja algebran oppimiseen liittyviä tutkimuksia on tehty runsaasti. Erityisesti aritmetiikan ja algebran siirtymävaiheesta on julkaistu monia tutkimuksia, joissa pyritään etsimään ratkaisua algebran oppimisen haasteellisuuteen. Tutkimuksissa on ehdotettu vaihtoehtoisia tapoja algebran opetukseen ja algebran opetuksen aikaistamista. Tämän tutkimuksen tarkoituksena on kartoittaa tyypillisimpiä virheitä, joita esiintyy algebrallisessa ajattelussa siirryttäessä aritmetiikasta algebraan. Tavoitteena on löytää virheellisiä ajattelumalleja, jotta niihin voitaisiin kiinnittää huomiota ja näin parantaa algebran opetusta ja oppimista. Menetelmät. Tutkimukseen osallistui neljä ryhmää, joissa oli yhteensä 77 kahdeksannen luokan oppilasta samasta koulusta. Tutkimusaineisto kerättiin marraskuussa 2015 ja tammikuussa 2016. Aineisto koostui oppilaiden kurssikokeiden vastauksista ja sitä analysoitiin sekä kvantitatiivisesti, että kvalitatiivisesti. Tulokset ja johtopäätökset. Aineistossa esiintyi runsaasti ja monipuolisesti virheellisiä ratkaisuja. Samankaltaiset virheet toistuivat oppilaiden koevastauksissa riippumatta heidän opettajansa opetusmenetelmästä, heidän käytössään olleesta oppikirjasta, tehdystä kurssikokeesta tai kokeen tehtävätyypistä. Yleisimmät virheet ilmenivät peruslaskutoimituksissa, laskujärjestyksessä, matemaattisissa merkinnöissä ja muuttujan käsitteessä. Eniten virheitä tehtiin tehtävissä, joissa oli mukana miinusmerkki. Tulosten valossa algebran opintojen alussa esiintyvät ongelmat saattavat johtua ennemmin aritmetiikan hatarasta osaamisesta, kuin algebran vaikeudesta. Tulosten perusteella aritmetiikkaan panostaminen saattaisi helpottaa siirtymää algebraan.
-
(2017)Arviointia on tutkittu jo melko paljon, mutta tutkimuksia, joissa käsitellään oppilaiden mielipiteitä erilaisista arviointitavoista on melko vähän. Uusi opetussuunnitelma korostaa oppilaan aktiivista roolia, joten tutkimuksessa ollaan kiinnostuneita oppilaiden mielipiteestä. Tutkimuksen tavoitteena on selvittää kumman arviointitavan, kokeettoman vai kokeellisen, oppilaat valitsisivat ja mistä syistä. Lähinnä tutkielmassa pyritään selvittämään vaikuttaako oppilaiden valintaan oppilaan oppimisen lähestymistapa, aiempi arvosana, sukupuoli tai se kummassa oppilas kuvittelee saavansa paremman arvosanan tai oppivan paremmin. Tutkimusaineisto kerättiin Lappeenrantalaisessa koulussa sähköisenä kyselytutkimuksena. Tutkimukseen osallistui kaksi eri yhdeksäsluokkaa ja kaiken kaikkiaan 56 oppilasta. Tutkimuksesta saatujen tulosten perusteella suurin osa oppilaista valitsi mieluiten kokeettoman arvioinnin. Lisäksi oppilaan sukupuolella tai aiemmalla koulumenestyksellä ei ole merkittävää vaikutusta oppilaan valintaan. Tärkeimpänä tekijänä oppilaan arviointitavan valintaan on perinteisen kokeen aiheuttama koejännitys, joka näkyy sekä matematiikassa hyvin että heikosti suoriutuvilla oppilailla. Toinen tekijä, joka tämän tutkimuksen perusteella näyttää vaikuttavan oppilaan arviointitavan valintaan on se, kummasta oppilas kuvittelee saavansa paremman arvosanan.
-
(2018)Gaussian processes can be used through Bayesian models so that they are formed through a multidimensional Gaussian prior with a special covariance matrix structure and an arbitrary likelihood model. They often include a latent variable structure between the features and the response variable. Bayesian modeling's drawbacks are usually related to the normalizing constants that normalize the product of a prior probability density function and a likelihood function to a proper probability distribution. These integrals are hard or even impossible to calculate analytically and hence some approximations are required. One popular approximation is the Laplace approximation, which is a Gaussian approximation for the unnormalized log-posterior distribution. Reparametrization of the observation model can lead to changes in properties of the posterior distribution such as shape and convergence. The performance of approximations made for the posterior distribution also change along with the parametrization. The changes are often related to either computational complexity or the predictive performance of the approximation. This thesis presents the Gaussian processes starting from Bayes' formula and moves quickly towards key concepts in Bayesian modeling such as predictive distributions and hierarchy. An approximation of interest for the posterior distribution, the Laplace approximation, is derived. Traditional optimization algorithm for the Laplace approximation is the Newton method, which is replaced by an algorithm called natural gradient adaptation in this thesis. Then the focus is turned from general introduction of Gaussian processes to more specific treatment of them by choosing the Weibull distribution as an observation model. Two different parametrizations for the Weibull model are studied, one which acts as a baseline and can be thought as traditional parametrization for the model, and another one for which the parameters are orthogonal. The predictive performance of the Laplace approximation is then compared within the two parametrizations in two different kind of data sets. Finally the results show decrease in computation time required for the Laplace approximation but no improvement in the predictive performance for orthogonal parametrization.
-
(2018)Modern day technology and computational power have allowed a large scale investigation of the human epigenome. Out of the epigenetic modifications, DNA methylation is of particular interest, since it is relatively easy to measure and very common in the DNA. A methylation site is a region of the DNA sequence that shows variation in the DNA methylation between individuals. Epigenome-wide association studies (EWAS) examine the interaction between these methylation sites one at a time and a specific human trait or an enviromental exposure. EWAS studies are, however, limited by low statistical power and problems related to multiple testing. To counter these issues, polygenic methylation scores have been developed to aggregate information over many methylation sites. These scores have two main applications. First is to formulate new hypotheses to explain human trait variation. Second one is to indicate unobserved environmental factors in cohort based studies or to predict individual developmental or disorder related outcomes. At the beginning of this thesis there is an introduction to epigenetics, to EWAS and polygenic methylation scores and to their genetic counterparts, genome-wide association studies (GWAS) and polygenic risk scores (PRS). Much of the methodology relating to the methylation scores is borrowed from GWAS and PRS. Some statistical properties of the methylation scores are derived in this thesis with focus on how the statistical power of detecting true association between a phenotype and human DNA methylation depends on the make up of the methylation scores. The theoretical derivations are tested through simulations. This thesis also examines how methylation scores may be calculated in practice using cross-validation and correlation reduction procedure called clumping. The methodology is applied to a Finnish cohort from the prediction and prevention of preeclampsia and intrauterine growth restriction study (Predo). The comparison of theoretical and observed statistical power in the simulations show that the theoretical and observed power correspond well to each other. In the practical analyses conducted using the DNA methylation data set and phenotype data of the Predo cohort and a maternal body-mass index (BMI) EWAS data, a clear piece of evidence of association of maternal pre-pregnancy BMI and offspring DNA methylation is found. The results support the growing evidence for the applicability of methylation scores in indicating prenatal environmental factors from the DNA methylation of the offspring.
-
(2013)Ett försäkringsbolag kan teckna en återförsäkring hos ett annat försäkringsbolag, ett så kallat återförsäkringsbolag, för att förhindra att de försäkrade skadorna överstiger försäkringsbolagets kapacitet. På så vis ansvarar både försäkringsbolaget och återförsäkringsbolaget för skadorna. Skyddet kan delas upp antingen proportionellt eller icke-proportionellt. Vid en proportionell återförsäkring ansvarar återförsäkraren för en viss andel av försäkringen, medan vid den icke-proportionella återförsäkringen ansvarar återförsäkraren för skadebelopp som överstiger en förhandsbestämd gräns. Försäkringsbolaget måste betala åt återförsäkraren en återförsäkringspremie. Med ett självbehåll menas det högsta försäkrings- eller skadebelopp som ett försäkringsbolag behåller för egen räkning, dvs. utan återförsäkring. Vi kommer att bestämma den optimala självbehållsnivån för försäkringsgivaren vid en kvot- och en excess of loss återförsäkring. Skadevärderingskoefficienten R(a,M) används för att mäta effektiviteten av återförsäkringen. Skadevärderingskoefficienten är en funktion av gränsen för självbehållen a och M. Vi kommer att maximera skadevärderingskoefficienten över olika gränser.
Now showing items 21-40 of 514